FR2771532A1 - Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par une source d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede - Google Patents

Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par une source d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede Download PDF

Info

Publication number
FR2771532A1
FR2771532A1 FR9712430A FR9712430A FR2771532A1 FR 2771532 A1 FR2771532 A1 FR 2771532A1 FR 9712430 A FR9712430 A FR 9712430A FR 9712430 A FR9712430 A FR 9712430A FR 2771532 A1 FR2771532 A1 FR 2771532A1
Authority
FR
France
Prior art keywords
image
data
images
interactive
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9712430A
Other languages
English (en)
Other versions
FR2771532B1 (fr
Inventor
Georges Thomas
Didier Bergero
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Direction General pour lArmement DGA
Etat Francais
Original Assignee
Direction General pour lArmement DGA
Etat Francais
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Direction General pour lArmement DGA, Etat Francais filed Critical Direction General pour lArmement DGA
Priority to FR9712430A priority Critical patent/FR2771532B1/fr
Priority to PCT/FR1998/002124 priority patent/WO1999018451A1/fr
Priority to EP98947603A priority patent/EP1021734A1/fr
Priority to US09/529,006 priority patent/US6421300B1/en
Priority to CA002305497A priority patent/CA2305497A1/fr
Publication of FR2771532A1 publication Critical patent/FR2771532A1/fr
Application granted granted Critical
Publication of FR2771532B1 publication Critical patent/FR2771532B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6263Cathode-ray tube displays in which different colours are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/20Stereoscopic displays; Three-dimensional displays; Pseudo-three-dimensional displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/062Cathode-ray tube displays or other two dimensional or three-dimensional displays in which different colours are used

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Procédé d'élaboration à partir de données de sonar d'écoute passive d'images opérationnelles contrôlées inter-activement par l'opérateur de façon continue en fonction du besoin opérationnel et compatible avec les besoins d'informations en temps réel, caractérisé en ce qu'il met en oeuvre un procédé de représentation d'un champ de données multidimensionnelles sur un écran de visualisation (14) consistant à utiliser les coordonnées d'écran pour deux dimensions des données et trois composantes de perception de la couleur parmi la luminosité, la teinte et la saturation pour trois autres dimensions desdites données, pour élaborer des images gisement-temps, azimut-temps, ou fréquence-temps (lofar circulant) ou fréquence-gisement avec représentation des fréquences par la teinte et filtrage interactif.

Description

La présente invention concerne la technique des so-
nars d'écoute passive et se rapporte plus particulièrement au traitement et à la présentation interactive de données
multidimensionnelles fournies par des sonars d'écoute pas-
sive en vue d'optimiser l'efficacité du système Homme-
Machine constitué par le sonar et son opérateur.
L'invention peut être également mise à profit dans d'autres domaines o la nécessité d'exploitation interactive de données multidimensionnelles se fait sentir, par exemple
en imagerie radar, en géophysique, en médecine, en télédé-
tection ou autres.
Les données fournies par un sonar passif s'inscri-
vent dans un hypervolume à cinq dimensions:
- temps, distance, azimut, fréquence, rapport si-
gnal/bruit.
Jusqu'à présent, ces données ont été présentées à l'opérateur sous forme d'images de formats classiques figés, ne restituant que trois dimensions de volume par image: - format azimut-temps qui présente le défilement
azimutal des bruiteurs détectés grâce aux traitements spa-
tiaux et fréquentiels exécutés dans la partie "amont" du ré-
cepteur du sonar, avec codage du rapport signal/bruit par la
luminosité. L'opérateur ne dispose pas de l'information spa-
tiale, - format dit "lofagramme, ou lofar", qui présente dans un secteur d'horizon correspondant à une voie formée
par le traitement spatial, l'information fréquence en fonc-
tion du temps avec codage du rapport signal/bruit par la lu-
minosité. L'opérateur ne dispose pas de l'information défi-
lement pour couvrir les 360' d'azimut, ou juxtapose autant d'images "lofar" élémentaires que de voies, ce qui nécessite
une surface d'écran importante matérialisée par l'utilisa-
tion d'au moins deux écrans et entraîne par là même une grande difficulté d'exploitation,
- format dit "instantané azimut-fréquence" qui pré-
sente l'information fréquence en fonction de l'azimut pour l'instant présent ou après une intégration temporelle fixe,
avec codage du rapport signal/bruit par la luminosité.
L'opérateur ne dispose pas de l'information de temps.
La présentation complète de l'information délivrée
par le sonar nécessite donc la juxtaposition d'images élé-
mentaires à trois dimensions (x,y et luminosité) correspon-
dantes des coupes dans le volume des données, ce qui néces-
site de vastes surfaces de présentation. La corrélation entre les différentes images n'est pas interactive, ce qui n'est pas compatible avec le besoin
opérationnel d'exploitation en "temps réel" des données so-
nar. De plus, les images sonar sont composées de signaux de vidéo brute et d'objets (pistes) synthétiques superposés, conduisant à des flux d'informations importants qu'il faut
maîtriser pour ne pas saturer l'opérateur.
L'invention vise à améliorer les performances des
sonars d'écoute passive actuels ou futurs, grâce à une ex-
ploitation interactive des données, compatible avec le temps réel du processus sonar et qui répond aux besoins suivants,
lesquels ne sont pas satisfaits par les procédés connus uti-
lisés jusqu'à ce jour:
- faculté pour l'opérateur d'appréhender globale-
ment, c'est-à-dire avec une vision panoramique et multidi-
mensionnelle, les informations fournies par les traitements
"amont", sans avoir à appeler successivement plusieurs ima-
ges prédéfinies de façon rigide et attendre leur établisse-
ment, - corrélation dynamique, souple et rapide entre les
différentes informations contenues dans les coupes sélec-
tionnées interactivement dans le "volume" des données,
- création de filtres interactifs dans les trois di-
mensions temps, fréquence et azimut, ces filtres permettant
de limiter les informations présentées à l'opérateur, à cel-
les qui l'intéressent, sans interaction avec les traitements
"amont" et apportant un "gain de traitement" visuel qui amé-
liore l'efficacité du système Homme-Machine,
- compatibilité et complémentarité entre la présen-
tation des données dites synthétiques fournies par les algo-
rithmes de traitement de l'information du sonar et celle de
données "brutes", améliorées par l'invention.
L'invention vise en outre à créer des procédés qui ne mobilisent que des moyens classiques actuellement de
traitement et de manipulation d'images qui soient indépen-
dants des traitements spatiaux et spectraux des signaux pro-
venant des capteurs hydrophoniques du sonar et s'adaptent aux paramètres de ces traitements tels que le nombre de voies formées, le nombre de canaux d'analyse spectrale, dans
la mesure o ces traitements "amont" délivrent des informa-
tions "brutes" sous forme de "quadruplets" temps, gisement (ou azimut), fréquence, rapport signal/bruit sans formatage préliminaire.
La surface d'écran qui découle de l'emploi de l'in-
vention est réduite par rapport à celle nécessitée par les
procédés classiques.
L'invention vise en outre à procurer l'avantage de découpler complètement les systèmes informatiques dédiés aux
traitements "amont" du récepteur sonar, du système d'infor-
mation graphique qui exécute les traitements d'exploitation et supporte les interfaces Homme-Machine, et de diminuer les
débits informatiques entre ces systèmes: les liaisons s'ef-
fectuent par paquets de "quadruplets" bruts et non par ima-
ges formatées avec les redondances que cela implique.
L'invention a donc pour objet un procédé de repré-
sentation d'un champs de données multidimensionnelles sur un écran de visualisation, caractérisé en ce qu'il consiste à utiliser les coordonnées d'écran pour deux dimensions des données et au moins deux composantes de perception de la couleur parmi la luminosité, la teinte et la saturation pour
au moins deux autres dimensions desdites données.
Suivant d'autres caractéristiques de l'invention: - le procédé consiste à organiser les champs de
données multidimensionnelles dans une mémoire volumique dé-
composée en plans d'images virtuelles;
- le procédé consiste dans chaque plan d'image vir-
tuelle, à coder des paramètres spécifiques d'échantillons de données par des paramètres graphiques, deux paramètres étant rapportés aux coordonnées de mémoire et un paramètre étant codé par la dynamique du pixel en niveau de gris;
- le procédé consiste en outre à effectuer des opé-
rations de filtrage de paramètres spécifiques;
- les opérations de filtrage sont réalisées par mo-
dification interactives de tables de transfert agissant sur les niveaux de gris mémorisées dans les images virtuelles; - les opérations de filtrage sont réalisées par des
opérations logiques et/ou mathématiques entre images vir-
tuelles. L'invention a également pour objet un procédé du type défini ci-dessus appliqué à l'élaboration d'une image
réelle présentée sur un écran d'affichage à partir de résul-
tats mémorisés en images virtuelles, caractérisé en ce qu'il consiste à assurer une modification interactive d'une table de transfert finale qui calcule les valeurs des composantes rouge, verte, bleue des pixels en fonction des valeurs de
luminosité, teinte et saturation souhaitées.
L'invention a également pour objet un procédé d'éla-
boration à partir de données de sonar d'écoute passive d'images opérationnelles contrôlées interactivement par
l'opérateur de façon continue en fonction du besoin opéra-
tionnel et compatibles avec les besoins d'informations en temps réel, caractérisé en ce qu'il met en oeuvre le procédé de représentation du type défini plus haut pour élaborer une image gisement-temps ou azimut- temps avec représentation des
fréquences par la teinte et filtrage interactif.
Suivant d'autres caractéristiques: - le filtrage interactif comporte l'élaboration d'un filtre de nuance par imagerie;
- le filtrage interactif comporte en outre l'élabo-
ration d'une image lofar circulant réglable interactivement en direction et en étendue du gisement;
- le filtrage interactif comporte en outre l'élabo-
ration d'une image de spectre sur zone d'intérêt en gise-
ment-temps réglable interactivement;
- le filtrage interactif comporte en outre l'élabo-
ration d'une image au format fréquence-gisement avec histo-
rique réglable interactivement.
L'invention sera mieux comprise à la lecture de la
description qui va suivre faite en référence aux dessins an-
nexés, donnés uniquement à titre d'exemple et sur lesquels: - la figure 1 est un schéma synoptique du système d'exploitation interactive de données sonar suivant l'inven- tion; - la figure 2 est un schéma synoptique du processeur graphique qui fait partie du système de la figure 1;
- la figure 3 est un schéma plus détaillé du proces-
seur graphique de la figure 2; - la figure 4 est une représentation de filtres spectraux ou "filtres de menace" élaborée par le procédé de l'invention; - la figure 5 est une représentation d'un filtre en gisement ou "lofar circulant"; - la figure 6 est une représentation d'une image au format fréquence-gisement avec historique; et
- la figure 7 est une représentation amplitude-
fréquence sur "zone d'intérêt en gisement-temps".
Les moyens généraux de l'invention vont tout d'abord
être décrits.
Ces moyens se décomposent en moyens standards et en
moyens spécifiques.
Les moyens standards comportent une station de tra-
vail classique sous UNIX ou WINDOWS NT et des logiciels de
base pour la génération d'images.
Les moyens spécifiques comportent des cartes de traitement d'images avec mémoire et processeurs de calcul sur pixels ainsi que des logiciels applicatifs originaux de
traitement et de manipulation des données et des images.
On va maintenant décrire de façon détaillée un mode
de réalisation de l'invention.
Le système de traitement et de présentation interac-
tifs de données multidimensionnelles représenté à la figure
1 comporte une station de travail équipée de cartes de trai-
tement d'images.
Selon le présent exemple la station de travail est une station DIGITAL sous XWINDOWS/MOTIF. Elle possède un processeur hôte 2 avec une mémoire RAM 3 de 32 Moctets, un écran de contrôle 4. Le processeur hôte 2 est connecté par
une ligne 5 une chaîne sonar (non représentée) dont il re-
çoit des données de triplets bruts tels que définis plus haut. Au processeur hôte 2 sont en outre associés un cla- vier 6, un disque dur fixe 7 de 5 "1/4 d'une capacité de 1
Gigaoctets, destiné à stocker le logiciel du système y com-
pris le logiciel d'exploitation et le logiciel spécifique,
et pour conserver de manière durable des données sonar tel-
les que les triplets bruts ou des images de veille, telles que lofars, IFA et veille (0(t)), un disque dur amovible 8 de 5" 1/4 d'une capacité de 500 Megaoctets pour stocker des données sonar telles que les triplets bruts ou des images de veille telles que lofars, IFA et veille (0(t)) de manière
temporaire pour pouvoir les exploiter à terre ou sur un au-
tre site pouvant accepter le disque dur amovible.
Le système comporte en outre un lecteur de cartouche magnétique 9 de 4 pouces d'une capacité de 256 Megaoctets pour assurer la sécurité informatique du système en palliant la défaillance d'un des disques durs 7 et 8 et pour stocker
ou relire des données avec un support le plus universel pos-
sible. Le processeur hôte 2 est relié par un bus interne 10 à un processeur d'images 12 auquel sont associés un écran couleur 14 à haute résolution, une mémoire d'images 16 de 32 Megaoctets et un dispositif de commande constitué par une
boule roulante 18.
Le processeur d'images ou processeur graphique dont le schéma est représenté à la figure 2 est dans le présent
exemple un processeur GOULD IP9527.
A ce processeur est associée la mémoire d'images 16 de grande taille et à hautes performances permettant à
l'opérateur un accès instantané à de nombreuses images la-
tentes. Le processeur 20 proprement dit est un processeur
rapide de traitement de pixels permettant l'exécution d'opé-
rations logiques et arithmétiques entre images à grande vi-
tesse et l'exécution d'algorithmes classiques de traitement
d'images tels que convolutions, histogrammes, etc...
Sont en outre prévus un poste de travail sur images incluant le moniteur couleur 14 (figure 1), un contrôleur de sortie vidéo 22 capable de gérer le moniteur couleur 14 à partir de trois signaux composites rouge, vert et bleu, un
générateur de curseur 24 auquel sont associés la boule rou-
lante 18 (figure 1) et un générateur de caractères pour pro-
duire des annotations superposées à une image ou de part et d'autre d'une image (non représenté), un logiciel dans le processeur hôte 2, ce logiciel étant modulaire sur plusieurs
niveaux allant de la programmation de registres à l'exploi-
tation interactive du système sous le système d'exploitation
de l'hôte.
Un contrôleur d'interface 26 est relié par le bus 10
au processeur hôte 2.
On va maintenant se référer à la figure 3 pour dé-
crire de façon plus détaillée le processeur d'image dont le
schéma synoptique est donné à la figure 2.
La mémoire d'images 16 du processeur d'images est
réalisée comme suit.
Les images affichées et traitées par le système sont contenues dans huit canaux mémoires de 4 Moctets à accès aléatoire direct de 2K* 2K* 8 bits o l'octet représente le niveau de gris du pixel allant de 0 (noir) à 255 (blanc) et o chaque pixel est accessible par ses coordonnées X et Y,
dans un repère orthogonal de longueur d'axe 2048. Chaque ca-
nal mémoire tel que le canal 25 représenté à la figure 3
peut servir à stocker des images ou des informations graphi-
ques en recouvrement "overlay" sur 256-niveaux de gris et
4096 couleurs différentes.
Sur les images stockées on peut effectuer les fonc-
tions Zoom, Scroll, Transfert, Masquage, Adressage dont cer-
tains sont représentées à la figure 3.
La fonction Zoom 26 associée à chaque canal mémoire se fait par simple duplication de pixels de (1:2) à (1:16) en X. La fonction Scroll 27 permet le défilement de l'image sur le canal mémoire 25 correspondant avec ou sans
rebouclage sur le canal ou "wrap around".
La fonction transfert 28 est constituée par des ta-
bles à 256 entrées et 256 sorties, une entrée pour une sor- tie, o un pixel peut changer de niveau de gris avec 256 possibilités soit 28. Les tables sont fournies par quatre
sections de 256 octets chacune.
La fonction masquage 29 concerne la profondeur du
pixel suivant les ordres de lecture/écriture reçus du pro-
cesseur hôte 2 (figure 1).
Les huit canaux mémoires de 2048*,2048*8 bits peu-
vent être configurés suivant n'importe quelle combinaison logique et découplables par le logiciel en zones d'intérêt
en forme de parallélogramme (pour la réalisation d'histo-
grammes notamment).
Les images sont accessibles grâce à un accès multi-
bus, par le contrôleur vidéo 22 (figure 2), par le proces-
seur de traitement de pixels 20 et par le contrôleur du sys-
tème 26 pour l'écriture et la lecture des pixels par le pro-
cesseur hôte 2.
Le processeur de traitement de pixels 20 est un pro-
cesseur rapide "pipeline" qui traite en entrée une combinai-
son de canaux mémoire 25 avec la sortie du contrôleur vidéo 22 pour réaliser des opérations telles que multiplications,
additions, soustractions et comparaisons.
La sortie du processeur 20 est envoyée sur des ca-
naux mémoire 25 choisis.
Le processeur 20 est capable de réaliser des opéra-
tions sur 16 bits pour faciliter les algorithmes standards de traitement d'images, tels que convolutions, corrélations, détections de contours et un contrôle flexible permet de réaliser des opérations séparées sur différentes régions
d'une image.
La sortie du contrôleur vidéo peut être envoyée sur le processeur; ainsi l'image de sortie finale peut contenir
l'information brute, les recouvrements, les caractères al-
phanumériques et les curseurs et ainsi être envoyée dans un
canal mémoire.
La puissance de calcul de ce processeur est voisine
de 40 Mopérations par seconde.
Les opérations de base sont les suivantes: - somme de 4 produits sur 8 bits (ax+by+cz+dw) o x,y,z,w,a,b,c,d sont des images, des constantes ou des fonc- tions en une passe, - multiplication sur 16 bits sans signe en une passe, - multiplication sur 16 bits avec complément à 2 en 3 passes, addition et soustraction sur 8,16 et 32 bits, - maximum MAX et minimum MIN de deux images pixel par pixel sur des régions de 8 ou 16 bits de profondeur, - sélection de régions d'intérêt o réaliser les opérations (régions en forme de parallélogramme), - décalage en sortie par rotation de bits "shift", sur un nombre de 32 bits, sur un parmi deux nombres de 16
bits et sur un parmi 4 nombres de 8 bits.
Les opérations plus élaborées sont les suivantes: - filtrage linéaire en deux dimensions en une passe, - filtrage non linéaire en deux dimensions en une passe, - réalisation de statistiques locales (moyenne en une passe et variance en une passe de plus), - pondération d'images pour la réalisation de fondus
enchaînés en une passe.
Le générateur d'histogramme du processeur 20 est un compteur des occurrences des niveaux de gris des pixels
d'une région d'image.
Il crée une table qui contient- les fréquences de distribution des niveaux de gris sur l'image; la fréquence est relative au nombre de pixels traités (1048576 dans le
cas 1K*lK).
Les performances sont les suivantes: - résultats sur 24 bits en 4 passes, - niveaux de gris en entrée sur 8 ou 12 bits, - contrôle de la région d'intérêt (région en forme
de parallélogramme).
On notera qu'une passe correspond au traitement d'une image vidéo standard de 512*512 pixels en 1/25 s
c'est-à-dire au traitement de 6,25 Mpixels/s.
Le contrôleur vidéo 22 sélectionne, modifie, puise les données affichables et réalise la conversion numéri- que/analogique des données en signal vidéo pour le moniteur 14. Le système comporte en outre: - une fonction de transfert 30 pour la coloration
LUT,
- un mélangeur 32 pour la prise en compte des infor-
mations en recouvrement telles que celles d'un curseur, des caractères alphanumériques et informations graphiques venant se superposer à l'image,
- un générateur de caractères. Les fontes de carac-
tères sont libres, dans la limite des soucis ergonomiques mais doivent être programmables par le processeur hôte 2
(figure 1).
Le système comporte deux curseurs programmables 34, à choisir parmi un ensemble de curseurs standards et parmi
un ensemble de curseurs imaginés entièrement par l'utilisa-
teur.
Le générateur de curseur revoit un contrôle exté-
rieur venant d'un périphérique tel qu'une boule ou un levier de manoeuvre "joystick" pour modifier la position (x,y) du curseur et pour pouvoir émettre des interruptions de gestion de curseurs (par exemple: le blocage d'un des deux curseurs
lors de la création d'un parallélogramme).
- un multi-fenêtrage à partir de plusieurs canaux
mémoires. Ce multi-fenêtrage est rigide,- suivant une combi-
naison de quadrants de l'espace 1024*1024. Huit canaux mé-
moires peuvent apparaître à l'écran sur huit fenêtres de
formes variables et contrôlées par logiciel.
- un gestionnaire de périphériques. Le système com-
prend un périphérique externe pour la commande interactive,
sous la forme d'une boule, pour permettre par exemple le dé-
placement des curseurs dans la direction du déplacement de
la boule d'une valeur proportionnelle au mouvement de celle-
ci. il La boule contient également six boutons poussoirs, dont la combinaison d'états logiques binaires est scrutable et susceptibles d'envoyer des interruptions au générateur de
curseur, un convertisseur analogique-numérique et les cir-
cuits classiques du moniteur. Le logiciel utilisé utilise une bibliothèque en C,
PASCAL ou FORTRAN.
On procède à une multiprogrammation à partir du pro-
cesseur hôte 2 (figure 1).
Le système peut accueillir quatre processus lancés
* en parallèle qui se partagent les ressources internes indé-
pendantes suivantes: - processeur de pixels, - contrôleur vidéo, générateur de texte, - générateur de curseur, -périphérique (boule)
- chaque canal mémoire.
Chaque table de transfert de niveau de gris de cha-
que canal mémoire ( un processus peut générer le canal 1 et
un autre peut générer l'ITT du canal 1).
En fait le système physique peut se découper, à un instant donné en quatre systèmes logiques constitués d'une
combinaison des ressources précédentes.
L'interface physique, à un niveau logiciel bas,est
compatible avec le bus interne de la station de travail.
A un niveau haut, proche de l'application, les ins-
tructions envoyées au système peuvent se répartir en trois catégories: les instructions d'écriture o le processeur hôte suit les écritures dans des registres du système, - les instructions de lecture o le processeur hôte suit la lecture dans des registres du système, - les instructions automatiques o le processeur
hôte laisse le système travailler seul.
Le système qui vient d'être décrit en référence aux
figures 1 à 3 permet de réaliser les fonctions suivantes.
Images au format "gisement ou azimut-temps" avec informa-
tions spectrales globales.
Une image au format "gisement ou azimut-temps" avec
informations spectrales globales fournit à l'opérateur l'in-
formation brute, incorporant une information spectrale de premier niveau qui permet par manipulation interactive: - d'augmenter le contraste dans certaines bandes de
fréquence afin de mieux faire ressortir les bruiteurs fai-
bles éventuellement non détectés par la poursuite "bruiteurs",
- de déceler des changements classifiants de situa-
tion acoustique des bruiteurs poursuivis ou non,
- d'orienter l'opérateur vers les bandes de fréquen-
ces qui paraissent contenir de l'information pertinente.
Les images peuvent être décrites comme suit:
- abscisses: gisement (ou azimut); résolution pra-
tique de l'ordre de 0,2 degré (1024 pixels pour 180 degrés), - ordonnées: temps,
- luminosité: proportionnelle au rapport si-
gnal/bruit exprimée sur huit bits, - teintes: quatre teintes correspondant chacune au quart de l'étendue spectrale des données: une teinte par 4 d'octave ou une teinte par octave, - manipulations interactives: variation sélective
et continue de la luminosité (pouvant aller jusqu'à l'ex-
tinction complète) au moyen d'une souris (ou de la boule roulante "track ball") pour chacune des combinaisons des
quatre teintes; cette manipulation est guidée par une ré-
glette colorée portant les limites de fréquence en Hz.
Représentation amplitude-fréquence sur -zones d'intérêt" en
gisement ou azimut-temps.
Le format de représentations amplitude-fréquence sur
"zones d'intérêt" en gisement (ou azimut)- temps va être dé-
crit ci-après.
Ce format est un "graphe annexe" à juxtaposer à
l'image décrite au paragraphe précédent.
Il permet à l'opérateur d'obtenir instantanément une vue globale aux dimensions amplitude-fréquence du contenu
spectral de la zone gisement-temps qui l'intéresse.
Ce format est obtenu par détermination interactive.
L'opérateur choisit au moyen de la boule une "zone d'inté-
rêt" en forme de parallélépipède coïncidant grossièrement
avec la zone à explorer spectralement sur l'image gisement-
temps. Le système calcule et visualise en "graphe annexe" l'histogramme: en abscisses: fréquences,
- en ordonnées:nombre d'occurrences de chaque fré-
quence, dans la zone d'intérêt,
- luminosité: constante à régler une fois pour tou-
tes,
- teinte: verte.
Filtres en gisement ou "lofar circulant".
Le format filtre en gisement ou "lofar circulant"
est une version dynamique d'un format classique fréquence-
temps juxtaposable de façon interactive et instantanée, à la
différence des lofars des voies réservées à la classifica-
tion, à l'image de veille panoramique du paragraphe relatif
aux images du format "gisement ou azimut-temps.
Il permet à l'opérateur d'obtenir instantanément une
vue globale aux dimensions fréquence-temps du contenu spec-
tral de la zone de gisement qui l'intéresse.
La largeur de la zone peut être réduite jusqu'à la résolution de l'image gisement-temps, permettant ainsi à l'opérateur de discriminer les signatures de deux bruiteurs voisins. La détermination interactive est réalisée comme suit: - l'opérateur fait varier au moyen de la boule les limites de la plage de gisement intéressante, - le mouvement droite-gauche détermine la position de la zone, - le mouvement avant-arrière détermine la largeur de la zone, - ces limites sont matérialisées par deux traits fins verticaux couvrant toute la hauteur de l'image décrite
dans la mise au format.
Le système visualise de façon dynamique, c'est-à-
dire de façon continue et instantanée le "lofar" correspon-
dant à la zone ainsi déterminée: - abscisses: fréquences sur l'étendue des données d'entrée, - ordonnées: temps, - luminosité proportionnelle au rapport S/B,
- teinte: monochrome, de préférence verte.
Le "lofar circulant" est juxtaposé à l'image gise-
ment (azimut)-temps, avec des axes "temps" parallèles de fa-
çon à permettre la corrélation temporelle entre les deux images.
Filtres spectraux ou "filtres de menace".
Des filtres spectraux ou "filtres de menace" sont obtenus en appliquant à l'image gisement-temps un filtrage
spectral, dans un gabarit fixé interactivement par l'opéra-
teur; celui-ci compose son ou ses filtres de façon continue ou discrète, dans les limites des combinaisons permises par
la quantification des fréquences.
Ce filtrage peut révéler très rapidement la présence
éventuelle d'un bruiteur dont le rayonnement acoustique ré-
pond au gabarit du filtre, des changements de situation
acoustique de bruiteurs déjà détectés, ou permettre la dé-
tection de bruiteurs non décelés par d'autres procédés.
La construction interactive continue du filtre est assurée au moyen de la boule: - un mouvement droite-gauche détermine la position du gabarit, - un mouvement avant-arrière détermine la largeur du
gabarit.
La construction interactive discrète du filtre est réalisée au moyen du clavier ou de tout autre moyen d'en-
trée.
L'opérateur entre les valeurs de fréquences discrè-
tes accompagnées d'un df approprié, qui sont sensées carac-
tériser la menace.
Le système recompose instantanément l'image gise-
ment-temps en ne visualisant que les quadruplets dont la
fréquence est à l'intérieur du gabarit.
En variante, ces quadruplets sont visualisés avec une teinte contrastant avec celle du reste de l'image qui
dans ce cas doit être monochrome (verte).
Image au format fréquence-gisement ou azimut avec historique (FGH ou FAH). Une image au format fréquence-gisement (ou azimut) avec historique (FGH ou FAH) constitue une évolution de
l'instantané fréquence-azimut "IFA". Elle fournit à l'opéra-
teur une vision spectrale globale, sur tout l'horizon et sur une étendue temporelle réglable interactivement en date et
en durée. Cette étendue peut ou non contenir la dernière ré-
currence, c'est-à-dire l'instantané fréquence-azimut. Cette image donne en abscisses le gisement (l'azimut), avec les mêmes échelles que celles de l'image au format gisement ou azimut-temps. Elle donne:
- en abscisses le gisement ou l'azimut, avec les mê-
mes échelles que celles de l'image au format "gisement ou
azimut-temps" décrite plus haut.
- en ordonnées les fréquences sur toute la bande
traitée.
Des manipulations interactives permettent à l'opéra-
teur de régler l'étendue de la plage temporelle visualisée au moyen de la boule de la façon suivante: - un mouvement droite-gauche donne la date de la plage, - un mouvement avant-arrière donne la durée de la plage.
La dernière récurrence est visualisée avec un gra-
phisme particulier.
Fonctionnalités graphiques communes aux différentes images.
Les fonctionnalités graphiques interactives qui sont
présentes de façon standard dans les matériels de visualisa-
tion modernes telles que "Panoramique" et "Zoom" sont em-
ployées chaque fois qu'elles sont utiles à l'exploitation des images: centrage des images sur l'azimut ou le gisement sur lequel l'opérateur porte son intérêt; ceci évite aussi de construire des images avec échelles débordantes et fait donc gagner de la place, - positionnement de l'image visualisée à l'intérieur d'une zone d'image mémorisée ("image virtuelle") de grandes dimensions; cette fonctionnalité est utile dans les cas opérationnels suivants: rappel en visualisation d'une zone temporelle anté- rieure, à condition que l'on ait sauvegardé en mémoire d'image les quadruplets bruts correspondants,
balayage rapide d'une grande quantité d'informa-
tions, - focalisation (avec ou non agrandissement) de l'image sur un secteur choisi interactivement: obtention
d'images "sectorielles".
Le procédé implémenté sur le système informatique décrit en référence aux figures 1 à 3 repose sur le codage en niveau de gris de paramètres autres que les amplitudes de signaux. On retrouve ainsi des images sonar, invisibles pour un opérateur, o la fréquence, le gisement, le temps sont
codés en niveaux de gris.
L'utilisation de la couleur est réalisée comme suit.
Sur un écran une image est caractérisée par des pa-
ramètres graphiques: coordonnée X, coordonnée Y et
"COULEUR".
Le problème consiste à associer d'une façon cohé-
rente les paramètres physiques caractéristiques des données
à représenter, aux paramètres graphiques.
La couleur se décompose en trois grandeurs presque indépendantes: - la luminosité, - la teinte,
- la saturation.
La saturation étant difficile d'emploi, on la fixe à
1 et on utilise les deux premiers paramètres.
A titre d'illustration on prend pour exemple la
construction d'une image de veille.
Une image de veille classique consiste en la repré-
sentation en fonction du temps T et de l'azimut 0 des rap-
ports S/B notés AMP, associés à une gamme de fréquences F.
2771532Z
On peut poser l'association suivante:
PARAMETRES PHYSIQUES PARAMETRES GRAPHIQUES
T y 8.x
AMP LUMINOSITE
F TEINTE
Pour combiner d'une façon cohérente LUMINOSITE et TEINTE, on raisonne à partir de deux images intermédiaires
obtenues à partir de mesures physiques. L'image A qui donne AMP en fonction de T et de 0, AMP étant la plus grande va-
leur trouvée pour un T et un 0 donnés.
A x I t (-(Xa,Ya,Za) L'image F qui donne F en fonction de T et de 0, F étant la valeur associée à la plus grande valeur de AMP
trouvée pour un T et un 0 donnés.
On prend zf pour niveau de gris de base de la plage donné par une table de couleurs "Look Up Tables" ou LUT,
constituant la couleur, associée à la gamme de fréquences (on appelle niveau de gris de base le plus petit niveau de gris d'une rampe de LUT).
F x (Xf, Yf, Zf) On doit trouver l'image R R x (Xr, Yr, Zr) On a:Xa = Xf = Xr Ya = Yf = Tf
Zr = f(Za,Zf).
On essaie de déterminer f(u,v) pour que sa percep-
tion soit égale à R. Pour cela on fait intervenir une res-
source du processeur graphique: les tables de couleurs as-
sociées aux "canons" rouge, vert, bleu (les tables LUT ou
"Tables de couleurs").
On place dans une table par exemple quatre rampes de couleurs (bleue, verte, jaune et rouge). Les quatre teintes implantées servent à décerner en pratique quatre gammes de
fréquences.
x -l >Rampe Bleue x >Rampe Rouge
LU R
LUT V I
LUT B
Ainsi, pour obtenir l'image R, il suffit de se dé-
placer dans la rampe de couleur associée à la gamme de fré-
quences, proportionnellement à AMP.
De manière générale AMP est codé sur 256 niveaux de gris. Il faut donc restreindre le domaine de variation de Za
à 256/4.
En effet, plus on augmente le nombre de couleurs, plus on diminue la dynamique de Za. Finalement on obtient: Xa = Xf = Xr Ya = Yf = Yr Zr = Zf + 255 Za nombre de teintes
Pour obtenir R on combine donc linéairement les ima-
ges A et F. L'image de veille constituée, un opérateur peut l'examiner en manipulant les niveaux de gris associés à une gamme de fréquences. Ceci a pour effet de faire varier la
luminosité de la couleur associée suivant des lois logarith-
miques linéaires ou exponentielles.
Ainsi on peut obtenir des images de veille telles que des images au format "gisement-temps" avec informations
spectrales globales.
La mise en oeuvre de l'invention fait également ap-
pel à l'utilisation d'opérateurs logiques.
La première solution a pour défaut de ne pas permet-
tre d'utiliser la dynamique maximale des niveaux de gris au
nombre de 256.
La solution qui va être décrite maintenant remédie à
ce problème.
On dispose toujours des images A et F mais toutes
deux servent maintenant à coder respectivement 256 amplitu-
des et 256 plages de fréquences en niveaux de gris.
On peut alors créer facilement une image Fi o tous les pixels sont à zéro sauf ceux dus à une certaine plage de
fréquences dont le niveau de gris est 255. Pour cela il suf-
fit d'injecter dans la table de couleurs "LUT" associée une
fonction de masquage en créneau.
F O255 Fi fonction de masquage i On effectue alors un "ET" logique entre les images A et Fi pour obtenir une image Ri: image de veille donnée par
la gamme de fréquences i.
l l I A X ET Ri Fi
Cette méthode est très intéressante puisque l'opéra-
teur peut modifier interactivement la table "LUT" pour obte-
nir 256 images Ri tout en n'ayant en mémoire que les deux
images A et Fi.
Les images obtenues pourront être explorées interac-
tivement en jouant sur le niveau de gris.
La figure 4 illustre le processus d'implantation de
filtres spectraux ou filtres de,menace.
On élabore tout d'abord une image de veille centrée sur toute la gamme de fréquence qui apparaît sur un canal
mémoire 1, et dont le niveau de gris ndg détermine le rap-
port signal/bruit: ndg = S/B.
L'image correspondante apparaît sur l'écran du moni-
teur sous la forme d'une image A. On élabore ensuite sur un canal mémoire 2 une image
S de veille des sources fréquentielles sur toute la gamme.
Le niveau de gris ndg de cette image indique la fré-
quence ndg = freq. L'image S apparaît dans une seconde zone
de l'écran.
On choisit un filtre en fréquence sur fonction de transfert entre les fréquences F1 et F2 et on applique une opération ET logique entre les deux images compte tenu du
filtrage en fréquence choisi et on obtient sur un canal mé-
moire 3 une image de veille filtrée sur F1-F2.
L'élaboration du filtre en gisement ou "lofar circu-
lant" est représenté à la figure 5.
C'est le premier aspect dual de l'application précé-
dente. On manipule ici des images au format lofar (F,T) avec une image source o est codé le gisement origine du maximum
du rapport S/B à un instant donné.
On forme sur un canal mémoire 1 une image LOFAR pa-
noramique 0-180'. Cette image A apparaît dans une première
zone de l'écran du moniteur.
Le niveau de gris donne le rapport S/B: ndg = S/B On forme sur un canal mémoire 2 une image LOFAR de
source sur 0-180'.
Cette image S apparaît dans une seconde zone de l'écran. Le niveau de gris indique la valeur TETA: ndg = TETA Ensuite l'opérateur choisit un secteur sur fonction de transfert d'après l'image de veille (TETA,T) élaborée sur
un canal mémoire 4.
Une opération logique ET entre images entraîne l'ap-
parition dans une troisième zone de l'écran de l'image LOFAR
de poursuite élaborée sur un canal mémoire 3.
L'élaboration d'une image au format fréquence-
gisement avec historique (FHG) est représentée à la figure 6.
C'est le deuxième aspect dual de la première appli-
cation. On manipule ici des images au format lofar (F,0)
avec une image source o est codé le temps origine du maxi-
mum de S/B à un instant donné.
On élabore sur un canal mémoire 1 une image A fré-
quence-gisement sur toute la gamme de temps.
Cette image apparaît dans une première zone de l'écran; le niveau de gris ndg donne le rapport S/B: ndg = S/B
On élabore sur un canal mémoire 2 une image S fré-
quence-gisement des sources temporelles.sur toute la gamme.
Cette image apparaît dans une seconde zone de
l'écran, les niveaux de gris indiquant le temps ndg = temps.
L'opérateur choisit un filtre en temps sur fonction de transfert, dans un intervalle Tl, T2 d'application et une opération ET logique entre images permet l'élaboration dans un canal mémoire 3 de l'image fréquencegisement filtrée sur
l'intervalle du temps T1-T2 et apparaissant dans une troi-
sième zone de l'écran.
La figure 7 représente l'élaboration d'une représen-
tation amplitude-fréquence sur "zone d'intérêt en gisement-
temps".
Les images A et S sont les mêmes que celles élabo-
rées pour les filtres spectraux ou "filtres de menace" de la
figure 4.
Sur les images A et S on délimite une zone d'intérêt par un rectangle et on établit un histogramme sur l'image
des sources dans la zone d'intérêt.
Cet histogramme indique la signature des sources
*dans la zone d'intérêt.
Dans le mode de réalisation qui vient d'être décrit on utilise un certain matériel informatique donné à titre
indicatif. On comprendra cependant que d'autres systèmes in-
formatiques possédant des fonctionnalités et des performan-
ces équivalentes peuvent convenir.

Claims (15)

REVENDICATIONS
1. Procédé de représentation d'un champs de données
multidimensionnelles sur un écran de visualisation (14), ca-
ractérisé en ce qu'il consiste à utiliser les coordonnées d'écran pour deux dimensions des données et au moins deux composantes de perception de la couleur parmi la luminosité,
la teinte et la saturation pour au moins deux autres dimen-
sions desdites données.
2. Procédé de représentation suivant la revendica-
tion 1, caractérisé en ce qu'il consiste à organiser les
champs de données multidimensionnelles dans une mémoire vo-
lumique (16) décomposée en plans d'images virtuelles.
3. Procédé de représentation suivant la revendica-
tion 2, caractérisé en ce qu'il consiste dans chaque plan d'image virtuelle, à coder des paramètres spécifiques d'échantillons de données par des paramètres graphiques, deux paramètres étant rapportés aux coordonnées de mémoire
et un paramètre étant codé par la dynamique du pixel en ni-
veau de gris.
4. Procédé de représentation suivant l'une des re-
vendications 1 à 3, caractérisé en ce qu'il consiste en ou-
tre à effectuer des opérations de filtrage de paramètres spécifiques.
5. Procédé de représentation suivant la revendica-
tion 4, caractérisé en ce que les opérations de filtrage sont réalisées par modification interactives de tables de transfert (28) agissant sur les niveaux de gris mémorisées
dans les images virtuelles.
6. Procédé de représentation suivant l'une des re-
vendications 4 et 5, caractérisé en ce que les opérations de filtrage sont réalisées par des opérations logiques et/ou
mathématiques entre images virtuelles.
7. Procédé suivant l'une des revendications 1 à 6,
appliqué à l'élaboration d'une image réelle présentée sur un écran d'affichage (14) à partir de résultats mémorisés en
images virtuelles, caractérisé en ce qu'il consiste à assu-
rer une modification interactive d'une table de transfert finale (28) qui calcule les valeurs des composantes rouge,
verte, bleue des pixels en fonction des valeurs de luminosi-
té, teinte et saturation souhaitées.
8. Procédé d'élaboration à partir de données de so-
nar d'écoute passive d'images opérationnelles contrôlées in-
teractivement par l'opérateur de façon continue en fonction
du besoin opérationnel et compatible avec les besoins d'in-
formations en temps réel, caractérisé en ce qu'il met en
oeuvre le procédé de représentation suivant l'une des reven-
dications 1 à 7, pour élaborer une image gisement-temps ou azimut- temps avec représentation des fréquences par la
teinte et filtrage interactif.
9. Procédé suivant la revendication 8, caractérisé en ce que le filtrage interactif comporte l'élaboration d'un
filtre de nuance par imagerie.
10. Procédé suivant l'une des revendications 8 et 9,
caractérisé en ce que le filtrage interactif comporte en ou-
tre l'élaboration d'une image lofar circulant réglable in-
teractivement en direction et en gisement.
11. Procédé suivant l'une des revendications 8 à 10,
caractérisé en ce que le filtrage interactif comporte en ou-
tre l'élaboration d'une image de spectre sur zone d'intérêt
en gisement-temps réglable interactivement.
12. Procédé suivant l'une des revendications 8 à 10,
caractérisé en ce que le filtrage interactif comporte en ou-
tre l'élaboration d'une image au format fréquence-gisement
avec historique réglable interactivement.
13. Système de représentation d'un champ de données multidimensionnelles sur un écran de visualisation (14),
destiné à la mise en oeuvre du procédé suivant l'une des re-
vendications 1 à 12, comportant un processeur hôte (2) des-
tiné à être connecté à une chaîne de prise de données multi-
directionnelles et auquel sont associés des moyens (7,8,9)
de mémorisation du logiciel du système et du logiciel d'ex-
ploitation, et pour conserver les données multidimensionnel-
les, un processeur d'images (12) relié au processeur hôte (2) par un bus interne (20) et auquel sont associés un écran couleur (14) à haute résolution, une mémoire d'image (16) et
un dispositif de commande actionnable par un opérateur, ca-
ractérisé en ce que la mémoire d'image (16) comporte des ca-
naux mémoires (25) à accès aléatoire direct, dans lesquels chaque pixel est accessible par des coordonnées X et Y dans un repère orthogonal, chaque canal mémoire (25) servant à
stocker des images ou des informations graphiques en recou-
vrement sur un nombre prédéterminé de niveaux de gris et de
couleurs différentes.
14. Système de représentation suivant la revendica-
tion 13, caractérisé en ce que les canaux mémoires (25) peu-
vent être configurés suivant une combinaison logique quel-
conque et découplés par le logiciel du système en zones d'intérêt en forme de parallélogramme en particulier pour la
réalisation d'histogrammes.
15. Système de représentation suivant l'une des re-
vendications 13 et 14, caractérisé en ce qu'il comporte en outre un contrôleur vidéo (22) capable de gérer le moniteur de couleur (14) à partir de trois signaux composites vert,
bleu, rouge, un générateur de curseur (24) auquel sont asso-
ciés le dispositif de commande (18) actionnable par une opé-
rateur et un générateur de caractères pour produire des an-
notations associées à une image et en ce que le logiciel
contenu dans le processeur hôte (2) est un logiciel modu-
laire sur plusieurs niveaux allant de la programmation de
registres à l'exploitation interactive du système.
FR9712430A 1997-10-06 1997-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par une source d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede Expired - Fee Related FR2771532B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR9712430A FR2771532B1 (fr) 1997-10-06 1997-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par une source d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede
PCT/FR1998/002124 WO1999018451A1 (fr) 1997-10-06 1998-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par un sonar d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede
EP98947603A EP1021734A1 (fr) 1997-10-06 1998-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par un sonar d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede
US09/529,006 US6421300B1 (en) 1997-10-06 1998-10-06 Method for screen display of a multidimensional data field, particularly for data supplied by a passive sonar, and system for implementing said method
CA002305497A CA2305497A1 (fr) 1997-10-06 1998-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par un sonar d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR9712430A FR2771532B1 (fr) 1997-10-06 1997-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par une source d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede

Publications (2)

Publication Number Publication Date
FR2771532A1 true FR2771532A1 (fr) 1999-05-28
FR2771532B1 FR2771532B1 (fr) 2000-09-22

Family

ID=9511869

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9712430A Expired - Fee Related FR2771532B1 (fr) 1997-10-06 1997-10-06 Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par une source d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede

Country Status (5)

Country Link
US (1) US6421300B1 (fr)
EP (1) EP1021734A1 (fr)
CA (1) CA2305497A1 (fr)
FR (1) FR2771532B1 (fr)
WO (1) WO1999018451A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2800879A1 (fr) * 1999-11-09 2001-05-11 France Etat Procedes et dispositifs associes de determination de la forme d'une antenne lineaire et de lever d'ambiguite conique

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6501705B1 (en) 2000-06-22 2002-12-31 Lockheed Martin Corporation Acoustic surveillance system with signature and bearing data display
US6801908B1 (en) * 2002-01-28 2004-10-05 Supplychainge Inc System and method for selectively presenting multi-dimensional data in two-dimensional form
GB0717031D0 (en) 2007-08-31 2007-10-10 Raymarine Uk Ltd Digital radar or sonar apparatus
DE102008007851B3 (de) * 2008-02-07 2009-03-19 Atlas Elektronik Gmbh Verfahren zum Leiten eines Torpedoangriffs
CN101825704B (zh) * 2009-12-08 2012-12-12 中国科学院声学研究所 一种用于合成孔径声纳系统中的图像显示方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1236971A (en) * 1968-05-31 1971-06-23 Ferranti Ltd Information display systems incorporating multicolour cathode ray tubes
US4596145A (en) * 1983-09-20 1986-06-24 Smith Stephen W Acoustic orthoscopic imaging system
US4641668A (en) * 1982-07-28 1987-02-10 Aloka Co., Ltd. Ultrasonic blood flow imaging method and apparatus
US5175710A (en) * 1990-12-14 1992-12-29 Hutson William H Multi-dimensional data processing and display
DE4409117A1 (de) * 1994-03-17 1995-09-21 Stn Atlas Elektronik Gmbh Echolot
US5455806A (en) * 1990-12-14 1995-10-03 Hutson; William H. Multi-dimensional signal processing and display

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6070003A (en) * 1989-11-17 2000-05-30 Texas Instruments Incorporated System and method of memory access in apparatus having plural processors and plural memories

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1236971A (en) * 1968-05-31 1971-06-23 Ferranti Ltd Information display systems incorporating multicolour cathode ray tubes
US4641668A (en) * 1982-07-28 1987-02-10 Aloka Co., Ltd. Ultrasonic blood flow imaging method and apparatus
US4641668B1 (fr) * 1982-07-28 1991-12-24 Aloka Co Ltd
US4596145A (en) * 1983-09-20 1986-06-24 Smith Stephen W Acoustic orthoscopic imaging system
US5175710A (en) * 1990-12-14 1992-12-29 Hutson William H Multi-dimensional data processing and display
US5455806A (en) * 1990-12-14 1995-10-03 Hutson; William H. Multi-dimensional signal processing and display
DE4409117A1 (de) * 1994-03-17 1995-09-21 Stn Atlas Elektronik Gmbh Echolot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2800879A1 (fr) * 1999-11-09 2001-05-11 France Etat Procedes et dispositifs associes de determination de la forme d'une antenne lineaire et de lever d'ambiguite conique
EP1099958A1 (fr) * 1999-11-09 2001-05-16 Etat-Francais représenté par le Délégué Général pour L'Armement Procédés et dispositifs associés de détermination de la forme d'une antenne linéaire et de lever d'ambiguité conique

Also Published As

Publication number Publication date
CA2305497A1 (fr) 1999-04-15
US6421300B1 (en) 2002-07-16
WO1999018451A1 (fr) 1999-04-15
EP1021734A1 (fr) 2000-07-26
FR2771532B1 (fr) 2000-09-22

Similar Documents

Publication Publication Date Title
US10073602B2 (en) System and method for displaying a suggested luminance adjustment for an image
US3993976A (en) Method and apparatus for pattern analysis
US4513441A (en) Image comparison system
US20070262989A1 (en) Method and system for adaptive direct volume rendering
JP2000348203A (ja) レンダリングパイプラインにおいてボリュームデータの勾配絶対値を用いてライティングの調整を行う調整装置及び調整方法
US10791412B2 (en) Particle-based spatial audio visualization
JP2001014487A (ja) レンダリングパイプラインにおけるボリュームデータの照明中の反射率のマッピング方法及び装置
Elmqvist et al. Color lens: Adaptive color scale optimization for visual exploration
JP2001005995A (ja) 勾配絶対値及び範囲値における複合関数を用いたボリュームサンプルの調整方法
JP2000348204A (ja) 勾配絶対値ベクトルとステップ関数とを用いたボリュームサンプルの調整方法
Koskela et al. Foveated path tracing: a literature review and a performance gain analysis
FR2771532A1 (fr) Procede de representation sur un ecran de visualisation d'un champ de donnees multidirectionnelles notamment de donnees fournies par une source d'ecoute passive, et systeme pour la mise en oeuvre d'un tel procede
JP2000348205A (ja) レンダリングパイプラインにおけるボリュームデータの調整ライティング方法及び装置
FR2565052A1 (fr) Systeme d'imagerie a ecran divise
FR2762396A1 (fr) Procede d'observation d'hologramme pour une distribution tridimensionnelle de sources d'ondes et procede d'estimation de directivite stereoscopique d'antenne
EP3818495A1 (fr) Procede et dispositif d'affichage de donnees sonar ou radar a haute dynamique
FR2565004A1 (fr) Systeme d'affichage video a interpolateur d'agrandissement
US7706586B2 (en) Real-time structure suppression in ultrasonically scanned volumes
EP2987319A1 (fr) Procede de generation d'un flux video de sortie a partir d'un flux video large champ
Tandianus et al. Spectral caustic rendering of a homogeneous caustic object based on wavelength clustering and eye sensitivity
WO2022196200A1 (fr) Dispositif de traitement d'informations, procédé de traitement d'informations, programme de traitement d'informations et système de traitement d'informations
FR2527881A1 (fr) Systeme de traitement video d'images en couleurs
US20240125935A1 (en) Arithmetic operation system, training method, and non-transitory computer readable medium storing training program
EP0230158B1 (fr) Processeur numérique d'images échographiques, à interpolation
Budak et al. Essential depth map processing algorithms for real-time applications: an overview

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20110630