FR3098601A1 - Procede de representation en trois dimensions de la couverture d'un systeme de detection - Google Patents
Procede de representation en trois dimensions de la couverture d'un systeme de detection Download PDFInfo
- Publication number
- FR3098601A1 FR3098601A1 FR1907673A FR1907673A FR3098601A1 FR 3098601 A1 FR3098601 A1 FR 3098601A1 FR 1907673 A FR1907673 A FR 1907673A FR 1907673 A FR1907673 A FR 1907673A FR 3098601 A1 FR3098601 A1 FR 3098601A1
- Authority
- FR
- France
- Prior art keywords
- data
- probability
- detection
- rendering
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 157
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000008569 process Effects 0.000 title description 5
- 238000009877 rendering Methods 0.000 claims abstract description 93
- 238000004364 calculation method Methods 0.000 claims abstract description 51
- 230000006870 function Effects 0.000 claims description 34
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000004737 colorimetric analysis Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims description 5
- 238000009825 accumulation Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 22
- 238000012800 visualization Methods 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000003449 preventive effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 241000251468 Actinopterygii Species 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 238000002592 echocardiography Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/56—Display arrangements
- G01S7/62—Cathode-ray tube displays
- G01S7/6245—Stereoscopic displays; Three-dimensional displays; Pseudo-three dimensional displays
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Les modes de réalisation de l’invention fournissent un procédé pour déterminer une représentation en trois dimensions de la couverture spatiale d’un système de détection se déplaçant dans une zone géographique à partir d’un ensemble de données comprenant une probabilité de détection déterminée dans une zone de calcul incluse dans ladite zone géographique, la couverture spatiale étant représentée par une position et une orientation de visualisation donnée, les données de l’ensemble comprenant des données de position de la zone de calcul et des données de dimensions de la zone de calcul. Le procédé comprend une étape consistant à déterminer un rendu 3D de ladite probabilité de détection à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension (201, 203, 205, 207, 211). Figure pour l’abrégé : Fig.2
Description
L’invention se rapporte aux systèmes de détection, et en particulier à la représentation en trois dimensions de la couverture spatiale d’un système de détection.
Les systèmes de détection, tels que les sonars ou les radars sont utilisés dans de nombreux domaines d’application aujourd’hui. Par exemple, les sonars sont utilisés dans le domaine de l’acoustique sous-marine pour détecter et localiser les objets sous l’eau.
Les systèmes de détection peuvent être utilisés par divers infrastructures de surveillance (par exemple pour la détection de sous-marins ou d’objets posés sur le fond marin), dans le domaine de la pêche pour la détection de bancs de poissons, dans le domaine de la cartographie (par exemple pour cartographier une zone géographique ou le fond des océans d’où autres plans d’eau), ou encore dans le domaine de l’archéologie (par exemple archéologie subaquatique et sous-marine).
Les systèmes de détection sont munis d’antennes pour émettre et/ou recevoir des signaux. Le traitement des signaux reçus par le système de détection utilise une étape de traitement de signal et une étape de traitement de l’information.
L’étape de traitement de signal peut comprendre des opérations de prétraitement, de traitement d’antenne, de traitement cohérent, de normalisation et de détection. Les opérations de prétraitement peuvent comprendre une ré-amplification des signaux reçus, un filtrage, une numérisation, une mise en forme du signal par une opération de démodulation permettant de ramener les signaux en bande de base, un filtrage additionnel pour conserver uniquement la partie du signal contenant les informations utiles et rejeter le bruit, et un échantillonnage pour réduire le nombre d’échantillons à traiter.
Les opérations de traitement d’antenne exploitent la géométrie des antennes pour optimiser le compromis entre les performances et le nombre de capteurs déployés.
Les opérations de traitement cohérent consistent à corréler les signaux reçus avec les signaux émis pour rechercher la présence d’échos.
Les opérations de normalisation consistent à modifier les paramètres de la statistique du bruit pour mettre en évidence la partie signal.
Les opérations de détection sont mises en œuvre pour déterminer si un objet cible est présent dans l’eau. La détection d’objets cibles dans un système sonar est probabiliste. La probabilité de détection, dénotée p(D), désigne la probabilité qu’un écho cible réel soit détecté lorsqu’un écho cible réel existe. Par exemple, dans un système de détection de type sonar passif, la probabilité de détection représente la probabilité de détecter un objet cible réel qui émet un niveau de bruit donné à différentes fréquences. Dans un système de détection de type sonar actif, la probabilité de détection représente la probabilité d’obtenir un écho viable grâce à une émission d’ondes acoustiques par le sonar actif. La probabilité qu’un écho cible réel ne soit pas détecté alors que l’écho cible existe est 1-p(D). La probabilité de fausse alarme, dénotée p(FA), désigne la probabilité qu’un faux écho (ou écho parasite) soit détecté, c’est-à-dire la probabilité qu’il y ait une fausse détection d’un écho qui soit réellement du bruit.
Les opérations de normalisation et de détection consistent à déterminer un seuil de détection du récepteur en fixant une probabilité de détection minimale (ou probabilité de détection seuil) et une probabilité de fausse alarme minimale. Lorsque le rapport signal-sur-bruit excède la valeur de la probabilité de détection seuil, le récepteur peut détecter la présence d’un écho cible et pour des valeurs du rapport signal-sur-bruit inférieures à la valeur de la probabilité de détection seuil, le récepteur ne détecte pas la présence d’échos.
L’étape de traitement de l’information comprend généralement des opérations consistant à fusionner les données issues de différentes plateformes et/ou de différents capteurs, au pistage, à la localisation, et à la classification. Ces opérations permettent de déterminer la dynamique et la trajectoire des objets cibles, de déterminer la position des objets cibles en distance en gisement et en profondeur, et de déterminer la nature des objets cibles à partir des informations extraites avec le système de détection.
Il est connu d’utiliser une représentation appelée ‘Probabilités de détection ou POD’ (pour ‘Performance Of the Day’ en langue anglo-saxonne). Une représentation POD est une représentation des probabilités de détection qui permet de déterminer la couverture spatiale d’un système de détection et d’estimer la capacité à détecter des objets cibles du système de détection. Une telle représentation est générée à partir d’une matrice de données de probabilités de détection en fonction de la distance par rapport à la position de antenne du système de détection et de la profondeur entre la surface et le fond marin, en utilisant un codage couleur. Plus précisément, les probabilités de détection sont affichées graphiquement sous la forme de données de couleur où chaque couleur représente une plage de probabilité variant de 0 à 10%, de 11 à 20%, jusqu’à l’intervalle de valeurs [91,100%].
Les formes obtenues au moyen de cette représentation sont relativement complexes et non uniformes dues à la non linéarité de la propagation des ondes dans l’environnement considéré (par exemple dans l’eau pour un système de détection de type sonar) et au fait que l’image qui représente ces probabilités de détection ne permet de visualiser qu'une partie de la scène considérée. Dans des environnements complexes, la forme finale obtenue en trois dimensions (3D) peut être relativement complexe à interpréter. Par ailleurs, cette représentation ne permet pas de mettre en évidence les zones dangereuses représentant un risque potentiel pour l’infrastructure utilisant le système de détection (plateforme ou bâtiment à protéger par exemple). Elle ne permet pas non plus d’avoir une vue globale complète en trois dimensions de la zone géographique couverte par le système de détection. En outre, une telle représentation ne permet pas de couvrir une zone suffisamment importante par rapport à l’échelle de l’infrastructure utilisant le système de détection.
Il existe donc un besoin pour un procédé et un dispositif améliorés pour déterminer une représentation en trois dimensions de la couverture spatiale d’un système de détection.
Définition générale de l’invention
A cet effet, il est proposé un procédé pour déterminer une représentation en trois dimensions de la couverture spatiale d’un système de détection évoluant dans une zone géographique à partir d’un ensemble de données comprenant une probabilité de détection du système déterminée dans une zone de calcul incluse dans la zone géographique, la couverture spatiale du système étant représentée selon une position et une orientation de visualisation données, les données de l’ ensemble comprenant des données de position de la zone de calcul et des données de dimensions de la zone de calcul. Avantageusement, le procédé comprend une étape consistant à déterminer un rendu 3D de la probabilité de détection à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension.
Dans un mode de réalisation, le procédé peut comprendre en outre une étape consistant à déterminer une structure de données principale ayant au moins trois dimensions à partir desdites données de probabilité.
Avantageusement, le procédé peut comprendre en outre une étape consistant à déterminer un rendu de profondeur du volume englobant la zone de calcul à partir des données de position de la zone de calcul, des données de dimension, et de la position et de l’orientation de visualisation.
Dans une forme de réalisation, le rendu 3D peut être volumique, le procédé comprenant alors une étape consistant à : - déterminer un rendu volumique de la probabilité de détection suivant au moins une fonction dans un espace colorimétrique donné à partir de la structure de données principale et du rendu de profondeur.
L’étape de détermination du rendu volumique peut comprendre les étapes consistant à: déterminer un rendu volumique en niveaux de gris de la probabilité de détection à partir de la structure de données principale et du rendu de profondeur ; déterminer un rendu volumique en couleurs de la probabilité de détection à partir du rendu volumique en niveaux de gris.
Dans une autre forme de réalisation, le rendu 3D est surfacique, le procédé comprenant en outre une étape consistant à déterminer un rendu surfacique à partir de la probabilité de détection, des données de position de la zone de calcul, des données de dimensions, d’au moins une valeur de seuil de probabilité de détection, et de la position et de l’orientation de visualisation.
L’étape de détermination du rendu surfacique peut comprendre la génération d’objets polygonaux à partir de la matrice de données en trois dimensions pour approximer au moins une iso-surface conduit à parti du seuil de probabilité de détection.
Dans un mode de réalisation, l’ensemble de données peut comprendre en outre une résolution d’entrée, la résolution d’entrée correspondant à une distance entre deux points de la zone de calcul, l’étape de détermination de la structure de données principale comprenant les étapes consistant à :
- générer une structure de données auxiliaire à partir d’au moins certaines des données de probabilité, la structure de données auxiliaire ayant des dimensions définies à partir de la résolution d’entrée ;
- déterminer une structure de données principale en utilisant une conversion des données de la structure auxiliaire en données colorimétriques.
- générer une structure de données auxiliaire à partir d’au moins certaines des données de probabilité, la structure de données auxiliaire ayant des dimensions définies à partir de la résolution d’entrée ;
- déterminer une structure de données principale en utilisant une conversion des données de la structure auxiliaire en données colorimétriques.
Une image de profondeur comprend un ensemble de surfaces associées à des informations de position. Avantageusement, l’étape de détermination du rendu de profondeur peut comprendre la détermination d’une première image de profondeur d’un cube englobant la structure de données 3D et d’une seconde image de profondeur de la face arrière du cube, la profondeur du cube englobant la structure de données principale représentant la distance de la surface du cube par rapport à la position et à l’orientation de visualisation, le rendu de profondeur comprenant la première image de profondeur et la seconde image de profondeur.
Dans un mode de réalisation, l’étape de détermination d’un rendu volumique peut comprendre la détermination du rendu volumique à partir de la structure de données principale et desdites première image de profondeur et seconde image de profondeur en appliquant un algorithme de calcul de rendu volumique de type lancer de rayons par accumulation.
Les fonctions peuvent comprendre au moins une fonction de transfert définie à partir d’une borne de probabilité minimale, d’une borne de probabilité maximale, d’une borne de colorimétrie minimale, et d’une borne de colorimétrie maximale, la fonction de transfert étant configurée pour exécuter une interpolation entre la borne de colorimétrie minimale et la borne de colorimétrie maximale, l’espace colorimétrique dans lequel est déterminé le rendu volumique représentant une probabilité de détection comprise entre la borne de probabilité minimale et la borne de probabilité maximale.
Il est en outre proposé un dispositif pour déterminer une représentation en trois dimensions de la couverture spatiale d’un système de détection se déplaçant dans une zone géographique à partir d’un ensemble de données comprenant une probabilité de détection déterminée dans une zone de calcul incluse dans la zone géographique, la couverture spatiale du système de détection étant représentée selon une position et une orientation de visualisation données, les données de l’ ensemble comprenant des données de position de la zone de calcul et des données de dimensions de la zone de calcul. Avantageusement, le dispositif est configuré pour déterminer un rendu 3D de la probabilité de détection à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension.
Il est également proposé un produit programme d’ordinateur pour déterminer une représentation en trois dimensions de la couverture spatiale d’un système de détection se déplaçant dans une zone géographique à partir d’un ensemble de données comprenant une probabilité de détection déterminée dans une zone de calcul incluse dans la zone géographique, la couverture spatiale du système de détection étant représentée selon une position et une orientation de visualisation données, les données de l’ ensemble comprenant des données de position de la zone de calcul et des données de dimensions de la zone de calcul, le produit programme d’ordinateur comprenant des instructions de code de programme informatique qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs amènent le ou les processeurs à déterminer un rendu 3D de la probabilité de détection à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension.
Avantageusement, les modes de réalisation de l’invention permettent de représenter les probabilités de détection associées à un système de détection pour une scène réelle en trois dimensions.
Avantageusement, les modes de réalisation de l’invention peuvent fournir un mode de représentation des probabilités de détection sous forme volumique, ce qui permet un affichage en 3D de la couverture spatiale du système de détection dans la zone géographique considérée.
Les modes de réalisation de l’invention permettent en outre un affichage des zones à risque, ce qui permet de déclencher ou d’ajuster des actions préventives.
Avantageusement, les modes de réalisation de l’invention fournissent des modes de rendu 3D pouvant être exploitée pour déterminer rapidement les actions à mettre en œuvre malgré les formes complexes représentant les zones d’ombre non couvertes par la détection du système et se trouvant dans des zones de sécurité dans la zone géographique.
D’autres caractéristiques, détails et avantages de l’invention ressortiront à la lecture de la description faite en référence aux dessins annexés donnés à titre d’exemple et qui représentent, respectivement :
Description détaillée
La figure 1 représente un exemple d’environnement 100 dans lequel est utilisé un dispositif de détermination d’une représentation en trois dimensions de la couverture spatiale d’un système de détection évoluant dans une zone géographique à partir d’un ensemble de données comprenant une probabilité de détection déterminée dans une zone de calcul incluse dans la zone géographique.
Telle qu’utilisée ici, le terme « zone de calcul » fait référence à une zone géométrique incluse dans la zone géographique et comprenant l’ensemble des probabilités de détection calculées du système de détection satisfaisant une condition. La zone de calcul est déterminée par un centre et est définie dans un référentiel, comme par exemple un référentiel cartésien XYZ. La zone de calcul peut par exemple comprendre l’ensemble des probabilités de détection calculées du système de détection qui sont non nulles. En variante, la zone de calcul peut par exemple comprendre l’ensemble des probabilités de détection calculées du système de détection qui sont supérieure à un seuil non nul.
Le système de détection peut être tout système de détection porté par une structure porteuse capable d’évoluer dans la zone géographique, tel qu’un radar ou un sonar par exemple. Dans l’exemple de la figure 1, le système de détection peut être par exemple un sonar porté par une structure porteuse de type bâtiment de surface 101.
La couverture spatiale du système de détection est représentée selon une position et une orientation de visualisation données (l’ensemble des données de position et d’orientation de visualisation est encore appelée « point de vue »). Les données de l’ensemble de données comprennent des données de position de la zone de calcul et des données de dimensions de la zone de calcul.
Le système de détection peut être utilisé dans diverses infrastructures ou systèmes pour la détection et localisation d’objets dans la zone géographique considérée (par exemple sous l’eau pour un système de détection de type sonar).
Par exemple, le système de détection peut être l’un des systèmes de détection acoustique 107, 108 et/ou 109 utilisés pour détecter :
- des sous-marins et/ou des bâtiments de surface et/ou des menaces (par exemple des mines) ou objets posés sur le fond marin,des bancs de poissons, dans le domaine de la navigation maritime et fluviale,
- en hydrographie pour cartographier le fond des océans et d’autres plans d’eau,
- en archéologie subaquatique et sous-marine, ou
- dans les capteurs de pollutions aquatiques.
- en hydrographie pour cartographier le fond des océans et d’autres plans d’eau,
- en archéologie subaquatique et sous-marine, ou
- dans les capteurs de pollutions aquatiques.
Le système de détection peut être utilisé en outre pour localiser les objets détectés.
Dans l’exemple d’environnement 100 de la figure 1 formant un dispositif de lutte anti-sous-marine, d’autres éléments auxiliaires peuvent être déployés pour mettre en œuvre des actions préventives, défensives ou offensives à mettre en œuvre en fonction de l’objet détecté. Les éléments auxiliaires peuvent comprendre par exemple des navires de surface 101 équipés de sonars 107, 108; un ou plusieurs avions de patrouille maritime ; un ou plusieurs hélicoptères 103 équipé de sonar(s) tel que le sonar 109 ; un ou plusieurs sous-marins d’attaque ; et une ou plusieurs bouées acoustiques 105 larguées par une patrouille maritime. Les sonars peuvent par exemple comprendre un sonar actif d’étrave 107, un sonar actif remorqué 108, et un sonar actif trempé 109 déployé par l’hélicoptère 103.
Les différents éléments de l’environnement 100 peuvent être contrôlés par un opérateur ou un système de contrôle présent par exemple dans le navire de surface 101, pour surveiller et protéger les éléments de l’environnement 100 contre des menaces en mettant en œuvre des opérations ou actions. L’opérateur ou le système de contrôle peut par exemple mettre en œuvre des actions de type préventives, défensives, ou offensives.
La description des modes de réalisation de l’invention qui suit sera faite principalement en référence à un système de détection de type sonar pour faciliter la compréhension des modes de réalisation de l’invention, à titre d’exemple non limitatif. Cependant, l’homme du métier comprendra aisément que l’invention s’applique plus généralement à tout système de détection capable de détecter un objet dans l’eau ou dans tout autre environnement.
Avantageusement, le dispositif de détermination de représentation selon les modes de réalisation de l’invention comprend une étape consistant à déterminer un rendu 3D (en trois dimensions) de la probabilité de détection à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension. Dans un mode de réalisation, l’étape de détermination du rendu 3D (en trois dimensions) de la probabilité de détection peut en outre prendre en compte les données de visualisation (données de position et d’orientation).
Dans un mode de réalisation, les données de probabilité de détection peuvent être représentées par une matrice de données de probabilité. La position du centre de cette matrice (centre du référentiel de la matrice) peut alors être située au niveau de la position de la structure porteuse du système de détection.
Dans un mode de réalisation, les données de dimension peuvent être déterminées à partir d’une résolution d’entrée, la résolution d’entrée correspondant à la distance entre deux points de la zone de calcul.
La détermination du rendu 3D peut être effectuée à partir de techniques de synthèse d’images 3D pour convertir les données brutes des probabilités de détection en une image 3D pour générer un affichage de l’image 3D sur un dispositif de rendu choisi. Le dispositif de rendu peut être par exemple un dispositif 3D sur écran ou un dispositif de réalité augmentée ou un dispositif de réalité virtuelle.
La représentation en 3D de la couverture spatiale peut être avantageusement superposée avec une représentation de la zone géographique sur le dispositif de rendu, ce qui permet un affichage en 3D de la couverture spatiale du système de détection dans la zone géographique considérée.
La création d’une image de synthèse peut se décomposer en trois étapes principales : la modélisation géométrique des objets de la scène à représenter, la création de la scène, et le rendu.
La modélisation géométrique permet de définir les propriétés géométriques des objets soit par une représentation mathématique à partir des définitions ou des systèmes mathématiques qui les décrivent, soit par une représentation par arbre de construction en représentant les objets complexes comme une composition d’objets simples appelés primitives, soit par une représentation par les bords qui représente un objet en matérialisant la limite entre son intérieur et son extérieur par une série d’éléments géométriques reliés entre eux (généralement des triangles).
L’étape de création de la scène permet de définir l’apparence des objets et de déterminer les paramètres non géométriques de la scène à afficher. L’apparence des objets est définie en déterminant des propriétés surfaciques ou volumiques des objets dont les propriétés optiques, la couleur et la texture. Les paramètres non géométriques de la scène comprennent la position et le type des sources de lumière, la position et l’orientation de la visualisation de la scène formant le point de vue (par une caméra ou encore l’œil).
L’attribution d’une couleur à un objet selon les modes de réalisation de l’invention se base sur l’utilisation d’un espace colorimétrique prenant en compte l’opacité. Par exemple, la conversion de données peut être réalisée par l’utilisation du format de codage des couleurs RGBA qui est une extension du format RGB, prenant en compte la notion de transparence. Dans un tel exemple, chaque pixel affiché sur l’image représente un vecteur de quatre composantes, comprenant une première valeur R représentant une valeur de couleur rouge (Red), une seconde valeur G représentant une valeur de couleur verte (Green), une troisième valeur B représentant une valeur de couleur bleue (Blue), une quatrième valeur A représentant une composante de transparence (ou composante alpha). En utilisant la représentation géométrique dans l’espace Euclidien, chaque pixel est associé à trois dimensions géométriques (x,y,z) dans un référentiel XYZ comprenant une largeur x (ou abscisse du référentiel), une profondeur y (ou ordonnée du référentiel) et une hauteur z (ou côte du référentiel). Le référentiel XYZ est défini par la zone de calcul et peut être centré au niveau du centre de la zone de calcul.
Telle qu’utilisée ici, une ‘texture’ fait référence à une structure de données utilisée pour la représentation d’une image de synthèse.
Un procédé de rendu fait référence à un procédé informatique consistant à convertir le modèle des objets en une image affichable sur le support d’affichage choisi, l’image comportant à la fois des objets, des sources de lumière et une visualisation selon un point de vue donné.
Le procédé selon les modes de réalisation de l’invention peut être mis en œuvre par un ou plusieurs dispositifs ou systèmes informatiques, désignés collectivement sous le nom d’ordinateur. Le procédé peut être mis en œuvre sous la forme d’un ensemble de programmes logiciels (ou fonctions logicielles) exécutés par au moins une unité de traitement (ou ‘processeur’) de l’ordinateur et d’un ensemble de programmes informatiques, appelés nuanceurs (ou ‘shaders’ en langue anglo-saxonne), exécutés par au moins une unité de traitement graphique (ou ‘processeur graphique’) de l’ordinateur. Un processeur graphique est un circuit intégré configuré pour exécuter des fonctions de calcul d’affichage qui peut être intégré sur une carte-mère ou dans une unité centrale de traitement (CPU). Les fonctions exécutées par l’unité de traitement peuvent comprendre la détermination de la texture. Les fonctions exécutées par l’unité de traitement graphique peuvent comprendre les fonctions mises en œuvre dans le processus du rendu.
La détermination de la couverture spatiale du système de détection peut utiliser une transformation (ou conversion) des données brutes des probabilités de détection en une structure exploitable par les fonctions de calcul de rendu exécutées par l’unité de traitement graphique.
La figure 2 représente le procédé de détermination d’une représentation en trois dimensions de la couverture spatiale d’un système de détection 109 évoluant dans une zone géographique selon certains modes de réalisation.
Les étapes de la figure 2 sont mises en œuvre pour déterminer un rendu 3D de la probabilité de détection du système de détection dans la zone géographique considérée à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension, selon un mode de réalisation. Dans un mode de réalisation, le rendu 3D (en trois dimensions) de la probabilité de détection peut en outre être déterminé à partir des données de visualisation (données de position et d’orientation).
A l’étape 201, les données de l’ensemble de données comprenant les données de position de la zone de calcul et des données de dimensions de la zone de calcul sont lues ou extraites.
A l’étape 203, une structure de données principale ayant au moins trois dimensions (en particulier 3D ou 4D), encore appelée classiquement ‘Texture 3D’, est déterminée à partir desdites données de probabilité. Dans un mode de réalisation, la structure de données principale peut être par exemple une matrice.
Dans un mode de réalisation, l’ensemble de données d’entrée peut comprendre en outre la résolution d’entrée, la résolution d’entrée correspondant à la distance entre deux points de la zone de calcul. L’étape 203 de détermination de la structure de données principale peut alors comprendre les étapes consistant à :
- générer une structure de données auxiliaire à partir d’au moins certaines des données de probabilité, la structure de données auxiliaire ayant des dimensions définies à partir de la probabilité, et de la résolution d’entrée ;
- déterminer la structure de données principale en utilisant une conversion des données de la structure auxiliaire en données colorimétriques.
La structure de données principale (ou ‘texture 3D’) comprend ainsi un nombre de pixels correspondant à la résolution d’entrée, chaque pixel constituant la texture 3D étant associé à une donnée colorimétrique. La donnée colorimétrique peut être par exemple définie dans l’espace de couleurs RGB par un vecteur de trois valeurs, chaque valeur correspondant à une composante R, G, ou B de l’espace de couleurs RGB.
A l’étape 205, un rendu de profondeur du volume englobant la zone de calcul peut être déterminée à partir des données de position de la zone de calcul, des données de dimension, de la position et de l’orientation de visualisation.
En particulier, l’étape 205 de détermination du rendu de profondeur peut comprendre la détermination d’une première image de profondeur d’un cube englobant la structure de données principale (‘Texture 3D)et d’une seconde image de profondeur de la face arrière du cube. La profondeur du cube englobant la structure de données principale (texture 3D) représentant la distance de la surface du cube par rapport à la position et à l’orientation de visualisation (profondeur Z ou ‘Z-depth’ en langue anglo-saxonne), le rendu de profondeur comprenant la première image de profondeur et la seconde image de profondeur. Une image de profondeur comprend un ensemble de surfaces associées à des informations de position.
Dans un mode de réalisation, la seconde image de profondeur peut être déterminée en tant que l’image de profondeur du cube dont les normales ont été inversées, correspondant à l’image de profondeur de la face arrière du cube au point de vue.
Bien que les étapes 203 et 205 soient représentées selon un ordre consécutif, l’homme du métier comprendra aisément, qu’en variante, ces étapes peuvent être mises en œuvre selon un autre ordre ou en parallèle.
Dans un mode de réalisation, le rendu 3D peut être un rendu volumique. Dans un tel mode de réalisation, à l’étape 207, il est déterminé un rendu volumique de la probabilité de détection suivant au moins une fonction dans un espace colorimétrique donné à partir de la texture 3D et du rendu de profondeur.
Dans un mode de réalisation, les fonctions utilisées pour déterminer le rendu volumique peuvent comprendre au moins une fonction de transfert définie à partir d’une borne de probabilité minimale, d’une borne de probabilité maximale, d’une borne de colorimétrie minimale, et d’une borne de colorimétrie maximale.
Chaque information d’une image de profondeur associée à des dimensions géométriques x, y, z peut être définie d’un espace colorimétrique, par exemple dans le format de codage RGBA.
Dans un mode de réalisation, l’étape 207 de détermination d’un rendu volumique peut comprendre :
- une étape 2070 consistant à déterminer un rendu volumique en niveaux de gris de la probabilité de détection à partir de la texture 3D et du rendu de profondeur ; et
- une étape 2090 de détermination d’un rendu volumique en couleurs de la probabilité de détection à partir du rendu volumique en niveaux de gris.
- une étape 2070 consistant à déterminer un rendu volumique en niveaux de gris de la probabilité de détection à partir de la texture 3D et du rendu de profondeur ; et
- une étape 2090 de détermination d’un rendu volumique en couleurs de la probabilité de détection à partir du rendu volumique en niveaux de gris.
Dans un mode de réalisation, le rendu volumique peut-être déterminé à l’étape 207 à partir de la texture 3D, de la première image de profondeur et de la seconde image de profondeur en appliquant un algorithme (ou technique) de calcul de rendu volumique de type lancer de rayons par accumulation (Ray Marching en langue anglo-saxonne).
Un algorithme de type Ray Marching est illustré sur la figure 3 dans un mode de réalisation utilisant les étapes 2070 et 2090 et le codage RGBA. Un algorithme de type Ray Marching se base sur l’optique géométrique pour simuler le trajet de l’énergie lumineuse dans l’image à afficher. Un plan de projection 303, placé devant un point de vue 301, représente l’image visualisée (c’est-à-dire le rendu volumique en niveaux gris). Chaque point du plan de projection 303 correspond à un pixel du rendu volumique en niveaux de gris. La mise en œuvre de l’étape 207 à partir de la texture 3D en appliquant un algorithme de type Ray Marching selon les modes de réalisation de l’invention peut comprendre la génération d’un rayon 307 (défini par un point d’origine et une direction) pour chaque pixel de l’image désirée du rendu volumique en niveaux de gris. Le rayon peut être échantillonné à pas réguliers à l’intérieur du volume 305 et les valeurs dans l’espace colorimétrique (couleurs RGBA par exemple) des différents pixels ainsi calculées peuvent être sommées au prorata de leur contribution de transparence Alpha. L’algorithme traverse, dans la direction du plan de projection 303, les volumes orientés des résultats représentant la probabilité de détection, tout en collectant pas-à-pas les valeurs de probabilité. La valeur d’un pixel affiché constitue le résultat d’une fonction (par exemple fonction de transfert) des valeurs collectées.
Pour chaque point du plan de projection, chaque point correspondant à un pixel du rendu volumique, l’algorithme de type Ray Marching peut être appliqué pour calculer une valeur de probabilité cumulée par un rayon 307 partant de l’avant du cube englobant la texture 3D jusqu’à l’arrière du cube.
Dans un mode de réalisation, l’application d’un algorithme de type Ray Marching à l’étape 207 peut comprendre les étapes consistant à, pour chaque pixel du rendu volumique :
- déterminer les positions 3D de départ et d’arrivée du rayon 307 à partir des valeurs lues de couleurs des textures de la première image de profondeur et de la seconde image de profondeur pour le pixel sélectionné ;
- calculer un vecteur de déplacement pas-à-pas, pendant un nombre d’itérations donné ou prédéterminé, à partir du vecteur de déplacement de direction du rayon 307, de la distance du pas des itérations déterminée en divisant la distance totale par le nombre d’itérations, et en multipliant le vecteur de déplacement de direction par la distance du pas.
- Pour chaque itération, la détermination d’une couleur représentant une valeur de probabilité pour un pixel sélectionné peut comprendre les étapes consistant à:
- mettre à jour la position du parcours du rayon 307 en ajoutant le vecteur de déplacement ;
- associer une valeur de niveau de gris à la valeur de probabilité correspondant à la position mise à jour dans la texture 3D, une telle couleur représentant un niveau de gris associé à la probabilité correspondante : par exemple, une valeur ‘noir’ peut être associée à une probabilité proche de zéro (‘0’) et à une valeur ‘blanc’ pour une probabilité proche de un (‘1’) ;
- déterminer la composante de transparence Alpha de la valeur de la couleur ;
- appliquer une fonction dans l’espace colorimétrique (par exemple fonction de transfert) ;
- ajouter la couleur déterminée à la couleur du pixel résultant de l’algorithme.
- déterminer les positions 3D de départ et d’arrivée du rayon 307 à partir des valeurs lues de couleurs des textures de la première image de profondeur et de la seconde image de profondeur pour le pixel sélectionné ;
- calculer un vecteur de déplacement pas-à-pas, pendant un nombre d’itérations donné ou prédéterminé, à partir du vecteur de déplacement de direction du rayon 307, de la distance du pas des itérations déterminée en divisant la distance totale par le nombre d’itérations, et en multipliant le vecteur de déplacement de direction par la distance du pas.
- Pour chaque itération, la détermination d’une couleur représentant une valeur de probabilité pour un pixel sélectionné peut comprendre les étapes consistant à:
- mettre à jour la position du parcours du rayon 307 en ajoutant le vecteur de déplacement ;
- associer une valeur de niveau de gris à la valeur de probabilité correspondant à la position mise à jour dans la texture 3D, une telle couleur représentant un niveau de gris associé à la probabilité correspondante : par exemple, une valeur ‘noir’ peut être associée à une probabilité proche de zéro (‘0’) et à une valeur ‘blanc’ pour une probabilité proche de un (‘1’) ;
- déterminer la composante de transparence Alpha de la valeur de la couleur ;
- appliquer une fonction dans l’espace colorimétrique (par exemple fonction de transfert) ;
- ajouter la couleur déterminée à la couleur du pixel résultant de l’algorithme.
Dans un mode de réalisation, la fonction de transfert peut être une fonction logicielle configurée pour exécuter une interpolation linéaire ou non linéaire, entre une borne de couleurs minimale et une borne de couleurs maximale, l’espace colorimétrique dans lequel est déterminé le rendu volumique représentant une probabilité de détection comprise entre la borne de probabilité minimale et la borne de probabilité maximale associées à la fonction de transfert.
Par exemple, à l’étape 2090, dans laquelle un rendu volumique en couleurs de la probabilité de détection est déterminé à partir du rendu volumique en niveaux de gris de la probabilité de détection déterminé à l’étape 2070, le rendu volumique en couleurs peut être déterminé en appliquant une fonction de transfert de couleurs au rendu volumique en niveaux de gris, la fonction de transfert de couleurs utilisant la borne de probabilité minimale, la borne de probabilité maximale, la borne de couleurs minimale, et la borne de couleurs maximale associées. Par exemple, la fonction de transfert de couleurs peut alors exécuter une interpolation linéaire, entre la borne de couleurs minimale et la borne de couleurs maximale, les couleurs dudit rendu volumique représentant une probabilité de détection comprise entre la borne de probabilité minimale et la borne de probabilité maximale.
Dans un autre mode de réalisation, le rendu 3D peut être surfacique. Le procédé comprend alors, en alternative des étapes 203, 205 et 207 une étape 211 consistant à déterminer un rendu surfacique à partir de la probabilité de détection, des données de position de la zone de calcul, des données de dimensions, d’au moins une valeur de seuil de probabilité de détection, et de la position et de l’orientation de visualisation.
En particulier, l’étape 211 peut comprendre un calcul d’une surface d’iso-probabilité consistant à calculer une surface géométrique permettant de séparer l’espace en deux : l’intérieur de la surface géométrique correspondant aux valeurs de probabilités de détection supérieures à la valeur de seuil et l’extérieur de la surface géométrique correspondant aux valeurs inférieures à la valeur de seuil. De telles surfaces peuvent être générées, pour une valeur donnée, par un algorithme de type ‘Marching Cube’.
Pour générer un affichage du rendu surfacique, le procédé peut utiliser une fonction de création de maillage à partir des probabilités de détection. Un maillage (aussi appelé ‘mesh’ en langue anglo-saxonne) fait référence à une discrétisation spatiale d’une surface, et à une modélisation géométrique de la surface par des éléments proportionnés finis. Le procédé peut utiliser par exemple un élément fini de type triangle.
La fonction de création du maillage peut être exécutée à chaque mise à jour des probabilités de détection et de la valeur de seuil.
La fonction création du maillage peut être définie pour calculer le maillage des probabilités de détection délimitant la surface englobante d’une probabilité donnée, ou iso-valeur de probabilité. L’espace contenu dans la surface ainsi maillée délimite les probabilités de détection supérieures à l’iso-valeur de probabilité. Dans un mode de réalisation, une fonction de maillage basée sur un algorithme de type Marching Cube peut mettre en œuvre les étapes suivantes :
- Lecture de l’ensemble des données d’entrée comprenant la résolution d’entrée et des données de probabilité sous la forme d’un tableau de données;
- Conversion des données en une matrice de données prenant en compte la résolution en entrée considérée ;
- Calcul du maillage pour la valeur de probabilité en entrée (iso-valeur) en appliquant un algorithme de maillage, l’algorithme parcourant le volume de probabilité, prenant huit points à la fois pour former un cube de travail, comparant les valeurs de probabilité des points par rapport à la valeur de probabilité seuils, et déterminant les éventuels polygones à créer pour représenter une partie de l'iso-surface contenue dans ce cube selon un schéma ;
- le maillage ainsi calculé est retourné dans un format d’échange adapté pour être lu par la plupart des applications de visualisation 3D.
- Lecture de l’ensemble des données d’entrée comprenant la résolution d’entrée et des données de probabilité sous la forme d’un tableau de données;
- Conversion des données en une matrice de données prenant en compte la résolution en entrée considérée ;
- Calcul du maillage pour la valeur de probabilité en entrée (iso-valeur) en appliquant un algorithme de maillage, l’algorithme parcourant le volume de probabilité, prenant huit points à la fois pour former un cube de travail, comparant les valeurs de probabilité des points par rapport à la valeur de probabilité seuils, et déterminant les éventuels polygones à créer pour représenter une partie de l'iso-surface contenue dans ce cube selon un schéma ;
- le maillage ainsi calculé est retourné dans un format d’échange adapté pour être lu par la plupart des applications de visualisation 3D.
La figure 4 représente le dispositif 400 de détermination d’une représentation en trois dimensions de la couverture spatiale d’un système de détection (sonar par exemple) évoluant dans une zone géographique (scène marine par exemple) à partir de l’ensemble de données comprenant au moins une probabilité de détection. L’ensemble de données peut être sauvegardé par exemple dans une mémoire 43 ou dans un dispositif de mémoire de masse 42. Le dispositif 400 peut être tout type de dispositif ou système informatique désigné sous le nom d’ordinateur. Le dispositif 400 peut comprendre au moins une unité de traitement 401 configurée pour déterminer un rendu 3D de ladite probabilité de détection à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension. Dans un mode de réalisation, le rendu 3D (en trois dimensions) de la probabilité de détection peut en outre être déterminé à partir des données de visualisation (données de position et d’orientation).
Le dispositif 400 peut en outre inclure une mémoire 43, une base de donnée 42 faisant partie d’un dispositif de mémoire de stockage de masse, une interface d’entrée/sortie E/S 47, et une interface Homme-Machine 41 pour recevoir des entrées ou retourner des sorties de/à un opérateur du système de détection. L’interface 41 peut être utilisée par exemple pour configurer ou paramétrer différents paramètres ou fonctions utilisées par le procédé de détermination de représentation selon certains modes de réalisation de l’invention, tels que la configuration du rendu volumique des probabilités de détection. Les ressources externes peuvent inclure, mais sans s’y limiter, des serveurs, des bases de données, des dispositifs de stockage de masse, des dispositifs périphériques, des services de réseau en nuage (cloud), ou toute autre ressource informatique appropriée qui peut être utilisée avec le dispositif 400.
L’unité de traitement 401 peut inclure un ou plusieurs dispositifs sélectionnés parmi des microprocesseurs, des microcontrôleurs, des processeurs de signal numérique, des micro-ordinateurs, des unités centrales de traitement, des réseaux de portes programmables, des dispositifs logiques programmables, des machines à état défini, des circuits logiques, des circuits analogiques, des circuits numériques, ou tout autre dispositif servant à manipuler des signaux (analogiques ou numériques) basé sur des instructions de fonctionnement enregistrées dans la mémoire 43. La mémoire 43 peut inclure un seul dispositif ou une pluralité de dispositifs de mémoire, notamment mais sans s’y limiter, la mémoire à lecture seule (read-only memory (ROM)), la mémoire à accès aléatoire (random access memory (RAM)), la mémoire volatile, la mémoire non volatile, la mémoire vive statique (SRAM), la mémoire dynamique à accès aléatoire (DRAM), la mémoire flash, l'antémémoire (cache memory) ou tout autre dispositif capable de stocker des informations. Le dispositif de mémoire de masse 42 peut inclure des dispositifs de stockage de données tels qu'un disque dur, un disque optique, un dérouleur de bande magnétique, un circuit à l'état solide volatile ou non volatile ou tout autre dispositif capable de stocker des informations. Une base de données peut résider sur le dispositif de stockage de mémoire de masse 42.
L’unité de traitement 401 peut fonctionner sous le contrôle d'un système d'exploitation 44 qui réside dans la mémoire 43. Le système d'exploitation 44 peut gérer les ressources informatiques de telle façon que le code de programme de l'ordinateur, intégré sous forme d'une ou de plusieurs applications logicielles, telles que l'application 45 qui réside dans la mémoire 43, puisse disposer d'instructions exécutées par l’unité de traitement 401. Le dispositif 400 peut comprendre une unité de traitement graphique 403 implémentée sur une carte graphique, sur une carte-mère, ou dans une unité centrale de traitement. L’unité de traitement graphique peut générer un affichage du rendu 3D sur un dispositif d’affichage.
L’invention fournit aussi un produit programme d’ordinateur pour déterminer une représentation en trois dimensions de la couverture spatiale d’un système de détection, le produit programme d’ordinateur comprenant des instructions de code de programme informatique qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs dans un ordinateur, amènent l’’unité de traitement à exécuter le procédé de détermination de représentation.
La figure 5 représente un exemple de couverture spatiale d’un système de détection de type sonar utilisé dans un dispositif de lutte-anti-sous-marins obtenue en utilisant une technique d’affichage de probabilités de détection de l’état de l’art. Cette représentation est générée à partir des données de probabilité du système de détection en fonction de la distance par rapport à la position de antenne du système de détection et de la profondeur entre la surface et le fond marin, en utilisant un codage couleur, ce qui permet d’évaluer la capacité du sonar à détecter une menace. Dans l’exemple de la figure 5, la zone 1 qui correspond à une zone associée à 100% de probabilité de détecter une menace (plateforme ennemie par exemple) et la zone 2 correspond à une zone associée à 0% de probabilité de détecter une menace. Les formes ainsi obtenues sont complexes et non-uniformes.
La figure 6 représente des zones de détection théorique cible dans un dispositif de lutte-anti-sous-marine utilisant des cercles pour identifier la protection prévue d’une flotte navale contre une menace éventuelle et la figure 7 représente des zones de détection réaliste, dans un exemple d’application du dispositif de détermination de représentation à la détection d’objets en environnement sous-marin. Les deux figures montrent que la zone globale de détection réelle est éloignée de la zone globale de détection théorique souhaitée, ce qui ne permet pas d’assurer une surveillance préventive efficace afin de protéger la flotte navale et peut représenter un danger en présence d’ennemis éventuels.
La figure 7 représente un exemple de couverture spatiale d’un système de détection de type sonar obtenue selon un mode de réalisation avec rendu volumique des probabilités de détection du système de détection, selon un exemple de réalisation de l’invention. Comme illustré par la figure 7, la représentation en trois dimensions de la couverture spatiale selon l’invention permet d’afficher une vue globale de la zone complète en trois dimensions, de couvrir une zone très importante à l’échelle de la flotte navale, de mettre en évidence les zones dangereuses non insonifiées et les cuvettes de non détection.
Claims (13)
- Procédé pour déterminer une représentation en trois dimensions de la couverture spatiale d’un système de détection évoluant dans une zone géographique à partir d’un ensemble de données comprenant une probabilité de détection du système déterminée dans une zone de calcul incluse dans ladite zone géographique, la couverture spatiale du système étant représentée selon une position et une orientation de visualisation données, les données dudit ensemble comprenant des données de position de la zone de calcul et des données de dimensions de la zone de calcul, caractérisé en ce que le procédé comprend une étape consistant à déterminer un rendu 3D de ladite probabilité de détection à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension (201, 203, 205, 207, 211).
- Procédé selon la revendication 1, caractérisé en ce qu’il comprend en outre une étape consistant à déterminer (203) une structure de données principale ayant au moins trois dimensions à partir desdites données de probabilité.
- Procédé selon l’une des revendications 1 et 2, caractérisé en ce qu’il comprend en outre une étape consistant à déterminer (205) un rendu de profondeur du volume englobant la zone de calcul à partir des données de position de la zone de calcul, des données de dimension, et de la position et de l’orientation de visualisation.
- Procédé selon les revendications 2 et 3, caractérisé en ce que ledit rendu 3D est volumique et en ce que le procédé comprend en outre une étape consistant à :
- déterminer (207) un rendu volumique de la probabilité de détection suivant au moins une fonction dans un espace colorimétrique donné à partir de ladite structure de données principale et dudit rendu de profondeur. - Procédé selon la revendication 4, caractérisé en ce que ladite étape de détermination d’un rendu volumique (207) comprend les étapes consistant à:
- déterminer (2070) un rendu volumique en niveaux de gris de la probabilité de détection à partir de ladite structure de données principale et dudit rendu de profondeur ;
- déterminer (2090) un rendu volumique en couleurs de la probabilité de détection à partir du rendu volumique en niveaux de gris. - Procédé selon l’une des revendications précédentes, caractérisé en ce que ledit rendu 3D est surfacique et en ce que le procédé comprend en outre une étape consistant à déterminer (211) un rendu surfacique à partir de la probabilité de détection, des données de position de la zone de calcul, des données de dimensions, d’au moins une valeur de seuil de probabilité de détection, et de la position et de l’orientation de visualisation.
- Procédé selon la revendication 6, caractérisé en ce que l’étape (211) de détermination dudit rendu surfacique comprend la génération d’objets polygonaux à partir de la matrice de données en trois dimensions pour approximer au moins une iso-surface conduit à parti dudit seuil de probabilité de détection.
- Procédé selon la revendication 2, caractérisé en ce que ledit ensemble de données comprend en outre une résolution d’entrée, ladite résolution d’entrée correspondant à une distance entre deux points de ladite zone de calcul, et en ce que ladite étape de détermination de la structure de données principale comprend les étapes consistant à :
- générer une structure de données auxiliaire à partir d’au moins certaines des données de probabilité, ladite structure de données auxiliaire ayant des dimensions définies à partir de ladite résolution d’entrée ;
- déterminer une structure de données principale en utilisant une conversion des données de la structure auxiliaire en données colorimétriques. - Procédé selon l’une des revendications 3 à 5, caractérisé en ce qu’une image de profondeur comprend un ensemble de surfaces associées à des informations de position, et en ce que l’étape (205) de détermination dudit rendu de profondeur comprend la détermination d’une première image de profondeur d’un cube englobant ladite structure de données 3D et d’une seconde image de profondeur de la face arrière dudit cube, la profondeur du cube englobant ladite structure de données principale représentant la distance de la surface dudit cube par rapport à la position et à l’orientation de visualisation, ledit rendu de profondeur comprenant la première image de profondeur et la seconde image de profondeur.
- Procédé selon les revendications 4 et 9, caractérisé en ce que l’étape de détermination d’un rendu volumique (207) comprend la détermination dudit rendu volumique à partir de ladite structure de données principale et desdites première image de profondeur et seconde image de profondeur en appliquant un algorithme de calcul de rendu volumique de type lancer de rayons par accumulation.
- Procédé selon l’une des revendications 3 à 5, caractérisé en ce que lesdites fonctions comprennent au moins une fonction de transfert définie à partir d’une borne de probabilité minimale, d’une borne de probabilité maximale, d’une borne de colorimétrie minimale, et d’une borne de colorimétrie maximale, ladite fonction de transfert étant configurée pour exécuter une interpolation entre ladite borne de colorimétrie minimale et ladite borne de colorimétrie maximale, l’espace colorimétrique dans lequel est déterminé ledit rendu volumique représentant une probabilité de détection comprise entre ladite borne de probabilité minimale et ladite borne de probabilité maximale.
- Dispositif (400) pour déterminer une représentation en trois dimensions de la couverture spatiale d’un système de détection se déplaçant dans une zone géographique à partir d’un ensemble de données comprenant une probabilité de détection déterminée dans une zone de calcul incluse dans ladite zone géographique, la couverture spatiale du système de détection étant représentée selon une position et une orientation de visualisation données, les données dudit ensemble comprenant des données de position de la zone de calcul et des données de dimensions de la zone de calcul, caractérisé en ce que le dispositif est configuré pour déterminer un rendu 3D de ladite probabilité de détection à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension.
- Produit programme d’ordinateur pour déterminer une représentation en trois dimensions de la couverture spatiale d’un système de détection se déplaçant dans une zone géographique à partir d’un ensemble de données comprenant une probabilité de détection déterminée dans une zone de calcul incluse dans ladite zone géographique, la couverture spatiale du système de détection étant représentée selon une position et une orientation de visualisation données, les données dudit ensemble comprenant des données de position de la zone de calcul et des données de dimensions de la zone de calcul, le produit programme d’ordinateur comprenant des instructions de code de programme informatique qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs amènent le ou les processeurs à déterminer un rendu 3D de ladite probabilité de détection à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1907673A FR3098601B1 (fr) | 2019-07-09 | 2019-07-09 | Procede de representation en trois dimensions de la couverture d'un systeme de detection |
AU2020312182A AU2020312182A1 (en) | 2019-07-09 | 2020-07-08 | Method for three-dimensional representation of the spatial coverage of one or more detection systems |
EP20736352.4A EP3997480A1 (fr) | 2019-07-09 | 2020-07-08 | Procede de representation en trois dimensions de la couverture spatiale d'un ou plusieurs systemes de detection |
PCT/EP2020/069214 WO2021005096A1 (fr) | 2019-07-09 | 2020-07-08 | Procede de representation en trois dimensions de la couverture spatiale d'un ou plusieurs systemes de detection |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1907673A FR3098601B1 (fr) | 2019-07-09 | 2019-07-09 | Procede de representation en trois dimensions de la couverture d'un systeme de detection |
FR1907673 | 2019-07-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3098601A1 true FR3098601A1 (fr) | 2021-01-15 |
FR3098601B1 FR3098601B1 (fr) | 2022-09-02 |
Family
ID=68733210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1907673A Active FR3098601B1 (fr) | 2019-07-09 | 2019-07-09 | Procede de representation en trois dimensions de la couverture d'un systeme de detection |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3997480A1 (fr) |
AU (1) | AU2020312182A1 (fr) |
FR (1) | FR3098601B1 (fr) |
WO (1) | WO2021005096A1 (fr) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108874932A (zh) * | 2018-05-31 | 2018-11-23 | 哈尔滨工程大学 | 一种基于改进的光线投射算法的海洋水声场三维可视化方法 |
-
2019
- 2019-07-09 FR FR1907673A patent/FR3098601B1/fr active Active
-
2020
- 2020-07-08 WO PCT/EP2020/069214 patent/WO2021005096A1/fr unknown
- 2020-07-08 AU AU2020312182A patent/AU2020312182A1/en active Pending
- 2020-07-08 EP EP20736352.4A patent/EP3997480A1/fr active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108874932A (zh) * | 2018-05-31 | 2018-11-23 | 哈尔滨工程大学 | 一种基于改进的光线投射算法的海洋水声场三维可视化方法 |
Non-Patent Citations (2)
Title |
---|
LIV HOVLAND: "Visualization of 3D Structures in Underwater Volumes in Sonar Performance Context", 1 June 2004 (2004-06-01), Østfold University College, XP055688034, Retrieved from the Internet <URL:http://www.ia.hiof.no/~gunnarmi/masters/hovland2004v3s.pdf> [retrieved on 20200421] * |
WALSH COREY H ET AL: "CDDT: Fast Approximate 2D Ray Casting for Accelerated Localization", 2018 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), IEEE, 21 May 2018 (2018-05-21), pages 1 - 8, XP033403246, DOI: 10.1109/ICRA.2018.8460743 * |
Also Published As
Publication number | Publication date |
---|---|
WO2021005096A1 (fr) | 2021-01-14 |
FR3098601B1 (fr) | 2022-09-02 |
EP3997480A1 (fr) | 2022-05-18 |
AU2020312182A1 (en) | 2022-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11656353B2 (en) | Object measurement using deep learning analysis of synthetic aperture radar backscatter signatures | |
US9702966B2 (en) | Synthetic underwater visualization system | |
US7990804B2 (en) | Method and system for real-time automated change detection and classification for images | |
US20080175434A1 (en) | Automatic target recognition system for detection and classification of objects in water | |
FR2953313A1 (fr) | Systeme optronique et procede d'elaboration d'images en trois dimensions dedies a l'identification | |
FR3010799A1 (fr) | Systeme de detection et de localisation d'objets immerges flottant entre deux eaux tels que des mines a orins et procede associe | |
Li et al. | Exploring modern bathymetry: A comprehensive review of data acquisition devices, model accuracy, and interpolation techniques for enhanced underwater mapping | |
FR3013867A1 (fr) | Procede de simulation de propagation d'ondes ; simulateur, programme d'ordinateur et support d'enregistrement pour la mise en œuvre du procede | |
Wilson et al. | Branching algorithm to identify bottom habitat in the optically complex coastal waters of Atlantic Canada using sentinel-2 satellite imagery | |
Mandlburger | A review of active and passive optical methods in hydrography | |
Liniger et al. | On the autonomous inspection and classification of marine growth on subsea structures | |
US9767361B2 (en) | Bathymetric techniques using satellite imagery | |
McIntyre et al. | Mapping shallow nearshore benthic features in a Caribbean marine-protected area: assessing the efficacy of using different data types (hydroacoustic versus satellite images) and classification techniques | |
EP3997479A1 (fr) | Procede de determination de la couverture spatiale d'un systeme de detection | |
Fan et al. | Underwater ice adaptive mapping and reconstruction using autonomous underwater vehicles | |
Zhu et al. | Seafloor Classification Combining Shipboard Low-Frequency and AUV High-Frequency Acoustic Data: A Case Study of Duanqiao Hydrothermal Field, Southwest Indian Ridge | |
FR3098601A1 (fr) | Procede de representation en trois dimensions de la couverture d'un systeme de detection | |
FR3070768A1 (fr) | Procede de classification automatique d'un navire cible et systeme radar associe | |
Pittman et al. | Outlining a methodological pathway to improve the global seagrass map | |
FR3055422A1 (fr) | Procede de generation d'une image radar a synthese d'ouverture inverse | |
EP3757943B1 (fr) | Procédé et dispositif de télémétrie passive par traitement d'image et utilisation de modeles en trois dimensions | |
Voinov | Deep learning-based vessel detection from very high and medium resolution optical satellite images as component of maritime surveillance systems | |
Bonnett | Coherent change detection in repeat-pass synthetic aperture sonar | |
Camp | Evaluation of object detection algorithms for ship detection in the visible spectrum | |
Ashphaq | Bathymetric analysis using multi-spectral satellite data through machine learning algorithms in varying coastal regions of India |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20210115 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |