FR2987151A1 - Systeme d'aide au sauvetage par helicoptere - Google Patents

Systeme d'aide au sauvetage par helicoptere Download PDF

Info

Publication number
FR2987151A1
FR2987151A1 FR1200444A FR1200444A FR2987151A1 FR 2987151 A1 FR2987151 A1 FR 2987151A1 FR 1200444 A FR1200444 A FR 1200444A FR 1200444 A FR1200444 A FR 1200444A FR 2987151 A1 FR2987151 A1 FR 2987151A1
Authority
FR
France
Prior art keywords
interest
images
area
areas
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1200444A
Other languages
English (en)
Other versions
FR2987151B1 (fr
Inventor
Christian Nouvel
Jean Noel Perbet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR1200444A priority Critical patent/FR2987151B1/fr
Priority to US13/769,128 priority patent/US20130215268A1/en
Publication of FR2987151A1 publication Critical patent/FR2987151A1/fr
Application granted granted Critical
Publication of FR2987151B1 publication Critical patent/FR2987151B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/24765Rule-based classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Système d'aide au sauvetage d'une cible en aéronef, comprenant des moyens de commande comprenant des moyens permettant à l'équipage de tracer au moins un contour délimitant une zone d'intérêt, dite zone d'intérêt tracée (ZT1, ZT2), sur les images pilotes (IP1, IP2, IP3) qui lui sont présentées, des premiers moyens de calcul pour identifier sur des images de sortie (IS1, IS2, IS3) d'au moins une caméra, au moins une zone d'intérêt, dite zone d'intérêt identifiée (ZI1), dans laquelle est susceptible de se trouver un objet prédéterminé, un système expert apte à attribuer un coefficient de vraisemblance à la dite au moins une zone d'intérêt identifiée (ZI1, ZI2), des deuxièmes moyens de calcul pour attribuer un coefficient de vraisemblance à ladite au moins une zone d'intérêt tracée (ZT1, ZT2) et, des troisièmes moyens de calcul pour déterminer au moins une zone d'intérêt pertinente (ZP1) à partir des positions et coefficients de vraisemblance attribués à un ensemble de zones d'intérêt (ZT1, ZT2, ZI1) comprenant au moins une zone d'intérêt identifiée (ZI1) dans laquelle est susceptible de se trouver ledit objet et/ou au moins une zone d'intérêt tracée (ZT1, ZT2) sur un ensemble d'images comprenant au moins une image pilote (IP1, IP2, IP3) et/ou au moins une image de sortie (IS1, IS2, IS3), lesdits moyens d'affichage étant aptes à présenter à l'équipage ladite au moins une première zone d'intérêt pertinente (ZP1) sur au moins un écran.

Description

SYSTEME D'AIDE AU SAUVETAGE PAR HELICOPTERE Le domaine de l'invention est celui des missions de sauvetage en aéronef, notamment en hélicoptère dans des endroits isolés. Ce genre de mission consiste, par exemple, à partir très vite sur réception d'une alerte pour aller repérer des blessés dans des conditions difficiles et/ou extrêmes : dans les montagnes, dans des conditions hivernales (neige, avalanches...) ou en été ; en mer, pour aller repêcher des naufragés. La problématique pour l'équipage dans ce genre de missions est d'aller le plus vite possible sur les lieux de l'accident en conditions de vol à vue souvent dégradées (conditions météorologiques difficiles, crépuscules), de trouver la ou les personnes recherchées tout en ayant des connaissances très imprécises sur l'endroit exact de l'accident, d'éventuellement se poser à proximité dans des endroits difficiles (par exemple sur la neige, la glace...) ou de procéder à l'hélitreuillage et de revenir au plus vite vers un hôpital avec la ou les personnes recherchées avant la nuit (interdiction de voler la nuit). Actuellement, les hélicoptères utilisés pour ces missions sont des hélicoptères performants mais l'équipage est toujours réduit à travailler de manière «rustique» : pour repérer un blessé ou une petite embarcation, l'équipage travaille essentiellement avec la vue et des jumelles classiques, parfois avec des jumelles de vision nocturne et/ou une caméra infrarouge et/ou un radar. Pour piloter près du sol et se poser, l'équipage doit avoir une grande expérience des situations géographiques pour ressentir le vent local, pour estimer la qualité du sol, pour appréhender le relief (c'est par exemple très difficile dans un environnement uni comme la neige...). Toutefois, comme les conditions de visibilité sont dégradées en terme de visibilité et que l'équipage est soumis à des mouvements turbulents, il est difficile de trouver une cible et de trouver une aire de poser en se basant uniquement sur une vision directe ou à l'aide de jumelles. Par ailleurs, les moyens de mémorisation en vol sont essentiellement le cerveau de l'homme. Dans ces conditions, on peut passer à coté d'un blessé, rater des indices par conditions de visibilité qui se dégradent et manquer de précision pour revenir sur cette zone.
Le but de la présente invention est de proposer un système d'aide au sauvetage en hélicoptère pour aider l'équipage à trouver une cible (personne, groupe de personnes, véhicule) à sauver.
Un autre but de l'invention est de proposer un système d'aide au sauvetage en hélicoptère pour aider l'équipage à trouver une aire d'atterrissage sur laquelle l'hélicoptère est susceptible de se poser. A cet effet l'invention a pour objet un système d'aide au sauvetage d'une cible en aéronef comprenant de façon embarquée dans l'aéronef : - au moins une caméra apte à fournir des images d'une scène de l'environnement de l'aéronef, - des moyens d'affichage permettant de présenter à l'équipage des images, appelées images pilotes issues des images de sortie ladite au moins une caméra, sur au moins un écran, - des moyens de commande comprenant des moyens permettant à l'équipage de tracer au moins un contour délimitant une zone d'intérêt, dite zone d'intérêt tracée, sur les images pilotes qui lui sont présentées, - des premiers moyens de calcul pour identifier sur des images de sortie de la dite au moins une caméra, au moins une zone d'intérêt, dite zone d'intérêt identifiée, dans laquelle est susceptible de se trouver un objet prédéterminé, - un système expert apte à attribuer un coefficient de vraisemblance à la dite au moins une zone d'intérêt identifiée, - des deuxièmes moyens de calcul pour attribuer un coefficient de vraisemblance à ladite au moins une zone d'intérêt tracée et, - des troisièmes moyens de calcul pour déterminer au moins une zone d'intérêt pertinente à partir des positions et coefficients de vraisemblance attribués à un ensemble de zones d'intérêt comprenant au moins une zone d'intérêt identifiée dans laquelle est susceptible de se trouver ledit objet et/ou au moins une zone d'intérêt tracée sur un ensemble d'images comprenant au moins une image pilote et/ou au moins une image de sortie, - lesdits moyens d'affichage étant aptes à présenter à l'équipage ladite au moins une première zone d'intérêt pertinente sur au moins un 35 écran.
Avantageusement, le système comprend au moins une des caractéristiques suivantes prises seules ou en combinaison : - le système expert est apte à utiliser des connaissances de base comprenant des connaissances sur l'environnement géographique de l'aéronef, sur les conditions météorologiques, sur ledit objet, sur les caractéristiques techniques de ladite au moins une caméra, sur des caractéristiques de l'aéronef, pour en déduire, en utilisant des règles, des valeurs de faits relatifs aux caractéristiques de l'objet sur les images de sortie de ladite au moins une caméra et sur la qualité des images issues de ladite au moins une caméra, - le système expert est apte à déclencher des actions pour améliorer la qualité des images sur lesquelles les premiers moyens de calcul identifient les zones d'intérêt identifiées, le système expert étant apte à en tenir compte dans le cadre de l'exécution de règles pour attribuer des valeurs à des faits, - le système expert est apte à déclencher l'allumage et/ou l'extinction d'au moins un projecteur apte à émettre une lumière visible et éventuellement une lumière ultra-violette, dans le champ de vision de ladite au moins une caméra et/ou à déterminer au moins un procédé de prétraitement des images de sortie de ladite au moins une caméra et à déclencher l'exécution dudit au moins un procédé par le module de calcul, - le système expert est apte à déterminer au moins un procédé de traitement pour identifier des zones d'intérêt identifiées sur les images de sortie de ladite au moins une caméra et à déclencher l'exécution dudit au moins un procédé par le module de calcul, - les premiers moyens de calcul sont aptes à identifier une zone d'intérêt identifiée dans laquelle un objet correspondant à une cible à sauver est susceptible de se trouver, - les premiers moyens de calcul sont aptes à identifier une zone d'intérêt identifiée dans laquelle un objet correspondant à une aire d'atterrissage de l'aéronef est susceptible de se trouver, - les caractéristiques de l'aire d'atterrissage comprennent une condition sur ses dimensions, une condition sur sa pente et une condition sur la dureté du sol, - il comprend des moyens permettant de délivrer en temps réel, au système expert des connaissances sur l'état courant de l'aéronef et des moyens permettant de délivrer en temps réel, au système expert, des connaissances sur les conditions météorologiques, - les moyens d'affichage sont aptes à présenter à l'équipage les zones d'intérêt identifiées, - les représentations des zones d'intérêt sont des polygones délimitant lesdites zones d'intérêt, - les moyens de commande comprennent des moyens permettant à l'équipage de sélectionner des images expertes et de les copier dans une zone d'affichage dédiée à l'affichage des images pilote, - le coefficient de vraisemblance attribué aux zones d'intérêt tracées est égal à 0,5, - les moyens de commande comprennent des moyens permettant à l'équipage de sélectionner l'ensemble d'images, - l'ensemble de zones d'intérêt comprend plusieurs zones d'intérêt, les troisièmes moyens de calcul déterminent ladite au moins une zone d'intérêt pertinente en attribuant, aux zones d'intérêt dudit ensemble, un coefficient de corrélation, le coefficient de corrélation attribué à une zone d'intérêt étant une fonction dudit coefficient de vraisemblance attribué à la zone d'intérêt considérée et d'une distance séparant la zone d'intérêt considérée des autres zones d'intérêt de l'ensemble de zones d'intérêt, - les troisièmes moyens de calcul déterminent une unique zone d'intérêt pertinente correspondant à la zone d'intérêt présentant le coefficient de corrélation le plus élevé, - les troisièmes moyens de calcul déterminent plusieurs zones d'intérêt pertinentes correspondant aux zones d'intérêt présentant un coefficient de corrélation supérieur à un seuil prédéterminé, - lorsque les troisièmes moyens de calcul déterminent plusieurs 30 zones d'intérêt pertinentes, les moyens d'affichage représentent différemment les zones d'intérêt pertinentes qui présentent des coefficients de corrélation différents, - il comprend au moins une caméra sensible dans le domaine visible et en dehors du domaine visible et/ou au moins une caméra sensible 35 dans le domaine visible et une caméra sensible en dehors du visible, - il comprend trois caméras fonctionnant respectivement dans le rayonnement ultra-violet, le rayonnement visible et le rayonnement infrarouge, - il comprend une pluralité de caméras disposées de façon que leurs centres optiques respectifs soient disposés sur une courbe elliptique ou parabolique. D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description détaillée qui suit, faite à titre d'exemple non limitatif et en référence aux dessins annexés dans lesquels : - la figure 1 représente schématiquement un mode de réalisation du système selon l'invention, - la figure 2 représente schématiquement en vue de dessus, une façon d'installer des éléments du système de la figure 1 sur un hélicoptère (le rotor de l'hélicoptère n'étant pas représenté pour plus de clarté), - la figure 3 représente schématiquement une façon de présenter des images et des zones d'intérêt au pilote sur l'écran pilote, - la figure 4 représente schématiquement les principales étapes d'un procédé mis en oeuvre par le système selon l'invention, - la figure 5 représente schématiquement, sur un même repère image, un ensemble de zones d'intérêt. D'une figure à l'autre, les mêmes éléments sont repérés par les mêmes références.
Sur la figure 1, on a représenté schématiquement les différents éléments du système d'aide au sauvetage en aéronef selon l'invention. Sur la réalisation des figures, l'aéronef est un hélicoptère H. Le système selon l'invention comprend un ensemble de moyens de capture A aptes à délivrer des informations en temps réel à un ensemble 30 de moyens de calcul B qui sont par exemple des calculateurs. Les moyens de capture A comprennent un ensemble de caméras sensibles dans des bandes spectrales différentes. Dans l'exemple représenté sur la figure 1, le système comprend une caméra sensible en lumière visible 1, une caméra infrarouge 2 et une caméra sensible dans le 35 domaine des ultraviolets 3.
Comme visible sur la figure 2, les caméras 1, 2, 3 sont agencées, sur l'hélicoptère H, de façon à capturer des images d'une même scène de l'environnement de l'aéronef située dans le champ de vision de l'équipage. Ces trois caméras délivrent en temps réel des images numériques aux moyens de calcul B. Les caméras 1, 2, 3 sont orientées vers l'avant et vers le bas de l'hélicoptère H de façon à capturer des images d'une scène située dans le champ de vision de l'équipage. L'axe x est un axe s'étendant longitudinalement de l'arrière vers l'avant de l'hélicoptère.
Les caméras respectives 1, 2, 3 sont orientées selon des axes optiques x1, x2, x3 respectifs coplanaires mais non parallèles. Toutefois, les caméras sont disposées de façon que leurs champs de vision respectifs se recoupent et que la scène à visualiser se trouve dans la zone où les champs de vision se recoupent. Le non parallélisme des centres optiques permet de privilégier la détection d'objets à partir d'images issues de trois caméras plutôt que l'identification précises des positions ces objets. Comme visible sur la figure 2, ces caméras 1, 2, 3 sont installées sur l'hélicoptère H. Elles sont espacées sur un support 103 présentant une forme concave, de préférence elliptique ou parabolique, orientée vers l'avant de l'hélicoptère de façon que leurs centres optiques respectifs soient disposés sur une courbe elliptique ou parabolique. La forme parabolique ou elliptique du support utilisé permet de simplifier certains types de calcul effectués en temps réel pour comparer les images fournies (superposition des images dans un repère image unique). Le système selon l'invention comprend avantageusement au moins un projecteur de lumière agencé de façon à éclairer la scène capturée par les caméras.
Sur l'exemple représenté sur la figure 2, le système selon l'invention comprend un projecteur classique 101 émettant de la lumière visible blanche. Ce type de projecteur est classiquement utilisé lors des phases d'atterrissage.
Sur la réalisation de la figure 2, le système comprend également un projecteur additionnel 102 émettant simultanément en lumière visible et en ultraviolet. Le système comprend des moyens de commande 8 qui seront décrits ultérieurement. Avantageusement, les moyens de commande 8 comprennent des moyens permettant à l'équipage d'allumer et d'éteindre les projecteurs et/ou le système expert qui sera décrit ultérieurement. Ce système expert est apte aussi à commander l'allumage et l'extinction de ces projecteurs.
Les projecteurs 101, 102 permettent d'améliorer la qualité des images issues de caméras visibles et ultraviolette (énergie reçue par les caméras et contrastes améliorés) lorsque la luminosité est faible et donc d'identifier plus facilement la cible ainsi que l'aire d'atterrissage.
Le système comprend en outre des moyens 11 pour délivrer en temps réel des informations sur l'état courant de l'hélicoptère. Ces moyens comprennent des moyens 12 pour déterminer la position de l'aéronef qui délivrent des mesures de position de l'aéronef. Ces moyens 12 comprennent, par exemple, des systèmes permettant de délivrer des mesures de la latitude et de la longitude comme, par exemple, un système de positionnement GPS (acronyme de l'expression anglo-saxonne « Global Positionning System »), des moyens radioélectriques, une ou plusieurs centrales inertielles, un système de gestion de vol FMS (acronyme de l'expression anglo-saxonne « Flight Management System »). Ces moyens 12 peuvent en outre comprendre au moins un capteur d'altitude qui délivre des informations sur l'altitude courante de l'hélicoptère comme, par exemple, un altimètre, une centrale inertielle. Ces moyens 12 peuvent également comprendre un ou plusieurs capteurs de hauteur aptes à délivrer des informations sur la hauteur courante de survol du terrain. Les capteurs de hauteur sont, par exemple, des systèmes actifs de type radio-sonde et/ou des systèmes qui calculent la hauteur en fonction de la position courante de l'hélicoptère et du contenu d'une base de données terrain embarquée. Les moyens 11 comprennent également des moyens 13 pour déterminer l'attitude de l'hélicoptère aptes à délivrer des informations sur les angles de roulis, d'assiette et de lacet de l'hélicoptère. Ces moyens peuvent comprendre des systèmes gyroscopiques standards de type horizon artificiel, indicateur de virage, conservateur de cap présents dans les hélicoptères légers et/ou des systèmes de type centrale à inertie sur des hélicoptères plus sophistiqués. Le système comprend en outre des moyens 14 pour délivrer, en temps réel, des informations sur les conditions météorologiques. Ces données météorologiques peuvent permettre d'évaluer les conditions de vol, d'atterrissage et de visibilité. Elles ont une influence sur la qualité des images en sortie des caméras appelées images de sortie des caméras dans la suite du texte. Ces données météorologiques comprennent, par exemple, des informations sur la pression de l'atmosphère et/ou sur la température de l'atmosphère et/ou sur un niveau d'humidité de l'air et/ou sur la position du soleil et/ou sur des turbulences et/ou sur la visibilité et/ou sur la force et/ou la direction du vent et/ou sur les conditions climatiques (neige, brouillard, pluie, givre). Ces moyens 14 peuvent comprendre des capteurs météorologiques aptes à faire des mesures de grandeurs représentatives de la météorologie comme, par exemple, des sondes standards (thermomètres numériques), des équipements de type altimètre (pression statique), des centrales aérodynamique. Ces moyens peuvent également comprendre des liaisons radio et/ou satellites non représentées aptes à fournir à l'hélicoptère des informations météorologiques. Ces informations peuvent également comprendre des informations sur la houle, sur la marée. Le système selon l'invention comprend en outre des moyens de commande 8. Ces moyens de commande 8 comprennent avantageusement des moyens permettant à l'équipage de saisir des informations météorologiques. Le système selon l'invention comprend également des moyens de stockage 15 aptes à stocker des informations qui seront décrites ultérieurement. Ces moyens de stockage peuvent être utilisés en temps réel en lecture ou en écriture par les moyens de calcul B qui seront décrits ultérieurement. Les moyens de stockage 15 peuvent être alimentés en données avant le vol ou pendant le vol, par l'équipage au moyen des moyens de commande 8. Des listes dans lesquelles l'équipage peut sélectionner des paramètres sont avantageusement affichées sur un écran au moyen du module graphique 9B afin que l'équipage réalise des sélections au moyen des moyens de commande. Les moyens de stockage 15 peuvent également être alimentés par les moyens de capture A. Ils peuvent également être alimentés au 5 moyen de clés USB ou de cartes mémoires sécurisées. Le système selon l'invention comprend également un calculateur 9 ainsi qu'un système expert 10 embarqués à bord de l'aéronef. Le calculateur 9 comprend un module graphique 9B ainsi qu'un module de calcul 9A. Le module de calcul 9A est apte à recevoir en temps réel des 10 informations en provenance de l'ensemble de moyens de capture A. Il est apte à mettre en oeuvre des procédés de traitement d'images pour détecter une cible, d'estimation de la taille d'un objet sur une image en sortie d'une caméra. Le système expert 10 est apte à poser des questions au module 15 de calcul 9A, à déclencher des actions, et à recevoir des réponses de ce modèle de calcul 9A. Le module graphique 9B est capable d'afficher des images synthétiques 2D et/ou 3D ainsi que des images en provenance des trois caméras 1, 2, 3 (qui sont préalablement lues au moyen du module de calcul 20 9A) sur des écrans 7A, 7B visibles par l'équipage. Un premier écran 7A est l'écran du pilote. Un deuxième écran 7B est l'écran du co-pilote 7B. Ces écrans sont pilotés par le module graphique 9B du calculateur 9. Ces écrans sont avantageusement de type Multi Fonction Display (MFD) couleurs, munis localement de la commande 25 marche/arrêt ainsi que des réglages de luminosité et de contraste. La technologie est standard (Tubes, LCD, rétro projection...). Dans un exemple de réalisation, ces moyens de commande comprennent un certain nombre de boutons à deux états (enfoncé/relâché) permettent d'activer ou de désactiver un ensemble de fonctions et, par 30 exemple, des potentiomètres permettent de faire des réglages fins sur les luminosités, contrastes des images. Nous allons maintenant décrire plus précisément le fonctionnement du système d'aide au sauvetage selon l'invention en référence à la figure 3.
Les caméras 1, 2, 3 capturent des images d'une scène de l'environnement de l'hélicoptère située dans le champ de vision de l'équipage. Des moyens d'affichage comprenant le module graphique 9B, sont aptes à présenter au pilote des images pilotes IP1, IP2, IP3, qui sont issues des caméras respectives 1, 2, 3 sur au moins un écran d'affichage. Ici, les moyens d'affichage sont aptes à présenter des images pilotes issues des caméras 1, 2 ,3 sur les écrans pilote 7A et copilote 7B. Sur la figure 3, on a représenté l'écran pilote 7A et sur lequel les moyens d'affichage affichent simultanément un certain nombre d'informations. Avantageusement, des informations identiques sont affichées sur l'écran copilote. En variante, ces informations sont affichées sur un unique écran. L'écran pilote 7A se décompose, sur cet exemple non limitatif, en 15 quatre zones d'affichage 201, 202, 203, 204. Chacune de ces zones s'étend sur toute la largeur de l'écran. Une première zone d'affichage 201, qui est ici une zone supérieure, située en partie supérieure de l'écran 7A, sur laquelle les moyens de présentation sont aptes à présenter au pilote des première IB1, deuxième 20 IB2 et troisième IB3 images brutes qui sont des images de sortie des trois caméras respectives 1, 2, 3. Ces images sont affichées côte à côte dans la zone supérieure 201. Une mire de calibration est éventuellement affichée sur ces écrans mais n'est pas représentée ici. 25 Les moyens d'affichage sont aptes à présenter au pilote, sur une zone d'affichage de travail 202 dédiée à l'affichage d'images pilotes, s'étendant sous la première zone d'affichage 201, des première IP1, deuxième IP2 et troisième IP3 images pilotes issues des images de sorties des trois caméras respectives 1, 2, 3. Ces trois images sont affichées côte à 30 côte dans la zone d'affichage de travail 202. Les images pilotes IP1, IP2, IP3 ne sont pas les images brutes de sortie des caméras 1, 2, 3. Elles ont avantageusement subi des modifications permettant à l'équipage de les interpréter plus facilement. Ces modifications sont avantageusement réalisées par le module graphique 9B. Elles 35 comprennent, par exemple, des transformations colorimétriques des images qui permettent de présenter ces images de façon à être plus facilement interprétables par l'équipage, comme, par exemple, des passages en pseudo couleurs (rouge, bleu, vert) et/ou des changements de niveau de luminosité et/ou de contraste.
Les moyens de commande 8 comprennent des moyens permettent avantageusement à l'équipage de déclencher des modifications des images pilote IP1, IP2, IP3. Dans le système selon l'invention, les moyens de commande 8 comprennent des moyens permettant à l'équipage (pilote et/ou copilote) de tracer, sur les images pilotes IP1, IP2, IP3, des contours, par exemple sous forme de polygones, délimitant des premières zones d'intérêt ZT1, ZT2, appelées zones d'intérêt tracées. Avantageusement, sur la figure 3, ces polygones sont des rectangles d'indice i notés RTi (RT1, RT2). Les contours sont superposés aux images sur lesquelles ils sont tracés. Avantageusement, les zones d'intérêt tracées ZT1, ZT2 sont présentées différemment au pilote selon les caméras d'où proviennent les images pilotes sur lesquelles elles sont tracées. Par exemple, la couleur des contours est spécifique aux caméras dont sont issues les images pilotes sur lesquelles ils sont tracés. Par exemple, un polygone tracé sur une image issue de la caméra infrarouge est tracé en rouge, un polygone tracé sur une image issue de la caméra ultraviolette est tracé en bleu et un polygone tracé sur une image issue de la caméra visible est tracé dans une couleur différente, par exemple, le vert.
Les moyens de commande 8 comprennent avantageusement des moyens permettant de supprimer et/ou de translater des zones d'intérêt (c'est-à-dire de translater les polygones délimitant les zones d'intérêt) et/ou de modifier les dimensions des zones d'intérêt comme, par exemple, la hauteur et/ou la largeur d'une zone d'intérêt tracée sur une image pilote (c'est-à-dire de modifier la largeur et/ou la hauteur des polygones délimitant les zones d'intérêt). Le module de calcul 9A du calculateur 9 associe des attributs à chaque zone d'intérêt tracée comprenant un numéro unique, une position bidimensionnelle et/ou tridimensionnelle, les dimensions du contour, la caméra dont est issue l'image sur laquelle elle a été tracée. Ces attributs sont stockés dans les moyens de stockage 15. Les moyens d'affichage 9B sont aptes à présenter au pilote, sur une zone d'affichage appelée zone d'affichage experte 203 dédiée à l'affichage d'images expertes, des première, deuxième et troisième images expertes 1E1, 1E2, 1E3 qui sont des images issues des images de sortie des trois caméras 1, 2, 3 respectives. Cette zone d'affichage experte 203 s'étend sous la zone d'affichage de travail 102. Les moyens d'affichage sont aptes à y présenter au pilote. Sur l'exemple représenté, ces images sont affichées côte à côte. Les moyens d'affichage sont en outre aptes à présenter au pilote des zones d'intérêt identifiées, ici une seule ZI1. Ces zones d'intérêt sont représentées par des contours pouvant être des polygones, et qui ici, sont un rectangle noté R11. Ces contours sont superposés aux images expertes 1E1, 1E2 issues des images de sortie des caméras sur lesquelles les zones d'intérêt qu'ils délimitent ont été respectivement identifiées. Avantageusement, les zones d'intérêt identifiées sont présentées différemment au pilote selon les caméras d'où sont issues les images sur lesquelles ils ont été identifiés. Par exemple, la couleur des polygones est spécifique aux caméras dont sont issues les images expertes auxquelles ils sont superposés. Les images expertes 1E1, 1E2, 1E3, sont avantageusement des images issues des caméras qui ont subi des modifications permettant à l'équipage de les visualiser correctement.
Les moyens de commande 8 comprennent avantageusement des moyens permettant à l'équipage de sélectionner des images expertes 1E1, 1E2, 1E3 et/ou des images de sortie des caméras, et de les copier dans la zone pilote 202 en tant qu'image pilote. Cela permet à l'équipage de délimiter des zones d'intérêt sur les images expertes ou de sortie lorsque celles-ci leur semblent être de meilleure qualité que les images pilotes IP1, IP2, IP3. Le premier écran comprend en outre une quatrième zone appelée zone de synthèse 204. Cette zone de synthèse 204 s'étend sous la zone 35 d'affichage expert 203. Les moyens de présentation sont aptes à y présenter au pilote une image de synthèse IS et à y présenter des zones d'intérêt dites zones d'intérêt pertinentes que nous décrirons dans la suite du texte. Ici, une zone d'intérêt pertinente est identifiée ZP1 et délimitée par un rectangle RP1 superposé à l'image de synthèse IS.
Nous allons maintenant décrire comment sont identifiées les zones d'intérêt identifiées Zli, avec i=1 à n et n=1 sur la figure 3. Les étapes principales mises en oeuvre par le système sont représentées sur la figure 4. Nous avons vu que les caméras 1, 2, 3, capturent 300 des images de l'environnement de l'aéronef.
Des premiers moyens de calcul, ici le module de calcul 9A du premier calculateur 9, reçoivent 301 des images de sortie des caméras 1, 2, 3 et identifient 302, sur ces images, en temps réel, des premières zones d'intérêt identifiées ZI1, dans lesquelles est susceptible de se trouver un objet prédéterminé qui peut être la cible ou une aire d'atterrissage.
Cette identification est réalisée en mettant en oeuvre des procédés de traitement d'image classiques pour l'homme du métier pour identifier, sur une image, une zone d'intérêt dans laquelle un objet prédéterminé est susceptible de se trouver. Le module de calcul 9A effectue avantageusement cette détection à partir d'une estimation du mouvement de l'aéronef et d'informations sur l'objet recherché, notamment sur la taille de l'objet recherché. Le système expert 10, attribue 303 des coefficients de vraisemblance à chacune des zones identifiées par le module de calcul 9A. Les systèmes experts sont connus de l'homme du métier. Ils utilisent des techniques basées sur la logique des prédicats du premier ordre. Ils utilisent une base de faits et règles ainsi qu'un moteur d'inférence, pour aider à la décision. Les faits et les règles décrivent un monde de travail spécifique (ici des missions de sauvetage pour les hélicoptères). Ils sont évolutifs selon l'évolution des types de missions couvertes par le système, en fonction des erreurs faites et de l'acquisition de nouvelles connaissances. Cette évolution s'effectue par des mises à jour des bases de faits et de règles dans les moyens de stockage 15. Les faits sont des doublets entités valeurs. Au début de la mission, les faits sont une liste d'entités dépourvues de valeurs. Le système expert attribue des valeurs à des faits, c'est-à-dire à des entités, lors de la mission au moyen d'un moteur d'inférence utilisant des règles. Pour cela il utilise des connaissances de base qui sont des valeurs de certains faits. Il attribue des valeurs à ces faits et exécute des règles pour attribuer des valeurs à d'autres faits. Il attribue des coefficients de vraisemblance aux différents faits auxquels il attribue une valeur. Les coefficients de vraisemblance sont attribués en utilisant la théorie des possibilités. Ces coefficients peuvent être des fonctions de vraisemblance.
Tout ceci est réalisé dans le but d'aider à la décision, c'est-à-dire, ici à l'identification des zones d'intérêt identifiées et à l'attribution de coefficients de vraisemblance à ces zones d'intérêt. Dans le système selon l'invention, le système expert 10 utilise des connaissances de base comprenant : - des connaissances sur l'environnement géographique de l'aéronef pour avoir une idée du fond sur lequel est positionné la cible : rocher, neige, sable, herbe, mer, route (avec éventuellement des connaissances sur la houle : longueur d'onde et/ou direction de propagation et/ou hauteur des vagues,) et éventuellement des propriétés physiques pertinentes du fond qui ont une influence sur son aspect sur les images (comme par exemple le type énergie diffusée, la réflectivité dans les bandes spectrales des différentes caméras), - des connaissances sur les caractéristiques de l'aéronef (performances théoriques et/ou état courant de l'aéronef et/ou prédiction d'un état futur) - des connaissances sur les caractéristiques techniques de chacune des caméras, comprenant au moins leurs bandes spectrales respectives et éventuellement au moins une des caractéristiques suivantes : leurs portées selon les conditions météorologiques, leur résolution, leur sensibilité aux bruits, leur angle de vision, distance focale, taille et type des capteurs d'image, précision, temps de latence, caractéristiques des images fournies en temps réel (taille, débit, type information...), calages angulaires des axes de visée, - des connaissances sur les conditions météorologiques (qui ont une influence sur les images fournies par les caméras comme par exemple la position relative du soleil, l'humidité et la température de l'air...), - éventuellement, des connaissances sur les projecteurs embarqués, (leurs états respectifs : allumés ou éteints et, éventuellement, leurs axes de visée, leurs puissance d'émission, leurs bandes spectrales, leurs portées théoriques selon la météorologie), - des caractéristiques de l'objet recherché (cible ou aire d'atterrissage).
Lorsque l'objet est une cible recherchée pendant la mission, les caractéristiques de la cible comprennent un type de cible qui est par exemple un naufragé, un bateau, un alpiniste. Les connaissances sur l'objet peuvent en outre comprendre les dimensions de la cible, ainsi qu'éventuellement des propriétés pertinentes sur la cible (de type couleur, réflectivité).
Lorsque l'objet est une aire d'atterrissage, les caractéristiques de l'entité comprennent, par exemple, des conditions sur ses dimensions (par exemple, dans le cas d'un hélicoptère, un carré dont la longueur d'un côté est au moins égale à deux fois le diamètre du rotor de l'hélicoptère), une condition sur la dureté du sol, une condition sur la pente de la zone d'atterrissage. La condition sur la dureté du sol est d'être supérieure à un seuil prédéterminé. La condition sur la pente de la zone d'atterrissage est d'être inférieure à un seuil prédéterminée.
Avantageusement, les moyens de stockage 15 sont aptes à stocker dans différentes bases de données, les différentes connaissances de base. Ils comprennent en outre des bases de données de faits et règles spécifiques aux deux types d'objets : cible et aire d'atterrissage.
Ils comprennent en outre avantageusement : - une base de données altimétrique stockant des informations sur l'altimétrie du terrain en fonction de la position du porteur qui sont des connaissances sur l'environnement géographique de l'aéronef, 2 98715 1 16 - et/ou une base de données géologique stockant des informations sur la géologie du terrain en fonction de la position du porteur, qui sont des connaissances sur l'environnement géographique de l'aéronef. Le système expert 10 est apte à lire les connaissances dans les 5 moyens de stockage 15 et à poser des questions à l'équipage via le calculateur 9 pour obtenir des connaissances de base. Par exemple, le système expert 10 peut déclencher l'affichage, par le module graphique 9B, de listes prédéfinies de types de cible et/ou de types de fond et/ou de valeurs de différentes données météorologiques, 10 dans lequel l'équipage peut sélectionner des paramètres (type de cible, type de fond, valeur de différentes données météorologiques) au moyen des moyens de commande 8. Les résultats de ces sélections constituent des connaissances de bases qui sont envoyés au système expert 10 sous forme de réponse du calculateur 9 et/ou qui sont stockées dans les moyens de 15 stockage 15. Les connaissances sur l'environnement géographique, sur les conditions météorologiques, sur les caractéristiques techniques des caméras, sur les projecteurs, sur l'objet recherché, sur l'environnement géographique, ainsi que sur l'aéronef, ont une influence sur la qualité des 20 images de sortie des différentes caméras (par exemple : portée, perturbation par le bruit) et sur l'aspect de l'objet sur les images de sortie des différentes caméras (par exemple : contraste fond/cible, présence de reflets.) Par exemple, la portée des caméras dépend de la visibilité au sol. 25 La présence de reflets dépend de la houle et de la présence ou non du soleil. Les reflets seront différents selon les angles (assiette, roulis...) liés à l'attitude courante de l'aéronef. Le système expert 10 est apte à déduire, à partir des 30 connaissances de base et de règles relatives au dit objet (cible ou aire d'atterrissage), des valeurs de faits relatifs aux caractéristiques de l'objet sur les images en sortie des caméras et sur la qualité de ces images fournies par les caméras. Ces déductions ne se font pas directement, elles sont obtenues en utilisant un raisonnement itératif. Par exemple, le fond sur lequel se trouve la cible peut être connu à priori mais il peut aussi être inconnu au départ et déduit par le système expert, au moyen de règles d'informations sur l'environnement géographique de l'aéronef, comme, par exemple, les limites géographiques de la zone de recherche et/ou des hauteurs et/ou altitudes minimales et maximales de survol de la zone de recherche et/ou des limites de route et/ou une phase de vol (décollage, croisière, ...), et/ou d'informations sur l'altimétrie du terrain en fonction de la position de l'aéronef et/ou d'informations sur la géologie du terrain en fonction de la position de l'aéronef et d'autres connaissances de base. Par exemple, on peut déduire de la saison, de la position de l'aéronef et de l'altimétrie du terrain, si le fond est de la neige ou du rocher. Dans un autre exemple, selon la texture souhaitée pour l'aire d'atterrissage et en fonction de la connaissance du fond, le système expert pour déduire les caractéristiques de cette aire d'atterrissage sur une image de sortie d'une caméra, déduit d'abord des propriétés physiques pertinentes : énergie diffusée, réflectivité en lumière UV.... Quelques règles sont listées, à titre d'exemple, à la fin de la description. Le système expert attribuant des coefficients de vraisemblance à chacun des faits auxquels il attribue une valeur, il est apte à attribuer des coefficients de vraisemblance aux zones d'intérêt identifiées par le module de calcul 9A. Le coefficient de vraisemblance attribué à une zone d'intérêt identifiée sur une image correspond à un coefficient de vraisemblance attribué à un fait concernant l'existence d'une zone d'intérêt dans une image fournie par une caméra. La valeur de ce fait est calculée au moyen de règles qui vérifient une compatibilité et une cohérence par rapport à d'autres faits déjà déduits comprenant des faits relatifs à la qualité des images en sortie des caméras et à l'apparence de l'objet recherché sur une image en sortie de la caméra (par exemple relatifs au contraste fond/objet recherché et/ou à la taille de l'objet recherché) et des faits relatifs aux zones d'intérêt identifiées par les premiers moyens de calcul 9A, comme on le verra par la suite, (par exemple relatifs aux tâches extraites des images fournies par la caméra, à l'énergie et/ou les bandes spectrales des tâches identifiées sur les images issues de la caméra).
On donne ci-dessous un exemple de règle qui pourrait être utilisé pour attribuer un coefficient de vraisemblance à une zone d'intérêt (ou tâche) identifiée par les premiers moyens de calcul : Si le fait «la caméra i fonctionne correctement» et SI le fait «le contraste fond/cible est moyen à excellent» (compte tenu des faits connus relatifs aux conditions météorologiques courantes et aux caractéristiques de la caméra) et SI le fait «il existe une tache de surface minimum extraite dans l'image fournie par la caméra i» (compte tenu des faits connus relatifs aux caractéristiques de la caméra, à la position 3D et aux attitudes de l'hélicoptère par rapport au sol et aux dimensions théoriques de la cible) et SI le fait «l'énergie et la bande spectrale associée à la tâche extraite est compatible de certaines lois de la physique» (compte tenu des faits connus relatifs aux conditions météorologiques courantes, aux caractéristiques de la caméra, aux caractéristiques du fond et de la cible) et SI le fait «le coefficient de vraisemblance calculé à partir de ces faits est supérieur à un seuil» ALORS le fait «existence d'une zone d'intérêt dans l'image fournie par une caméra i» présente un coefficient de vraisemblance prédéterminé.(par exemple supérieur à 0,7).
Dans la réalisation des figures, le système selon l'invention comprend des moyens 11 comprenant les moyens 12, 13, et des moyens 14 permettant de fournir au système expert 10, en temps réel, des connaissances sur les conditions météorologiques et sur l'état courant du porteur. Cette caractéristique permet d'améliorer l'efficacité de l'identification des zones d'intérêt par le système expert car elle lui permet d'analyser une situation par nature variable (changement de météorologie, de position de l'aéronef) en temps réel. Le système expert 10 est apte à déclencher différentes actions, pour améliorer la qualité des images sur lesquelles on identifie les zones d'intérêt identifiées et à en tenir compte dans l'exécution des règles pour attribuer des valeurs à des faits (en effet, ces actions ont une influence sur les valeurs des faits et règles). Cette caractéristique permet de faciliter l'identification des zones d'intérêt identifiées pertinentes.
Il est, par exemple, apte à commander l'allumage et l'extinction des projecteurs 101, 102. A cet effet, les moyens de stockage 15 stockent avantageusement des règles relatives aux commandes d'allumage et d'extinction du phare basées, par exemple, sur des conditions de luminosité ambiante. Lorsque ces projecteurs sont allumés, cela modifie la qualité des images de sortie des caméras et/ou les contrastes d'une cible par rapport au fond. Le système expert 10 est apte à utiliser la connaissance sur le déclenchement de cette action dans le cadre de l'exécution de règles pour attribuer des valeurs à des faits. Le système expert 10 est apte à déclencher la mise en oeuvre de procédés par le module de calcul 9A. Le moyens de stockage 15 stockent avantageusement des faits et règles permettant au système expert 10 de déterminer, au moins un procédé de traitement d'image et éventuellement de prétraitement d'image pour identifier les zones d'intérêt sur les images de sortie des caméras 1, 2, 3. Il est apte à déclencher l'exécution des procédés de traitement / prétraitement choisis par le module de calcul 9A. Cette caractéristique permet d'adapter au mieux les procédés de traitement d'images utilisés aux conditions de recherche et à l'objet recherché (c'est-à-dire aux connaissances de base). Cela permet d'obtenir de meilleurs résultats qu'en mettant en oeuvre un procédé de traitement ou de prétraitement prédéterminé.
Lorsque le système expert détermine que le contraste des images fournies est a priori excellent, la stratégie utilisée est, par exemple, (dans l'ordre) : regroupement de pixels qui constituent des droites, regroupement de pixels qui constituent des arcs, assemblage des droites et des arcs pour constituer des objets polygonaux, calcul du périmètre, de la surface et du centre de gravité de ces objets, calcul de la position et de la forme en 3D par rapport à l'hélicoptère et finalement comparaison avec les caractéristiques géométriques théoriques de la cible. Par contre, lorsque le système expert détermine que le contraste des images fournies est moyen (par exemple selon la règle 9 dans la suite du texte), la stratégie utilisée est, par exemple, la suivante : calculer l'énergie moyenne de l'image, calculer l'énergie associée à chaque pixel au moyen de techniques statistiques de type histogramme d'intensité de luminance, détection de groupements de pixels correspondants à des pics d'énergie par bandes de fréquences, reconstruction de surfaces à partir de ces groupements, comparaison avec les caractéristiques théoriques du fond et de la cible (fréquences émises, coefficients de réflectivité et absorption d'énergie).
Le système expert 10 est apte à recevoir les résultats obtenus lors de la mise en oeuvre de ces procédés et à les utiliser en tant que connaissances dans le cadre de l'exécution des règles pour attribuer des valeurs à des faits. Il reçoit, par exemple, les zones d'intérêt identifiées ZI1 et en déduit les coefficients de vraisemblance associés, à partir de faits et règles. Le fait d'avoir déclenché un procédé de prétraitement (par exemple un filtrage) permet d'obtenir des images de meilleure qualité que les images de sortie des caméras avant d'identifier les zones d'intérêt identifiées. Le système expert est également apte à tenir compte dans le cadre de l'exécution de règles pour attribuer des valeurs à des faits. Par exemple, le fait d'avoir déclenché la mise en oeuvre d'un procédé de prétraitement particulier peut avoir une influence sur le procédé de traitement utilisé. Le procédé de traitement utilisé peut lui aussi avoir une influence sur les valeurs des coefficients de vraisemblance attribués aux zones d'intérêt.
Avantageusement, le module de calcul 9A utilise, pour mettre en oeuvre le(s) procédé(s) de traitement d'image pour identifier une zone d'intérêt identifiée sur les images de sortie des caméras, une estimation de la taille d'un polygone qui entoure l'objet à trouver sur les images de sortie des caméras 1, 2, 3, c'est-à-dire dans le repère image bidimensionnel. Cette caractéristique permet d'identifier plus facilement une zone d'intérêt en éliminant les zones de taille supérieure et permet de limiter la puissance de calcul utilisée pour l'identification des zones d'intérêt identifiées. Cette estimation est avantageusement issue d'un procédé mis en 35 oeuvre par le module de calcul 9A.
Ce procédé détermine, en temps réel, c'est-à-dire à intervalles de temps réguliers, à partir de connaissances sur l'objet recherché (type d'objet et éventuellement caractéristiques géométriques d'un parallélépipède qui engloberait l'objet), d'une estimation de la position de l'aéronef, d'une estimation de sa trajectoire ainsi qu'à partir de l'altimétrie du terrain, les dimensions, sur les images considérées, d'un parallélépipède qui engloberait la cible. L'estimation de la position de l'aéronef et l'estimation de son mouvement sont avantageusement réalisées à partir de données issues de moyens 11 pour surveiller l'état courant de l'aéronef. Cette étape permet de déterminer le nombre de pixels de décalage qu'il y a entre deux images successives fournies pour chacune des caméras.) Le module de calcul 9A est apte à mettre en oeuvre au moins un procédé de traitement d'images pour identifier des zones d'intérêt sur les images issues de caméras et éventuellement au moins un procédé de prétraitement d'images pour faciliter l'identification des zones d'intérêt. Ces procédés sont, par exemple, stockés dans une banque de procédés, non représentée, au sein du premier calculateur 9.
Ces procédés sont connus de l'homme du métier et ne sont pas détaillés ici. Il existe différents types de procédés de prétraitement, comme par exemple : - des filtres (unidimensionnel ou bidimensionnel) permettant d'atténuer les bruits dans des images, comme par exemple, un filtre passe- bas, un filtre passe haut, un filtre médian, un filtre en ondelettes, - des transformations d'images permettant d'effectuer des analyses fréquentielles et/ou temporelles, comme par exemple une transformée de Fourier, une transformée de Fourier rapide, une transformée de Hadamard, une transformée inverse..., - des procédés pour améliorer les contrastes entre le fond et la cible, - des analyses géométriques pures qui permettent de définir des zones d'intérêts utiles à analyser comme par exemple : - des translations et/ou rotations et/ou homothéties dans le repère 35 tridimensionnel du monde terrestre ; - des translations et/ou rotations et/ou homothéties dans le repère tridimensionnel de l'aéronef ; - des translations et/ou rotations et/ou homothéties dans le repère tridimensionnel lié à la caméra ou dans un repère bidimensionnel lié au 5 capteur image de la caméra, - des procédés globaux de restauration d'images bruitées comme par exemple un procédé utilisant un modèle de bruit, une technique de moindres carrés, l'optimisation de certains critères sous divers types de contraintes. 10 Il existe différents types de procédés de traitement d'images pour identifier des zones d'intérêt sur une image, comme par exemple : - des procédés d'analyse morphologique permettant d'étudier des formes : Erosions, dilatations, 15 - des procédés de segmentation pour identifier certains types d'objets comme, par exemple, un procédé de découpage d'une image en régions rectangulaires, un procédé de reconnaissances de droites, un procédé de reconnaissances de courbes, - des procédés de regroupement à l'aide de moments, 20 - des procédés de corrélation pour identifier des modèles d'objets dans une image par rapport à des modèles prédéfinis dans une base de données (techniques de comparaison d'arbres et/ou de graphes). Les moyens d'affichage 9B sont aptes à présenter les zones 25 d'intérêt identifiées sur les écrans comme visible sur la figure 3 et comme expliqué précédemment. Le module de calcul 9A leur attribue les mêmes attributs que ceux qui sont attribués aux zones d'intérêt tracés et les stocke dans les moyens de stockage 15. 30 Comme nous l'avons vu en référence à la figure 3, le pilote est également apte à tracer 305 des contours RT1, RT2, délimitant des zones d'intérêt tracées ZT1, ZT2 sur les images pilotes IP1, IP2 qui lui sont présentées 304 dans la zone pilote 202 et qui sont issues d'images de sortie 35 capturées 300 par les caméras 1, 2, 3.
Des deuxièmes moyens de calcul, par exemple, le module de calcul 9A, sont aptes à leur attribuer 306 un coefficient de vraisemblance. Avantageusement, le coefficient de vraisemblance qui leur est attribué est prédéterminé. Il est avantageusement égal à 0,5. Cette valeur est particulièrement adaptée car elle correspond à la probabilité que les conditions de visibilité et de vol lui permettent d'identifier un objet sur les images qui lui sont présentées en s'aidant de ce qu'il voit directement dans son champ de vision. En variante, les deuxièmes moyens de calcul sont le système expert 10. Il déduit, par exemple, ces coefficients de vraisemblance des connaissances de base et éventuellement de connaissances sur le comportement de l'homme quant à l'identification des zones d'intérêt. Cette variante permet de déterminer avec plus de précision ces premiers coefficients de vraisemblance.
Avantageusement, le module de calcul 9A est apte à assurer le suivi, en temps réel, des zones d'intérêt tracées ZT1, ZT2 sur les images sur lesquelles ils sont superposées lors de la mission et le déplacement des contours qui les délimitent sur les écrans d'affichage, en utilisant des techniques connues de l'homme du métier de suivi d'objets sur les images.
Cela est avantageusement valable aussi pour les zones d'intérêt identifiées ZI1 et pertinentes ZP1 qui seront décrites ultérieurement. Cette caractéristique permet au pilote de ne pas perdre de vue l'objet ciblé (cible ou aire d'atterrissage) même à des moments où il est fortement mobilisé (préparation de l'atterrissage, par exemple).
Le système selon l'invention comprend en outre des troisièmes moyens de calcul 30, qui pourraient aussi bien être le système expert 10 ou le module de calcul 9A, pour déterminer 307, à partir des positions et des coefficients de vraisemblance des zones d'intérêt tracées ZT1, ZT2 sur les images pilotes IP1, IP2, IP3 et des zones d'intérêt identifiées ZI1 pour un objet sur les images de sortie des caméras 1, 2, 3, une zone d'intérêt pertinente IP1 correspondant à la zone d'intérêt, représentée sur la figure 3, dans laquelle l'objet a le plus de chance de se trouver.
Plus précisément, les troisièmes moyens de calcul 30 déterminent une ou plusieurs zones d'intérêt pertinentes à partir d'un ensemble de zones d'intérêt comprenant les zones d'intérêt tracées et/ou identifiées sur un ensemble d'images.
L'ensemble d'images peut être prédéterminé et correspondre à l'ensemble des images de sortie et des images pilotes. En variante, l'ensemble d'images est déterminé 307 par l'équipage. Les moyens de commande 8 comprennent des moyens permettant à l'équipage de sélectionner l'ensemble d'images prises parmi les images pilote 1P1, IP2, IP3 et les images de sortie IS1, 1S2, 1S3 des caméras qui sont transmises au système expert. Plus exactement, l'équipage sélectionne les images de sortie des caméras en sélectionnant les images expertes 1E1, 1E2, 1E3 issues de ces images de sorties ou les images brutes. 11 peut, par exemple, s'agir de moyens tactiles. L'équipage ne sélectionne donc que les images qui lui semblent être de bonne qualité ou les images sur lesquelles les zones d'intérêt identifiées lui semblent être de bonne qualité. Cela permet de faciliter l'identification de zones d'intérêt réellement pertinentes dans lesquelles la cible a réellement de bonnes chances de se trouver puisque le système expert élimine les images qui lui semblent non pertinentes. Lorsqu'il n'y a aucune zone d'intérêt identifiée ou tracée sur cet ensemble d'images, aucune zone d'intérêt pertinente n'est identifiée. Lorsqu'il n'y a qu'une zone d'intérêt identifiée ou tracée, une zone d'intérêt pertinente correspondant à cette zone d'intérêt est identifiée. Les troisièmes moyens de calcul 30 déterminent 309 la zone d'intérêt pertinente en attribuant 308 un coefficient de corrélation aux zones d'intérêt. Le coefficient de corrélation attribué à une zone d'intérêt est une fonction du coefficient de vraisemblance attribué à la zone d'intérêt considérée et d'une distance représentative de la distance séparant la zone d'intérêt considérée des autres zones d'intérêt. Par exemple, le coefficient de corrélation attribué à une zone d'intérêt est proportionnel au coefficient de vraisemblance attribué à cette première zone et inversement proportionnel à une distance représentative de la distance séparant cette zone d'intérêt des autres zones d'intérêt.
Sur la figure 5, on a représenté dans un unique repère image x, y bidimensionnel, toutes les zones d'intérêt tracées ZT1, ZT2 et identifiées ZI1 sur les images pilotes IP1, IP2, IP3 et sur les images de sortie des caméras. Le repère image est un repère unique dans lequel les images de sortie des caméras se superposent. Par images qui se superposent, on entend des images dont les mêmes pixels donnent des images d'une même scène. On a représenté la distance D représentative de la distance séparant la première zone d'intérêt tracée ZT1 des autres zones d'intérêt dans le repère image bidimensionnel. Sur cet exemple, cette distance D est la distance séparant la première zone d'intérêt tracée ZT1 de la zone d'intérêt la plus proche à savoir la deuxième zone d'intérêt ZT2. Autrement dit, c'est la distance minimale séparant la première zone d'intérêt tracée ZT1 des autres zones d'intérêt. En variante, il pourrait s'agir de la distance moyenne séparant la zone d'intérêt considérée des autres zones d'intérêt. La distance entre deux zones d'intérêt est, sur cet exemple, la distance entre les centres de gravité des parallélépipèdes délimitant les 20 zones d'intérêt considérées. Ce centre de gravité correspond au centre du rectangle dans le cas où le parallélépipède est rectangle. La zone d'intérêt pertinente ZP1 représentée sur la figure 3, est la zone d'intérêt à laquelle est attribuée le coefficient de corrélation le plus important. 25 En variante, les troisièmes calcul déterminent plusieurs zones d'intérêt pertinentes, comme, par exemple, toutes les premières zones d'intérêt ou bien uniquement les zones d'intérêt présentant un coefficient de corrélation supérieur à un seuil prédéterminé. 30 Les moyens d'affichage 9A sont aptes à présenter 310, à l'équipage, sur au moins un écran 7A, 7B, la (ou les) première(s) zone(s) d'intérêt pertinente(s). La présentation consiste avantageusement, comme visible sur la figure 3, à superposer des contours, délimitant les zones d'intérêt pertinente avec une image appelée image de synthèse IS issue d'une image de sortie d'au moins une caméra 1, 2, 3. Avantageusement, lorsqu'il y a plusieurs zones d'intérêt pertinentes, la manière dont elles sont présentées dépend de leurs coefficients de corrélation respectifs. Avantageusement, la couleur ou la luminosité des rectangles délimitant les zones d'intérêt pertinentes dépend de leurs coefficients de corrélation. Avantageusement, les luminosités des rectangles délimitant les zones d'intérêt pertinentes sont proportionnelles à leurs coefficients de vraisemblance respectifs. En variante, seule la zone d'intérêt pertinente présentant le plus fort coefficient de corrélation est représentée différemment des autres zones d'intérêt pertinentes.
Nous avons vu qu'un des problèmes posés lors d'une mission de sauvetage est d'identifier une aire d'atterrissage. Le fonctionnement du système selon l'invention est identique dans le cas de la recherche d'une aire d'atterrissage et dans le cas de la recherche d'une cible. Seul l'objet recherché change. Les faits et règles utilisés par le système expert relatives à ces deux types d'objets sont différents. Les moyens de stockage 15 stockent avantageusement ces deux types de fais et règles. Le système selon l'invention peut mettre en oeuvre les étapes de traçage, d'identification des zones d'intérêt identifiées et de détermination 25 des zones d'intérêt pertinentes pour la recherche de la cible préalablement à ces mêmes étapes pour la recherche de l'aire de posé. Avantageusement, les moyens de commande 8 comprennent des moyens permettant à l'équipage de déclencher la mise en oeuvre des étapes de traçage, d'identification des zones d'intérêt identifiées et de détermination 30 des zones d'intérêt pertinentes de l'un ou l'autre des objets. L'affichage des zones d'intérêts tracées et/ou identifiées et/ou pertinentes relatives à l'aire d'atterrissage et à la cible peut être réalisé simultanément ou successivement. Dans le cas de l'affichage simultané, les zones d'intérêt relatives à l'aire d'atterrissage sont avantageusement 35 représentées différemment des zones d'intérêt relatives à la cible.
Le fait que le système expert utilise des connaissances sur l'environnement géographique pour avoir une idée du fond sur lequel l'aire d'atterrissage est recherchée et sur les caractéristiques souhaitées de l'aire d'atterrissage (notamment la texture souhaitée et les dimensions) est fondamental pour caractériser l'aire d'atterrissage de manière sure. En effet, lorsque la cible est située sur un fond de type neige et/ou glace, il est important de connaître la texture plus ou moins dure ainsi que la dimension et la position des trous éventuels avant de décider de s'y poser. Or, même dans un environnement normal, de jour avec une bonne visibilité, il peut être très difficile pour le pilote de bien juger visuellement de la sécurité de ces fonds pour se poser compte tenu des conditions d'éclairement. De nuit, cela peut être impossible même avec l'utilisation d'un projecteur de forte puissance.
Comme visible sur la figure 3, l'écran 7A comprend une zone d'affichage textuelle 205 dans laquelle les moyens d'affichage sont avantageusement aptes à afficher des informations textuelles concernant, par exemple : - la cible : par exemple, le coefficient de corrélation de la zone d'intérêt pertinente et éventuellement des informations sur la position de la cible par rapport à l'aéronef (par exemple la distance à l'aéronef, le temps pour s'y rendre), - l'aire d'atterrissage : le coefficient de corrélation de la zone pertinente et éventuellement des informations sur ses dimensions, sa pente estimée et la dureté du sol. A cet effet, le système selon l'invention comprend avantageusement des moyens permettant de calculer la position de la cible par rapport à l'aéronef à partir de la position dans le repère image et des dimensions d'au moins une zone d'intérêt pertinente relative à la cible.
Le système comprend en outre avantageusement des moyens permettant d'évaluer les propriétés de l'aire d'atterrissage (pente ; dureté du sol, dimensions) à partir des caractéristiques d'au moins une zone d'intérêt pertinente relative à l'aire d'atterrissage. Cela est réalisé par des procédés classiques de traitement d'images.35 Dans le mode de réalisation décrit dans la demande de brevet, le système comprend trois caméras fonctionnant respectivement dans le rayonnement ultra-violet, le rayonnement visible et le rayonnement infrarouge. Cette caractéristique permet d'augmenter la probabilité d'identifier des zones d'intérêt dans lesquelles se trouve effectivement l'objet puisque selon le type de mission et les conditions météorologiques, l'objet sera plus ou moins identifiable sur l'une de ces trois bandes spectrales. Plus généralement, le système comprend avantageusement au moins une caméra sensible dans le domaine visible et en dehors du domaine visible. Par exemple, le système selon l'invention peut comprendre une unique caméra sensible dans une bande spectrale visible, infrarouge ou ultraviolette. Le système peut aussi comprendre au moins une caméra sensible dans le domaine visible et une caméra sensible en dehors du domaine visible. Cette détection multi-spectrale permet d'obtenir plus d'informations que le pilote ne pourrait l'obtenir à l'oeil nu et ainsi d'augmenter les chances de détection de l'objet recherché.
Avantageusement, le système expert doté de capacités d'apprentissage lui permettant de calculer de nouveaux faits et règles et pour identifier les zones d'intérêt identifiées à partir d'informations sur le déroulement de mission enregistrées pendant au moins une mission passée dans les moyens de stockage 15. Cette caractéristique permet d'améliorer les performances du système expert dans le temps. Pour cela, les moyens de stockage 15 réalisent avantageusement l'archivage en temps réel, des valeurs, des validités et des dates associées à des informations comprenant au minimum : les images fournies par les caméras 1, 2, 3, pendant une mission, les trajectoires du porteur (position, vitesses, altitudes, angles...), les évènements pertinents survenus (action du pilote au moyen des moyens de commande sur les écrans pilote et copilote, changement de météorologie, pannes, décisions prises par le système expert 10 , les zones d'intérêt identifiées (Zli), tracées (ZTi) avec i= 1 à m, m=3 sur la figure 3, pertinentes (ZPi avec i= 1 à p, p=1 sur la figure 3).
Le système expert présente un mode de fonctionnement en apprentissage en dehors des missions lors duquel il essaie de trouver d'autres faits et règles et éventuellement d'autres procédés de traitement / prétraitement à partir des informations archivées dans les moyens de stockages 15 pendant une ou plusieurs missions précédentes. Dans la suite du texte, on liste plusieurs types règles pouvant être exécutées par le système expert. Elles représentent les raisonnements effectués par un expert. Elles sont appelées les unes à la suite des autres afin de créer des enchaînements de raisonnements. Tous ces raisonnements peuvent être représentés sous la forme de règles du type «SI condition vraie ALORS exécuter action». Cette représentation peut varier suivant le contexte de l'application, la logique formelle utilisée (logique des propositions, logique des prédicats...). Ces règles sont appliquées à des faits auxquels des valeurs ont été attribués pour attribuer des valeurs à d'autres faits et/ou pour déclencher des actions (questions posées au premier calculateur 9A qui transmet les réponses au système expert 10 et déclenchement de la mise en oeuvre de procédés par le premier calculateur 9A et récupération des résultats, allumer un projecteur). Dans un souci de clarté, le comportement du système expert est expliqué dans un langage naturel. Les règles sont données à titre d'exemple non limitatif. Règles permettant d'attribuer une valeur au fait type de fond et à d'autres caractéristiques du fond à partir du type de mission : REGLE 1 : SI (la cible est de type naufragé dans l'eau) ALORS (la surface d'émission des ondes est inférieure à 1 m2) et (le fond est de type eau) VRAISEMBLANCE = 1 REGLE 2 : SI (la mission est de type alpiniste sur paroi verticale) ALORS (la surface d'émission des ondes est supérieure à 2 m2) et (le fond est de type rocher) VRAISEMBLANCE = 0,5 REGLE 3 : SI (la mission est de type alpiniste sur paroi verticale) ALORS (la surface 35 d'émission des ondes est supérieure à 2 m2) (le fond est de type neige) VRAISEMBLANCE 0,3 2 98715 1 30 Règles permettant d'obtenir des valeurs sur des informations précises sur le fond REGLE 4 : 5 SI (la hauteur des vagues est supérieure à 3 m) ALORS (la mer est forte) VRAISEMBLANCE = 1 REGLE 5 : SI (la longueur d'onde de la houle est supérieure à 50 m) ALORS (la houle est longue) VRAISEMBLANCE = 1 10 REGLE 6 : SI (la mer est forte) ET SI (la houle est longue) ET SI (le soleil est rasant) ALORS (forte présence de reflets) VRAISEMBLANCE = 0,8 Règles permettant d'attribuer des valeurs à des faits relatifs à la qualité des 15 images issues des caméras REGLE 7 : SI (l'humidité de l'atmosphère est inférieure à 30%) ET SI (la pression de l'atmosphère est supérieure 1020 hPA) ALORS (la caméra VISIBLE est peu perturbée par du bruit) et (la caméra IR est peu perturbée par du bruit) 20 VRAISEMBLANCE = 0,9 REGLE 8 : SI (le fond est de la neige) ET SI (le soleil éclaire) ET SI (l'incidence d'éclairement est supérieure à 60°) ALORS (Sur la caméra UV le contraste fond/cible est excellent) et (Sur la caméra IR le contraste fond/cible est 25 excellent) et (Sur la caméra VISIBLE le contraste fond/cible est moyen) VRAISEMBLANCE = 0,7 REGLE 9 : SI (le fond est de la neige) ET SI (le soleil n'éclaire pas) ET SI (le projecteur 30 UV est allumé) ET SI (l'incidence d'éclairement est supérieure à 60°) ET SI (la distance de l'hélicoptère au fond est supérieure à 500 m) ALORS (Sur la caméra UV le contraste fond/cible est mauvais) ET (Sur la caméra IR le contraste fond/cible est excellent) ET (Sur la caméra VISIBLE le contraste fond/cible est moyen) VRAISEMBLANCE = 0,735 REGLE 10 : SI (le fond est de la neige) ET SI (le soleil n'éclaire pas) ET SI (le projecteur UV est allumé) ET SI (l'incidence d'éclairement est inférieure à 30°) ET SI (la distance de l'hélicoptère au fond est inférieure 30 m) ALORS (Sur la caméra UV la détection de particules est possible) ET (Sur la caméra IR on ne peut rien faire) ET (Sur la caméra VISIBLE la rugosité du fond est calculable) VRAISEMBLANCE = 0,6 Règle permettant de déterminer un procédé de traitement d'image : SI (la caméra VISIBLE fonctionne) ET SI (le fond est de type neige) ET SI (le 10 contraste fond/cible est excellent) ET SI (la caméra VISIBLE est peu perturbée par du bruit) ALORS (la stratégie de recherche est SEGMENTATION_SEUILLAGE) VRAISEMBLANCE = 1 Règle permettant d'éliminer des caméras pour l'identification de zones 15 d'intérêt : SI (la caméra UV fonctionne) ET SI (le contraste fond/cible est mauvais) ALORS (ne pas l'utiliser pour une recherche) ACTION : Effacer image système expert visible dans la zone graphique 203 VRAISEMBLANCE = 1 20 Règle permettant de lancer un procédé de traitement d'image : SI (la caméra VISIBLE fonctionne) ET SI (la stratégie de recherche est SEGMENTATION_SEUILLAGE) ALORS ACTION : Lancer calcul «Cl » avec paramètres «Pl », «P2»; ACTION : Lancer calcul «C2» avec paramètres «Pl », «P2». 25 Le premier calculateur 9A envoi les résultats de ses calculs qui correspondent à la position et la taille des zones d'intérêt identifiées. Le système expert 10 leur attribue un coefficient de vraisemblance. 30 Le système selon l'invention, en se basant à la fois sur l'équipage et sur un système expert, permet à l'équipage d'identifier des objets prédéterminés (cible ou aire d'atterrissage) de manière sûre. Il s'agit d'une solution améliorée que ce soit par rapport aux solutions de l'art antérieur qui ne se basaient que sur l'équipage ou par rapport à une solution qui se 35 baserait uniquement sur un système expert. En effet, lorsque les conditions de visibilité sont telles que l'équipage ne peut pas identifier de zones d'intérêt, le système selon l'invention attire son attention sur des zones d'intérêt issues du système expert et inversement lorsque l'équipage identifie parfaitement l'objet à l'oeil nu. Ce système n'augmente pas la charge de travail de l'équipage, ce qui permet de ne pas détériorer les conditions de sécurité du vol. En effet, toutes les connaissances de bases utilisées par le système expert peuvent être fournies soit par des moyens automatiques 11, 14 ou bien avant le vol, par l'équipage. Le système expert n'a pas besoin d'une intervention de l'équipage pendant le vol pour identifier des zones d'intérêt.
Le fait que l'identification des zones d'intérêt soit réalisée en temps réel est compatible du type de mission proposé.

Claims (21)

  1. REVENDICATIONS1. Système d'aide au sauvetage d'une cible en aéronef (H), caractérisé en ce qu'il comprend de façon embarquée dans l'aéronef : - au moins une caméra (1, 2, 3) apte à fournir des images d'une scène de l'environnement de l'aéronef, - des moyens d'affichage (9B) permettant de présenter à l'équipage des images, appelées images pilotes (IPI, IP2, IP3) issues des images de sortie ladite au moins une caméra, sur au moins un écran (7A, 7B), - des moyens de commande (8) comprenant des moyens permettant à l'équipage de tracer au moins un contour délimitant une zone d'intérêt, dite zone d'intérêt tracée (ZTI, ZT2), sur les images pilotes (IP1, IP2, IP3) qui lui sont présentées, - des premiers moyens de calcul (9A) pour identifier sur des images de sortie (IS1, IS2, IS3) de la dite au moins une caméra (1, 2, 3), au moins une zone d'intérêt, dite zone d'intérêt identifiée (ZI1), dans laquelle est susceptible de se trouver un objet prédéterminé, - un système expert (10) apte à attribuer un coefficient de vraisemblance à la dite au moins une zone d'intérêt identifiée (ZI1, ZI2), - des deuxièmes moyens de calcul (9A) pour attribuer un coefficient de vraisemblance à ladite au moins une zone d'intérêt tracée (ZTI , ZT2) et, - des troisièmes moyens de calcul (30) pour déterminer au moins une zone d'intérêt pertinente (ZPI) à partir des positions et coefficients de vraisemblance attribués à un ensemble de zones d'intérêt (ZTI , ZT2, ZI1) comprenant au moins une zone d'intérêt identifiée (ZI1) dans laquelle est susceptible de se trouver ledit objet et/ou au moins une zone d'intérêt tracée (ZTI , ZT2) sur un ensemble d'images comprenant au moins une image pilote (IP1, IP2, IP3) et/ou au moins une image de sortie (ISI , IS2, IS3), - lesdits moyens d'affichage (9B) étant aptes à présenter à l'équipage ladite au moins une première zone d'intérêt pertinente (ZPI) sur au moins un écran (7A, 7B).
  2. 2. Système d'aide au sauvetage selon la revendication précédente, dans lequel le système expert (10) est apte à utiliser des connaissances debase comprenant des connaissances sur l'environnement géographique de l'aéronef, sur les conditions météorologiques, sur ledit objet, sur les caractéristiques techniques de ladite au moins une caméra (1, 2,
  3. 3), sur des caractéristiques de l'aéronef, pour en déduire, en utilisant des règles, des valeurs de faits relatifs aux caractéristiques de l'objet sur les images de sortie de ladite au moins une caméra (1, 2, 3) et sur la qualité des images issues de ladite au moins une caméra. 3. Système d'aide au sauvetage selon l'une quelconque des revendications précédentes, dans lequel le système expert (10) est apte à déclencher des actions pour améliorer la qualité des images sur lesquelles les premiers moyens de calcul (9A) identifient les zones d'intérêt identifiées, le système expert (10) étant apte à en tenir compte dans le cadre de l'exécution de règles pour attribuer des valeurs à des faits.
  4. 4. Système d'aide au sauvetage selon la revendication 3, dans lequel le système expert (10) est apte à déclencher l'allumage et/ou l'extinction d'au moins un projecteur (101, 102) apte à émettre une lumière visible et éventuellement une lumière ultra-violette, dans le champ de vision de ladite au moins une caméra (1, 2, 3) et/ou à déterminer au moins un procédé de prétraitement des images de sortie de ladite au moins une caméra et à déclencher l'exécution dudit au moins un procédé par le module de calcul (9A).
  5. 5. Système d'aide au sauvetage selon l'une quelconque des revendications précédentes, dans lequel le système expert (10) est apte à déterminer au moins un procédé de traitement pour identifier des zones d'intérêt identifiées sur les images de sortie de ladite au moins une caméra (1, 2, 3) et à déclencher l'exécution dudit au moins un procédé par le module de calcul (9A).
  6. 6. Système d'aide au sauvetage selon l'une quelconque des revendications précédentes, dans lequel les premiers moyens de calcul (9A) sont aptes à identifier une zone d'intérêt identifiée (Z11, ZI2, ZI3) danslaquelle un objet correspondant à une cible à sauver est susceptible de se trouver.
  7. 7. Système d'aide au sauvetage selon l'une quelconque des revendications précédentes, dans lequel les premiers moyens de calcul (9A) sont aptes à identifier une zone d'intérêt identifiée dans laquelle un objet correspondant à une aire d'atterrissage de l'aéronef est susceptible de se trouver.
  8. 8. Système d'aide au sauvetage selon la revendication précédente, dans lequel les caractéristiques de l'aire d'atterrissage comprennent une condition sur ses dimensions, une condition sur sa pente et une condition sur la dureté du sol.
  9. 9. Système selon l'une quelconque des revendications précédentes comprenant des moyens (11) permettant de délivrer en temps réel, au système expert (10) des connaissances sur l'état courant de l'aéronef et des moyens (14) permettant de délivrer en temps réel, au système expert (10), des connaissances sur les conditions météorologiques.
  10. 10. Système selon l'une quelconque des revendications précédentes, dans lequel les moyens d'affichage (9B) sont aptes à présenter à l'équipage les zones d'intérêt identifiées (ZI1).
  11. 11. Système selon l'une quelconque des revendications précédentes, dans lequel les représentations des zones d'intérêt sont des polygones délimitant lesdites zones d'intérêt.
  12. 12. Système selon l'une quelconque des revendications précédentes, dans lequel les moyens de commande (8) comprennent des moyens permettant à l'équipage de sélectionner des images expertes (1E1, 1E2, 1E3) et de les copier dans une zone d'affichage (202) dédiée à l'affichage des images pilote (IP1, IP2, IP3).
  13. 13. Système selon l'une quelconque des revendications précédentes, dans lequel le coefficient de vraisemblance attribué aux zones d'intérêt tracées est égal à 0,5.
  14. 14. Système selon l'une quelconque des revendications précédentes, dans lequel les moyens de commande (8) comprennent des moyens permettant à l'équipage de sélectionner l'ensemble d'images.
  15. 15. Système selon l'une quelconque des revendications précédentes, dans lequel, lorsque l'ensemble de zones d'intérêt comprend plusieurs zones d'intérêt, les troisièmes moyens de calcul (30) déterminent ladite au moins une zone d'intérêt pertinente en attribuant, aux zones d'intérêt dudit ensemble, un coefficient de corrélation, le coefficient de corrélation attribué à une zone d'intérêt étant une fonction dudit coefficient de vraisemblance attribué à la zone d'intérêt considérée et d'une distance séparant la zone d'intérêt considérée des autres zones d'intérêt de l'ensemble de zones d'intérêt.
  16. 16. Système selon l'une quelconque des revendications précédentes, dans lequel les troisièmes moyens de calcul (30) déterminent une unique zone d'intérêt pertinente correspondant à la zone d'intérêt présentant le coefficient de corrélation le plus élevé.
  17. 17. Système selon l'une quelconque des revendications 1 à 15, dans lequel les troisièmes moyens de calcul (30) déterminent plusieurs zones d'intérêt pertinentes correspondant aux zones d'intérêt présentant un coefficient de corrélation supérieur à un seuil prédéterminé.
  18. 18. Système selon l'une quelconque des revendications précédentes, dans lequel lorsque les troisièmes moyens de calcul (30) déterminent plusieurs zones d'intérêt pertinentes, les moyens d'affichage (9B) représentent différemment les zones d'intérêt pertinentes qui présentent des coefficients de corrélation différents.
  19. 19. Système selon l'une quelconque des revendications précédentes, comprenant au moins une caméra sensible dans le domaine visible et en dehors du domaine visible et/ou au moins une caméra sensible dans le domaine visible et une caméra sensible en dehors du visible.
  20. 20. Système selon la revendication précédente, comprenant trois caméras fonctionnant respectivement dans le rayonnement ultra-violet, le rayonnement visible et le rayonnement infrarouge.
  21. 21. Système selon l'une quelconque des revendications précédentes, comprenant une pluralité de caméras disposées de façon que leurs centres optiques respectifs soient disposés sur une courbe elliptique ou parabolique.15
FR1200444A 2012-02-16 2012-02-16 Systeme d'aide au sauvetage par helicoptere Active FR2987151B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1200444A FR2987151B1 (fr) 2012-02-16 2012-02-16 Systeme d'aide au sauvetage par helicoptere
US13/769,128 US20130215268A1 (en) 2012-02-16 2013-02-15 Unknown

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1200444A FR2987151B1 (fr) 2012-02-16 2012-02-16 Systeme d'aide au sauvetage par helicoptere

Publications (2)

Publication Number Publication Date
FR2987151A1 true FR2987151A1 (fr) 2013-08-23
FR2987151B1 FR2987151B1 (fr) 2014-09-26

Family

ID=46298432

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1200444A Active FR2987151B1 (fr) 2012-02-16 2012-02-16 Systeme d'aide au sauvetage par helicoptere

Country Status (2)

Country Link
US (1) US20130215268A1 (fr)
FR (1) FR2987151B1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10417918B2 (en) * 2016-01-20 2019-09-17 Honeywell International Inc. Methods and systems to assist in a search and rescue mission
EP3269600B1 (fr) * 2016-07-15 2020-06-03 Goodrich Lighting Systems GmbH Lumière anti-collision pour oiseaux
CN114040549B (zh) * 2021-11-19 2023-11-28 中国直升机设计研究所 一种直升机搜索灯随动稳定控制系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008057285A2 (fr) * 2006-10-27 2008-05-15 Vidient Systems, Inc. Dispositif pour capture d'images à traitement manuel et automatique d'un champ d'intérêt au moyen d'une caméra à résolution multiple
US20080291278A1 (en) * 2005-04-05 2008-11-27 Objectvideo, Inc. Wide-area site-based video surveillance system
US20090195652A1 (en) * 2008-02-05 2009-08-06 Wave Group Ltd. Interactive Virtual Window Vision System For Mobile Platforms
US20100309315A1 (en) * 2009-06-03 2010-12-09 Flir Systems, Inc. Infrared camera systems and methods for dual sensor applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080291278A1 (en) * 2005-04-05 2008-11-27 Objectvideo, Inc. Wide-area site-based video surveillance system
WO2008057285A2 (fr) * 2006-10-27 2008-05-15 Vidient Systems, Inc. Dispositif pour capture d'images à traitement manuel et automatique d'un champ d'intérêt au moyen d'une caméra à résolution multiple
US20090195652A1 (en) * 2008-02-05 2009-08-06 Wave Group Ltd. Interactive Virtual Window Vision System For Mobile Platforms
US20100309315A1 (en) * 2009-06-03 2010-12-09 Flir Systems, Inc. Infrared camera systems and methods for dual sensor applications

Also Published As

Publication number Publication date
FR2987151B1 (fr) 2014-09-26
US20130215268A1 (en) 2013-08-22

Similar Documents

Publication Publication Date Title
Lehmann et al. Open-source processing and analysis of aerial imagery acquired with a low-cost unmanned aerial system to support invasive plant management
FR3001307A1 (fr) Procedes pour determiner une trajectoire de vol
Lucieer et al. Using a micro-UAV for ultra-high resolution multi-sensor observations of Antarctic moss beds
WO2006051031A1 (fr) Dispositif de representation cartographique des vitesses verticales minimales
EP2333481B1 (fr) Système optronique et procédé d'élaboration d'images en trois dimensions dédiés à l'identification
Sandau Digital airborne camera: introduction and technology
FR3103048A1 (fr) Procede et dispositif de generation de donnees synthetiques d'apprentissage pour machine d'intelligence artificielle pour l'aide a l'atterrissage d'aeronef
EP2717229B1 (fr) Système de visualisation pour un aéronef en approche d'une piste d'atterrissage et procédé de visualisation associé
WO2006029935A1 (fr) Dispositif de signalisation de risques
CA2567222A1 (fr) Systeme d'affichage pour aeronef
FR2892192A1 (fr) Procede d'aide a la navigation pour aeronef en situation d'urgence
FR2736149A1 (fr) Dispositif de reconnaissance et de poursuite d'objets
Zietara Creating Digital Elevation Model (DEM) based on ground points extracted from classified aerial images obtained from Unmanned Aerial Vehicle (UAV)
Juneja et al. A systematic review on foggy datasets: Applications and challenges
EP2517152B1 (fr) Procede de classification d'objets dans un systeme de veille par imagerie
EP1936330B1 (fr) Procédé et système de traitement et de visualisation d'images de l'environnement d'un aéronef
FR2987151A1 (fr) Systeme d'aide au sauvetage par helicoptere
Knudby Remote sensing
EP2924458B1 (fr) Procédé de détection et de visualisation des obstacles artificiels d'un aéronef à voilure tournante
WO2021089539A1 (fr) Procede et dispositif d'aide a l'atterrissage d'aeronef en conditions de visibilite degradee
Pacifici et al. 2011 GRSS data fusion contest: Exploiting WorldView-2 multi-angular acquisitions
Yan Airborne LiDAR data artifacts: What we know thus far
WO2021165237A1 (fr) Procédé et dispositif de détermination d'obstacles d'altitude
Fuchs et al. Sea ice melt pond bathymetry reconstructed from aerial photographs using photogrammetry: a new method applied to MOSAiC data
Suo et al. Vegetation mapping of a coastal dune complex using multispectral imagery acquired from an unmanned aerial system

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13