FR3024577A1 - Gestion en temps reel de donnees relatives a un essai en vol d'un aeronef - Google Patents

Gestion en temps reel de donnees relatives a un essai en vol d'un aeronef Download PDF

Info

Publication number
FR3024577A1
FR3024577A1 FR1457472A FR1457472A FR3024577A1 FR 3024577 A1 FR3024577 A1 FR 3024577A1 FR 1457472 A FR1457472 A FR 1457472A FR 1457472 A FR1457472 A FR 1457472A FR 3024577 A1 FR3024577 A1 FR 3024577A1
Authority
FR
France
Prior art keywords
image
indicators
positions
cones
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1457472A
Other languages
English (en)
Other versions
FR3024577B1 (fr
Inventor
Jean-Luc Vialatte
Sophie Calvet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Operations SAS
Original Assignee
Airbus Operations SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Operations SAS filed Critical Airbus Operations SAS
Priority to FR1457472A priority Critical patent/FR3024577B1/fr
Priority to CA2897324A priority patent/CA2897324A1/fr
Priority to US14/811,165 priority patent/US20160037133A1/en
Priority to CN201510459256.3A priority patent/CN105319049B/zh
Publication of FR3024577A1 publication Critical patent/FR3024577A1/fr
Application granted granted Critical
Publication of FR3024577B1 publication Critical patent/FR3024577B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M9/00Aerodynamic testing; Arrangements in or on wind tunnels
    • G01M9/06Measuring arrangements specially adapted for aerodynamic testing
    • G01M9/065Measuring arrangements specially adapted for aerodynamic testing dealing with flow
    • G01M9/067Measuring arrangements specially adapted for aerodynamic testing dealing with flow visualisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Fluid Mechanics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

L'invention propose d'automatiser le traitement d'images à bord d'un aéronef et concerne un système de gestion en temps réel de données relatives à un essai en vol de comportements aérodynamiques de l'aéronef, comportant : - des cônes d'écoulement (3) installés sur au moins une zone d'intérêt (13) de l'aéronef (15) destinée à être analysée lors de l'essai en vol, - des indicateurs (5) installés dans ladite zone d'intérêt définissant une délimitation de ladite zone d'intérêt, - des moyens de prise de vues (7) installés dans l'aéronef et configurés pour capter un flux d'images de ladite zone d'intérêt sur laquelle sont installés les cônes d'écoulement et les indicateurs, et - des moyens de traitement (9) destinés à traiter en temps réel et à bord de l'aéronef chaque image courante dudit flux d'images pour identifier et déterminer de manière automatique des positions desdits indicateurs et des positions d'au moins une partie desdites cônes d'écoulement.

Description

GESTION EN TEMPS RÉEL DE DONNÉES RELATIVES A UN ESSAI EN VOL D'UN AÉRONEF DOMAINE DE L'INVENTION La présente invention se rapporte au domaine des tests en vol d'un aéronef et plus particulièrement, concerne une acquisition d'images relatives à un essai en vol de comportements aérodynamiques d'un aéronef, un traitement automatique de ces images à bord de l'aéronef et avantageusement, une transmission en temps réel de données traitées.
Afin d'analyser l'écoulement aérodynamique sur un aéronef, des cônes d'écoulement « flow cones » sont installés sur des zones de l'aéronef pour lesquelles les analyses sont demandées. Les cônes d'écoulement sont des éléments pouvant présenter la forme d'un cône attachés par exemple par des fils à une partie de l'aéronef présentant du fait de leur légèreté des mouvements caractéristiques selon le type de flux aéronautique et dont la forme permet la visualisation dans un enregistrement vidéo. Ces cônes d'écoulement sont filmés par des caméras installées dans la cabine derrière un hublot, ou des caméras installées à l'extérieur de l'aéronef. Les images sont enregistrées à bord de l'aéronef et sont déchargées après l'atterrissage pour être ensuite exploitées et analysées par des spécialistes au sol.
Après dépouillement manuel des images, les spécialistes peuvent parfois constater que l'essai n'est pas suffisant et qu'il faut en faire d'autres par exemple selon d'autres configurations de vol. Dans ce cas, l'aéronef doit redécoller pour faire d'autres essais. Afin de limiter le nombre d'essais en vol, le système de transmission est adapté pour envoyer au sol en temps réel jusqu'à deux images par seconde. La bande passante utilisable est assez faible et ne permet pas la transmission d'un plus grand nombre d'images. Ce nombre limité d'images ne permet pas à l'observateur au sol d'analyser correctement les mouvements des cônes et ne permet pas de savoir si l'essai est concluant. L'objet de la présente invention est par conséquent de permettre une analyse exhaustive et précise du mouvement des cônes d'écoulement et de ce fait du comportement aérodynamique de l'aéronef. Un autre but est de permettre la réalisation de cette analyse en temps réel et au sol avec un nombre limité de données transmises au sol permettant ainsi de réduire le nombre d'essais en vol, le temps de vol, et les coûts.
OBJET ET RÉSUMÉ DE L'INVENTION La présente invention vise à automatiser le dépouillement d'images prises en vol au bord d'un aéronef et concerne un système de gestion en temps réel de données relatives à l'essai en vol, comportant : - des cônes d'écoulement installés sur au moins une zone d'intérêt de l'aéronef destinée à être analysée lors de l'essai en vol, - des indicateurs installés dans ladite zone d'intérêt définissant une délimitation de ladite zone d'intérêt, - des moyens de prise de vues associés à l'aéronef et configurés pour capter un flux d'images de ladite zone d'intérêt sur laquelle sont installés les cônes d'écoulement et les indicateurs, et -des moyens de traitement destinés à traiter en temps réel et à bord de l'aéronef chaque image courante dudit flux d'images pour identifier et déterminer de manière automatique des positions desdits indicateurs et des positions d'au moins une partie desdits cônes d'écoulement.
Ce système fournit aux spécialistes qui suivent l'essai une information en temps réel sur le mouvement précis des cônes d'écoulement leur permettant par conséquent, d'en déduire le comportement aérodynamique de l'aéronef et de pouvoir ainsi conduire l'essai en temps réel en guidant l'équipage notamment, par exemple, sur le choix de configurations des commandes de vol (becs, volets, etc.), réduisant ainsi les heures de vol d'essai nécessaire. Avantageusement, le système comporte des moyens de transmission configurés pour transmettre au sol en temps réel des données relatives auxdites positions des indicateurs et de ladite au moins une partie des cônes. Ceci permet de fournir à des spécialistes qui suivent l'essai au sol une information en temps réel (transmise au sol en un nombre limité de données) sur le mouvement des cônes d'écoulement leur permettant de transmettre à l'équipage des informations précises sur la conduite de l'essai en temps réel. Avantageusement, les moyens de traitement sont configurés pour déterminer de manière automatique uniquement les positions des cônes d'écoulement entrés en mouvement, les positions de ladite au moins une partie desdits cônes transmis au sol correspond aux positions des cônes d'écoulement qui sont entrés en mouvement. Selon un mode de réalisation, lesdits indicateurs sont formés par un sous ensemble de cônes d'écoulement. Selon un mode de réalisation préféré de la présente invention, les moyens de traitement comportent : - un module de traitement d'images configuré pour identifier les indicateurs en transformant ladite image courante en une première image binaire représentant les indicateurs sur un fond monochrome, et - un module d'analyse configuré pour analyser ladite première image binaire et ladite image courante pour déterminer les positions des indicateurs et des cônes d'écoulement. Avantageusement, le module de traitement d'images comporte : - un bloc de sélection configuré pour prendre en entrée ladite image courante et pour extraire de ladite image courante une couleur caractérisant les indicateurs formant ainsi en sortie une image restreinte auxdits indicateurs, - un bloc de conversion colorimétrique configuré pour prendre en entrée ladite image courante et pour produire en sortie une première image en échelle de gris correspondante à ladite image courante, - un bloc de soustraction configuré pour prendre en entrée les sorties desdits blocs de sélection et de conversion et pour soustraire ladite première image en échelle de gris de ladite image restreinte produisant en sortie une deuxième image en échelle de gris restreinte aux indicateurs, - un premier bloc de seuillage configuré pour prendre en entrée ladite deuxième image en échelle de gris et pour former en sortie ladite première image binaire représentant les indicateurs sur un fond monochrome.
Avantageusement, le module d'analyse comporte : - un premier bloc de détection configuré pour prendre en entrée ladite première image binaire représentant les indicateurs et pour produire en sortie des coordonnées de points représentant les positions desdits indicateurs, - un bloc de transformation configuré pour déterminer une matrice de transformation projective associant à chaque point représentant la position d'un indicateur un point sur un contour rectangulaire de ladite première image binaire, - un premier bloc de projection configuré pour appliquer ladite matrice de transformation projective sur la première image en échelle de gris transformant la zone d'intérêt de ladite première image en échelle de gris en une zone d'intérêt rectangulaire délimitée par ledit contour rectangulaire produisant ainsi en sortie une troisième image en échelle de gris délimitée par le contour rectangulaire et représentant les cônes d'écoulement de ladite zone d'intérêt rectangulaire, - un deuxième bloc de seuillage configuré pour prendre en entrée ladite troisième image en échelle de gris formant en sortie une deuxième image binaire correspondant à ladite troisième image en échelle de gris et représentant les cônes d'écoulement de ladite zone d'intérêt rectangulaire sur un fond monochrome, - un deuxième bloc de projection configuré pour appliquer une matrice inverse de ladite matrice de transformation projective sur ladite deuxième image binaire produisant une troisième image binaire dépourvue de tout objet en dehors de la zone d'intérêt, et - un deuxième bloc de détection configuré pour prendre en entrée ladite troisième image binaire et pour produire en sortie des coordonnées indiquant les positions desdites cônes d'écoulement.
Avantageusement, le module d'analyse comporte en outre un bloc de comparaison configuré pour comparer les positions des cônes d'écoulement de ladite troisième image binaire courante avec celles de l'image précédente identifiant ainsi de manière automatique les cônes d'écoulement qui entrent en mouvement de sorte que les positions de ladite au moins une partie desdits cônes transmis au sol concernent les cônes d'écoulement qui sont entrés en mouvement.
Avantageusement, les moyens de traitement comportent en outre un module d'affichage comprenant : - un premier bloc de représentation graphique configuré pour prendre en entrée ladite image courante et les données relatives aux positions de ladite au moins une partie des cônes et pour dessiner sur ladite image courante des contours délimitant les cônes détectés, formant en sortie une première image de reconstitution, - un deuxième bloc de représentation graphique configuré pour prendre en entrée ladite première image de reconstitution et les données relatives aux positions des indicateurs et pour dessiner sur ladite première image de reconstitution des points représentant les positions des indicateurs, formant en sortie une deuxième image de reconstitution, - un troisième bloc de représentation graphique configuré pour prendre en entrée ladite deuxième image de reconstitution et pour délimiter ladite zone d'intérêt en dessinant sur ladite deuxième image de reconstitution des traits reliant les points représentant les positions des indicateurs formant en sortie une image de reconstitution finale. L'invention vise également un système d'exploitation de données relatives à un essai en vol reçues en temps réel depuis un aéronef, lesdites données étant acquises selon l'une quelconque des caractéristiques ci-dessus, ledit système d'exploitation comportant : - une unité de réception-transmission configurée pour recevoir en temps réel depuis l'aéronef lesdites données relatives aux positions des indicateurs et de ladite au moins une partie des cônes d'écoulement, - une unité de traitement de données configurée pour afficher les positions des indicateurs sur un dessin représentant la partie de l'aéronef comportant la zone d'intérêt. L'invention vise aussi un système d'analyse de comportements aérodynamiques d'un aéronef, comportant le système de gestion et le système d'exploitation selon l'une quelconque des caractéristiques ci-dessus. L'invention vise également un aéronef comportant le système de gestion selon l'une quelconque des caractéristiques ci-dessus.
L'invention vise aussi un procédé de traitement en temps réel d'un flux d'images prises à bord d'un aéronef lors d'un essai en vol de comportements aérodynamiques dudit aéronef, lesdites images étant relatives à une zone d'intérêt de l'aéronef sur laquelle sont installés des cônes d'écoulement et des indicateurs, ledit procédé comportant un traitement en temps réel et à bord de l'aéronef de chaque image courante dudit flux d'images pour identifier et déterminer de manière automatique des positions desdits indicateurs et des positions d'au moins une partie desdites cônes d'écoulement. Avantageusement, le procédé comporte une étape de transmission au sol en temps réel de données relatives auxdites positions des indicateurs et de ladite au moins une partie des cônes. Avantageusement, le procédé comporte les étapes suivantes : - identification des indicateurs en transformant chaque image courante dudit flux d'images en une première image binaire représentant les indicateurs sur un fond monochrome, et - analyse de ladite première image binaire et de ladite image courante pour déterminer les positions des indicateurs et de ladite au moins une partie des cônes d'écoulement. Avantageusement, l'identification des indicateurs comporte les étapes suivantes : - extraction d'une couleur caractérisant les indicateurs de ladite image courante pour former une image restreinte auxdits indicateurs, - production d'une première image en échelle de gris correspondant à ladite image courante, - soustraction de ladite première image en échelle de gris de ladite image restreinte pour produire une deuxième image en échelle de gris restreinte aux indicateurs, - seuillage de ladite deuxième image en échelle de gris pour former ladite première image binaire représentant les indicateurs sur un fond monochrome.
Avantageusement, l'analyse de ladite première image binaire et de ladite image courante pour la détermination des positions des indicateurs et des cônes d'écoulement comporte les étapes suivantes : - détermination de coordonnées des points représentant les positions desdits indicateurs à partir de ladite première image binaire, - détermination d'une matrice de transformation projective associant à chaque point représentant la position d'un indicateur un point sur un contour rectangulaire de ladite première image binaire, - application de ladite matrice de transformation projective sur la première image en échelle de gris pour transformer la zone d'intérêt de ladite première image en échelle de gris en une zone d'intérêt rectangulaire délimitée par ledit contour rectangulaire produisant ainsi une troisième image en échelle de gris délimitée par le contour rectangulaire et représentant les cônes d'écoulement de ladite zone d'intérêt rectangulaire, - seuillage de ladite troisième image en échelle de gris pour former une deuxième image binaire représentant les cônes d'écoulement de ladite zone d'intérêt rectangulaire sur un fond monochrome, - application d'une matrice inverse de ladite matrice de transformation projective sur ladite deuxième image binaire pour produire une troisième image binaire dépourvue de tout objet en dehors de la zone d'intérêt, et - détermination des coordonnées indiquant les positions desdits cônes d'écoulement à partir de ladite troisième image binaire. Avantageusement, le procédé de traitement comporte en outre une comparaison des positions des cônes d'écoulement de ladite troisième image binaire courante avec celles de l'image précédente pour identifier de manière automatique les cônes d'écoulement qui entrent en mouvement. Avantageusement, le procédé de traitement comporte en outre les étapes suivantes : - dessin de contours délimitant les cônes d'écoulement sur ladite image courante pour former une première image de reconstitution, - dessin de points représentant les positions des indicateurs sur ladite première image de reconstitution pour former une deuxième image de reconstitution, - dessin des traits reliant les points représentant les positions des indicateurs sur ladite deuxième image de reconstitution pour former une image de reconstitution finale. L'invention vise également un programme d'ordinateur comportant des instructions de code pour la mise en oeuvre du procédé de traitement selon les caractéristiques ci-dessus lorsqu'il est exécuté par des moyens de traitement.
BRÈVE DESCRIPTION DES DESSINS D'autres particularités et avantages du système et du procédé selon l'invention ressortiront mieux à la lecture de la description faite ci-après, à titre indicatif mais non limitatif, en référence aux dessins annexés sur lesquels : - la Fig. 1 illustre de manière schématique un système de gestion en temps réel de données relatives à un essai en vol de comportements aérodynamiques d'un aéronef, selon un mode de réalisation de l'invention. - les Figs. 2A-2D illustrent les étapes d'un procédé de gestion en temps réel de données relatives à un essai en vol, selon un mode de réalisation de l'invention. - la Fig. 3 illustre de manière schématique un procédé d'exploitation de données relatives à un essai en vol reçues depuis un aéronef, selon un mode de réalisation de l'invention ; - les Figs. 4A-4C illustrent de manière schématique les moyens de traitement du système de gestion de la Fig. 1, selon un mode de réalisation préféré de l'invention ; - les Figs. 4D et 4E illustrent de manière schématique les moyens de traitement du système de gestion de la Fig. 1, selon un autre mode de réalisation préféré de l'invention ; et - la Fig. 5 illustre de manière schématique un système d'analyse de comportements aérodynamiques d'un aéronef, selon un mode de réalisation préféré de l'invention.30 DESCRIPTION DÉTAILLÉE DE MODES DE RÉALISATION Le principe de l'invention permet notamment d'automatiser le traitement d'images captées lors d'un essai en vol pour déterminer en temps réel les positions des cônes d'écoulement. Avantageusement, ceci permet de ne transmettre au sol en temps réel que les positions des cônes d'écoulement permettant ainsi à l'aide d'un envoi limité de données depuis l'aéronef jusqu'au sol une analyse automatique des comportements aérodynamiques de parties de l'aéronef sur lesquelles sont installés les cônes d'écoulement. La Fig. 1 illustre de manière schématique un système de gestion en temps réel de données relatives à un essai en vol de comportements aérodynamiques d'un aéronef, selon un mode de réalisation de l'invention. En outre, les Figs. 2A-2D illustrent les étapes d'un procédé de gestion en temps réel de données relatives à un essai en vol, selon un mode de réalisation de l'invention. Conformément à l'invention, le système 1 de gestion comporte un ensemble de cônes d'écoulement 3, un ensemble d'indicateurs 5, des moyens de prise de vues 7, et des moyens de traitement 9. Les cônes d'écoulement 3 (flow cones) sont installés sur au moins une zone d'intérêt 13 (par exemple, sur une partie des ailes) de l'aéronef 15 destinée à être analysée lors d'un essai en vol.
La Fig. 2A montre à titre d'exemple des cônes d'écoulement fixés sur une partie prédéterminée d'une aile 17 de l'aéronef 15 afin d'analyser le comportement aérodynamique sur celle-ci. On notera que les cônes d'écoulement 3 sont des éléments légers qui présentent lorsqu'ils sont attachés sur une partie du fuselage de l'aéronef 15 des mouvements caractéristiques connus selon le type de flux aérodynamique qui leur est appliqué. Les indicateurs (ou cibles) 5 sont installés dans la zone d'intérêt 13 pour définir une délimitation de cette zone 13. Cette délimitation a en général la forme d'un quadrilatère (rectangle, parallélogramme, carrée, etc.). En particulier, afin de permettre la détection automatique des cônes d'écoulement 3, les indicateurs 5 sont installés autour de la zone d'installation de ces cônes 3. Par exemple, un indicateur 5 est installé sur chaque coin du quadrilatère délimitant cette zone 13. En outre, afin d'identifier automatiquement les indicateurs 5, ces derniers sont caractérisés par des spécificités physiques prédéterminées concernant par exemple leur couleur, leur forme, leur motif, etc. Avantageusement, on choisit des indicateurs 5 ayant une couleur primaire peu présente dans l'environnement de l'aéronef en vol. Par exemple, les indicateurs peuvent être choisis de couleur verte et d'une forme géométrique particulière. Selon une variante, les indicateurs 5 sont formés par les cônes d'écoulement 3 eux-mêmes ou par au moins ceux qui sont à la bordure de la zone d'intérêt 13. Dans ce cas, cet ensemble ou sous-ensemble de cônes d'écoulement 3 est caractérisé par une couleur spécifique peu présente dans l'environnement de l'aéronef. Dans la suite, le terme « indicateur » désignera tout élément qui a pour fonction d'identifier la zone d'intérêt invariablement du fait que cet élément peut être distinct ou non distinct d'un cône d'écoulement 3. Les moyens de prise de vues sont constitués de caméras 7 associées à l'aéronef 15 et configurées pour capter un flux d'images en couleur de la zone d'intérêt 13 sur laquelle sont installés les cônes d'écoulement 3 et les indicateurs 5. Les caméras 7 sont installées par exemple dans la cabine de l'aéronef 15 derrière un hublot et/ou à l'extérieur de l'aéronef de manière adaptée pour filmer les cônes d'écoulement 3 et les indicateurs 5. Les moyens de traitement 9 sont constitués par exemple d'un ordinateur ou d'un calculateur embarqué comprenant une unité d'entrée, une unité de calcul et de traitement de données, des moyens de stockage, et une unité de sortie. On notera que les moyens de stockage peuvent comporter un programme d'ordinateur comprenant des instructions de code adaptées à la mise en oeuvre du procédé d'acquisition, de traitement et de transmission selon l'invention.
Les moyens de traitement 9 sont destinés à traiter en temps réel et à bord de l'aéronef 15 chaque image courante M1 du flux d'images capté par les moyens de prise de vue 7 pour identifier et déterminer de manière automatique les positions des indicateurs 5 délimitant ou définissant la zone d'intérêt 13 ainsi que les positions d'au moins une partie des cônes d'écoulement 3.
En particulier, les moyens de traitement 9 sont configurés pour identifier la zone d'intérêt 13 grâce par exemple à la couleur distinctive des indicateurs 5. En outre, afin de s'affranchir des effets pouvant perturber l'analyse aérodynamique, les moyens de traitement sont configurés pour projeter la zone d'intérêt 13 de l'image courante M1 sur une surface plane formant une zone de projection présentant une forme géométrique prédéterminée. En effet, la Fig. 2B montre que la zone d'intérêt 13 de l'image courante M1 est projetée sur une surface plane pour former l'image M3 constituée d'une zone de projection 131 de forme carrée. Une fois que la zone d'intérêt 13 a été identifiée et projetée, les moyens de traitement 9 sont configurés pour appliquer un seuillage sur l'image M3 afin d'obtenir une image binaire M4 (i.e., dichromatiques) comme illustré sur la Fig. 2C facilitant ainsi la détection automatique des positions des cônes d'écoulement 3. Ainsi, ce système de gestion fournit à des spécialistes à bord de l'aéronef une information précise et en temps réel sur l'orientation et l'amplitude du mouvement de 15 chaque cône d'écoulement 3 leur permettant d'en déduire le comportement aérodynamique de l'aéronef et de pouvoir ainsi conduire l'essai en temps réel. Selon une première variante les moyens de traitement 9 sont configurés pour identifier et déterminer sur chaque image courante M1 les positions de tous les cônes d'écoulement 3. 20 Selon une deuxième variante les moyens de traitement 9 sont configurés pour identifier et déterminer sur chaque image courante M1 uniquement les positions des cônes d'écoulement 3 qui ont été détectés en mouvement par rapport à l'image précédente. Plus particulièrement, chaque image projetée M3 correspondant à une image courante M1 est comparée à la précédente M31 afin d'améliorer la localisation des cônes d'écoulement et 25 de détecter leur mouvement. Ensuite, un seuillage est appliqué sur l'image résultante afin d'obtenir une image binaire M41 constituée des cônes d'écoulement 3 en mouvement comme illustré sur la Fig. 2D. Selon un mode de réalisation préféré de la présente invention, le système de gestion comporte des moyens de transmission 11qui sont configurés pour transmettre au 30 sol en temps réel les données relatives aux positions des indicateurs 5 ainsi que celles relatives aux positions de tous les cônes d'écoulement 3 (selon la première variante) ou seulement les positions de ceux qui ont bougés (selon la deuxième variante). Ainsi, selon la première variante, les images captées par les moyens de prises de vue 7 sont traitées en temps réel à bord de l'aéronef 15 et les positions des indicateurs 5 et de tous les cônes d'écoulement 3 sont transmises par les moyens de transmission 11 à une station 21 au sol. Selon la deuxième variante, les images sont également traitées en temps réel à bord de l'aéronef 15 mais seules les positions des cônes d'écoulement 3 qui ont été détectées en mouvement ainsi que les positions des indicateurs 5 sont transmises à la station 21 au sol permettant de réduire encore davantage la quantité de données transmises au sol. Ainsi, selon ce mode de réalisation préféré, le système de gestion transmet en temps réel aux spécialistes qui suivent l'essai au sol un nombre limité de données représentatives du mouvement des cônes d'écoulement leur permettant par conséquent, d'en déduire le comportement aérodynamique de l'aéronef et de pouvoir ainsi guider l'équipage sur la conduite de l'essai en temps réel. La Fig. 3 illustre de manière schématique un procédé d'exploitation de données relatives à un essai en vol reçues depuis un aéronef, selon un mode de réalisation de l'invention.
Les positions des cônes d'écoulement 3 ainsi que celles des indicateurs 5, reçues au sol sont affichées sur un dessin 23 représentant la partie de l'aéronef filmée par les moyens de prises de vue 7. Ceci permet aux personnes spécialisées en tests aérodynamiques qui suivent l'essai au sol d'avoir une information en temps réel sur les mouvements des cônes d'écoulement 3 installés sur l'aéronef 15. En outre, cette information aide les spécialistes à guider l'équipage de l'aéronef 15 en temps réel lors de l'essai et en particulier à les guider depuis le sol sur le choix de configuration des moyens de commande de vol (becs, volets, etc.) de l'aéronef permettant ainsi de réduire les heures de vol d'essai nécessaires. Par ailleurs, les images captées à bord de l'aéronef 15 ainsi que les positions des indicateurs 5 et des cônes d'écoulement 3 correspondant aux images successives provenant des moyens de traitement 9 sont enregistrées par exemple dans les moyens de stockage. Ceci permet aux spécialistes au sol de visualiser les mouvements des cônes d'écoulement 3 en temps différé afin par exemple de confirmer leur analyse ou de vérifier un comportement aérodynamique non facilement analysé en temps réel.
Les Figs. 4A-4C illustrent de manière schématique les moyens de traitement du système de gestion de la Fig. 1, selon un mode de réalisation préféré de l'invention. La Fig. 4A montre que les moyens de traitement comportent un module de traitement d'images 91 et un module d'analyse 93. Le module de traitement d'images 91 est configuré pour identifier les indicateurs 5 en transformant chaque image courante M1 captée par les caméras 7 en une première image binaire M2 (voir Fig. 4B) représentant les indicateurs 5 détectés sur un fond monochrome. Plus particulièrement, la Fig. 4B montre que le module de traitement d'images 91 comporte un bloc de sélection B1, un bloc de conversion colorimétrique B2, un bloc de soustraction B3, et un premier bloc de seuillage B4. Le bloc de sélection B1 est configuré pour prendre en entrée l'image courante M1 captée par les caméras 7 et pour extraire une couleur caractérisant les indicateurs 5 parmi les couleurs primaires de cette image courante M1. Selon cet exemple, l'image courante M1 montre une aile d'un avion avec des cônes d'écoulement 3 installés sur une zone d'intérêt 13 de l'aile quadrillée par quatre indicateurs 5. L'image courante M1 est une matrice composée de trois couleurs primaires et le bloc de sélection B1 sélectionne la composante (par exemple, verte) caractérisant les indicateurs 5 formant ainsi en sortie une image (non représentée) restreinte aux indicateurs 5.
Le bloc de conversion B2 colorimétrique est configuré pour prendre en entrée l'image courante M1 et pour convertir l'espace colorimétrique de cette image M1 en échelle de gris. Ainsi, le bloc de conversion colorimétrique produit en sortie une première image (non représentée) en échelle de gris correspondante à l'image courante M1. Le bloc de soustraction B3 est configuré pour prendre en entrée les sorties des blocs de sélection B1 et de conversion B2 et pour soustraire la première image en échelle de gris de l'image restreinte produisant en sortie une deuxième image en échelle de gris (non représentée) restreinte aux indicateurs 5. En effet, la soustraction permet de soustraire l'image moyennée (i.e., deuxième image en échelle de gris) de l'image restreinte ayant la couleur d'intérêt (par exemple, la couleur verte) afin d'augmenter le contraste des objets qui ont cette couleur d'intérêt. Le premier bloc de seuillage B4 est configuré pour prendre en entrée la deuxième image en échelle de gris restreinte aux indicateurs et pour former en sortie la première image binaire M2 représentant les indicateurs détectés sur un fond monochrome. La première image binaire M2 illustré sur l'exemple de la Fig. 4B montre quatre points blancs 51 représentant les indicateurs 5 sur un fond noir. En effet, le premier bloc de seuillage B4 binarise la deuxième image en échelle de gris restreinte en attribuant le noir à chaque pixel ayant une valeur inférieure à un certain seuil et le blanc à tous les autres pixels. On notera que la valeur du seuil est automatiquement déterminée de manière connue en fonction de l'histogramme représentant la répartition des niveaux de gris dans une image. Par ailleurs, le module d'analyse 93 est configuré pour analyser automatiquement la première image binaire M2 et l'image courante M1 captée par les caméras 7 déterminant ainsi de manière automatique les positions des indicateurs 5 et cônes d'écoulement 3.
Plus particulièrement, l'exemple de la Fig. 4C montre le module d'analyse 93 comportant un premier bloc de détection B5, un bloc de transformation B6, un premier bloc de projection B7, un deuxième bloc de seuillage B8, un deuxième bloc de projection B9, et un deuxième bloc de détection B10. Le premier bloc de détection B5 est configuré pour prendre en entrée la première image binaire M2 représentant les indicateurs et pour produire en sortie S1 les coordonnées Cl des centres de gravité des points représentant les indicateurs 5. La sortie S1 du premier bloc B5 de détection est constituée de quatre coordonnées correspondant aux centres des quatre objets blancs 51 de la première image binaire M2 indiquant ainsi les positions des quatre indicateurs 5.
Le bloc de transformation B6 est configuré pour déterminer une matrice de transformation projective associant à chaque point représentant la position d'un indicateur 5 un point correspondant sur un contour rectangulaire de la première image binaire M2. Plus particulièrement, le bloc de transformation B6 a deux entrées : une première entrée recevant les quatre coordonnées Cl des indicateurs 5 et une deuxième entrée recevant des coordonnées prédéterminées représentant les coins du contour rectangulaire de la première image binaire M2. Selon cet exemple, les coordonnées prédéterminées (1, 500), (1, 1), (500, 1) et (500, 500) représentent un carré délimitant une image de 500 pixels de côté. Ainsi, la matrice de transformation projective permet de passer des points détectés (i.e. coordonnées des indicateurs) aux points souhaités (i.e. coins d'une image de 500 pixels). Le premier bloc de projection B7 a deux entrées : une première entrée recevant l'image en échelle de gris correspondante à l'image courante M1 et une deuxième entrée recevant la matrice de transformation projective. Ce premier bloc de projection B7 est configuré pour appliquer la matrice de transformation projective sur la première image en échelle de gris transformant la zone d'intérêt 13 de la première image en échelle de gris en une zone d'intérêt rectangulaire 131 délimitée par le contour rectangulaire de l'image M3. Selon l'exemple de la Fig. 4C, la zone d'intérêt rectangulaire 131 est représentée par une image M3 de 500 pixels de côté.
Ainsi, la matrice de transformation déforme de manière linéaire la zone d'intérêt 13 de la première image en échelle de gris en une zone d'intérêt rectangulaire 131 produisant ainsi en sortie une troisième image M3 en échelle de gris délimitée par le contour rectangulaire et représentant les cônes d'écoulement 3 de la zone d'intérêt rectangulaire 131. Les quatre coins de la troisième image en échelle de gris M3 correspondent aux positions des quatre indicateurs 5. Le fait d'éliminer la partie en dehors de la zone d'intérêt 13 permet d'avoir une image M3 non bruitée par l'environnement. Le deuxième bloc de seuillage B8 est configuré pour prendre en entrée la troisième image en échelle de gris M3 représentant la zone d'intérêt rectangulaire 131 et pour former en sortie une deuxième image binaire M4 (i.e., dichromes). Cette deuxième image binaire M4 correspond à la troisième image en échelle de gris M3 et représente les cônes d'écoulement 3 de la zone d'intérêt rectangulaire 131 sur un fond monochrome, les cônes étant en blanc sur un fond noir. Le deuxième bloc de projection B9 a deux entrées : une première entrée recevant la deuxième image binaire M4 et une deuxième entrée recevant une matrice inverse de la matrice de transformation projective. Le deuxième bloc de projection B9 est configuré pour appliquer la matrice inverse sur la deuxième image binaire M4. Cette matrice inverse recadre la deuxième image binaire M4 selon le cadrage d'origine de l'image courante M1 produisant ainsi une troisième image binaire M5 dépourvue de tout objet en dehors de la zone d'intérêt 13. Ceci permet de remettre les cônes d'écoulement 3 dans le repère d'origine tout en permettant une meilleure robustesse de la détection de ces cônes 3. Finalement, le deuxième bloc de détection B10 est configuré pour prendre en entrée la troisième image binaire M5 et pour produire en sortie S2 les coordonnées C2 des taches blanches représentant les positions des cônes d'écoulement 3. A titre d'exemple chaque cône 3 peut être identifié par quatre coordonnées représentant les coins d'un rectangle l'encadrant ou tout simplement par deux coordonnées définissant les extrémités d'un segment représentant le cône 3. Par ailleurs, on notera que le deuxième bloc de détection B10 comporte un filtre configuré pour ne détecter que les objets dont la taille est limitée par des bornes inférieure et supérieure prédéterminées en fonction de la taille d'une cône d'écoulement 3 et/ou les objets qui ont une forme particulière. Ainsi, les bandes blanches sur la troisième image binaire M5 représentant des adhésives (utilisées uniquement à titre expérimental) ne sont pas prises en compte pour le calcul des coordonnées des cônes d'écoulement 3. Dans la deuxième variante présentée plus haut, le module d'analyse 93 comporte un bloc de comparaison B11 pour comparer les positions des cônes d'écoulement de la troisième image binaire M5 courante avec la troisième image binaire précédente pour produire en sortie S21 les coordonnées C21 des cônes d'écoulement 3 qui ont bougés. Les moyens de transmission 11 (voir Fig. 1) transmettent au sol en temps réel les positions C2 de tous les cônes d'écoulement 3 ou seulement les positions C21 de ceux qui ont bougé ainsi que les positions Cl des indicateurs 5. Bien entendu, ces données ne sont pas volumineuses et n'encombrent pas la bande passante entre l'aéronef 5 et la station 21 au sol. Les données reçues au sol sont affichées en temps réel sur un dessin 23 représentant la partie de l'aéronef correspondant à la zone d'intérêt (voir Fig. 3).
Avantageusement, les moyens de transmission 11 transmettent également au moins une image M1 captée par les caméras 7 en plus des coordonnées Cl, C2 ou C21 des cônes d'écoulement 3 et des indicateurs 5. Ceci permet d'afficher les positions des indicateurs 5 et cônes d'écoulement 3 sur l'image reçue depuis l'aéronef. Les Figs. 4D et 4E illustrent de manière schématique les moyens de traitement du système de gestion de la Fig. 1, selon un autre mode de réalisation préféré de l'invention. Selon ce mode de réalisation, les moyens de traitement 9 comportent un module d'affichage 95 en plus des modules de traitement d'images 91 et d'analyse 93. Les modules de traitement d'images 91 et d'analyse 93 sont identiques à ceux des Figs. 4B et 15 4C. Par ailleurs, la Fig. 4E montre que le module d'affichage 95 comprend des premier B12, deuxième B13 et troisième B14 blocs de représentation graphique. Le premier bloc de représentation graphique B12 est configuré pour prendre en entrée l'image courante M1 et les données C2 issues de la sortie S2 (voir Fig. 4C) relatives 20 aux positions des cônes d'écoulement 3 et pour dessiner sur l'image courante M1 des contours délimitant les cônes 3 détectés formant en sortie une première image de reconstitution (non représentée). Le contour de chaque cône d'écoulement 3 peut être défini par un contour rectangulaire englobant le cône 3 ou par un segment passant par le sommet et le centre de gravité du cône 3. Ceci permet d'identifier l'orientation et par 25 conséquent, l'amplitude du mouvement de chaque cône 3. Le deuxième bloc de représentation graphique B13 est configuré pour prendre en entrée la première image de reconstitution et les données Cl issues de la sortie 51 (voir Fig. 4C) relatives aux positions des indicateurs 5 et pour dessiner sur cette première image de reconstitution des points représentant les positions des indicateurs 5 formant en sortie 30 une deuxième image de reconstitution (non représentée).
Le troisième bloc de représentation graphique B14 est configuré pour prendre en entrée la deuxième image de reconstitution et pour délimiter la zone d'intérêt 13 en dessinant sur la deuxième image de reconstitution des traits reliant les points représentant les positions des indicateurs 5. En sortie de ce troisième bloc une image de reconstitution finale M6 est formée. Les images de reconstitutions finales M6 consécutives sont enregistrées par exemple dans les moyens de stockage au bord de l'aéronef 15. Ainsi, les images originelles sont enregistrées avec toutes les données additionnelles relatives aux positions des indicateurs et cônes d'écoulement permettant par conséquent, une analyse rapide et précise de ces images en temps différé. La Fig. 5 illustre de manière schématique un système d'analyse de comportements aérodynamiques d'un aéronef, selon un mode de réalisation préféré de l'invention. Le système d'analyse 101 comporte un système de gestion 1 à bord de l'aéronef 15 ainsi qu'un système d'exploitation 103 au sol. Le système de gestion 1 comporte comme déjà illustré sur la Fig. 1, des cônes d'écoulement 3, des indicateurs 5, des moyens de prise de vues 7, des moyens de traitement 9, et des moyens de transmission 11. Les moyens de traitement 9 comportent des modules de traitement d'images 91 et d'analyse 93 comme illustrés sur les Figs 4A-4C et éventuellement un module d'affichage 95 comme illustré sur les Figs. 4D et 4E. Le système d'exploitation 103 au sol comporte une unité de réception-transmission 105, une unité de traitement de données 107 comprenant des moyens d'entrée, des moyens de calcul, des moyens de stockage, et des moyens de sortie 109 (écran, imprimante, etc.).
L'unité de réception-transmission 105 est configurée pour recevoir en temps réel depuis l'aéronef 15 des données relatives aux positions des indicateurs 5 ainsi qu'aux positions des cônes d'écoulement 3 ou seulement ceux qui ont bougé. Avantageusement, l'unité de réception-transmission 105 est configurée pour recevoir également depuis l'aéronef 15 quelques images de ladite au moins une zone d'intérêt 13.
L'unité de traitement 107 de données est configurée pour afficher sur l'écran 109 un dessin représentant la partie de l'aéronef comportant la zone d'intérêt 13 comme illustré sur la Fig. 2. L'unité de traitement 107 représente la zone d'intérêt 13 et les cônes d'écoulement 3 sur le dessin grâce aux données relatives aux positions des indicateurs 5 et des cônes d'écoulement 3 reçues depuis l'aéronef 15. Ces informations mettent en évidence les cônes d'écoulement 3 en mouvement et leur niveau de mouvement facilitant ainsi l'analyse pour les experts exploitant ces données. Selon une variante, l'unité de traitement de données 107 au sol met en oeuvre le module d'affichage comprenant les premier, deuxième et troisième blocs de représentation graphique selon la Fig. 4E En effet, selon cette variante, l'unité de traitement 107 prend en compte une image M1 reçue depuis l'aéronef 15 et utilise les données relatives aux positions des cônes d'écoulement 3 et des indicateurs 5 pour délimiter la zone d'intérêt 13 et représenter les cônes d'écoulement 3 selon le procédé de la Fig. 4E.
Ainsi, les spécialistes qui suivent l'essai au sol connaissent automatiquement et en temps réel les mouvements des cônes d'écoulement 3 installés sur l'aéronef 15 et peuvent ainsi analyser en direct et de manière précise, le flux d'air traversant les zones d'intérêt tout en recevant très peu de données. Les spécialistes peuvent aussi transmettre à l'équipage à travers l'unité de réception-transmission 105 et en temps réel des informations sur la conduite de l'essai en vol.

Claims (19)

  1. REVENDICATIONS1. Système de gestion en temps réel de données relatives à un essai en vol de comportements aérodynamiques d'un aéronef, caractérisé en ce qu'il comporte : - des cônes d'écoulement (3) installés sur au moins une zone d'intérêt (13) de l'aéronef, - des indicateurs (5) installés dans ladite zone d'intérêt définissant une délimitation de ladite zone d'intérêt, - des moyens de prise de vues (7) installés et configurés pour capter un flux d'images de ladite zone d'intérêt sur laquelle sont installés les cônes d'écoulement et les indicateurs, et -des moyens de traitement (9) destinés à traiter en temps réel et à bord de l'aéronef chaque image courante dudit flux d'images pour identifier et déterminer de manière automatique des positions desdits indicateurs et des positions d'au moins une partie desdites cônes d'écoulement.
  2. 2. Système selon la revendication 1, caractérisé en ce qu'il comporte des moyens de transmission (11) configurés pour transmettre au sol en temps réel des données relatives auxdites positions des indicateurs et de ladite au moins une partie des cônes. 20
  3. 3. Système selon la revendication 2, caractérisé en ce que les moyens de traitement sont configurés pour déterminer de manière automatique uniquement les positions des cônes d'écoulement entrés en mouvement, les positions de ladite au moins une partie desdits cônes transmis au sol correspondent aux positions des cônes 25 d'écoulement qui sont entrés en mouvement.
  4. 4. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que lesdits indicateurs sont formés par au moins une partie desdits cônes d'écoulement. 30
  5. 5. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que les moyens de traitement comportent : - un module de traitement d'images (91) configuré pour identifier les indicateurs en transformant ladite image courante en une première image binaire représentant les indicateurs sur un fond monochrome, - un module d'analyse (93) configuré pour analyser ladite première image binaire et ladite image courante pour déterminer les positions des indicateurs et des cônes d'écoulement.
  6. 6. Système selon la revendication 5, caractérisé en ce que le module de traitement d'images (91) comporte: - un bloc de sélection (B1) configuré pour prendre en entrée ladite image courante et pour extraire de ladite image courante une couleur caractérisant les indicateurs formant ainsi en sortie une image restreinte auxdits indicateurs, - un bloc de conversion colorimétrique (B2) configuré pour prendre en entrée ladite image courante et pour produire en sortie une première image en échelle de gris correspondante à ladite image courante, - un bloc de soustraction (B3) configuré pour prendre en entrée les sorties desdits blocs de sélection et de conversion et pour soustraire ladite première image en échelle de gris de ladite image restreinte produisant en sortie une deuxième image en échelle de gris restreinte aux indicateurs, - un premier bloc de seuillage (B4) configuré pour prendre en entrée ladite deuxième image en échelle de gris et pour former en sortie ladite première image binaire représentant les indicateurs sur un fond monochrome.
  7. 7. Système selon la revendication 5, caractérisé en ce que le module d'analyse (93) comporte :- un premier bloc de détection (B5) configuré pour prendre en entrée ladite première image binaire représentant les indicateurs et pour produire en sortie des coordonnées de points représentant les positions desdits indicateurs, - un bloc de transformation (B6) configuré pour déterminer une matrice de transformation projective associant à chaque point représentant la position d'un indicateur un point sur un contour rectangulaire de ladite première image binaire, - un premier bloc de projection (B7) configuré pour appliquer ladite matrice de transformation projective sur la première image en échelle de gris transformant la zone d'intérêt de ladite première image en échelle de gris en une zone d'intérêt rectangulaire délimitée par ledit contour rectangulaire produisant ainsi en sortie une troisième image en échelle de gris délimitée par le contour rectangulaire et représentant les cônes d'écoulement de ladite zone d'intérêt rectangulaire, - un deuxième bloc de seuillage (B8) configuré pour prendre en entrée ladite troisième image en échelle de gris formant en sortie une deuxième image binaire correspondant à ladite troisième image en échelle de gris et représentant les cônes d'écoulement de ladite zone d'intérêt rectangulaire sur un fond monochrome, - un deuxième bloc de projection (B9) configuré pour appliquer une matrice inverse de ladite matrice de transformation projective sur ladite deuxième image binaire produisant une troisième image binaire dépourvue de tout objet en dehors de la zone d'intérêt, et - un deuxième bloc de détection (B10) configuré pour prendre en entrée ladite troisième image binaire et pour produire en sortie des coordonnées indiquant les positions desdites cônes d'écoulement.
  8. 8. Système selon la revendication 7, caractérisé en ce que le module d'analyse comporte en outre un bloc de comparaison (B11) configuré pour comparer les positions des cônes d'écoulement de ladite troisième image binaire courante avec celles de l'image précédente identifiant ainsi de manière automatique les cônes d'écoulement qui entrent en mouvement de sorte que les positions de ladite au moins une partie desdites cônes transmis au sol concerne les cônes d'écoulement qui sont entrés en mouvement.
  9. 9. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que les moyens de traitement comportent en outre un module d'affichage (95) comprenant : - un premier bloc de représentation graphique (B12) configuré pour prendre en entrée ladite image courante et les données relatives aux positions de ladite au moins une partie des cônes et pour dessiner sur ladite image courante des contours délimitant les cônes détectées, formant en sortie une première image de reconstitution, - un deuxième bloc de représentation graphique (B13) configuré pour prendre en entrée ladite première image de reconstitution et les données relatives aux positions des indicateurs et pour dessiner sur ladite première image de reconstitution des points représentant les positions des indicateurs, formant en sortie une deuxième image de reconstitution, - un troisième bloc de représentation graphique B(14) configuré pour prendre en entrée ladite deuxième image de reconstitution et pour délimiter ladite zone d'intérêt en dessinant sur ladite deuxième image de reconstitution des traits reliant les points représentant les positions des indicateurs formant en sortie une image de reconstitution finale.
  10. 10. Système d'exploitation de données relatives à un essai en vol reçues en temps réel depuis un aéronef, lesdites données étant acquises selon l'une quelconque des revendications 1 à 9 du système de gestion, caractérisé en ce que ledit système d'exploitation comporte : - une unité de réception-transmission (105) configurée pour recevoir en temps réel depuis l'aéronef (15) lesdites données relatives aux positions des indicateurs (5) et de ladite au moins une partie des cônes d'écoulement (3), - une unité de traitement (107) de données configurée pour afficher les positions des indicateurs (5) sur un dessin représentant la partie de l'aéronef comportant la zone d'intérêt (13).30
  11. 11. Système d'analyse de comportements aérodynamiques d'un aéronef, caractérisé en ce qu'il comporte le système de gestion selon l'une quelconque des revendications 1 à 9 et le système d'exploitation selon la revendication 10.
  12. 12. Procédé de traitement en temps réel d'un flux d'images prises à bord d'un aéronef lors d'un essai en vol de comportements aérodynamiques dudit aéronef, lesdites images étant relatives à une zone d'intérêt de l'aéronef sur laquelle sont installés des cônes d'écoulement et des indicateurs, ledit procédé étant caractérisé en ce qu'il comporte un traitement en temps réel et à bord de l'aéronef de chaque image courante dudit flux d'images pour identifier et déterminer de manière automatique des positions desdits indicateurs et des positions d'au moins une partie desdites cônes d'écoulement.
  13. 13. Procédé selon la revendication 12, caractérisé en ce qu'il comporte une étape de transmission au sol en temps réel de données relatives auxdites positions des indicateurs et de ladite au moins une partie des cônes.
  14. 14. Procédé selon la revendication 12 ou 13, caractérisé en ce qu'il comporte les étapes suivantes : - identification des indicateurs en transformant chaque image courante dudit flux d'images en une première image binaire représentant les indicateurs sur un fond monochrome, et - analyse de ladite première image binaire et de ladite image courante pour déterminer les positions des indicateurs et de ladite au moins une partie des cônes d'écoulement.
  15. 15. Procédé selon la revendication 14, caractérisé en ce que l'identification des indicateurs comporte les étapes suivantes : - extraction d'une couleur caractérisant les indicateurs de ladite image courante pour former une image restreinte auxdits indicateurs,- production d'une première image en échelle de gris correspondant à ladite image courante, - soustraction de ladite première image en échelle de gris de ladite image restreinte pour produire une deuxième image en échelle de gris restreinte aux indicateurs, - seuillage de ladite deuxième image en échelle de gris pour former ladite première image binaire représentant les indicateurs sur un fond monochrome.
  16. 16. Procédé selon la revendication 14, caractérisé en ce que l'analyse de ladite première image binaire et de ladite image courante pour la détermination des positions des indicateurs et des cônes d'écoulement comporte les étapes suivantes : - détermination de coordonnées des points représentant les positions desdits indicateurs à partir de ladite première image binaire, - détermination d'une matrice de transformation projective associant à chaque point représentant la position d'un indicateur un point sur un contour rectangulaire de ladite première image binaire, - application de ladite matrice de transformation projective sur la première image en échelle de gris pour transformer la zone d'intérêt de ladite première image en échelle de gris en une zone d'intérêt rectangulaire délimitée par ledit contour rectangulaire produisant ainsi une troisième image en échelle de gris délimitée par le contour rectangulaire et représentant les cônes d'écoulement de ladite zone d'intérêt rectangulaire, - seuillage de ladite troisième image en échelle de gris pour former une deuxième image binaire représentant les cônes d'écoulement de ladite zone d'intérêt rectangulaire sur un fond monochrome, - application d'une matrice inverse de ladite matrice de transformation projective sur ladite deuxième image binaire pour produire une troisième image binaire dépourvue de tout objet en dehors de la zone d'intérêt, et - détermination des coordonnées indiquant les positions desdits cônes d'écoulement à partir de ladite troisième image binaire.30
  17. 17. Procédé selon la revendication 16, caractérisé en ce qu'il comporte en outre une comparaison des positions des cônes d'écoulement de ladite troisième image binaire courante avec celles de l'image précédente pour identifier de manière automatique les cônes d'écoulement qui entrent en mouvement.
  18. 18. Procédé selon l'une quelconque des revendications 14 à 17, caractérisé en ce qu'il comporte en outre les étapes suivantes : - dessin de contours délimitant les cônes d'écoulement sur ladite image courante pour former une première image de reconstitution, - dessin de points représentant les positions des indicateurs sur ladite première image de reconstitution pour former une deuxième image de reconstitution, - dessin des traits reliant les points représentant les positions des indicateurs sur ladite deuxième image de reconstitution pour former une image de reconstitution finale.
  19. 19. Programme d'ordinateur comportant des instructions de code pour la mise en oeuvre du procédé de traitement selon les revendications 14 à 18 lorsqu'il est exécuté par des moyens de traitement.
FR1457472A 2014-07-31 2014-07-31 Gestion en temps reel de donnees relatives a un essai en vol d'un aeronef Expired - Fee Related FR3024577B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR1457472A FR3024577B1 (fr) 2014-07-31 2014-07-31 Gestion en temps reel de donnees relatives a un essai en vol d'un aeronef
CA2897324A CA2897324A1 (fr) 2014-07-31 2015-07-14 Gestion en temps reel de donnees relatives au test en vol d'un aeronef
US14/811,165 US20160037133A1 (en) 2014-07-31 2015-07-28 Real-time management of data relative to an aircraft's flight test
CN201510459256.3A CN105319049B (zh) 2014-07-31 2015-07-30 与飞行器的飞行测试有关的数据的实时管理的系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1457472A FR3024577B1 (fr) 2014-07-31 2014-07-31 Gestion en temps reel de donnees relatives a un essai en vol d'un aeronef

Publications (2)

Publication Number Publication Date
FR3024577A1 true FR3024577A1 (fr) 2016-02-05
FR3024577B1 FR3024577B1 (fr) 2016-08-26

Family

ID=51688295

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1457472A Expired - Fee Related FR3024577B1 (fr) 2014-07-31 2014-07-31 Gestion en temps reel de donnees relatives a un essai en vol d'un aeronef

Country Status (4)

Country Link
US (1) US20160037133A1 (fr)
CN (1) CN105319049B (fr)
CA (1) CA2897324A1 (fr)
FR (1) FR3024577B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3499208A1 (fr) * 2017-12-15 2019-06-19 The Boeing Company Procédé de fabrication de composants d'aéronef optimisés pour le vol et système et procédé pour leur conception

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3041096B1 (fr) * 2015-09-15 2017-09-29 Airbus Mesure des ecoulements d'air le long d'une paroi
CN109238633B (zh) * 2018-11-02 2020-06-09 北京航天益森风洞工程技术有限公司 一种流场显示装置
CN112697388B (zh) * 2021-01-11 2022-10-04 中国空气动力研究与发展中心高速空气动力研究所 一种基于纹影图像的高超声速风洞模型姿态角测量方法
CN114486310A (zh) * 2021-12-31 2022-05-13 中国航空工业集团公司西安飞机设计研究所 一种飞机机电管理系统动态仿真综合试验系统及方法
CN115183980B (zh) * 2022-06-15 2024-09-03 中国航天空气动力技术研究院 一种用于风洞试验面测量试验数据后处理方法
CN115824573B (zh) * 2023-01-06 2023-05-09 中国航空工业集团公司沈阳空气动力研究所 一种应用于风洞冰形三维测量的定位装置及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005017515A1 (de) * 2005-04-15 2006-10-19 Airbus Deutschland Gmbh Einrichtung zur automatischen Auswertung und Steuerung von Windkanalmessungen

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4567760A (en) * 1984-01-18 1986-02-04 Crowder James P Flow direction and state indicator
US5200621A (en) * 1991-12-16 1993-04-06 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Off-surface infrared flow visualization
US5793034A (en) * 1995-09-18 1998-08-11 Daedalus Enterprises, Inc. Target detection system utilizing multiple optical criteria
CN1393682A (zh) * 2001-07-02 2003-01-29 北京超翼技术研究所有限公司 飞行实时仿真监控系统
CN1533948A (zh) * 2003-03-28 2004-10-06 王⒅ 对飞机故障的预测报警方法及飞机故障预测报警系统
WO2012139065A2 (fr) * 2011-04-08 2012-10-11 Technos, Inc. Appareils et procédés pour visualiser un écoulement d'air autour de véhicules
JP6102088B2 (ja) * 2011-09-01 2017-03-29 株式会社リコー 画像投影装置、画像処理装置、画像投影方法、画像投影方法のプログラム及びそのプログラムを記録した記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005017515A1 (de) * 2005-04-15 2006-10-19 Airbus Deutschland Gmbh Einrichtung zur automatischen Auswertung und Steuerung von Windkanalmessungen

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PANG A ET AL: "Comparative Flow Visualization", IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US, vol. 10, no. 6, 1 November 2004 (2004-11-01), pages 609 - 624, XP011118804, ISSN: 1077-2626, DOI: 10.1109/TVCG.2004.39 *
SLAVICA RISTIC: "Flow Visualisation Techniques in Wind Tunnels Part I - Non optical Methods", SCIENTIFIC TECHNICAL REVIEW, 1 January 2007 (2007-01-01), XP055160592, Retrieved from the Internet <URL:http://www.vti.mod.gov.rs/ntp/rad2007/1-07/rist/rist.pdf> [retrieved on 20150108] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3499208A1 (fr) * 2017-12-15 2019-06-19 The Boeing Company Procédé de fabrication de composants d'aéronef optimisés pour le vol et système et procédé pour leur conception
US10815009B2 (en) 2017-12-15 2020-10-27 The Boeing Company Method for manufacturing aircraft components optimized for flight and system and method for their design

Also Published As

Publication number Publication date
CA2897324A1 (fr) 2016-01-31
CN105319049B (zh) 2020-04-17
FR3024577B1 (fr) 2016-08-26
US20160037133A1 (en) 2016-02-04
CN105319049A (zh) 2016-02-10

Similar Documents

Publication Publication Date Title
FR3024577A1 (fr) Gestion en temps reel de donnees relatives a un essai en vol d&#39;un aeronef
EP3777122B1 (fr) Appareil et procédé de traitement d&#39;image
US10573018B2 (en) Three dimensional scene reconstruction based on contextual analysis
US9773302B2 (en) Three-dimensional object model tagging
Tang et al. Investigating haze-relevant features in a learning framework for image dehazing
CN109636732B (zh) 一种深度图像的空洞修复方法以及图像处理装置
US20200234397A1 (en) Automatic view mapping for single-image and multi-view captures
US9042662B2 (en) Method and system for segmenting an image
US9786042B2 (en) Algorithm for measuring wear pin length using an input image
US9589319B2 (en) Method, system and apparatus for forming a high resolution depth map
CN105229697A (zh) 多模态前景背景分割
US20140050387A1 (en) System and Method for Machine Vision Inspection
FR3038431A1 (fr) Bloc camera haute resolution pour drone, avec correction des instabilites de type oscillations ondulantes
CN111192241B (zh) 一种人脸图像的质量评估方法、装置及计算机存储介质
WO2016146937A1 (fr) Procédé de traitement d&#39;un signal asynchrone
EP2257924B1 (fr) Procede pour generer une image de densite d&#39;une zone d&#39;observation
Bijelic et al. Recovering the Unseen: Benchmarking the Generalization of Enhancement Methods to Real World Data in Heavy Fog.
CN114563406A (zh) 检测能够反射光的表面中的凹痕的方法和系统及存储介质
KR101064946B1 (ko) 다중 영상 분석 기반의 객체추출 장치 및 그 방법
FR2779257A1 (fr) Procede de detection de la profondeur relative entre objets dans une image a partir d&#39;un couple d&#39;images
CN116778357A (zh) 利用可见光缺陷识别的电力线路无人机巡检方法和系统
US9641794B2 (en) Smudge removal
WO2018229391A1 (fr) Plateforme de commande et de suivi des inspections de surfaces d&#39;objets par des robots d&#39;inspection et système d&#39;inspection mettant en oeuvre une telle plateforme
Tiwari et al. Development of Algorithm for Object Detection & Tracking Using RGB Model
TW201809671A (zh) 一種光流測速模組與其測速方法

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20160205

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 7

ST Notification of lapse

Effective date: 20220305