FR3044122A1 - Procede et systeme pour assister un operateur de maintenance dans l'execution d'une tache de maintenance d'un aeronef - Google Patents

Procede et systeme pour assister un operateur de maintenance dans l'execution d'une tache de maintenance d'un aeronef Download PDF

Info

Publication number
FR3044122A1
FR3044122A1 FR1561379A FR1561379A FR3044122A1 FR 3044122 A1 FR3044122 A1 FR 3044122A1 FR 1561379 A FR1561379 A FR 1561379A FR 1561379 A FR1561379 A FR 1561379A FR 3044122 A1 FR3044122 A1 FR 3044122A1
Authority
FR
France
Prior art keywords
controlled
virtual
movement
real
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1561379A
Other languages
English (en)
Inventor
Siegfried Soldani
Samuel Grossiord
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Operations SAS
Original Assignee
Airbus Operations SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Operations SAS filed Critical Airbus Operations SAS
Priority to FR1561379A priority Critical patent/FR3044122A1/fr
Publication of FR3044122A1 publication Critical patent/FR3044122A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

La présente invention concerne un procédé pour assister un opérateur de maintenance dans l'exécution d'une tâche de maintenance d'un aéronef, ledit procédé d'assistance comportant une étape d'affichage (E20) en réalité augmentée sur un dispositif d'affichage (20) d'au moins une image virtuelle d'au moins un élément à contrôler. Selon une caractéristique de la présente invention, ledit procédé comporte en outre : - une étape (E30) de détermination du mouvement 3D réel du ou de chaque élément à contrôler pour la tâche de maintenance à exécuter, - une étape (E40) de comparaison dudit mouvement 3D réel du ou de chaque élément à contrôler avec un mouvement 3D virtuel du même élément à contrôler associé à la tâche de maintenance à exécuter, et - une étape (E50) de déclenchement d'une alarme lorsque ladite étape de comparaison montre une discordance entre le mouvement 3D réel du ou de chaque élément à contrôler avec le mouvement 3D virtuel du même élément à contrôler. La présente invention concerne également un système d'assistance pour assister un opérateur de maintenance dans l'exécution d'une tâche de maintenance d'un aéronef.

Description

La présente invention concerne un procédé pour assister un opérateur pour des opérations de maintenance d'un aéronef au moyen d'un système d'assistance à réalité augmentée.
Lorsqu'une panne survient sur un aéronef, le centre de maintenance (MCC) de la compagnie aérienne de l'aéronef en est informé et prévoit alors les opérations de maintenance à effectuer. Plus exactement, il identifie chacune des tâches de maintenance afin de mener à bien ces opérations de maintenance et de les confier à un opérateur de maintenance qualifié. Ces tâches de maintenance sont préétablies et sont répertoriées dans un manuel appelé AMM, acronyme de Aircraft Maintenance Manuel (Manuel de maintenance pour aéronef en français). Il se peut également qu'un opérateur de maintenance lise, après atterrissage d'un aéronef, un registre de l'aéronef appelé logbook, et constate que des opérations de maintenance sont à effectuer. Le registre "logbook" est un document compilant l'ensemble des incidents ayant édité une alarme qui sont survenus pendant un vol de l'aéronef considéré et qui nécessitent obligatoirement que des opérations de maintenance soient effectuées. Ainsi, à chaque alarme éditée, sera associé une ou un ensemble de tâches à réaliser. L'opérateur de maintenance intervient donc sur l'aéronef considéré et effectue chacune des tâches des opérations de maintenance. Pour l'assister, il dispose d'un système d'assistance qui lui permet de sélectionner chacune des tâches de maintenance à effectuer et d'ainsi afficher, sur un écran approprié, les informations nécessaires pour mener à bien chacune de ces tâches. Ces informations peuvent regrouper des textes informatifs relatifs à des instructions données à l'opérateur, à des référencements de composants sur lesquels intervenir, des images ou des schémas de ces composants et des systèmes constitués de ces composants, de leur liaison, etc. ainsi que des outils à utiliser, et des séquences d'animation 3D montrant le déroulé de chaque tâche à exécuter. De plus, ces informations peuvent être affichées en réalité augmentée, c'est-à-dire qu'elles viennent se superposer, pour l'opérateur, à ce qu'il voit du lieu d'intervention réel, soit à travers une paire de lunettes qu'il porte, soit par l'intermédiaire d'images prises par une caméra et affichées sur un écran du système d'assistance placé, soit à proximité de l'opérateur, soit devant les yeux de l'opérateur qui porte alors une paire de lunettes appropriées.
De manière générale, un système de réalité augmentée possède trois propriétés qui le définissent : il combine des objets virtuels et des objets réels, il fonctionne de manière interactive en temps réel et il aligne les objets virtuels avec les objets réels.
De tels systèmes d'assistance par affichage d'informations en réalité augmentée permettent à l'opérateur de visualiser les composants sur lesquels il doit intervenir, de savoir quel outil il doit utiliser et de connaître le déroulé des tâches à effectuer. De plus, si l'affichage en réalité augmentée est effectué devant ses yeux, l'opérateur pourra voir les informations mentionnées ci-dessus superposées à la réalité, ce qui lui permet de ne pas continuellement tourner son regard de l'endroit d'intervention vers le système d'assistance et réciproquement et d'ainsi mieux se concentrer sur le déroulé des tâches. Ils permettent également de réduire le temps d'intervention et d'ainsi rendre les aéronefs concernés plus rapidement disponibles pour de nouveaux vols. Ils permettent également de réduire les risques d'erreurs dues à des incompréhensions des tâches à effectuer.
Cependant, les risques d'erreurs et d'incompréhensions ne sont pas totalement éliminés, surtout lorsque les opérateurs doivent intervenir rapidement.
Le but de la présente invention est donc de prévoir une méthode pour assister un opérateur pour des opérations de maintenance d'un aéronef au moyen d'un système de réalité augmentée qui permette de diminuer encore les risques d'erreurs dans le déroulé des tâches à effectuer par rapport aux méthodes de l'art antérieur rappelé succinctement ci-dessus. A cet effet, un procédé pour assister un opérateur de maintenance dans l'exécution d'une tâche de maintenance d'un aéronef comporte: - une étape de détermination du mouvement 3D réel du ou de chaque élément à contrôler pour la tâche de maintenance à exécuter, - une étape de comparaison dudit mouvement 3D réel du ou de chaque élément à contrôler avec un mouvement 3D virtuel du même élément à contrôler associé à la tâche de maintenance à exécuter, et - une étape de déclenchement d'une alarme lorsque ladite étape de comparaison montre une discordance entre le mouvement 3D réel du ou de chaque élément à contrôler avec le mouvement 3D virtuel du même élément à contrôler.
Ainsi, la présente invention permet de contrôler que les actions de l'opérateur pour réaliser ses tâches de maintenance ont été correctement effectuées et de le prévenir si tel n'est pas le cas.
Les caractéristiques de l'invention mentionnées ci-dessus, ainsi que d'autres, apparaîtront plus clairement à la lecture de la description suivante d'un exemple de réalisation, ladite description étant faite en relation avec les dessins joints, parmi lesquels :
La Fig. 1 est une vue schématique d'un système d'assistance à réalité augmentée pour les opérations de maintenance,
La Fig. 2 est un diagramme d'un procédé pour assister un opérateur pour des opérations de maintenance d'un aéronef au moyen d'un système d'assistance à réalité augmentée selon la Fig. 1, et
La Fig. 3 est un schéma synoptique d'une unité de commande d'un système d'assistance à réalité augmentée selon un mode de réalisation informatique.
Le système d'assistance à réalité augmentée représenté à la Fig. 1 comprend essentiellement une unité de commande 10 qui peut se présenter sous la forme d'un ordinateur, tel qu'un ordinateur personnel, une tablette, un Smartphone, etc., un dispositif d'affichage 20 qui, dans le mode réalisation exemplatif représenté, est constitué d'une paire de lunettes 20 destinée à être posée sur le nez d'un opérateur de maintenance devant ses yeux, une caméra vidéo 30 (monoscopique ou stéréoscopique) et une unité de détection de profondeur 40.
La référence 50 concerne la scène qui se trouve devant l'opérateur de maintenance alors qu'il exécute une tâche de maintenance mais aussi devant la caméra 30 et devant l'unité de détection de profondeur 40, par exemple fixées sur un casque (non représenté) que porte l'opérateur de maintenance.
Le dispositif d'affichage 20 est constitué d'un écran qui est placé, soit à proximité de l'opérateur, soit devant les yeux de l'opérateur qui porte alors une paire de lunettes appropriées. S'il s'agit d'une paire de lunettes, celle-ci peut être du type où l'opérateur qui la porte voit, d'une part à travers elle, la scène 50 qui se trouve devant lui et, d'autre part, des images virtuelles, animées ou non, fournies par l'unité de commande 10 qui se superposent, pour l'opérateur, à la vision qu'il a de la scène 50. Elle peut également être du type où l'opérateur qui la porte voit des images généralement animées qui résultent de la combinaison d'images réelles de la scène 50 devant l'opérateur (par exemple, prises par la caméra 30) et d'images virtuelles, animées ou non, combinaison effectuée par l'unité de commande 10. L'unité de détection de profondeur 40 est pourvue d'au moins un détecteur infrarouge, par exemple d'une ou deux caméras infrarouges vidéo (dans l'exemple représenté, l'unité 40 ne comporte qu'une seule caméra 41), pour capturer la scène 50 et former un flux vidéo de la scène 50. Elle est également pourvue d'un émetteur de lumière infrarouge 42 prévu pour éclairer la scène 50 en lumière infrarouge structurée, c'est-à-dire formant sur les éléments de la scène 50 des structures reconnaissables dans les images fournies par le ou les détecteurs infrarouges 41. L'unité de détection de profondeur 40 établit alors des signaux de profondeur qui se présentent, par exemple, sous la forme de cartes de profondeur de la scène 50. L'unité de commande 10 comporte un module 11 d'extraction de données de la ou de chaque tâche de maintenance que l'opérateur de maintenance doit exécuter. Ces données sont extraites, par action de l'opérateur, d'une base de données 11BD que comporte, par exemple, le module d'extraction 11 lui-même. Dans une variante de réalisation non représentée, la base de données 11BD est montée sur un système distant auquel l'unité de commande 10 a accès via un réseau approprié, par exemple l'Internet.
Plus exactement, selon la présente invention, à chaque tâche de maintenance à exécuter sont associées des données constituées, non seulement d'une séquence d'animations 3D virtuelles montrant le déroulé de cette tâche à effectuer, mais aussi d'un modèle 3D virtuel d'au moins un élément à contrôler lors de l'exécution de cette étape ainsi que des informations relatives au mouvement 3D virtuel du ou de chacun desdits éléments à contrôler.
Un élément à contrôler est, par exemple, l'un des éléments suivants : - un composant de l'aéronef que l'opérateur doit manipuler, par exemple déplacer ou agir dessus, lors de l'exécution de la tâche à exécuter, ou - un outil utilisé par l'opérateur pour exécuter ladite tâche, ou - une partie du corps de l'opérateur, telle qu'une main, qui sera dans le champ de vision de la caméra 30 lors de l'exécution de ladite tâche.
Le fait que l'élément à contrôler soit un composant de l'aéronef est avantageux du fait qu'il est partie intégrante de la maquette numérique dont on dispose de l'aéronef et qu'ainsi, il est plus facile à identifier pour déterminer sa pose réelle dans la scène 50. Néanmoins, dans certains cas, il est plus facile de reconnaître un outil (par exemple une clef ou un tournevis) et de déterminer ses différentes poses que de reconnaître le composant aéronef sur lequel agit ledit outil (l'écrou que la clef va faire tourner ou la vis que le tournevis va visser) et sa position.
On appelle "pose d'un élément à contrôler" la position de cet élément définie par rapport à une pose de référence en termes d'une translation selon un axe donné et de rotations selon des axes donnés. De plus, dans la suite de la description, on distinguera la pose réelle d'un élément à contrôler lorsqu'il s'agira de la pose prise par l'élément à contrôler réel, de la pose virtuelle lorsqu'il s'agira de la pose prise par le modèle 3D virtuel de cet élément à contrôler.
Les informations de mouvement 3D virtuel sont par exemple constituées d'une suite ordonnée de poses virtuelles que l'élément à contrôler considéré devrait successivement prendre lors de l'exécution de la tâche à exécuter. Une telle suite est par exemple constituée de la pose virtuelle initiale de l'élément considéré au début du déroulé de la tâche à exécuter, une ou plusieurs poses virtuelles intermédiaires et la pose virtuelle finale à la fin de l'exécution de ladite tâche.
Les données relatives à une tâche à exécuter qui sont extraites de la base de données 11BD du module d'extraction 11 peuvent de plus comprendre des textes informatifs relatifs à des instructions données à l'opérateur, à des référencements de composants aéronef, des images 2D (schémas, par exemple) ou 3D de ces composants et des outils à utiliser, etc. L'unité de commande 10 comporte un module 12 de réalité augmentée qui reçoit, d'une part, un flux vidéo issu de la caméra 30 et, d'autre part, les données extraites du module 11 d'extraction de données correspondant à la tâche à exécuter. Elle met en œuvre des algorithmes de réalité augmentée (connus en soi) lesquels consistent à déterminer la pose réelle d'un ensemble de points distinctifs présents dans chaque image du flux vidéo issu de la caméra 30, puis à déterminer la pose réelle dans la scène 50 du ou des éléments à contrôler associés à la tâche à exécuter, et une étape de reconstitution de l'image 3D virtuelle du ou des éléments à contrôler à superposer à la vision de l'opérateur. Cette reconstitution de l'image 3D virtuelle est généralement un positionnement et/ou un calage de cette image 3D virtuelle par rapport à la vue réelle de la scène 50. Par exemple, elle combine chaque image du flux vidéo de la caméra 30 à l'image virtuelle 3D du ou des éléments à contrôler en un flux vidéo de réalité augmentée qui est alors fourni au dispositif d'affichage 20 (ici la paire de lunettes 20). Lorsque la vision réelle de l'opérateur est faite à travers cette paire de lunettes 20, elle ne peut fournir à la paire de lunettes 20 que l'image virtuelle 3D reconstituée (positionnée et calée par rapport à la vue réelle de la scène 50 à travers la paire de lunettes 20). L'unité de commande 10 comporte encore un module 13 de détermination de mouvement réel qui reçoit les flux vidéo issus de la caméra 30 ainsi que les signaux de profondeur issus de l'unité de détection de profondeur 40. Elle reçoit également du module d'extraction 11 un modèle 3D virtuel du ou des éléments à contrôler associés à la tâche à exécuter. Le module 13 détermine alors, à partir des flux vidéo et des signaux de profondeurs, le modèle 3D réel du ou de chaque élément à contrôler dans la scène 50 et, par comparaison du modèle 3D réel et du modèle 3D virtuel, la pose réelle du ou de chaque élément à contrôler dans la scène 50 et, ce, à chaque instant. Il en déduit enfin le mouvement 3D réel du ou de chaque élément à contrôler comme étant une suite ordonnée de poses réelles que ledit élément à contrôler prend successivement.
Par exemple, selon un mode de réalisation, l'unité de détection de profondeur 40 et le module 13 de détermination de mouvement sont parties intégrantes d'un même système de capture de mouvement sans capteur, tel que le système appelé KinectR ou le système appelé HandPoseR de Microsoft11 ou encore le système proposé par la société LeapMotionR.
Dans un autre mode de réalisation de la présente invention, la caméra 30 est une caméra stéréoscopique et le module de détermination de mouvement réel 13 utilise les flux vidéo de la caméra 30 et le modèle 3D virtuel de l'élément à contrôler pour déterminer les poses réelles successives prises par l'élément à contrôler et son mouvement 3D réel. L'unité de détection de profondeur 40 n'est alors pas nécessaire.
La présente invention n'est pas limitée à une technologie particulière de capture de mouvement et la description faite ci-dessus n'est donnée qu'à titre d'exemple de réalisation de cette capture. L'avantage de la technologie exposée ci-dessus brièvement tient au fait qu'elle n'utilise pas de marqueurs, par exemple, sur le ou les éléments qui constituent la scène 50. L'unité de commande 10 comporte encore un module 14 de comparaison de mouvements 3D prévu pour comparer, pour la tâche à exécuter considérée, le mouvement 3D réel du ou des éléments à contrôler tel que délivré par le module 13 de détermination de mouvement et le mouvement 3D virtuel du ou des mêmes éléments à contrôler tel que délivré par le module d'extraction 11. Si une incohérence est détectée entre ces mouvements 3D réel et virtuel alors le module de comparaison 14 émet une information d'alarme.
Le mouvement 3D réel du ou des éléments à contrôler étant détecté par le module de reconnaissance 13 en temps réel, la comparaison réalisée par le module 14 est également effectuée en temps réel.
Plus précisément, le mouvement 3D réel et le mouvement 3D virtuel d'un élément à contrôler sont respectivement caractérisés par une suite ordonnée de poses réelles dudit élément à contrôler et une suite ordonnée de poses virtuelles dudit élément à contrôler. Dans le module de comparaison 14, les poses réelles de l'élément à contrôler sont comparées, dans l'ordre de la suite de poses réelles, à des poses virtuelles de la suite de poses virtuelles du même élément à contrôler prises dans le même ordre. Dans ces conditions, une incohérence est détectée par le module de comparaison 14 lorsque la pose réelle d'au moins un élément à contrôler diffère d'une pose virtuelle prédéterminée du même élément à contrôler d'une quantité prédéterminée.
Ainsi, si la pose réelle d'un élément à contrôler est caractérisée par la position d'un point particulier de cet élément, par exemple son centre de gravité, le mouvement 3D réel et le mouvement 3D virtuel de cet élément à contrôler sont respectivement caractérisés par une suite ordonnée de points réels formant une trajectoire réelle de ce point particulier et une suite ordonnée de points virtuels formant une trajectoire virtuelle de ce point particulier. Si la trajectoire réelle suivie par l'élément à contrôler telle que détectée par le module de détermination 13 dévie d'une quantité prédéterminée par rapport à la trajectoire virtuelle qui est délivrée par le module d'extraction 11, alors le module de comparaison 14 délivre une information d'alarme. Plus exactement, les positions des points réels de la trajectoire réelle sont comparées dans leur ordre de la suite constituant ladite trajectoire réelle aux positions de points virtuels de la trajectoire virtuelle dans le même ordre.
Enfin, l'unité de commande 10 comporte un module d’avertissement 15 qui a pour fonction de déclencher une alarme lorsqu'il reçoit du module de comparaison 14 une information d'alarme et ainsi d'avertir l'opérateur. Elle peut déclencher une alarme sonore 60 et/ou commander le module de réalité augmentée 12 pour affichage, par le dispositif d'affichage 20, d'une information symbolique ou textuel d’avertissement.
Dans un exemple de réalisation de la présente invention, chaque tâche à exécuter est préalablement découpée en une séquence d'étapes élémentaires ordonnancées pendant chacune desquelles au moins un élément est à contrôler. La détermination du mouvement 3D réel du ou de chaque élément à contrôler par le module de détermination 13, la comparaison dudit mouvement 3D réel du ou de chaque élément à contrôler avec un mouvement 3D virtuel du même élément à contrôler effectué par le module de comparaison 14 et le déclenchement d'une alarme effectué par le module d'alarme 15 lorsque la comparaison montre une discordance entre le mouvement 3D réel d'au moins élément à contrôler avec le mouvement 3D virtuel du même élément à contrôler sont alors mises en œuvre, pour une tâche à exécuter donnée, étape élémentaire par étape élémentaire de ladite tâche dans l'ordre de ladite séquence d'étapes élémentaires. A la Fig. 2, on a représenté le diagramme d'un procédé d'assistance selon la présente invention pour assister un opérateur pour des opérations de maintenance d'un aéronef au moyen d'un système d'assistance à réalité augmentée tel qu'il vient d'être décrit en relation avec la Fig. 1. L'étape E10 est une étape de sélection d'une tâche de maintenance à réaliser. Elle comprend une étape Eli de sélection proprement dite et, éventuellement, une étape E12 de sélection d'une étape élémentaire de la tâche de maintenance à réaliser précédemment sélectionnée. Cette étape E12 est mise en œuvre lorsque ladite tâche de maintenance à réaliser est découpée en plusieurs étapes élémentaires. L'étape E10 consiste également à extraire les données relatives à cette tâche. On rappelle que ces données consistent essentiellement, pour la tâche à exécuter, en une séquence 3D virtuelle montrant le déroulé de cette tâche, en une image 3D virtuelle d'au moins un élément à contrôler associée à ladite tâche à exécuter, en des informations relatives au mouvement 3D virtuel dudit élément à contrôler (généralement constituées d'une suite ordonnée de poses virtuelles dudit élément), et, éventuellement, des textes informatifs relatifs à des instructions données à l'opérateur, à des référencements de composants aéronef, des images 2D (schémas, par exemple) ou 3D de ces composants et des outils à utiliser, etc. L'étape E10 est mise en œuvre par le module d'extraction 11 de l'unité de commande 10 du système d'assistance de la Fig. 1.
Un procédé d'assistance selon la présente invention comporte encore une étape E20 d'affichage en réalité augmentée d'au moins une image virtuelle d'au moins un élément à contrôler. Cette étape est mise en œuvre par le module de réalité augmentée 12 de l'unité de commande 10 de la Fig. 1. Cette étape E20 comporte les étapes suivantes. L'étape E21 est une étape de recherche dans chaque image du flux vidéo reçu de la caméra 30 (voir Fig. 1) de points distinctifs (par exemple des points représentant des marqueurs particuliers présents dans la scène 50 ou des points remarquables de la scène 50, tel qu'un angle d'un composant particulier, le centre d'un trou percé dans un composant, etc.). L'étape E22 est une étape de détermination de la pose réelle, dans un repère lié à chaque image du flux vidéo délivré par la caméra 30, de chaque point ou ensemble de points recherchés à l'étape E21. L'étape E23 est une étape de calcul de la pose réelle, dans la scène 50, du ou des éléments à contrôler identifiés lors de l'étape E10. L'étape E24 est une étape de reconstitution de l'image virtuelle 3D du ou des éléments à contrôler à superposer à la vision de l'opérateur et de transmission du flux vidéo résultant à un dispositif d'affichage, tel que le dispositif d'affichage 20 de la Fig. 1. Cette étape E24 peut également, par exemple, consister à combiner chaque image du flux vidéo de la caméra 30 à l'image virtuelle 3D du ou des éléments à contrôler en un flux vidéo de réalité augmentée qui est alors fourni au dispositif d'affichage 20 (ici la paire de lunettes 20). Néanmoins, lorsque la vision réelle de l'opérateur est faite à travers une paire de lunettes 20, cette étape consiste uniquement à fournir directement à la paire de lunettes 20 cette image virtuelle reconstituée.
Un procédé pour assister un opérateur de maintenance selon la présente invention comporte en outre : - une étape E30 de détermination du mouvement 3D réel du ou de chaque élément à contrôler pour la tâche de maintenance à exécuter, - une étape de comparaison E40 dudit mouvement 3D réel du ou de chaque élément à contrôler avec un mouvement 3D virtuel du même élément à contrôler associé à la tâche de maintenance à exécuter, et - une étape E50 de déclenchement d'une alarme lorsque ladite étape de comparaison montre une discordance entre le mouvement 3D réel du ou de chaque élément à contrôler avec le mouvement 3D virtuel du même élément à contrôler. L'étape E30 est mise en œuvre par le module 13 de reconnaissance de mouvement de l'unité de commande 10 de la Fig. 1.
Selon un exemple de réalisation de la présente invention, l'étape E30 comporte les étapes suivantes pour la détermination du mouvement réel 3D du ou des éléments à contrôler. L'étape E31 est une étape de détermination de la pose réelle du ou des éléments à contrôler en fonction du modèle virtuel 3D du ou de chaque élément à contrôler déterminé à l'étape E10, du flux vidéo issu de la caméra 30 et des signaux de profondeur issus de l'unité de détection de profondeur 40. A partir de ces éléments, l'étape E31 détermine le modèle 3D réel du ou de chaque élément à contrôler dans la scène 50 et, par comparaison du modèle 3D réel et du modèle 3D virtuel, la pose réelle du ou de chaque élément à contrôler dans la scène 50 et, ce, à chaque instant. L'étape E32 est une étape de détermination du mouvement 3D réel du ou de chaque élément à contrôler comme étant une suite ordonnée de poses réelles respectivement déterminées, à chaque instant successif, à l'étape de construction E31. L'étape de comparaison E40 est une étape pour comparer le mouvement 3D réel du ou des éléments à contrôler tel que déterminé à l'étape E32 et le mouvement 3D virtuel du ou des mêmes éléments tels que délivrés à l'étape E10. Si une incohérence est détectée entre ces mouvements alors l'étape de comparaison E40 émet une information d'alarme.
Cette étape E40 est mise en œuvre par le module de comparaison 14 de l'unité de commande 10 de la Fig. 1. L'étape de déclenchement d'alarme E50 est prévue déclencher une alarme lorsque l'étape de comparaison E40 émet une information d'alarme et ainsi avertir l'opérateur. Elle peut déclencher une alarme sonore et/ou commander l'affichage en réalité augmentée d'une information symbolique ou textuel d’avertissement.
Plus précisément, l'étape de comparaison E40 consiste à comparer chaque pose réelle d'une suite ordonnée de poses réelles formant ledit mouvement 3D réel du ou de chaque élément à contrôler, prise dans l'ordre desdites poses réelles, avec, prise dans le même ordre, une pose virtuelle d'une suite ordonnée de poses virtuelles formant ledit mouvement 3D virtuel du ou de chaque même élément à contrôler. L'étape de déclenchement d'une alarme E50 est mise en œuvre lorsque la pose réelle d'au moins un élément à contrôler pour un instant donné diffère d'une pose virtuelle prédéterminée du même élément à contrôler d'une quantité prédéterminée dans un même ordonnancement desdites poses réelles et virtuelles.
Dans un exemple de réalisation de la présente invention, chaque tâche à exécuter est préalablement découpée en une séquence ordonnée d'étapes élémentaires pendant chacune desquelles au moins un élément est à contrôler. Les étapes E30 de détermination du mouvement 3D réel du ou de chaque élément à contrôler, de comparaison E40 dudit mouvement 3D réel du ou de chaque élément à contrôler avec un mouvement 3D virtuel du même élément à contrôler et de déclenchement E50 d'une alarme lorsque ladite étape de comparaison E40 a détecté une discordance entre le mouvement 3D réel d'au moins un élément à contrôler avec le mouvement 3D virtuel du même élément à contrôler sont alors mises en œuvre, pour une tâche à exécuter donnée, étape élémentaire par étape élémentaire de ladite tâche et, ce, dans l'ordonnancement desdites étapes élémentaires. Chaque étape élémentaire est sélectionnée à l'étape de sélection E12.
Le système de commande 10 tel que celui qui est représenté à la Fig. 1 peut être mis en œuvre par un système informatique 100 tel que celui qui est représenté à la Fig. 3. Celui-ci comporte essentiellement une unité de contrôle 110, une interface 120 pour fournir des signaux vidéo à un dispositif d'affichage tel que le dispositif d'affichage 20 du système de la Fig. 1, une interface 130 pour recevoir les signaux vidéo d'au moins une caméra telle que la caméra 30, une interface 140 pour recevoir les signaux de profondeur issus d'une unité de détection de profondeur telle que l'unité 40 du système de la Fig. 1, une mémoire de type mémoire morte 150 et une mémoire de type volatile 160. La mémoire 150 est prévue pour stocker des programmes installés définitivement ainsi que des données aux valeurs constantes alors que la mémoire 160 stocke des programmes installés en cours d'utilisation ainsi que des données mémorisées temporairement. Plus particulièrement, en utilisation, la mémoire 160 comporte une zone 161 où est stocké un sous-programme qui, lorsqu'il est déroulé, met en œuvre l'étape E10 de sélection d'une tâche à exécuter du procédé d'assistance objet de la Fig. 2, une zone mémoire 152 où est stocké un sous-programme qui, lorsqu'il est déroulé, met en œuvre l'étape E20 dudit procédé d'assistance, une zone mémoire 153 où est stocké un sous-programme qui, lorsqu'il est déroulé, met en œuvre l'étape E30 dudit procédé d'assistance, une zone mémoire 154 où est stocké un sous-programme qui, lorsqu'il est déroulé, met en œuvre l'étape E40 dudit procédé d'assistance et une zone mémoire 155 où est stocké un sous-programme qui, lorsqu'il est déroulé, met en œuvre l'étape E50 dudit procédé d'assistance.
Les sous-programmes stockés dans les zones mémoires 151 à 155 constituent respectivement des modes de réalisation informatique des modules 11 à 15 de l'unité de commande 10 de la Fig. 1. L'ensemble de ces sous-programmes forme un programme qui, lorsqu'il est déroulé, met en œuvre l'ensemble des étapes E10 à E50 du procédé d'assistance selon la présente invention.
On appelle "sous-programme" ou "programme" un ensemble d'instructions élémentaires écrites dans un langage donné et stockées sous forme numérique dans une mémoire d'où elles peuvent être lues par une unité de contrôle pour être exécutées et ainsi mettre en œuvre une ou des étapes d'un procédé. Un programme est un ensemble de sous-programmes.
Une zone mémoire 166 est réservée à d'autres programmes ou sous-programmes (non décrits car ils sont hors du contexte de la présente invention) ainsi qu'aux données stockées de manière temporaire.

Claims (12)

  1. REVENDICATIONS 1) Procédé pour assister un opérateur de maintenance dans l'exécution d'une tâche de maintenance d'un aéronef, ledit procédé d'assistance comportant une étape d'affichage (E20) en réalité augmentée sur un dispositif d'affichage (20) d'au moins une image virtuelle d'au moins un élément à contrôler, caractérisé en ce qu'il comporte en outre : - une étape (E30) de détermination du mouvement 3D réel d'au moins un élément à contrôler pour la tâche de maintenance à exécuter, - une étape (E40) de comparaison dudit mouvement 3D réel du ou de chaque élément à contrôler avec un mouvement 3D virtuel du même élément à contrôler associé à la tâche de maintenance à exécuter, et - une étape (E50) de déclenchement d'une alarme lorsque ladite étape de comparaison montre une discordance entre le mouvement 3D réel du ou de chaque élément à contrôler avec le mouvement 3D virtuel du même élément à contrôler.
  2. 2) Procédé pour assister un opérateur de maintenance selon la revendication 1, caractérisé en ce que l'étape (E30) de détermination du mouvement 3D réel du ou de chaque élément à contrôler pour la tâche de maintenance à exécuter comprend : - une étape (E31) de détermination de la pose réelle du ou de chaque élément à contrôler dans la scène où la tâche de maintenance est exécutée, - une étape (E32) de détermination du mouvement 3D réel du ou de chaque élément à contrôler comme étant une suite ordonnée de poses réelles successivement déterminées à l'étape de détermination de pose (E31).
  3. 3) Procédé pour assister un opérateur de maintenance selon la revendication 2, caractérisé en ce que l'étape (E31) de détermination de la pose réelle du ou de chaque élément à contrôler est mise en œuvre en fonction d'un modèle virtuel 3D du ou de chaque élément à contrôler et d'un modèle réel 3D dudit élément à contrôler dans la scène où la tâche de maintenance est exécutée.
  4. 4) Procédé pour assister un opérateur de maintenance selon une des revendications précédentes, caractérisé en ce que l'étape (E40) de comparaison consiste à comparer chaque pose réelle d'une suite ordonnée de poses réelles formant ledit mouvement 3D réel du ou de chaque élément à contrôler, prise dans l'ordre desdites poses réelles, avec, prise dans le même ordre, une pose virtuelle d'une suite ordonnée de poses virtuelles formant ledit mouvement 3D virtuel du ou de chaque élément à contrôler et en ce que ladite étape (E50) de déclenchement d'une alarme est mise en œuvre lorsque la pose réelle d'au moins un élément à contrôler pour un instant donné diffère d'une pose virtuelle prédéterminée du même élément à contrôler d'une quantité prédéterminée dans un même ordonnancement desdites poses réelles et virtuelles.
  5. 5) Procédé selon une des revendications précédentes, caractérisé en ce qu'un élément à contrôler est l'un des éléments suivants : - un composant de l'aéronef que l'opérateur manipule lors de l'exécution de la tâche à exécuter, - un outil utilisé par l'opérateur pour exécuter ladite tâche, ou - une partie du corps de l'opérateur qui se trouve dans ladite scène.
  6. 6) Procédé selon une des revendications précédentes, caractérisé en ce que chaque tâche à exécuter est préalablement découpée en une séquence d'étapes élémentaires ordonnancées pendant chacune desquelles au moins un élément à contrôler est manipulé par l'opérateur, lesdites étapes de détermination du mouvement 3D réel du ou de chaque élément à contrôler (E30), de comparaison dudit mouvement 3D réel du ou de chaque élément à contrôler avec un mouvement 3D virtuel du même élément à contrôler (E40) et de déclenchement d'une alarme lorsque ladite étape de comparaison montre une discordance entre le mouvement 3D réel d'au moins un élément à contrôler avec le mouvement 3D virtuel du même élément à contrôler (E50) étant mises en œuvre, pour une tâche à exécuter donnée, étape élémentaire par étape élémentaire de ladite tâche dans l'ordre de ladite séquence d'étapes élémentaires.
  7. 7) Système d'assistance pour assister un opérateur de maintenance dans l'exécution d'une tâche de maintenance d'un aéronef, ledit système d'assistance comportant un dispositif d'affichage (20) pour l'affichage en réalité augmentée d'au moins une image virtuelle d'au moins un élément à contrôler, caractérisé en ce qu'il comporte en outre : - un module (13) de détermination du mouvement 3D réel du ou de chaque élément à contrôler pour la tâche de maintenance à exécuter, - un module (14) de comparaison dudit mouvement 3D réel du ou de chaque élément à contrôler avec un mouvement 3D virtuel du même élément à contrôler associé à la tâche de maintenance à exécuter, et - un module (15) de déclenchement d'une alarme lorsque ladite étape de comparaison montre une discordance entre le mouvement 3D réel du ou de chaque élément à contrôler avec le mouvement 3D virtuel du même élément à contrôler.
  8. 8) Système selon la revendication 7, caractérisé en ce qu'il comprend une base de données (11DB) prévue pour stocker, pour chaque élément à contrôler d'une tâche à exécuter, - un modèle 3D virtuel dudit élément à contrôler, - des informations relatives au mouvement de pose 3D virtuel dudit élément à contrôler caractérisé par une suite ordonnée de poses virtuelles que ledit élément à contrôler prend successivement.
  9. 9) Système selon la revendication 7 ou 8, caractérisé en ce que lesdites informations de mouvement de pose 3D virtuel sont constituées d'une suite ordonnée de poses virtuelles que l'élément à contrôler considéré devrait successivement prendre lors de l'exécution de la tâche à exécuter.
  10. 10) Système pour assister un opérateur de maintenance selon une des revendications 7 à 9, caractérisé en ce que le module (13) de détermination du mouvement 3D réel du ou de chaque élément à contrôler pour la tâche de maintenance à exécuter est prévu pour : - déterminer la pose réelle du ou de chaque élément à contrôler dans la scène (50) où la tâche de maintenance est exécutée, - déterminer le mouvement 3D réel du ou de chaque élément à contrôler comme étant une suite ordonnée de poses réelles, et en ce que le module (14) de comparaison est prévu pour comparer chaque pose réelle d'une suite ordonnée de poses réelles formant ledit mouvement 3D réel du ou de chaque élément à contrôler, prise dans l'ordre desdites poses réelles, avec, prise dans le même ordre, une pose virtuelle d'une suite ordonnée de poses virtuelles formant ledit mouvement 3D virtuel du ou de chaque élément à contrôler.
  11. 11) Système selon la revendication 10, caractérisé en ce que le module (15) de déclenchement d'une alarme est prévu pour déclencher une alarme lorsque la pose réelle d'au moins un élément à contrôler pour un instant donné diffère d'une pose virtuelle prédéterminée du même élément à contrôler d'une quantité prédéterminée dans un même ordonnancement desdites poses réelles et virtuelles.
  12. 12) Programme d'ordinateur chargé dans une mémoire (160) d'une unité de informatique (100) d'un système d'assistance selon une des revendications 7 à 11, comprenant des instructions pour mettre en œuvre, par un processeur (110) de ladite unité informatique (100), un procédé de surveillance selon une des revendications 1 à 6.
FR1561379A 2015-11-25 2015-11-25 Procede et systeme pour assister un operateur de maintenance dans l'execution d'une tache de maintenance d'un aeronef Pending FR3044122A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1561379A FR3044122A1 (fr) 2015-11-25 2015-11-25 Procede et systeme pour assister un operateur de maintenance dans l'execution d'une tache de maintenance d'un aeronef

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1561379A FR3044122A1 (fr) 2015-11-25 2015-11-25 Procede et systeme pour assister un operateur de maintenance dans l'execution d'une tache de maintenance d'un aeronef

Publications (1)

Publication Number Publication Date
FR3044122A1 true FR3044122A1 (fr) 2017-05-26

Family

ID=55971074

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1561379A Pending FR3044122A1 (fr) 2015-11-25 2015-11-25 Procede et systeme pour assister un operateur de maintenance dans l'execution d'une tache de maintenance d'un aeronef

Country Status (1)

Country Link
FR (1) FR3044122A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114527879A (zh) * 2022-02-25 2022-05-24 中国人民解放军空军工程大学航空机务士官学校 一种基于增强现实技术的航空机务飞行检查站位引导方法
FR3116912A1 (fr) * 2020-12-01 2022-06-03 Safran Electronics & Defense Reconnaissance augmentée des impacts et diagnostic sur structure

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150243013A1 (en) * 2014-02-27 2015-08-27 Microsoft Corporation Tracking objects during processes

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150243013A1 (en) * 2014-02-27 2015-08-27 Microsoft Corporation Tracking objects during processes

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
COLUMBIACGUI: "Augmented reality in the psychomotor phase of a procedural task", 25 March 2012 (2012-03-25), XP054975853, Retrieved from the Internet <URL:https://www.youtube.com/watch?annotation_id=annotation_978082&feature=iv&src_vid=mn-zvymlSvk&v=2eSlMSJ65Kc> [retrieved on 20150512] *
STEVEN J HENDERSON ET AL: "Augmented reality in the psychomotor phase of a procedural task", MIXED AND AUGMENTED REALITY (ISMAR), 2011 10TH IEEE INTERNATIONAL SYMPOSIUM ON, IEEE, 26 October 2011 (2011-10-26), pages 191 - 200, XP032201451, ISBN: 978-1-4577-2183-0, DOI: 10.1109/ISMAR.2011.6092386 *
VIJAIMUKUND RAGHAVAN ET AL: "Interactive evaluation of assembly sequences using augmented reality", vol. 15, no. 3, 3 June 1999 (1999-06-03), pages 435 - 449, XP002685273, ISSN: 1042-296X, Retrieved from the Internet <URL:http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=768177&tag=1> [retrieved on 20121016] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3116912A1 (fr) * 2020-12-01 2022-06-03 Safran Electronics & Defense Reconnaissance augmentée des impacts et diagnostic sur structure
CN114527879A (zh) * 2022-02-25 2022-05-24 中国人民解放军空军工程大学航空机务士官学校 一种基于增强现实技术的航空机务飞行检查站位引导方法

Similar Documents

Publication Publication Date Title
US11861898B2 (en) Self-expanding augmented reality-based service instructions library
US10685496B2 (en) Saving augmented realities
KR102395939B1 (ko) 데이터 캡처 및 전송 컴플라이언스를 실행하기 위한 시야 및 키 코드 제한된 증강 현실
US10614581B2 (en) Deep image localization
EP2119223B1 (fr) Procede de commande a partir d&#39;un signal oculaire volontaire, notamment pour une prise de vues
KR101995958B1 (ko) 스마트 글래스 기반 영상 처리 장치 및 방법
FR3023948A1 (fr) Procede d&#39;aide a la maintenance d&#39;un aeronef par realite augmentee.
US9471837B2 (en) Real-time analytics to identify visual objects of interest
WO2018087462A1 (fr) Dispositif individuel d&#39;immersion visuelle pour personne en mouvement avec gestion des obstacles
EP2296129A1 (fr) Dispositif et procédé d&#39;aide à l&#39;atterrissage avec indications aidant à la visibilité du monde extérieur
CA2942652A1 (fr) Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d&#39;utilisateurs et procede associe
EP4004808A2 (fr) Identification d&#39;objets transparents à partir de divergences d&#39;image
FR2976395A1 (fr) Systeme d&#39;aide au pilotage et aeronef.
EP3054426A1 (fr) Procédé de gestion de l&#39;affichage, produit programme d&#39;ordinateur et dispositif électronique associés
FR3044122A1 (fr) Procede et systeme pour assister un operateur de maintenance dans l&#39;execution d&#39;une tache de maintenance d&#39;un aeronef
CN103793473A (zh) 保存增强现实
JP2023503862A (ja) 物理環境の予測的仮想再構成
KR102098225B1 (ko) 전방위 영상 표시 장치 및 그 표시 방법
CN113597603A (zh) 数据处理方法、装置、设备及存储介质
EP3092533A1 (fr) Systemes d`usinage comportant une machine d`usinage et des procedes de commande
WO2023046902A1 (fr) Systeme d&#39;interface homme-machine
US20230281769A1 (en) Device for replacing intrusive object in images
FR3054062A1 (fr) Systeme et procede de capture embarquee et de reproduction 3d/360° du mouvement d&#39;un operateur dans son environnement
EP2887231A1 (fr) Économie de réalité augmentée
US20230305790A1 (en) Methods and systems for sharing an experience between users

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170526