FR3132349A1 - Procédé de navigation autonome d’un drone volant pour l’inspection d’une installation ou d’un ouvrage, le procédé étant basé sur la vision. - Google Patents
Procédé de navigation autonome d’un drone volant pour l’inspection d’une installation ou d’un ouvrage, le procédé étant basé sur la vision. Download PDFInfo
- Publication number
- FR3132349A1 FR3132349A1 FR2200816A FR2200816A FR3132349A1 FR 3132349 A1 FR3132349 A1 FR 3132349A1 FR 2200816 A FR2200816 A FR 2200816A FR 2200816 A FR2200816 A FR 2200816A FR 3132349 A1 FR3132349 A1 FR 3132349A1
- Authority
- FR
- France
- Prior art keywords
- drone
- camera
- distance
- image
- image acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Studio Devices (AREA)
Abstract
Procédé de navigation autonome d’un drone volant pour l’inspection d’une installation ou d’un ouvrage, le procédé étant basé sur la vision.
Procédé de navigation autonome d’un drone volant pour l’inspection d’une installation (100) ou d’un ouvrage, l’installation ou l’ouvrage comprenant au moins un élément (103A) s’étendant entre une première extrémité (102) et une deuxième extrémité, comprenant :
- un positionnement initial du drone de sorte que la première extrémité de l’élément est visible sur une image acquise par une caméra en un emplacement donné et de sorte que la distance qui sépare le drone de la première extrémité est égale à une distance donnée (D),
- une détection d’une direction initiale (DI) dans laquelle s’étend l’élément depuis la première extrémité vers la deuxième extrémité,
- une initiation d’un déplacement du drone selon la direction initiale,
- au cours du déplacement du drone, un maintien d’une portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra et un maintien de la distance à la distance donnée.
Figure pour l’abrégé : Fig. 2
Description
La présente invention concerne l’inspection d’installations ou d’ouvrages, par exemple des éoliennes ou des canalisations aériennes, en particulier au moyen de drones volants.
Certaines installations, par exemple des installations industrielles, sont régulièrement inspectées visuellement selon une planification d’opérations de maintenance. A titre indicatif, une installation industrielle peut être une éolienne ou encore une canalisation aérienne.
Très souvent, ces inspections se font à l’aide d’échafaudages ou de cordistes. Cela représente un coût et un risque élevé. Pour des raisons logistiques, matérielles, ou pour des contraintes de temps ou de coût, ces opérations ne sont pas toujours réalisées régulièrement et cela peut affecter la durée de vie des installations industrielles ou des éléments qui les composent. Par ailleurs, il convient de noter que la reglementation impose la mise en œuvre d’inspections régulières.
Il existe donc un besoin pour des opérations d’inspection plus faciles à mettre en œuvre, plus rapides, et moins coûteuses.
De l’état de la technique antérieure, on connait donc les inspections mises en œuvre par un agent qui inspecte manuellement les installations. Cette solution a pour inconvénient de nécessiter un environnement particulier pour l’inspection, qui peut nécessiter une utilisation de grues. Cela est particulièrement long et coûteux. En outre, pour certaines installations, l’agent doit se rendre au plus proche de l’objet à inspecter, parfois en hauteur, ce qui peut comporter un risque élevé (chutes, etc.).
On connait également l’installation de caméras fixes (par exemples fixées au sol pour l’inspection d’éoliennes). Cette solution est problématique, car la fiabilité des données captées est discutable, et parce que cette solution est coûteuse si l’on utilise des caméras (par exemple un réseau de caméras) permanentes pour chaque installation. Aussi, cette solution implique un temps d’inspection élevé (fixation de la caméra, de l’angle de la captation et de la mise au point optique à chaque inspection).
Enfin, on connait l’utilisation de drones volants équipés de caméras. Ces drones peuvent être contrôlés manuellement par un opérateur au moyen d’une télécommande et d’une transmission de l’image acquise par la caméra du drone. Alternativement, les drones peuvent être commandés automatiquement (sans réception de commandes émises par un opérateur). Les solutions actuelles de contrôle de drone (manuelles ou automatiques) nécessitent néanmoins beaucoup de temps et ont un coût qui ne les rend pas forcement intéressantes.
En particulier, pour les inspections mises en œuvre par des drones de manière automatique, on prévoit en général une navigation par GPS avec des points de passage imposés (« waypoints » en anglais), c’est-à-dire une mission prévue à l’avance consistant en une liste de points de passage. Le drone parcourt ensuite la structure pour rejoindre successivement tous les points de passage. Dans un contexte automatique, il n’y a pas d’interaction entre le drone et son environnement.
L’utilisation de drones volants n’est pour l’instant pas satisfaisante. En effet, les images acquises peuvent ne pas être exploitables à cause de problèmes de mise au point optique. Par ailleurs, le guidage par GPS peut être défaillant et des collisions avec les objets à inspecter sont possibles. Le guidage par GPS n’est par ailleurs pas toujours réalisable pour les installations situées à l’intérieur de bâtiments.Les temps nécessaires à la réalistion des inspections sont aussi plus longs. La navigation par GPS ne permet pas non plus d’assurer le maintien d’une distance égale entre le drone et l’objet à inspecter d’où parfois des problèmes de mise au point des photos d’inspection.
De l’état de la technique antérieure, on connait le document EP 3454159 qui décrit un procédé qui utilise ces points de passage.
L’invention vise à résoudre certains au moins des inconvénients précités.
À cet effet, l’invention propose un procédé de navigation autonome d’un drone volant pour l’inspection d’une installation (par exemple une installation industrielle) ou d’un ouvrage, ledrone volant étant équipé d’une caméra et d’un module de détermination d’une distance qui sépare le drone d’un objet visible sur une image acquise par la caméra, l’installation ou l’ouvrage comprenant au moins un élément s’étendant entre une première extrémité et une deuxième extrémité, le procédé comprenant :
- un positionnement initial du drone de sorte que la première extrémité de l’élément est visible sur une image acquise par la caméra en un emplacement donné de l’image et de sorte que la distance mesurée par le module de détermination de distance, qui sépare le drone de la première extrémité, est égale à une distance donnée,
- une détection ( par exemple mise en œuvre lorsque le drone est au positionnement initial – le positionnement intial comprenant par exemple un maintien à la distance donnée et un maintien de la première extrémité à l’emplacement donné) d’une direction initiale dans laquelle s’étend l’élément depuis la première extrémité vers la deuxième extrémité,
- une initiation d’un déplacement (par exemple à vitesse constante au cours du déplacement) du drone selon la direction initiale (après le positionnement initial et après la détection),
- à chaque instant au cours du déplacement du drone, un maintien (par exemple par une boucle de régulation) d’une portion inspectée de l’élément visible à un instant à l’emplacement donné de l’image acquise par la caméra et un maintien (par exemple par une boucle de régulation) de la distance séparant le drone de la portion inspectée à la distance donnée.
- un positionnement initial du drone de sorte que la première extrémité de l’élément est visible sur une image acquise par la caméra en un emplacement donné de l’image et de sorte que la distance mesurée par le module de détermination de distance, qui sépare le drone de la première extrémité, est égale à une distance donnée,
- une détection ( par exemple mise en œuvre lorsque le drone est au positionnement initial – le positionnement intial comprenant par exemple un maintien à la distance donnée et un maintien de la première extrémité à l’emplacement donné) d’une direction initiale dans laquelle s’étend l’élément depuis la première extrémité vers la deuxième extrémité,
- une initiation d’un déplacement (par exemple à vitesse constante au cours du déplacement) du drone selon la direction initiale (après le positionnement initial et après la détection),
- à chaque instant au cours du déplacement du drone, un maintien (par exemple par une boucle de régulation) d’une portion inspectée de l’élément visible à un instant à l’emplacement donné de l’image acquise par la caméra et un maintien (par exemple par une boucle de régulation) de la distance séparant le drone de la portion inspectée à la distance donnée.
L’invention propose ainsi de faire naviguer un drone à iso-distance avec à chaque instant une portion inspectée (qui change à chaque instant du fait du déplacement) au même emplacement de l’image, ce qui permet de s’assurer d’une qualité constante des images acquises, puisque la mise au point optique peut être constante.
En fait, contrairement aux solutions de l’art antérieur qui utilisent une localisation par GPS et des points de passage, l’invention propose de déterminer une direction dans laquelle s’étend l’élément pour la suivre, tout en mettant en œuvre un contrôle qui vise à :
- maintenir l’objet (ou à tout le moins la portion qui est visible à chaque instant) en un emplacement donné de l’image (typiquement au centre de l’image), et à
- maintenir l’objet à une distance constante (la distance donnée).
- maintenir l’objet (ou à tout le moins la portion qui est visible à chaque instant) en un emplacement donné de l’image (typiquement au centre de l’image), et à
- maintenir l’objet à une distance constante (la distance donnée).
Ces deux conditions permettent d’éviter tout problème de mise au point optique, ce qui garantit une bonne qualité d’image, et ils permettent par ailleurs d’éviter une collision avec l’objet à inspecter.
L’invention est par ailleurs également avantageuse par rapport aux solutions manuelles puisqu’elle est complètement autonome (sans réception de commandes d’un opérateur de l’étape de positionnement initial jusqu’au déplacement).
L’invention est en fait basée sur la vision, puisque le drone utilise sa propre caméra pour réguler sa position pendant son déplacement au cours d’une inspection/d’un déplacement.
Aussi, en maintenant la portion à inspecter au même emplacement, le drone met en œuvre une correction de sa trajectoire si l’élément a une forme qui n’est pas rectiligne et ce du début à la fin dans le sens de la direction initiale.
La portion inspectée peut être définie par un point de l’élément, par exemple le centre d’une partie de l’élément (on comprend qu’à chaque instant, le centre d’une partie de l’élément sera toujours positionné au même endroit sur l’image, mais, du fait du déplacement, ce centre se déplace entre la première et la deuxième extrémité au cours du déplacement). De manière générale, la portion inspectée se déplace entre la première extrémité et la deuxième extrémité, car le drone se déplace.
On comprend que l’invention trouve application dans l’inspection d’objets longs, qui s’étendent donc entre deux extrémités, et fins, de sorte qu’un parcours de l’objet sera suffisant pour acquérir une image de l’intégralité de la face parcourue.
On notera que la direction initiale est utilisée au premier instant du déplacement, et qu’ensuite, une fois le déplacement commencé, c’est le maintien à l’emplacement donné et à la distance qui vont faire varier la direction du déplacement.
Selon un mode de mise en œuvre particulier, le module de détermination d’une distance qui sépare le drone d’un objet visible sur une image acquise par la caméra est un module choisi dans le groupe comprenant : un module LiDAR, une caméra stéréoscopique, un module à ultrasons, un module radar.
Selon un mode de mise en œuvre particulier, le maintien de la portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra et le positionnement initial du drone de sorte que la première extrémité de l’élément est visible sur une image acquise par la caméra en l’emplacement donné de l’image sont mis en œuvre par un traitement de l’image acquise par la caméra du drone (par exemple utilisant une détection de contraste ou un réseau de neurones artificiels), ou par un traitement d’une image ou d’un nuage de point acquis par un capteur supplémentaire (par exemple avec des traitements analogues).
Le traitement d’image peut être mis en œuvre par un processeur du drone.
Le capteur supplémentaire peut être une caméra infrarouge, une caméra thermique, ou un système LiDAR (2D ou 3D) délivrant des images ou des nuages de points qui peuvent être traités pour mettre en œuvre ledit maintien ou ledit positionnement initial. On notera qu’on choisira des traitements différents pour les images 2D et les nuages de points issus de systèmes LiDAR.
A titre indicatif, un traitement d’image peut être utilisé pour déterminer la position d’un centroïde d’un objet visible sur l’image (typiquement un objet qui comporte la première extrémité en son centre (par exemple le centre de la nacelle pour une éolienne). Lors du positionnement initial, le traitement sera configuré pour déterminer la position de la première extrémité, et l’on fera coincider la première extrémité avec l’emplacement donné.
Aussi, lors du maintien de la portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra, le traitement sera configuré pour déterminer par exemple la position du centre de la portion inspectée. Lors du déplacement, le traitement sera configuré pour déterminer la position de ce centre et le faire coïncider avec l’emplacement donné.
La détection d’un objet peut être réalisée par une méthode basée sur les contrastes comprenant une transformation d’une image RVB (Rouge Vert Bleu) en une image HSV (« Hue Saturation Value » en anglais soit Teinte Saturation Valeur en français) qui permet, par un traitement de seuillage, de délimiter les différents objets visibles sur l’image. A titre indicatif, on peut utiliser différents seuils pendant le procédé. Par exemple, on pourra utiliser un seuil propre au positionnement initial, capable d’isoler l’objet qui comporte la première extrémité, et un seuil différent propre au maintien pendant le déplacement, capable d’isoler la portion inspectée.
On notera que déterminer le centre d’un objet isolé par seuillage peut être mis en œuvre en utilisant la méthode bien connue sous le nom de méthode des moments. Cela peut donc être utilisé si la première extrémité est située au centre d’un objet (typiquement le centre d’une nacelle pour une éolienne), mais également pour la portion inspectée qui sera centrée pendant le déplacement.¨
De manière alternative, on peut utiliser un réseau de neurones artificiels (par exemple le réseau de neurones à convolutions bien connu des personnes du métier U-Net), que l’on entrainera avec des images de première extrémité ou de portions inspectées (typiquement un nombre d’images de l’ordre de 1000 images).
Selon un mode de mise en œuvre particulier, le maintien de la portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra, et le positionnement initial du drone de sorte que la première extrémité de l’élément est visible sur une image acquise par la caméra en l’emplacement donné de l’image, utilisent au moins une boucle de régulation de la position utilisant les résultats du traitement d’image ou du traitement du nuage de points.
Un tel maintien peut être mis en œuvre pendant le positionnement initial ou pendant toutes les étapes où l’on maintient une portion inspectée de l’élément à l’emplacement donné de l’image.
A titre indicatif, une boucle de régulation peut être utilisée dans laquelle on déplace le drone dans un plan parallèle au plan de l’image jusqu’à ce que le traitement indique que la portion inspectée de l’élément est à l’emplacement donné de l’image. Aussi, lors du positionnement initial, on peut aussi déplacer le drone dans ce plan, par exemple jusqu’à l’initiation du déplacement.
Selon un mode de mise en œuvre particulier, le maintien de la distance séparant le drone de la portion inspectée à la distance donnée utilise au moins une boucle de régulation de la position.
A titre indicatif, une boucle de régulation peut être utilisée dans laquelle on déplace le drone selon un axe parallèle à celui du système optique de la caméra du drone, pour réguler la distance.
Selon un mode de mise en œuvre particulier, le procédé comporte un arrêt du drone lorsque la deuxième extrémité coïncide avec la portion inspectée.
Selon un mode de mise en œuvre particulier, le drone détermine que la deuxième extrémité coïncide avec la portion inspectée par un traitement de l’image acquise par la caméra du drone (par exemple utilisant une détection de contraste ou un réseau de neurones artificiels), ou par un traitement d’une image ou d’un nuage de point acquis par un capteur supplémentaire .
Ce traitement peut être analogue à celui décrit ci-avant sur le maintien de la portion inspectée à l’emplacement donné. Le capteur supplémentaire peut être une caméra infrarouge, une caméra thermique, ou un système LiDAR (2D ou 3D) délivrant des images ou des nuages de points qui peuvent être traités pour la détermination de ce mode de mise en œuvre particulier. On notera qu’on choisira des traitements différents pour les images 2D et les nuages de points issus de systèmes LiDAR.
Selon un mode particulier de mise en œuvre, l’élément a une première face s’étendant entre la première extrémité et la deuxième extrémité, et une deuxième face contiguë à la première face et s’étendant également entre la première extrémité et la deuxième extrémité,
dans lequel le positionnement initial est mis en œuvre de sorte que le drone fait face à la première face, et le déplacement est mis en œuvre de sorte que le drone fait toujours face à la première face,
et dans lequel, après l’arrêt, le procédé comprend en outre :
- un positionnement initial supplémentaire comprenant une rotation du drone autour de la deuxième extrémité (c’est-à-dire une rotation autour d’un point, par exemple à hauteur et assiette constante) en maintenant la deuxième extrémité à l’emplacement donné de l’image acquise par la caméra et un maintien de la distance séparant le drone de la deuxième extrémité à la distance donnée, jusqu’à ce que le drone fasse face à la deuxième face,
- une détection d’une direction initiale supplémentaire (c’est-à-dire une nouvelle direction initiale) dans laquelle s’étend l’élément depuis la deuxième extrémité vers la première extrémité,
- une initiation d’un déplacement du drone selon la direction initiale supplémentaire,
- au cours du déplacement du drone, un maintien d’une portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra et un maintien de la distance séparant le drone de la portion inspectée à la distance donnée, de sorte que le drone fait toujours face à la deuxième face (ce déplacement peut être mis en œuvre jusqu’à un arrêt déclenché lorsque la portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra coïncide avec la première extrémité).
dans lequel le positionnement initial est mis en œuvre de sorte que le drone fait face à la première face, et le déplacement est mis en œuvre de sorte que le drone fait toujours face à la première face,
et dans lequel, après l’arrêt, le procédé comprend en outre :
- un positionnement initial supplémentaire comprenant une rotation du drone autour de la deuxième extrémité (c’est-à-dire une rotation autour d’un point, par exemple à hauteur et assiette constante) en maintenant la deuxième extrémité à l’emplacement donné de l’image acquise par la caméra et un maintien de la distance séparant le drone de la deuxième extrémité à la distance donnée, jusqu’à ce que le drone fasse face à la deuxième face,
- une détection d’une direction initiale supplémentaire (c’est-à-dire une nouvelle direction initiale) dans laquelle s’étend l’élément depuis la deuxième extrémité vers la première extrémité,
- une initiation d’un déplacement du drone selon la direction initiale supplémentaire,
- au cours du déplacement du drone, un maintien d’une portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra et un maintien de la distance séparant le drone de la portion inspectée à la distance donnée, de sorte que le drone fait toujours face à la deuxième face (ce déplacement peut être mis en œuvre jusqu’à un arrêt déclenché lorsque la portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra coïncide avec la première extrémité).
Dans ce mode de mise en œuvre particulier, après avoir parcouru la première face de l’élément, on met en œuvre une rotation autour de la deuxième extrémité pour toujours faire face à cette deuxième extrémité, mais depuis la deuxième face de l’élément. Typiquement, pour un élément à 4 faces, on pourra réaliser une rotation de 90° autour de la deuxième extrémité, et pour un élément à 2 faces on pourra réaliser une rotation de 180°. Ensuite, un déplacement jusqu’à la première extrémité est mis en œuvre pour inspecter la deuxième face. On peut noter que pour un objet ayant plus que deux faces, on pourra mettre en œuvre des déplacements successifs entre la première et la deuxième extrémité tous terminés par une rotation pour faire face à la prochaine face contigüe à celle qui vient d’être parcourue.
Selon un mode de mise en œuvre particulier, l’élément est relié à un élément supplémentaire ayant une première extrémité partagée avec la première extrémité de l’élément, et une deuxième extrémité, le procédé comprenant, postérieurement à une inspection de l’élément (d’une face, de plusieurs de ses faces, ou de toutes ses faces) :
un deuxième positionnement initial du drone de sorte que la première extrémité de l’élément supplémentaire est visible sur une image acquise par la caméra en un emplacement donné de l’image et de sorte que la distance mesurée par le module de détermination de distance, qui sépare le drone de la première extrémité de l’élément supplémentaire, est égale à une distance donnée,
- une détection d’une direction initiale dans laquelle s’étend l’élément supplémentaire depuis la première extrémité vers la deuxième extrémité,
- une initiation d’un déplacement du drone selon la direction initiale,
- au cours du déplacement du drone, un maintien d’une portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra et un maintien de la distance séparant le drone de la portion inspectée à la distance donnée.
un deuxième positionnement initial du drone de sorte que la première extrémité de l’élément supplémentaire est visible sur une image acquise par la caméra en un emplacement donné de l’image et de sorte que la distance mesurée par le module de détermination de distance, qui sépare le drone de la première extrémité de l’élément supplémentaire, est égale à une distance donnée,
- une détection d’une direction initiale dans laquelle s’étend l’élément supplémentaire depuis la première extrémité vers la deuxième extrémité,
- une initiation d’un déplacement du drone selon la direction initiale,
- au cours du déplacement du drone, un maintien d’une portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra et un maintien de la distance séparant le drone de la portion inspectée à la distance donnée.
Dans ce mode de mise en œuvre particulier, deux éléments sont connectés à la même première extrémité. Après que le premier élément a été inspecté, on inspecte le deuxième élément.
Selon un mode de mise en œuvre particulier, l’installation est une éolienne.
Selon un mode de mise en œuvre particulier, les pales de l’éolienne sont des éléments distincts (chaque pale est un élément) et partagent une première extrémité commune au niveau d’une nacelle de l’éolienne et ont chacune une extrémité à l’extrémité de chaque pale (c’est-à-dire une deuxième extrémité), le procédé comprenant une inspection de toutes les faces de chaque pale de l’éolienne (par exemple, après avoir inspecté une pale, on passe à la suivante).
Selon un mode de mise en œuvre particulier, l’installation comporte une canalisation (par exemple une canalisation aérienne) en tant qu’élément.
Selon un mode de mise en œuvre particulier, le procédé est mis en œuvre de manière autonome par le drone.
Par exemple, il peut être mis en œuvre par un processeur du drone, qui exécute des instructions de programme d’ordinateur mémorisées dans une mémoire non volatile du drone pour la mise en œuvre du procédé.
L’invention propose également un drone volant équipé d’une caméra et d’un module de détermination d’une distance qui sépare le drone d’un objet visible sur une image acquise par la caméra, comprenant un processeur et une mémoire dans laquelle est mémorisé un programme d’ordinateur comprenant des instructions pour l’exécution du procédé tel que défini ci-avant, lorsque ledit programme est exécuté par le processeur du drone.
L’invention propose également un programme d’ordinateur comportant des instructions pour l’exécution des étapes d’un procédé de traitement tel que défini ci-avant lorsque ledit programme est exécuté par un ordinateur.
A noter que les programmes d’ordinateur mentionnés dans le présent exposé peuvent utiliser n’importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
L’invention propose également un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes d’un procédé de sécurisation d’image tel que défini ci-avant.
L’invention propose également un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes d’un procédé de traitement tel que défini ci-avant.
Les supports d’enregistrement (ou d’information) mentionnés dans le présent exposé peuvent être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, ou encore un moyen d'enregistrement magnétique, par exemple une disquette (floppy disc) ou un disque dur.
D'autre part, les supports d’enregistrement peuvent correspondre à un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, les supports d’enregistrement peuvent correspondre à un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.
D’autres caractéristiques et avantages de la présente invention ressortiront de la description faite ci-dessous, en référence aux dessins annexés qui en illustrent un exemple de réalisation dépourvu de tout caractère limitatif. Sur les figures :
La montre une installation et un drone selon un exemple.
La montre l’installation et le drone qui est dans une position initiale.
La montre l’installation et le drone pendant un déplacement.
La montre l’installation et le drone face à une deuxième extrémité.
La montre l’installation et le drone face après une rotation.
La montre l’installation et le drone revenu à une première extrémité.
La montre l’installation et le drone revenu à la position initiale.
La montre un drone selon un exemple.
La montre une boucle de régulation de la distance.
La montre une boucle de régulation du maintien de la portion inspectée.
On va maintenant décrire un procédé d’inspection autonome d’une installation. Dans la présente description, l’installation est une éolienne. L’invention n’est néanmoins nullement limitée à ces installations et peut également être appliquée à d’autres installations industrielles ou à des ouvrages. En particulier, l’invention trouve également application dans l’inspection de canalisations aériennes (qui ont une première et une deuxième extrémité que l’on peut définir arbitrairement sur les canalisations).
Ce procédé est mis en œuvre par un drone volant, dont la structure sera décrite plus en détail ci-après en référence à la . Cela le procédé peut-être mis en œuvre par tout drone volant comportant une caméra (typiquement une caméra qui acquiert des séquences d’images RVB) et un module de détermination d’une distance qui sépare le drone d’un objet visible sur une image acquise par la caméra (par exemple un module LiDAR, une caméra stéréoscopique, un module à ultrasons, un module radar). En outre, le drone doit être apte à se déplacer dans toutes les directions dans l’espace tout en maintenant une assiette sensiblement horizontale.
Le drone est ici également capable de réaliser un maintien de la distance séparant le drone d’un objet mesurée par le module de détermination de distance. Cela peut être réalisé par une boucle de régulation.
Le drone peut également réaliser un maintien d’une portion inspectée de l’élément à inspecter à un emplacement donné de l’image acquise par la caméra. Cela peut être réalisé par une boucle de régulation et par un traitement de l’image acquise par la caméra.
Sur la , on a représenté de manière schématique une éolienne 100 à inspecter. Cette éolienne comporte, de manière connue en soi, un pylône 101, une nacelle 102 (la référence 102 désigne plus précisément le centre de la nacelle), et trois pales 103A, 103B, et 103C. L’inspection de l’éolienne comporte ici au moins une inspection de chaque pale, c’est-à-dire de chaque face de chaque pale, entre la nacelle 102 qui est une première extrémité (au centre de la nacelle) commune à chaque pale, et les deuxièmes extrémités 104A, 104B, et 104C (i.e. des points aux extrémités), respectivement des pales 103A, 103B, et 103C.
Dans une phase préalable, qui peut être mise en œuvre par un opérateur, un drone 200 est placé au sol en face de l’éolienne. Préférentiellement, mais non obligatoirement, le drone peut être placé à une distance donnée du pylône qui sera la distance à maintenir constante au cours de l’inspection (typiquement quelques mètres).
Le drone comporte une caméra 201 et, bien que non représenté sur la figure, un module de détermination d’une distance qui sépare le drone d’un objet visible sur une image acquise par la caméra.
Comme représenté sur la , le drone 200 peut ensuite décoller verticalement, soit automatiquement par exécution, par un processeur du drone, d’une instruction qui déclenche automatiquement un décollage vertical, ou soit manuellement. Pour un décollage automatique, on met en œuvre un décollage vertical pour atteindre une hauteur donnée qui est ici connue pour une éolienne donnée.
Cette étape préalable précéde un positionnement initial du drone mis en œuvre de sorte que la nacelle 102 (ou, plus précisément, son centre), qui est une première extrémité des pales, soit visible sur une image acquise par la caméra en un emplacement donné de l’image, et de sorte que la distance mesurée par le module de détermination de distance, qui sépare le drone de la nacelle, soit égale à ladite distance donnée.
Le positionnement initial commence lorsqu’un opérateur considère que le drone est en face de la nacelle, ou lorsque le drone a atteint la hauteur de la nacelle.
Au cours du positionnement initial, on met en œuvre un maintien à la distance donnée et un maintien du centre de la nacelle au centre de l’image. L’invention n’est néanmoins nullement limitée à un maintien au centre de l’image, et on pourra choisir un autre emplacement de l’image.
A titre indicatif, l’image IMG acquise par le drone est représentée sur la figure. Ici, l’emplacement donné de l’image est un point central de l’image noté C.
Pour que le centre de la nacelle coïncide avec l’emplacement C de l’image, et en particulier au cours de tout le positionnement initial, on peut mettre en œuvre un traitement d’image.
Ici, la nacelle pourra être identifiée comme l’objet au centre de l’image (car, après décollage, elle est à la bonne hauteur et fait face à la nacelle).
A titre indicatif, on peut transformer l’image en une image HSV et réaliser un seuillage avec un seuil choisi pour isoler le contour de la nacelle (i.e. réaliser une segmentation). Le centre de la nacelle a une position qui peut être déterminée par la méthode des moments.
La connaissance de la position du centre de la nacelle peut être utilisée pour réaliser un maintien dans lequel, à titre d’exemple, deux boucles de régulation sont utilisées :
- La première comprend un déplacement horizontal du drone (par exemple en s’approchant et en s’éloignant de l’éolienne) afin de maintenir une distance constante par rapport à la nacelle et à son centre.
- La deuxième comprend un déplacement du drone dans le plan perpendiculaire à la direction de déplacement de la première boucle pour centrer le centre de la nacelle par rapport à l’image.
- La première comprend un déplacement horizontal du drone (par exemple en s’approchant et en s’éloignant de l’éolienne) afin de maintenir une distance constante par rapport à la nacelle et à son centre.
- La deuxième comprend un déplacement du drone dans le plan perpendiculaire à la direction de déplacement de la première boucle pour centrer le centre de la nacelle par rapport à l’image.
Ces deux boucles permettent d’obtenir un ajustement fin de la position du drone.
A titre indicatif, le traitement d’image peut être réalisé par un réseau de neurones artificiels. Par exemple, le réseau de neurones peut être un réseau permettant de détecter et isoler les différents composants de l’éolienne (nacelle, pale, pylône). Le réseau de neurones artificiels peut être le réseau U-Net, et il peut être entrainé avec par exemple 1000 images.
Un traitement supplémentaire peut, sur la base de cette détection, déterminer les différents éléments utiles à la navigation (extrémité, direction, etc …). On notera que de la détection de la nacelle, on peut déterminer la position du centre de la nacelle et mettre en place l’ajustement fin décrit ci-avant.
Aussi, un capteur supplémentaire de type caméra infrarouge peut être utilisé (avec également une méthode basée sur les contrastes), ou de type terrahertz, pour placer le centre de la nacelle à l’emplacement C. Un traitement analogue à celui décrit ci-avant pour une image pourra être mis en œuvre.
Ensuite, le drone étant dans une position initiale, il peut mettre en œuvre une détection d’une direction initiale DI dans laquelle s’étend la première pale 103 (cette étape est réalisée pendant le positionnement initial). A ce stade, le centre de la nacelle a été détecté et l’on détecte les trois pales pour déterminer la direction de chaque élément à inspecter, l’ordre des pales est défini par rapport à une valeur de référence définie préalablement sur le drone. Par exemple, la première pale à inspecter peut être celle qui est la plus proche de la verticale en allant vers la droite.
La détection des pales peut être réalisée sur les images, par une méthode basée sur les contrastes comme décrit ci-avant. Le centre du morceau de pale visible et le centre de la nacelle sont alignés selon la direction initiale.
Un déplacement est ensuite initié selon la direction initiale. Dans la présente demande, un déplacement est mis en œuvre en maintenant l’assiette du drone et une vitesse de déplacement constante.
On notera que le déplacement va permettre d’inspecter une face de l’éolienne. Pour des raisons de simplifications, dans la présente description, on considère que les pales ont deux faces (on ignore les bords). Cela étant, l’invention s’applique aux pales réelles avec 4 faces à inspecter (extrados, intrados, bord d’attaque, bord de fuite ). Ici, le déplacement est mis en œuvre toujours face à la même face.
Sur la , on a représenté le drone en cours de déplacement. A chaque instant au cours du déplacement, le drone maintient la distance D, et il maintient la portion inspectée de la pale (par exemple le centre de la portion inspectée visible à un instant) à l’emplacement C (par exemple par un traitement d’image).
A titre indicatif, le déplacement peut comprendre la mise en œuvre de deux boucles de régulation qui utilisent le résultat d’un traitement d’image :
- La première comprend un déplacement horizontal du drone (par exemple en s’approchant et en s’éloignant de la pale) afin de maintenir une distance constante par rapport à la pale (et à la portion inspectée).
- La deuxième comprend un déplacement du drone dans le plan perpendiculaire à la direction de déplacement de la première boucle pour centrer le centre de la portion inspectée par rapport à l’image.
- La première comprend un déplacement horizontal du drone (par exemple en s’approchant et en s’éloignant de la pale) afin de maintenir une distance constante par rapport à la pale (et à la portion inspectée).
- La deuxième comprend un déplacement du drone dans le plan perpendiculaire à la direction de déplacement de la première boucle pour centrer le centre de la portion inspectée par rapport à l’image.
Ce traitement d’image peut être mise en œuvre de la même manière que celui décrit pour le positionnement initial. On suit toujours le centre de la portion inspectée, dont la position peut être déterminée par la méthode des moments.
On peut noter que le déplacement du drone se fera ici, pour respecter les conditions mentionnées ci-avant (maintien au centre et distance), selon la direction intermédiaire DM représentée sur la figure.
Ces boucles seront décrites plus en détail en référence aux figures 9 et 10.
Comme représenté sur la , ce déplacement est mis en œuvre jusqu’à ce que la deuxième extrémité 104A coïncide avec la portion inspectée (qui est à l’emplacement C de l’image IMG). Le drone peut déterminer que la deuxième extrémité coïncide avec la portion inspectée par un traitement de l’image acquise par le drone utilisant une détection de contraste ou un réseau de neurones artificiels, ou par un capteur supplémentaire. A cet instant, un arrêt du déplacement peut être mis en œuvre.
Puisque l’on considère ici que la pale a deux faces, on peut mettre en œuvre une rotation autour de la deuxième extrémité 104A de la pale 103A, pour faire face à la face de la pale cachée sur les figures (la deuxième face). Sur la , la rotation est représentée par la flèche ROT. Au cours de la rotation, on maintient la distance D, et l’on maintient l’extrémité à l’emplacement C de l’image. A la fin de la rotation, le drone fait face à la face opposée à la première face (qui est contiguë à la première face). Des boucles de régulation analogues à celles décrites ci-avant peuvent être utilisées à cet effet.
La rotation correspond en fait à un positionnement initial supplémentaire, qui est suivi par une détection d’une direction initiale supplémentaire DS dans laquelle s’étend l’élément depuis la deuxième extrémité 104A vers la nacelle 102.
On peut ensuite initier un déplacement avec un maintien de la portion inspectée de la pale à l’emplacement C et un maintien à la distance D. Aussi, le drone fait toujours face à la deuxième face ici.
Comme illustré sur la , le déplacement est mis en œuvre jusqu’à ce que la portion inspectée coïncide avec le centre de la nacelle 102 (vue ici sous la face opposée à celle de la ).
Ensuite, par une rotation (flèche ROT’, ), le drone retrouve la première position initiale. L’inspection de la première pale 103A est terminée.
Postérieurement à l’inspection de la pale 103A, on va mettre en œuvre une inspection de la deuxième pale 103B. On met alors en œuvre une détection de la direction initiale DI’ dans laquelle s’étend cette pale 103B entre la nacelle et la deuxième extrémité 104B.
Un déplacement peut alors être initié selon la direction DI’ de la même manière que pour la pale 103A décrite ci-avant.
L’inspection des deux faces de la pale 103B peut être suivie par une inspection des deux faces de la pale 103C, puis d’un retour à la position initiale et d’un atterrissage de l’appareil.
Le procédé décrit en référence aux figures 1 à 7 peut être mis en œuvre pour des installations industrielles variées, dès lors que l’on peut détecter une première extrémité d’un élément et une direction dans laquelle s’étend cet élément.
Pour les éléments à plusieurs faces, on mettra en œuvre des rotations pour que le drone se retrouve en face de la prochaine face à inspecter. Pour les installations à plusieurs éléments, on part de la position initiale et on détermine la nouvelle direction initiale.
Sur la , on a représenté schématiquement le drone 200, comprenant une caméra 201, par exemple une caméra RGB.
Le drone comporte également un module 202 de détermination d’une distance qui sépare le drone d’un objet visible sur une image acquise par la caméra (par exemple un module LiDAR, une caméra stéréoscopique, un module à ultrasons, un module radar). On peut noter que la caméra 201 peut être comprise dans le module 202 si ce module 202 utilise une caméra (c’est le cas par exemple si une caméra stéréoscopique est utilisée).
Bien que seulement deux hélices 203 aient été représentées, le drone peut comporter d’une manière connue en soi quatre hélices pour décoller, suivre des directions, et maintenir une assiette.
Pour mettre en œuvre le procédé décrit ci-avant, le drone comporte un processeur 204 capable d’exécuter des instructions de programme d’ordinateur INST mémorisées dans sa mémoire non-volatile 205.
On peut noter que les images acquises par le drone peuvent être transmises en continu à un dispositif distant, par exemple en utilisant un protocole WiFi, ou enregistrées dans la mémoire non volatile 205 en continu (sous la forme d’un fichier vidéo).
La montre de manière schématique une boucle de régulation utilisable pour mettre en œuvre le maintien de la distance séparant le drone de la portion inspectée à la distance donnée (pendant un déplacement, ou même lors du positionnement initial).
Cette boucle de régulation reçoit en entrée la distance donnée, c’est-à-dire une consigne de distance notée DIS_C. Elle permet d’obtenir un déplacement du drone DEP. Elle comporte un module 1000 de calcul d’une commande de déplacement CMD, qui utilise notamment la distance donnée. La commande de déplacement CMD est exécutée par un module 1001 du drone, d’une manière connue en soi, pour obtenir le déplacement DEP. Dans le module de retour 1002, on mesure la distance qui sépare le drone de la portion inspectée pour obtenir la distance mesurée DIS_MES, également utilisée par le module 1000. Le module 1002 peut être implémenté au moyen du module de détermination d’une distance 202 décrit ci-avant.
Le déplacement DEP peut être mis en œuvre (par exemple uniquement) selon l’axe du système optique de la caméra.
La montre de manière schématique une boucle de régulation utilisable pour mettre en œuvre le maintien de la portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra (pendant un déplacement, ou même lors du positionnement initial).
Cette boucle de régulation reçoit en entrée une information sur l’emplacement donné POS_C (typiquement une consigne de position). La boucle permet d’obtenir un déplacement du drone DEP’. Elle comporte un module 2000 de calcul d’une commande de déplacement CMD’, qui utilise notamment l’information POS_C. La commande de déplacement CMD’ est exécutée par un module 2001 du drone (éventuellement analogue au module 1001), d’une manière connue en soi, pour obtenir le déplacement DEP’. Dans le module de retour 2002, on met en œuvre un traitement d’image (ou un traitement d’un nuage de points) pour obtenir la position sur l’image (ou le nuage de points) de la portion inspectée POS_MES (par exemple de son centre), également utilisée par le module 2000.
Le déplacement DEP’ peut être mis en œuvre (par exemple uniquement) dans un plan perpendiculaire à l’axe dans lequel est mis en œuvre le déplacement DEP.
Le procédé et le drone décrits ci-avant permettent donc d’inspecter des installations industrielles avec une bonne qualité d’image, puisque les parties à inspecter sont toujours localisées au même emplacement sur les images acquises, et puisque la distance avec l’objet est constante.
En outre, ce procédé permet d’utiliser une mise au point optique constante.
En fait, la qualité des images est ainsi constante pendant toute l’inspection.
Avec un procédé autonome tel que celui décrit ci-avant, on réduit bien le coût et la durée des inspections.
Claims (16)
- Procédé de navigation autonome d’un drone volant pour l’inspection d’une installation ou d’un ouvrage (100), le drone volant (200) étant équipé d’une caméra (201) et d’un module (202) de détermination d’une distance qui sépare le drone d’un objet visible sur une image acquise par la caméra, l’installation ou l’ouvrage comprenant au moins un élément (103A, 103B, 103C) s’étendant entre une première extrémité (102) et une deuxième extrémité (104A, 104B, 104C), le procédé comprenant :
- un positionnement initial du drone de sorte que la première extrémité de l’élément est visible sur une image acquise par la caméra en un emplacement donné de l’image et de sorte que la distance mesurée par le module de détermination de distance, qui sépare le drone de la première extrémité, est égale à une distance donnée (D),
- une détection d’une direction initiale (DI) dans laquelle s’étend l’élément depuis la première extrémité vers la deuxième extrémité,
- une initiation d’un déplacement du drone selon la direction initiale,
- à chaque instant au cours du déplacement du drone, un maintien d’une portion inspectée de l’élément visible à un instant à l’emplacement donné de l’image acquise par la caméra et un maintien de la distance séparant le drone de la portion inspectée à la distance donnée. - Procédé selon la revendication 1, dans lequel le module de détermination d’une distance qui sépare le drone d’un objet visible sur une image acquise par la caméra est un module choisi dans le groupe comprenant : un module LiDAR, une caméra stéréoscopique, un module à ultrasons, un module radar.
- Procédé selon la revendication 1 ou 2, dans lequel le maintien de la portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra et le positionnement initial du drone de sorte que la première extrémité de l’élément est visible sur une image acquise par la caméra en l’emplacement donné de l’image sont mis en œuvre par un traitement de l’image acquise par la caméra du drone, ou par un traitement d’une image ou d’un nuage de points acquis par un capteur supplémentaire.
- Procédé selon la revendication 3, dans lequel le maintien de la portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra, et le positionnement initial du drone de sorte que la première extrémité de l’élément est visible sur une image acquise par la caméra en l’emplacement donné de l’image, utilisent au moins une boucle de régulation de la position utilisant les résultats du traitement d’image ou du traitement du nuage de point.
- Procédé selon la revendication 3 ou 4, dans lequel le maintien de la distance séparant le drone de la portion inspectée à la distance donnée utilise au moins une boucle de régulation de la position.
- Procédé selon l’une quelconque des revendications 1 à 5, comprenant un arrêt du drone lorsque la deuxième extrémité coïncide avec la portion inspectée.
- Procédé selon la revendication 6, dans lequel le drone détermine que la deuxième extrémité coïncide avec la portion inspectée par un traitement de l’image acquise par la caméra du drone, ou par un traitement d’une image ou d’un nuage de points acquis par un capteur supplémentaire.
- Procédé selon l’une quelconque des revendications 6 ou 7, dans lequel l’élément a une première face s’étendant entre la première extrémité et la deuxième extrémité, et une deuxième face contiguë à la première face et s’étendant également entre la première extrémité et la deuxième extrémité,
dans lequel le positionnement initial est mis en œuvre de sorte que le drone fait face à la première face, et le déplacement est mis en œuvre de sorte que le drone fait toujours face à la première face,
et dans lequel, après l’arrêt, le procédé comprend en outre :
- un positionnement initial supplémentaire comprenant une rotation du drone autour de la deuxième extrémité en maintenant la deuxième extrémité à l’emplacement donné de l’image acquise par la caméra et un maintien de la distance séparant le drone de la deuxième extrémité à la distance donnée, jusqu’à ce que le drone fasse face à la deuxième face,
- une détection d’une direction initiale supplémentaire dans laquelle s’étend l’élément depuis la deuxième extrémité vers la première extrémité,
- une initiation d’un déplacement du drone selon la direction initiale supplémentaire,
- au cours du déplacement du drone, un maintien d’une portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra et un maintien de la distance séparant le drone de la portion inspectée à la distance donnée, de sorte que le drone fait toujours face à la deuxième face. - Procédé selon l’une quelconque des revendications 1 à 8, dans lequel l’élément est relié à un élément supplémentaire ayant une première extrémité partagée avec la première extrémité de l’élément, et une deuxième extrémité, le procédé comprenant, postérieurement à une inspection de l’élément :
un deuxième positionnement initial du drone de sorte que la première extrémité de l’élément supplémentaire soit visible sur une image acquise par la caméra en un emplacement donné de l’image et de sorte que la distance mesurée par le module de détermination de distance, qui sépare le drone de la première extrémité de l’élément supplémentaire, soit égale à une distance donnée,
- une détection d’une direction initiale dans laquelle s’étend l’élément supplémentaire depuis la première extrémité vers la deuxième extrémité,
- une initiation d’un déplacement du drone selon la direction initiale,
- au cours du déplacement du drone, un maintien d’une portion inspectée de l’élément à l’emplacement donné de l’image acquise par la caméra et un maintien de la distance séparant le drone de la portion inspectée à la distance donnée. - Procédé selon l’une quelconque des revendications 1 à 9, dans lequel l’installation est une éolienne (100).
- Procédé selon la revendication 10, dans lequel les pales (103A, 103B, 103C) de l’éolienne sont des éléments distincts et partagent une première extrémité commune au niveau d’une nacelle de l’éolienne et ont chacune une extrémité à l’extrémité de chaque pale, le procédé comprenant une inspection de toutes les faces de chaque pale de l’éolienne.
- Procédé selon l’une quelconque des revendications 1 à 9, dans lequel l’installation comporte une canalisation en tant qu’élément.
- Procédé selon l’une quelconque des revendications 1 à 12, mis en œuvre de manière autonome par le drone.
- Drone volant équipé d’une caméra (201) et d’un module (202) de détermination d’une distance qui sépare le drone d’un objet visible sur une image acquise par la caméra, comprenant un processeur et une mémoire dans laquelle est mémorisé un programme d’ordinateur comprenant des instructions pour l’exécution du procédé selon l’une quelconque des revendications 1 à 13, lorsque ledit programme est exécuté par le processeur du drone.
- Programme d’ordinateur comportant des instructions pour l’exécution des étapes d’un procédé selon l’une quelconque des revendications 1 à 13 lorsque ledit programme est exécuté par un ordinateur.
- Support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes d’un procédé selon l’une quelconque des revendications 1 à 13.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2200816A FR3132349B1 (fr) | 2022-01-31 | 2022-01-31 | Procédé de navigation autonome d’un drone volant pour l’inspection d’une installation ou d’un ouvrage, le procédé étant basé sur la vision. |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2200816A FR3132349B1 (fr) | 2022-01-31 | 2022-01-31 | Procédé de navigation autonome d’un drone volant pour l’inspection d’une installation ou d’un ouvrage, le procédé étant basé sur la vision. |
| FR2200816 | 2022-01-31 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| FR3132349A1 true FR3132349A1 (fr) | 2023-08-04 |
| FR3132349B1 FR3132349B1 (fr) | 2024-10-18 |
Family
ID=80999538
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR2200816A Active FR3132349B1 (fr) | 2022-01-31 | 2022-01-31 | Procédé de navigation autonome d’un drone volant pour l’inspection d’une installation ou d’un ouvrage, le procédé étant basé sur la vision. |
Country Status (1)
| Country | Link |
|---|---|
| FR (1) | FR3132349B1 (fr) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117365858A (zh) * | 2023-11-21 | 2024-01-09 | 中铁十五局集团上海新能源发展有限公司 | 一种基于无人机激光雷达的塔片拼接系统 |
| US12152563B1 (en) | 2023-09-26 | 2024-11-26 | Nyocor Intelligent Maintenance (Ningxia) Technology Co., Ltd | Method, apparatus, and electronic device for detecting wind turbine blade based on drone aerial photography |
| WO2025065750A1 (fr) * | 2023-09-26 | 2025-04-03 | 金开智维(宁夏)科技有限公司 | Procédé et appareil d'inspection d'ailette de soufflante basés sur une photographie aérienne de véhicule aérien sans pilote, et dispositif électronique |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20180273173A1 (en) * | 2015-09-22 | 2018-09-27 | Pro-Drone Lda | Autonomous inspection of elongated structures using unmanned aerial vehicles |
| EP3454159A1 (fr) | 2017-09-06 | 2019-03-13 | Alerion Technologies, S.L. | Procédé et dispositif de navigation autonome |
| GB2577134A (en) * | 2018-09-10 | 2020-03-18 | Perceptual Robotics Ltd | Control and navigation systems |
| US20220003213A1 (en) * | 2016-06-30 | 2022-01-06 | Skydio, Inc. | Unmanned Aerial Vehicle Wind Turbine Inspection Systems And Methods |
-
2022
- 2022-01-31 FR FR2200816A patent/FR3132349B1/fr active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20180273173A1 (en) * | 2015-09-22 | 2018-09-27 | Pro-Drone Lda | Autonomous inspection of elongated structures using unmanned aerial vehicles |
| US20220003213A1 (en) * | 2016-06-30 | 2022-01-06 | Skydio, Inc. | Unmanned Aerial Vehicle Wind Turbine Inspection Systems And Methods |
| EP3454159A1 (fr) | 2017-09-06 | 2019-03-13 | Alerion Technologies, S.L. | Procédé et dispositif de navigation autonome |
| US20200293045A1 (en) * | 2017-09-06 | 2020-09-17 | Alerion Technologies, S.L. | Method and device of autonomous navigation |
| GB2577134A (en) * | 2018-09-10 | 2020-03-18 | Perceptual Robotics Ltd | Control and navigation systems |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12152563B1 (en) | 2023-09-26 | 2024-11-26 | Nyocor Intelligent Maintenance (Ningxia) Technology Co., Ltd | Method, apparatus, and electronic device for detecting wind turbine blade based on drone aerial photography |
| WO2025065750A1 (fr) * | 2023-09-26 | 2025-04-03 | 金开智维(宁夏)科技有限公司 | Procédé et appareil d'inspection d'ailette de soufflante basés sur une photographie aérienne de véhicule aérien sans pilote, et dispositif électronique |
| CN117365858A (zh) * | 2023-11-21 | 2024-01-09 | 中铁十五局集团上海新能源发展有限公司 | 一种基于无人机激光雷达的塔片拼接系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| FR3132349B1 (fr) | 2024-10-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| FR3132349A1 (fr) | Procédé de navigation autonome d’un drone volant pour l’inspection d’une installation ou d’un ouvrage, le procédé étant basé sur la vision. | |
| EP3270365B1 (fr) | Dispositif d'aide au pilotage d'un giravion, giravion associe et procede d'aide au pilotage correspondant | |
| CA2989154C (fr) | Systeme et procede d'inspection automatique de surface | |
| EP2400460B1 (fr) | Procédé d'évaluation de la vitesse horizontale d'un drone, notamment d'un drone apte au vol stationnaire autopiloté | |
| EP3361345B1 (fr) | Système et procédé d'aide à l'atterrissage d'un aéronef, et aéronef correspondant | |
| WO1997043180A1 (fr) | Procede et dispositif de guidage d'une perche de ravitaillement en vol | |
| EP3388914A1 (fr) | Procédé de suivi de cible par un drone, programme d'ordinateur, système électronique et drone associés | |
| FR3051057A1 (fr) | Procede de rejointe automatique d'un profil vertical de reference d'un aeronef | |
| WO2010043812A1 (fr) | Procédé et système de contrôle de l'appontage/décollage automatique d'un drone sur ou d'une grille circulaire d'appontage d'une plate-forme notamment navale | |
| FR3075433A1 (fr) | Procede de determination des bords saillants d'une cible sur une image | |
| EP3571468B1 (fr) | Procédé d'observation de la surface terrestre et dispositif pour sa mise en oeuvre | |
| FR2971863A1 (fr) | Procede et dispositif d'aide a la gestion du vol d'un aeronef. | |
| FR3113166A1 (fr) | Procédé et système de décollage automatique d’un aéronef | |
| EP3776471B1 (fr) | Procédé pour la localisation d'une cible à partir d'un contour elliptique | |
| FR3047829A1 (fr) | Procede d'estimation de la position du disque solaire dans une image de ciel | |
| EP4016235A1 (fr) | Système d'acquisition de l'image d'un aéronef meneur depuis un aéronef suiveur en luminosité réduite | |
| WO2014146884A1 (fr) | Procede d'observation d'une zone au moyen d'un drone | |
| FR3069688A1 (fr) | Dispositif electronique et procede d'estimation d'un deplacement d'une scene observee par un drone, appareil electronique de calcul d'une vitesse sol du drone, drone et programme d'ordinateur associes | |
| EP1645888B1 (fr) | Dispositif d'assistance au pilotage d'un véhicule en tout terrain | |
| FR3071053B1 (fr) | Procede de cartographie mis en oeuvre par un drone | |
| FR3107388A1 (fr) | Procédé et système d’aide à la navigation pour un aéronef par détection d’objets maritimes en vue d’un vol d’approche, d’une mise en vol stationnaire ou d’un atterrissage | |
| EP4086819A1 (fr) | Procédé d'apprentissage d'une intelligence artificielle supervisée destinée à identifier un objet prédeterminé dans l'environnement d'un aéronef | |
| FR3082013A1 (fr) | Dispositif electronique de pilotage d'un drone, drone, procede de pilotage et programme d'ordinateur associes | |
| FR3164704A1 (fr) | Méthode et dispositif de détermination d'une position à atteindre par au moins un drone | |
| FR3047830A1 (fr) | Procede de determination de la direction de deplacement d'objets dans une scene |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PLFP | Fee payment |
Year of fee payment: 2 |
|
| PLSC | Publication of the preliminary search report |
Effective date: 20230804 |
|
| PLFP | Fee payment |
Year of fee payment: 3 |
|
| PLFP | Fee payment |
Year of fee payment: 4 |
|
| PLFP | Fee payment |
Year of fee payment: 5 |