ES2910700T3 - Sistema y procedimiento de inspección automática de superficie - Google Patents

Sistema y procedimiento de inspección automática de superficie Download PDF

Info

Publication number
ES2910700T3
ES2910700T3 ES16741082T ES16741082T ES2910700T3 ES 2910700 T3 ES2910700 T3 ES 2910700T3 ES 16741082 T ES16741082 T ES 16741082T ES 16741082 T ES16741082 T ES 16741082T ES 2910700 T3 ES2910700 T3 ES 2910700T3
Authority
ES
Spain
Prior art keywords
robot
fleet
module
inspected
inspection system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16741082T
Other languages
English (en)
Inventor
Matthieu Claybrough
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donecle
Original Assignee
Donecle
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donecle filed Critical Donecle
Application granted granted Critical
Publication of ES2910700T3 publication Critical patent/ES2910700T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F5/00Designing, manufacturing, assembling, cleaning, maintaining or repairing aircraft, not otherwise provided for; Handling, transporting, testing or inspecting aircraft components, not otherwise provided for
    • B64F5/60Testing or inspecting aircraft components or systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/102UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] adapted for flying in formations

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Transportation (AREA)
  • Manipulator (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Sistema de inspección automática de una superficie de un objeto de tipo aeronave (54), vehículo de transporte, edificio o trabajo de ingeniería, siendo dicha superficie susceptible de presentar un defecto, que comprende una flota (12) que comprende al menos un robot volador (14, 14a, 14b, 14c), comprendiendo cada robot volador: - un módulo de adquisición de imágenes (26) de al menos una porción de la superficie a inspeccionar, y - un módulo de procesamiento de las imágenes (28) adquiridas adaptado para proporcionar una información representativa del estado de cada porción de superficie inspeccionada, llamada resultado del procesamiento, caracterizado por que comprendiendo además el sistema de inspección automática un módulo de gestión (18) de la flota de robots (12), estando el módulo de gestión (18) adaptado para determinar, a partir de un modelo de la superficie a inspeccionar, un conjunto de instrucciones de desplazamiento y de instrucciones de adquisición de imágenes para cada robot (14, 14a, 14b, 14c, 16) de la flota (12).

Description

DESCRIPCIÓN
Sistema y procedimiento de inspección automática de superficie
1. Campo técnico de la invención
La invención se refiere a un sistema y un procedimiento de inspección automática de objetos de grandes dimensiones. En particular, la invención se refiere a la detección y a la localización de defectos sobre superficies de difícil acceso de estos objetos de grandes dimensiones.
2. Antecedentes de la técnica
El campo técnico de la invención se refiere a la detección y a la localización de defectos visibles al ojo humano sobre amplias superficies, tales como las superficies exteriores de grandes objetos, por ejemplo, aeronaves, buques, trenes, vehículos automóviles, edificios o trabajos de ingeniería. De una manera general, en todo el texto, se designa por objeto cualquier cosa concreta perceptible por la vista y el tacto, fabricada por el hombre y destinada a cierto uso. Los objetos grandes, es decir, los objetos cuyas dimensiones, volumen y/o peso no permiten que sean transportados por un ser humano, generalmente presentan superficies de difícil acceso, por ejemplo, las porciones altas de edificios o trabajos de ingeniería, el casco exterior de grandes buques, la estructura de una plataforma petrolífera o la parte superior de conjuntos de trenes o de fuselajes y alas de aeronave. La detección y localización de defectos visibles al ojo vista sobre este tipo de grandes objetos presenta de este modo varios problemas, en concreto, los problemas de acceso visual a las superficies, de detección de defectos y de localización de defectos en un marco de referencia vinculado al objeto. Los defectos a detectar son, por ejemplo, el impacto de un rayo, granizo, pájaro, desechos o defectos de corrosión, erosión, goteo de pintura, grietas, etc.
La detección y la localización de defectos se efectúa por una inspección de las superficies de los objetos. Se han propuesto varios sistemas y procedimientos de inspección para abordar estos problemas.
Generalmente, las inspecciones actuales son efectuadas por operarios humanos. Se usan equipos específicos para permitir el acceso visual a las superficies por parte de estos operarios, por ejemplo, el uso de góndolas elevadoras, de andamiajes, etc. Para las superficies de más difícil acceso, el operario puede también, por ejemplo, tener que usar prismáticos o medios ópticos equivalentes.
Los operarios humanos están formados específicamente para detectar defectos mediante la inspección de superficies. Por lo tanto, la detección de estos defectos se basa en la experiencia y los sentimientos de los operarios. Una vez que se detecta un defecto, el operario es responsable de localizar estos defectos, es decir, enumerar la ubicación del defecto detectado de forma absoluta o, más comúnmente, en relación con una o varias referencias presentes sobre el objeto. Estas referencias pueden ser, por ejemplo, según el tipo de objeto inspeccionado, ventanas u ojos de buey, elementos estructurales tales como cables, postes, columnas, marcos, largueros, balaustradas, marcadores textuales, elementos distintivos particulares, etc. De este modo, la localización de un defecto se efectúa determinando en primer lugar al menos un punto de referencia, luego midiendo en segundo lugar la posición del defecto con respecto a cada punto de referencia.
Sin embargo, estas inspecciones efectuadas por uno o varios operarios humanos tienen varios inconvenientes.
En cuanto al acceso visual a las superficies, la instalación de los equipos específicos tal como andamiajes es larga y costosa, y no permite sistemáticamente un acceso fácil a las superficies a inspeccionar. El uso de prismáticos o de medios ópticos equivalentes para superar este inconveniente no es satisfactorio ya que esto reduce la eficacia de la inspección. Además, los equipos específicos generalmente implican mayores riesgos de seguridad para el operario, en concreto, riesgos de caídas, de aplastamiento o cualquier otro riesgo debido al uso de equipos específicos tales como góndolas o andamiajes. Los equipos específicos también implican riesgos para el objeto, en concreto, riesgos de colisión que pueden provocar degradaciones. Según la fragilidad del objeto, estas degradaciones pueden provocar grandes repercusiones, tales como una inmovilización (para vehículos y aeronaves), reparaciones costosas o incluso una parada definitiva de la explotación. Estos inconvenientes y riesgos son tanto mayores cuanto más elevado es el número de operarios.
La detección efectuada por los operarios es además imperfecta ya que un operario puede olvidar de escanear visualmente una porción de la superficie, en concreto, si la superficie es de difícil acceso. También puede tratar las superficies de manera desigual según si son de fácil acceso o no. Por último, la subjetividad de cada operario puede provocar a una clasificación diferente de los elementos percibidos (por ejemplo, entre defectos graves, insignificantes, desgaste normal o manchas), lo que puede conducir a ignorar o a detectar tardíamente ciertos defectos. Por lo demás, los operarios deben estar específicamente formados en inspección, lo que reduce el número de operarios susceptibles de proceder a la inspección y necesita una gestión adicional de la disponibilidad y del coste de un equipo de operarios formados.
Por último, las técnicas de localización pueden provocar errores, en concreto, a nivel de la elección y la identificación de los puntos de referencia, por ejemplo, si esta elección necesita un conteo de un gran número de elementos repetitivos (ojos de buey, ventanas, columnas, etc.), a los que se añaden los errores convencionales de medida a partir de la o de las referencias.
Las inspecciones efectuadas con los sistemas y procedimientos existentes encuentran además un problema adicional de rapidez. Las inspecciones actuales necesitan generalmente la parada de la explotación del objeto durante un largo periodo. Para mejorar la velocidad de inspección, es necesario aumentar el número de operarios a cargo de esta inspección, lo que, en concreto, genera costes adicionales y aumenta los riesgos anteriormente mencionados.
Se han propuesto soluciones para superar estos inconvenientes. Por ejemplo, el uso de un robot rodante equipado con medios ópticos permite mejorar la detección y la localización de defectos y de este modo limitar la subjetividad de la detección y los errores de localizaciones. Sin embargo, el problema del acceso visual sigue presente y el procedimiento es lento, siendo necesaria la intervención de un operario para cada detección. Otra solución consiste en colocar el objeto a inspeccionar en un hangar equipado con una pluralidad de cámaras que pueden inspeccionar la superficie del objeto. No obstante, este sistema no se puede usar sobre los edificios y los trabajos de ingeniería, no es desplazable y no es muy modular. En particular, tal sistema necesita llevar el objeto a inspeccionar, por ejemplo, una aeronave, hasta el hangar, lo que es costoso y complejo. El documento David Lattanzi: "A COMPUTATio Na L FRAMEWORK FOR NEXT-GENERATION INSPECTION IMAGING", 1 de diciembre de 2013 (01/12/2013), XP055267638, describe un sistema de inspección de una superficie de un objeto destinado a detectar defectos o daños sobre esta superficie. El sistema comprende uno o varios robots. Cada robot posee uno o varios sensores. Los datos procedentes de los sensores permiten la generación de un modelo 3D sobre el que aparecen las imágenes tomadas con el fin de detectar los defectos.
Por lo tanto, los inventores han buscado proponer un sistema y procedimiento de inspección que resuelva al menos ciertos de los inconvenientes de los sistemas y procedimientos conocidos.
3. Objetivos de la invención
La invención pretende superar al menos ciertos de los inconvenientes de los sistemas y procedimientos de inspección de superficies conocidos.
En particular, la invención tiene como objeto proporcionar, en al menos un modo de realización de la invención, un sistema de inspección y un procedimiento que permite limitar el número de operarios humanos necesarios.
La invención también tiene como propósito proporcionar, en al menos un modo de realización, un sistema y un procedimiento de inspección que permite una inspección de las superficies de difícil acceso sin necesidad de implementar equipos específicos tales como andamiajes.
La invención también tiene como propósito proporcionar, en al menos un modo de realización de la invención, un sistema y un procedimiento de inspección que permite la inspección rápida de una gran superficie.
La invención también tiene como propósito proporcionar, en al menos un modo de realización, un sistema y un procedimiento de inspección que permite la inspección por parte de los operarios humanos con poca o ninguna formación.
La invención también tiene como propósito proporcionar, en al menos un modo de realización, un sistema y procedimiento de inspección que permite una mejor localización de los defectos sobre la superficie.
La invención también tiene como propósito proporcionar, en al menos un modo de realización, un sistema y un procedimiento de inspección que permite una mayor repetibilidad de las inspecciones y de la detección de defectos.
4. Exposición de la invención
Para hacer esto, la invención se refiere a un sistema de inspección automática de una superficie de un objeto de tipo aeronave, vehículo de transporte, edificio o trabajo de ingeniería, siendo dicha superficie susceptible de presentar un defecto, caracterizado por que comprende una flota que comprende al menos un robot volador, comprendiendo cada robot volador:
- un módulo de adquisición de imágenes de al menos una porción de la superficie a inspeccionar, y
- un módulo de procesamiento de las imágenes adquiridas adaptado para proporcionar una información representativa del estado de cada porción de superficie inspeccionada, llamada resultado del procesamiento,
comprendiendo además el sistema de inspección automática un módulo de gestión de la flota de robots, estando el módulo de gestión adaptado para determinar, a partir de un modelo de la superficie a inspeccionar, un conjunto de instrucciones de desplazamiento y de instrucciones de adquisición de imágenes para cada robot de la flota.
Un sistema de inspección automática según la invención permite por lo tanto la inspección por medio de uno o varios robots voladores (comúnmente llamados drones): el sistema de inspección por lo tanto reduce considerablemente el número de operarios humanos necesarios, ya que cada robot volador de la flota inspecciona una porción de la superficie del objeto a inspeccionar. De este modo se reduce la cantidad de material necesario, así como los riesgos de seguridad para los operarios.
Por lo demás, la capacidad de los robots voladores para moverse en el aire permite un fácil acceso a porciones de superficie del objeto que son de difícil acceso, por ejemplo, la parte superior de una aeronave o un tren. Estas porciones se benefician de este modo de una inspección de calidad comparable a las porciones de más fácil acceso.
El uso de una flota de robots voladores permite mejorar la velocidad de inspección, en concreto, sobre superficies muy grandes, usando un número de robots voladores adaptado a la superficie a inspeccionar. Si bien el gran volumen de los equipos específicos, tales como góndolas y andamiajes de los sistemas anteriores, limitaba el número de operarios que podían efectuar una inspección simultáneamente, el volumen pequeño de los robots voladores permite usar un gran número de estos robots para efectuar una inspección más rápida. Por lo demás, el sistema es ligero, fácilmente transportable y, por lo tanto, móvil, es decir, se puede desplazar hasta el objeto y no necesita que el objeto se desplace a un lugar particular.
El procesamiento de los datos adquiridos por el módulo de adquisición del robot volador y, en concreto, el procesamiento de al menos una imagen de una porción de la superficie inspeccionada, se efectúa en un módulo de procesamiento integrado en el robot volador, lo que permite acelerar la inspección y la detección de defectos, limitar el número de operarios humanos necesarios para la inspección y efectuar una inspección y detección más homogénea de la superficie. El procesamiento permite proporcionar una información representativa del estado de la superficie inspeccionada y, en concreto, determinar la presencia de defectos eventuales sobre la superficie: esta determinación no está sujeta a la subjetividad de un operario humano y, por lo tanto, permite una mayor constancia en la inspección. Además, la inspección ya no necesita operarios humanos específicamente formados para la inspección.
La información representativa del estado de la superficie inspeccionada, proporcionada por el módulo de procesamiento, se denomina en lo sucesivo el resultado del procesamiento. El resultado del procesamiento comprende, en concreto, la presencia o no de un defecto potencial sobre la porción de la superficie inspeccionada.
A través del procesamiento por cada robot volador, un operario humano con poca o ninguna formación podrá tener conocimiento de los resultados del procesamiento e interesarse únicamente en las porciones de la superficie que presentan un defecto potencial, sin necesitar de inspeccionar visualmente la superficie o de mirar imágenes de todas las porciones de superficie. Por lo demás, cada robot volador puede transmitir únicamente los resultados del procesamiento y no de las imágenes de la totalidad de la superficie, lo que reduce la cantidad de datos transmitidos en el conjunto del sistema y permite el uso de un gran número de robots voladores para acelerar la inspección. La carga de procesamiento se distribuye de este modo en cada robot volador.
Preferentemente, el robot volador es un robot de tipo helicóptero o multirrotor (generalmente cuadrirrotor), capaz de efectuar un vuelo estacionario. Este tipo de robot volador permite efectuar despegues y aterrizajes fáciles sobre una superficie reducida, desplazarse a una velocidad variable, en concreto, a una velocidad lenta que permite una mejor precisión de localización y más seguridad, y es capaz de detenerse y cambiar de dirección o incluso de comenzar en una dirección opuesta en caso de presencia de un obstáculo sobre su trayectoria. El vuelo estacionario o a baja velocidad además permite facilitar la adquisición de imágenes y mejorar la calidad de las imágenes adquiridas.
Ventajosamente y según la invención, la flota comprende entre uno y diez robots voladores. Preferentemente, la flota comprende tres robots voladores, que permiten un buen compromiso entre velocidad de ejecución, coste y reducción de los riesgos de colisión entre robots voladores.
El módulo de gestión permite la programación centralizada de la inspección mediante la determinación de instrucciones para cada robot de la flota, en función, por ejemplo, del número de robots disponibles en la flota, del tipo de objeto a inspeccionar, del tamaño de la superficie a inspeccionar, del tiempo de inspección, etc. Cada instrucción determina una tarea a ejecutar por cada robot. De este modo, los robots de la flota se autopilotan ejecutando las tareas que se les atribuyen. Por lo tanto, no necesitan operarios humanos para controlarlos, reduciendo la necesidad de formación de los operarios, así como los riesgos de error de pilotaje que pueden resultar, por ejemplo, en colisiones entre robots de la flota o entre un robot de la flota y el objeto. Además, cada robot puede hacer la inspección sin necesidad de contacto visual entre un operario humano y cada robot. De este modo, cada robot, en particular, un módulo de control para cada robot, ejecuta automáticamente las tareas, incluidas las de desplazamientos y, por lo tanto, permite que el robot se mueva de forma autónoma, sin necesidad de un piloto remoto o estación de control.
Preferentemente, el módulo de gestión determina las instrucciones para que la inspección se efectúe en un tiempo mínimo en función del número de robots de la flota.
Según variantes de la invención, el módulo de gestión puede integrarse en un robot de la flota o estar comprendido en un dispositivo de gestión independiente, por ejemplo, un ordenador, o distribuido entre diferentes robots de la flota.
Preferentemente, en las variantes donde el módulo de gestión está comprendido en un dispositivo de gestión independiente de los robots de la flota, el dispositivo de gestión comprende una interfaz hombre/máquina que permite una interacción con un operario humano.
Ventajosamente y según la invención, el módulo de adquisición de imágenes de al menos un robot de dicha flota comprende al menos una cámara adaptada para adquirir imágenes en el espectro de la luz visible.
Según este aspecto de la invención, la cámara permite que el sistema efectúe una inspección visual como lo haría un operario humano. El sistema efectúa un procesamiento de imagen sobre una imagen en el espectro de la luz visible, llamada imagen visible, que permite el uso de técnicas conocidas, eficaces y probadas de procesamiento de imágenes visibles.
Ventajosamente, un sistema según la invención comprende un dispositivo de presentación de los resultados de cada procesamiento efectuado por el módulo de procesamiento de cada robot de la flota, y cada robot de la flota comprende un módulo de comunicación adaptado para transmitir resultados de cada procesamiento al dispositivo de presentación.
Según este aspecto de la invención, cada robot volador transmite los resultados de los procesamientos efectuados sobre las imágenes adquiridas al dispositivo de presentación con el fin de que un operario humano pueda interpretarlas. Los resultados transmitidos por cada robot de la flota son representativos del estado de la superficie inspeccionada, permiten, en concreto, proponer una clasificación de los defectos potenciales detectados y, por ejemplo, mostrar la imagen adquirida sobre una pantalla del dispositivo de presentación, el resultado asociado y una clasificación del defecto potencial, o generar un informe que comprende la lista de defectos potenciales detectados.
Ventajosamente, en un modo de realización donde el módulo de gestión está comprendido en un dispositivo de gestión, el dispositivo de gestión y el dispositivo de presentación están dispuestos en un dispositivo de control. Las funciones del módulo de gestión y del dispositivo de presentación se combinan entonces en un único y mismo dispositivo.
Ventajosamente, el dispositivo de control comprende una interfaz hombre/máquina adaptada para mostrar un modelo 3D de la superficie a inspeccionar y para mostrar una representación de una posición en tiempo real de cada robot de la flota con respecto a la superficie a inspeccionar.
Según este aspecto de la invención, la interfaz hombre/máquina permite que un operario humano vea la posición de cada robot volador con respecto al objeto y su superficie, ver los defectos potenciales mostrados sobre el modelo 3D, así como eventualmente intervenir sobre los robots voladores si es necesario, para efectuar una parada de emergencia, por ejemplo.
Ventajosamente y según la invención, cada robot de la flota comprende un módulo de localización, adaptado para asociar a cada resultado del procesamiento una localización de este resultado del procesamiento con respecto a un marco de referencia relativo a la superficie a inspeccionar.
Según este aspecto de la invención, el sistema permite una localización más precisa de los resultados del procesamiento y, por lo tanto, de los defectos potenciales, que la localización por un operario humano según la técnica anterior. La localización de los resultados se determina por cada robot de la flota en función de la localización de dicho robot y de los parámetros del módulo de adquisición de la imagen en el instante de la adquisición de la imagen.
Según una variante de la invención, el módulo de procesamiento de las imágenes permite reconocer elementos del objeto cuya localización se conoce, permitiendo, de este modo, afinar la localización de los resultados.
Si el sistema de inspección comprende un dispositivo de presentación, este último está adaptado para presentar cada resultado y la localización asociada a dicho resultado.
Ventajosamente y según la invención, cada robot de la flota comprende un módulo de emergencia adaptado para detectar una avería del robot y, a partir de un conjunto de tareas de emergencia determinadas en función de una posición del robot de la flota con respecto al objeto, dicho robot de la flota es capaz de ejecutar al menos una tarea de emergencia en caso de avería.
Según este aspecto de la invención, se determina permanentemente una maniobra de emergencia, y el robot ejecutará esta maniobra de emergencia en caso de avería, por ejemplo, pérdida de conexión con un módulo de gestión, avería de un módulo de localización, avería de un motor, etc. Las maniobras de emergencia permiten evitar daños la degradación del objeto cuya superficie se inspecciona, en concreto, cuando esta superficie es frágil (aeronave, por ejemplo). Las tareas de emergencia generalmente tienen como objeto alejarse del objeto y dependen de la localización del robot con respecto al objeto. Se determina el conjunto de tareas de emergencia, según varias variantes de la invención, ya sea por el módulo de gestión, o bien, por cada robot. En caso de que cada robot determine el conjunto de tareas de emergencia, cada robot transmite el conjunto de las tareas al módulo de gestión para que pueda determinar si un robot corre el riesgo de entrar en colisión con otro debido a estas tareas.
Ventajosamente y según la invención, cada robot de la flota comprende un módulo de memoria intermedia, adaptado para almacenar una pluralidad de resultados del procesamiento.
Según este aspecto de la invención, los resultados del procesamiento se pueden almacenar en espera de la transmisión hacia un sistema de copia de seguridad externo, por ejemplo, comprendido en el dispositivo de presentación. Por lo demás, en caso de avería del robot, los resultados almacenados en el módulo de memoria intermedia se pueden recuperar manualmente si no se han transmitido.
Ventajosamente y según la invención, cada robot de la flota comprende un módulo de detección de obstáculo, estando cada robot de la flota adaptado para ejecutar una tarea de evitar al menos un obstáculo detectado por el módulo de detección de obstáculo.
Según este aspecto de la invención, cada robot volador está adaptado para modificar su desplazamiento en caso de detección de obstáculo.
Preferentemente, si un módulo de detección de obstáculo detecta un obstáculo, cada robot de la flota está adaptado para transmitir la posición de dicho obstáculo a los demás robots de la flota. De este modo, la información relativa a la posición del obstáculo se comparte y los robots de la flota pueden intervenir en consecuencia, modificando su trayectoria, por ejemplo.
Ventajosamente y según la invención, la flota comprende al menos un robot rodante, comprendiendo cada robot rodante:
- un módulo de adquisición de imágenes de al menos una porción de la superficie a inspeccionar, y
- un módulo de procesamiento de las imágenes adquiridas adaptado para proporcionar una información representativa del estado de cada porción de la superficie inspeccionada, llamada resultado del procesamiento.
Según este aspecto de la invención, la flota que comprende al menos un robot volador puede complementarse con un robot rodante que comprende los mismos módulos, para acceder a zonas de difícil acceso para los robots voladores, por ejemplo, bajo el fuselaje de una aeronave.
La invención también se refiere a un procedimiento de uso de un sistema de inspección automática según la invención, caracterizado por que comprende:
- una etapa de determinación por el módulo de gestión de un conjunto de instrucciones atribuidas a cada robot de la flota,
- una etapa de ejecución de tareas por cada robot de la flota, comprendiendo dichas tareas al menos una adquisición por el módulo de adquisición de una imagen de una porción de la superficie a inspeccionar, y comprendiendo al menos un procesamiento por el módulo de procesamiento de dicha imagen para detectar un defecto potencial sobre la superficie a inspeccionar,
- una etapa de transmisión del resultado de dicho procesamiento de cada robot a un dispositivo de presentación, - una etapa de presentación de dicho resultado del procesamiento a un operario humano.
Un procedimiento de uso según la invención permite, por lo tanto, el uso de un sistema de inspección según la invención distribuyendo tareas a cada robot de la flota en función del modelo de la superficie a inspeccionar para optimizar la velocidad de inspección de la superficie. Cada robot tiene, por ejemplo, una parte de la superficie a inspeccionar.
La etapa de presentación del resultado transmitido por uno de los robots de la flota es, por ejemplo, una visualización sobre una pantalla, o la generación de un informe, etc.
Ventajosamente y según la invención, la etapa de transmisión del resultado de dicho procesamiento por cada robot se ejecuta después de cada procesamiento por un módulo de procesamiento.
Según este aspecto de la invención, un resultado se transmite directamente después de cada procesamiento, permitiendo, de este modo, obtener a medida la información sobre la presencia de defectos potenciales, sin esperar al final de la inspección. La transmisión se efectúa lo antes posible, es decir, teniendo en cuenta los diferentes tiempos de procesamiento y la disponibilidad de un canal de transmisión afectado por la transmisión si esta última es compartida entre varios robots voladores.
La invención también se refiere a un procedimiento de inspección automática de una superficie de un objeto de tipo aeronave, vehículo de transporte, edificio o trabajo de ingeniería, siendo dicha superficie susceptible de presentar un defecto, caracterizado por que comprende:
- una etapa de adquisición de imágenes de al menos una porción de la superficie a inspeccionar por cada robot volador de una flota de robots que comprende al menos un robot volador, y
- una etapa de procesamiento de las imágenes adquiridas para proporcionar una información representativa del estado de cada porción de superficie inspeccionada, llamada resultado del procesamiento,
- una etapa de determinación, a partir de un modelo de la superficie a inspeccionar, de un conjunto de instrucciones de desplazamiento y de instrucciones de adquisición de imágenes para cada robot de la flota.
Ventajosamente, el procedimiento de inspección según la invención se implementa mediante el sistema de inspección según la invención.
Ventajosamente, el sistema de inspección según la invención implementa el procedimiento de inspección según la invención.
La invención también se refiere a un sistema de inspección automática, un procedimiento de uso de dicho sistema y un procedimiento de inspección automática caracterizados en combinación por todas o algunas de las características mencionadas anteriormente o a continuación.
5. Lista de las figuras
Otros objetivos, características y ventajas de la invención se pondrán de manifiesto con la lectura de la siguiente descripción dada a título únicamente no limitativo y que hace referencia a las figuras adjuntas en las que:
- la figura 1 es una vista esquemática del sistema de inspección automática según un modo de realización de la invención,
- la figura 2 es una vista esquemática de un robot de una flota de un sistema de inspección automática según un modo de realización de la invención,
- la figura 3 es una vista esquemática del procedimiento de inspección automática según un modo de realización de la invención,
- la figura 4 es una vista esquemática de una flota de robots de un sistema de inspección automática según un modo de realización de la invención en donde el objeto es una aeronave,
6. Descripción detallada de un modo de realización de la invención
La figura 1 representa esquemáticamente un sistema de inspección automática 10 de una superficie de un objeto de tipo aeronave, vehículo de transporte (vehículo ferroviario, vehículo automóvil, etc.), edificio, un trabajo de ingeniería o cualquier otro objeto de grandes dimensiones y cuya superficie a inspeccionar es grande, según un modo de realización de la invención. El sistema de inspección 10 tiene como objetivo detectar defectos potenciales sobre la superficie del objeto. El sistema de inspección 10 comprende una flota 12 que comprende al menos un robot volador, aquí tres robots voladores 14a, 14b, 14c. La flota 12 también puede comprender uno o varios robots de otro tipo, por ejemplo, un robot rodante 16, o cualquier otro robot adaptado al objeto a inspeccionar, por ejemplo, un robot submarino para la inspección de una plataforma petrolera. Los robots voladores 14a, 14b, 14c se llaman comúnmente drones o aeronaves no tripuladas (UAV para Unmanned Aerial Vehicle en inglés) y son del tipo helicóptero, cuadrirrotor o multirrotor capaz de efectuar un vuelo estacionario. Para reducir los riesgos de dañar el objeto en caso de colisión con un robot de la flota 12, estos están equipados con parachoques.
Cada robot 14a, 14b, 14c, 16 de la flota 12 está adaptado para comunicarse, por un lado, con un módulo de gestión 18 y, por otro lado, con un dispositivo de presentación 20. En otro modo de realización no representado, el módulo de gestión 18 está integrado en uno de los robots de la flota 12.
El módulo de gestión 18 y el dispositivo de presentación 20 están conectados, en este modo de realización, a un servidor web 22 accesible a través de una red de telecomunicaciones. Además, el módulo de gestión 18 y el dispositivo de presentación 20 pueden estar integrados en el mismo dispositivo de control, por ejemplo, un ordenador o una tableta.
Un operario humano 24 puede interactuar a través de una o varias interfaces hombre/máquina con el módulo de gestión 18 y el dispositivo de presentación 20. La interfaz contiene una visualización 3D interactiva que incluye un modelo 3D del objeto a inspeccionar, así como la posición en tiempo real de los robots 14a, 14b, 14c, 16 y eventuales defectos potenciales encontrados.
La figura 2 representa esquemáticamente un robot 14 de la flota 12 según un modo de realización de la invención.
El robot 14 comprende un módulo de adquisición de imágenes 26 de la superficie a inspeccionar y un módulo de procesamiento de las imágenes 28 adquiridas. El módulo de adquisición de imágenes 26 comprende al menos un sensor, por ejemplo, una cámara que permite la adquisición de imágenes en el espectro de la luz visible. Para mejorar la calidad de la imagen adquirida, el módulo de adquisición también puede comprender un dispositivo de iluminación en el espectro de la luz visible.
Además, en este modo de realización de la invención, el robot 14 comprende:
- un módulo de emergencia 30, adecuado para detectar averías,
- un módulo de comunicación 32 con el módulo de gestión 18 y el dispositivo de presentación 20,
- un módulo de control del robot 34, adaptado para procesar las instrucciones de pilotaje del robot provenientes del módulo de gestión 18 o de los otros módulos incorporados en el robot 14,
- un módulo de localización 36,
- un módulo de estabilización y de guía del robot 38, que controla, en concreto, los motores del robot 14 en función de controles de desplazamiento transmitidos por el módulo de control 34,
- un módulo de memoria intermedia 40,
- un módulo de detección de obstáculo 42.
Estos módulos están presentes, por ejemplo, en forma de componentes electrónicos, pudiendo varios módulos combinarse en el mismo componente electrónico y pudiendo un módulo estar compuesto por una pluralidad de componentes electrónicos en interacción. Los módulos también pueden implementarse en forma de un programa de informático ejecutados por uno o varios componentes electrónicos, por ejemplo, un procesador de un ordenador, microcontrolador, DSP (Digital Signal Processor en inglés), FPGA (Field Gate Programmable Array en inglés), etc.
La figura 3 representa un procedimiento de inspección automática de la superficie del objeto según un modo de realización de la invención. El procedimiento se implementa por el sistema de inspección automática 10 según el modo de realización descrito anteriormente.
La primera etapa del procedimiento es una etapa de parametrización de la inspección 44 por el operario humano 24 sobre el módulo de gestión, a través de una interfaz hombre/máquina. El operario humano 24 tiene acceso a varios parámetros, por ejemplo:
- el objeto a inspeccionar: el operario humano 24 elige un modelo, por ejemplo, un modelo 3D, de la superficie del objeto a inspeccionar de entre una selección de modelos predefinidos, accesible, por ejemplo, sobre el servidor web 22;
- entorno del objeto: el operario humano 24 puede indicar si el objeto está situado en el exterior, en un hangar, etc. con el fin de determinar si los robots están sujetos a restricciones particulares sobre su desplazamiento alrededor del objeto (por ejemplo, obstáculos);
- determinación de la flota 12: número de robots usados y su tipo (voladores o no, equipados con ciertos tipos de módulos de adquisición o sensores, etc.)
- misión a efectuar: inspección rápida, meticulosa, parcial, etc.
Una vez que los parámetros han sido validados por el operario humano 24, el procedimiento de inspección pasa a una etapa de determinación de un conjunto de instrucciones 46. Esta etapa de determinación 46 es ejecutada por el módulo de gestión 18. Consiste en la determinación, en función de los parámetros elegidos por el operario humano 24 durante la etapa anterior y, en concreto, del modelo de la superficie a inspeccionar, de un conjunto de instrucciones de desplazamiento y de instrucciones de adquisición de imágenes que se atribuyen para cada robot de la flota 12. La inspección se desglosa de este modo en diferentes tareas que se traducen en instrucciones destinadas a los robots de la flota 12, para cubrir toda la superficie a inspeccionar según el modelo de dicha superficie. Las instrucciones de desplazamiento contienen consignas para definir la trayectoria tridimensional, así como la orientación de los robots voladores. Estas instrucciones de desplazamiento son, por ejemplo, un desplazamiento de un robot volador desde un punto A (de coordenadas (Ax, Ay, Az)) a un punto B (de coordenadas (Bx, By, Bz)) con una orientación constante. Las instrucciones de adquisición de imagen de una superficie del objeto en el punto B comprenden, por ejemplo, consignas relacionadas con el pilotaje del módulo de adquisición de imagen, en concreto, su orientación en el espacio, los ajustes de su sistema óptico y de captura, una consigna de activación. Las instrucciones pueden ser posteriormente un procesamiento de dicha imagen adquirida, un desplazamiento hacia un nuevo punto C (de coordenadas (Cx, Cy, Cz)), una nueva adquisición de imagen, etc. De este modo, el módulo de gestión 18 permite generar, a partir de una superficie de referencia, instrucciones para una flota de robots voladores que les permiten realizar una inspección de forma automática.
Las instrucciones asignadas a cada robot de la flota 12 son transmitidas a dichos robots por el módulo de gestión 18 para permitir la ejecución de las tareas vinculadas a estas instrucciones en una etapa de ejecución 48 de las tareas por cada robot de la flota 12. Según los modos de realización, cada robot recibe todas las instrucciones que le han sido atribuidas antes de la etapa de ejecución 48, o bien solo una primera parte de las instrucciones, siendo las siguientes instrucciones enviadas durante la etapa de ejecución 48. En los dos casos, el módulo de gestión 18 puede modificar las tareas en curso de ejecución mediante el envío de nuevas instrucciones en caso de cambio de situación, por ejemplo, atribuir una nueva porción de superficie a un robot si el robot que inicialmente tiene que adquirir una imagen de esta porción de superficie está averiado. Los robots de la flota 12 también pueden transmitir información al módulo de gestión 18 acerca de su estado, el progreso de la ejecución de las tareas y cualquier otra información que pueda dar lugar a un envío de nuevas instrucciones por el módulo de gestión 18.
Las tareas de cada robot de la flota 12 son procesadas por el módulo de control 34 de dicho robot. En concreto, el módulo de control 34 efectúa el almacenamiento de las instrucciones recibidas, su secuencia, los cálculos vinculados a estas instrucciones para determinar las tareas asociadas, el control de los diferentes módulos en función de las tareas, el cálculo del estado del robot, etc. De este modo, el módulo de control 34 ejecuta automáticamente las tareas, incluidas las de desplazamientos y, por lo tanto, permite que el robot se mueva de forma autónoma, sin necesidad de un piloto remoto o estación de control.
Durante la etapa de ejecución 48, cada robot de la flota 12 efectúa al menos una adquisición de una imagen a través de su módulo de adquisición 26 y un procesamiento de la imagen adquirida a través de su módulo de procesamiento 28.
La adquisición de la imagen es efectuada por uno o varios sensores del módulo de adquisición 26, permitiendo la obtención de diferentes tipos de imagen en función del sensor usado. Por ejemplo, los sensores pueden ser sensores infrarrojos, cámaras para el espectro visible, sensores ultravioletas, o cualquier otro sensor que permita formar una imagen de ondas electromagnéticas o acústicas en una banda de frecuencia. El sensor también puede ser un sensor 3D, de tipo sensor de profundidad, sensor de profundidad de tiempo de vuelo (TOF para Time of Flight en inglés) o proyección de patrón infrarrojo, sensor estereoscópico, etc. Finalmente, un sensor puede adquirir imágenes de una misma porción sobre varios espectros de frecuencia (formación de imágenes hiperespectrales).
El procesamiento de la imagen por el módulo de procesamiento 28 consiste en proporcionar un resultado representativo del estado de la superficie inspeccionada. El módulo de procesamiento 28 determina, de este modo, a partir de la imagen adquirida, la presencia de un defecto potencial sobre la superficie, por ejemplo, comparando la imagen adquirida con una imagen más antigua de la misma superficie (recuperada sobre el servidor web o proporcionada por el módulo de gestión), detección de variación brusca de colores, de aspectos (finura, grano, desenfoque, brillo, etc.), etc.
El módulo de procesamiento 28 usa algoritmos predefinidos y preestablecidos. Por ejemplo, según un modo de realización de la invención, el módulo de procesamiento 28 implementa las siguientes etapas para cada imagen:
- una primera etapa de normalización de la imagen que consiste en aplicar un primer conjunto de filtros digitales ajustados en función de los parámetros de la imagen destinados a compensar las variaciones exteriores (iluminación, etc.), a reducir el efecto de las perturbaciones (reflejos, etc.), y a compensar las deformaciones inducidas por el objetivo (geometría e iluminación),
- una segunda etapa de localización de la imagen que, a partir de un posicionamiento del robot (es decir, la posición del robot en el espacio y el ángulo de orientación del robot), de la posición y el ángulo del sensor de adquisición del módulo de adquisición 26, por ejemplo, una cámara, y de la distancia de la cámara a la superficie, determina las coordenadas en una referencia relativa a la superficie del conjunto de puntos de la imagen,
- una tercera etapa de segmentación de la imagen y la extracción de los contornos de todas las formas que pueden ser defectos potenciales, y la generación de una subimagen que contiene el defecto potencial, también llamada viñeta, para cada una de estas formas. Una imagen puede conducir a la generación de ninguna viñeta o de varias viñetas.
El módulo de procesamiento luego calcula, para cada viñeta de la imagen, un conjunto de parámetros siguiendo algoritmos pregrabados luego clasifica y caracteriza las viñetas a partir de este conjunto de parámetros. Se pueden distinguir los algoritmos que no necesitan más datos que la viñeta y cuyos parámetros calculados se denominan descriptores. Para cada parámetro, se efectúan las siguientes etapas:
- aplicación de un filtro digital,
- cálculo del parámetro sobre la viñeta filtrada.
El filtro se elige en función del parámetro deseado. Por ejemplo, el filtro digital es un filtro gaussiano para reducir el ruido, un filtro de tipo gradiente para detectar las variaciones bruscas, un filtro colorimétrico para calcular los descriptores sobre ciertas combinaciones de frecuencias únicamente, y un filtro frecuencial para detectar ciertos patrones, repeticiones o texturas.
Por ejemplo, se usan varias familias de descriptores:
- descriptores geométricos (perímetro, mayor dimensión, menor dimensión, relación anchura/altura, número de rupturas sobre el contorno, curvatura media del contorno, etc.)
- descriptores relacionados directamente sobre los píxeles: momentos estadísticos (promedio, varianza, asimetría, curtosis, etc.) y otros operadores matemáticos (máximo, diferencia de orden, entropía, uniformidad, etc.). El descriptor también se puede aplicar a un subconjunto de píxeles que respeta un criterio particular, por ejemplo, un valor superior o inferior a un umbral predeterminado.
En cuanto al uso de otros datos exteriores para calcular el parámetro, el algoritmo comprende, por ejemplo, las siguientes etapas:
- determinación de una viñeta de referencia extrayendo de una imagen de referencia la misma zona de superficie que la viñeta procesada. La imagen de referencia puede ser una imagen de esta zona tomada en una fecha anterior (disponible, por ejemplo, sobre el servidor web 22) o bien una imagen generada por un ordenador a partir del modelo de la superficie. Según un modo de realización preferente, se pueden usar varias imágenes, luego se calculan los parámetros para cada imagen de referencia,
- cálculo de parámetros que expresan la diferencia entre la viñeta adquirida y cada viñeta de referencia, siendo estos parámetros, por ejemplo, estándares matemáticos sobre la diferencia entre la viñeta y la viñeta de referencia, índices de correlación, una comparación de histogramas, etc. Estos métodos generalmente se implementan localmente, alrededor de puntos de interés de la viñeta.
La última etapa es la clasificación y caracterización de la viñeta a partir del conjunto de parámetros calculados. La clasificación consiste en determinar el tipo de defecto potencial, por ejemplo, de entre las siguientes categorías: "mancha de aceite", "corrosión", "elemento faltante", "impacto de rayo", "rasguño", "sin defecto", "desconocido", etc. La caracterización consiste en determinar una categoría de la viñeta de entre un conjunto predeterminado, por ejemplo: "defecto aceptable, defecto no aceptable", así como el tamaño de dicho defecto potencial.
La clasificación y la caracterización se pueden efectuar mediante un clasificador conocido, tal como un clasificador lineal, el clasificador bayesiano ingenuo, el clasificador SVM, también llamado "Máquina de vectores de soporte", las redes neuronales, etc.
En este modo de realización, el conjunto de las viñetas clasificadas como que constan de un defecto o como siendo desconocidas, acompañadas por su localización, su clasificación y su caracterización, forman resultados del procesamiento.
Según un modo de realización ventajoso, los resultados se pueden transmitir sobre servidor web que tiene la capacidad de aprender, es decir, de mejorar sus algoritmos y ajustes a medida que se obtienen los resultados. Este servidor web es entonces igualmente capaz de enviar nuevos ajustes más precisos al módulo de procesamiento de las imágenes 28 adquiridas, por un lado y, por otro lado, de eliminar la duda sobre los resultados clasificados con un índice de mala confianza o clasificados en una categoría "desconocida".
El resultado de este procesamiento es la detección o no de un defecto potencial, y eventualmente una clasificación del defecto potencial en función de su gravedad. El resultado de cada procesamiento se almacena en el módulo de memoria intermedia 40 del robot 14.
Cada resultado está asociado con una localización proporcionada por el módulo de localización 36. Esta localización se expresa según una referencia relativa a la superficie a inspeccionar con el fin de que un operario humano pueda encontrarla fácilmente. El módulo de localización 36 permite determinar el posicionamiento del robot 14 y deducir de ello la localización de este resultado con respecto a este posicionamiento. El posicionamiento del robot 14 está determinado por uno o varios equipos de localización absoluta, por ejemplo, un GPS (Global Positioning System en inglés), uno o varios equipos de localización inercial, por ejemplo, por un acelerómetro, giroscopio, magnetómetro, etc., y/o uno o varios equipos de localización relativa, por ejemplo, radar, ultrasonido, telémetro láser, infrarrojo, procesamiento de imagen, con respecto a las balizas en tierra, etc., o una combinación de estos equipos. A continuación, se determina la localización del resultado con respecto al posicionamiento del robot, por el módulo de procesamiento de las imágenes, como se ha explicado anteriormente. El posicionamiento del robot y la localización del resultado pueden usar una combinación de diferentes tecnologías, que luego se asocian, por ejemplo, por hibridación a través de un filtro de Kalman, permitiendo una localización más precisa del resultado.
Cada resultado de cada procesamiento y la localización de dicho resultado son transmitidos por el módulo de comunicación 32 al dispositivo de presentación 20 durante una etapa de transmisión 50 del resultado. Según los modos de realización, el resultado se puede transmitir al final de la inspección, o bien, de forma continua en curso de la inspección. Cuando se transmite un resultado, el dispositivo de presentación 50 envía un acuse de recibo (acknowledgment en inglés) al robot 14 el cual elimina el resultado de su módulo de memoria intermedia 40.
A continuación, el resultado se presenta a un operario humano gracias al dispositivo de presentación 20 durante una etapa de presentación 52. La presentación de resultados se puede efectuar en varias formas y por medio de interfaces hombre/máquina de diferentes tipos, por ejemplo, que comprenden una representación 3D del modelo usado para la determinación de las instrucciones, sobre el que se coloca el defecto potencial, una visualización de la imagen de la superficie asociada al resultado sobre una pantalla, la generación de un informe escrito, etc. El informe comprende, por ejemplo, una lista de defectos potenciales detectados, su localización, su clasificación (tipo de defecto), y su caracterización (tamaño y gravedad del defecto). El operario puede entonces reiniciar un procedimiento de inspección automática con nuevos parámetros, por ejemplo, para inspeccionar de forma más precisa o con nuevos sensores las porciones donde se han detectado defectos potenciales. Cada resultado también se puede guardar con el fin de crear un historial de inspecciones sobre un mismo objeto. Este historial se puede transmitir al servidor web para uso futuro, eventualmente en un entorno diferente (por ejemplo, para las aeronaves cuya inspección puede tener lugar en diferentes lugares), o para efectuar un procesamiento adicional.
Ciertas situaciones pueden provocar que cada robot de la flota 12 ejecute tareas diferentes a las previstas inicialmente en las instrucciones que provienen del módulo de gestión.
Por ejemplo, el módulo de detección de obstáculo 42 permite la detección de obstáculo y la transmisión de tareas al módulo de control 34 del robot que ejecuta estas tareas para evitar el obstáculo, y eventualmente señalarlo al operario humano 24 a través del dispositivo de presentación 20, así como al módulo de gestión 18 con el fin de que pueda modificar los desplazamientos de los demás robots de la flota 12 si es necesario y/o enviar nuevas instrucciones al robot que haya detectado el obstáculo. El robot también puede informar directamente a los otros robots.
El módulo de emergencia 30 también permite transmitir tareas de emergencia al módulo de control 34 si una avería alcanza al robot volador. El módulo de emergencia 30 permite la detección de avería. Se determina un conjunto de tareas de emergencia para cada caso de avería previsto y adaptado a la posición del robot con respecto al objeto, ya sea por el módulo de emergencia 30, o bien, por el módulo de gestión 18. Por ejemplo, en el caso de una aeronave de ala fija, un robot volador situado sobre un ala se desviará lateralmente antes de aterrizar verticalmente, mientras que un robot situado debajo de la aeronave aterrizará directamente.
De manera más precisa, el conjunto de tareas de emergencia se actualiza regularmente, por ejemplo, cada segundo, y permite determinar una secuencia de instrucciones implementada por el robot en función de la situación en donde se encuentra.
Las tareas de emergencia correspondientes a una pérdida o error del sistema de localización de un robot situado sobre el ala de una aeronave tienen en cuenta el error de posición y comprenden un espaciamiento lateral con mayores márgenes garantizando la ausencia de contacto entre el robot y el ala. De este modo, el módulo de emergencia está configurado para detectar una amplia variedad de averías y ejecutar la respuesta más adecuada para cada una.
Las averías que se pueden detectar el módulo de emergencia 30 son, por ejemplo, una pérdida del enlace de datos, una pérdida o un error del posicionamiento del robot, una pérdida de potencia o batería demasiado débil, etc.
La figura 4 representa esquemáticamente una flota de robots de un sistema de inspección automática según un modo de realización de la invención que implementa un procedimiento de inspección automático según un modo de realización de la invención, en donde el objeto es una aeronave 54. Tres robots voladores 14a, 14b, 14c se representan.
La etapa de determinación de un conjunto de instrucciones permite, por ejemplo, atribuir a cada robot de la flota, a través de instrucciones de desplazamiento y de adquisición de imágenes, tareas relativas a una parte de la superficie a inspeccionar. Por ejemplo, en el modo de realización representado, un primer robot volador 14a inspecciona la superficie del frente 58 del fuselaje de la aeronave 54, un segundo robot volador 14b inspecciona la superficie del empenaje 56 de la aeronave 54 y un tercer robot volador 14c inspecciona la superficie de una parte 57 de un ala de la aeronave 54.
Los robots voladores 14a, 14b, 14c se comunican gracias al módulo de comunicación 32a, 32b, 32c a través de una transmisión inalámbrica con un dispositivo de control 60, que comprende el módulo de gestión y el dispositivo de presentación, con el que interactúa un operario humano con el fin de seguir el progreso de la inspección y eventualmente ver defectos potenciales detectados por los robots voladores 14a, 14b, 14c. La transmisión inalámbrica se efectúa a través de uno o varios protocolos de comunicación conocidos, por ejemplo, Zigbee (IEEE 802.15.4) para las transmisiones de control, Wi-Fi (IEEE 802.11) para las transmisiones de datos y eventualmente un protocolo de radio diferente (por ejemplo, de tipo DSM2/DSMX en la banda de 2,4 GHz) para las transmisiones de emergencia.

Claims (10)

REIVINDICACIONES
1. Sistema de inspección automática de una superficie de un objeto de tipo aeronave (54), vehículo de transporte, edificio o trabajo de ingeniería, siendo dicha superficie susceptible de presentar un defecto, que comprende una flota (12) que comprende al menos un robot volador (14, 14a, 14b, 14c), comprendiendo cada robot volador:
- un módulo de adquisición de imágenes (26) de al menos una porción de la superficie a inspeccionar, y - un módulo de procesamiento de las imágenes (28) adquiridas adaptado para proporcionar una información representativa del estado de cada porción de superficie inspeccionada, llamada resultado del procesamiento,
caracterizado por que
comprendiendo además el sistema de inspección automática un módulo de gestión (18) de la flota de robots (12), estando el módulo de gestión (18) adaptado para determinar, a partir de un modelo de la superficie a inspeccionar, un conjunto de instrucciones de desplazamiento y de instrucciones de adquisición de imágenes para cada robot (14, 14a, 14b, 14c, 16) de la flota (12).
2. Sistema de inspección automática según la reivindicación 1, caracterizado por que el módulo de adquisición de imágenes (26) de al menos un robot de dicha flota comprende al menos una cámara adaptada para adquirir imágenes en el espectro de la luz visible.
3. Sistema de inspección automática según una de las reivindicaciones 1 o 2, caracterizado por que comprende un dispositivo de presentación (20) de los resultados de cada procesamiento efectuado por cada módulo de procesamiento (28) de cada robot (14, 14a, 14b, 14c, 16) de la flota (12), y por que cada robot (14, 14a, 14b, 14c, 16) de la flota (12) comprende un módulo de comunicación (32) adaptado para transmitir resultados de cada procesamiento al dispositivo de presentación (20).
4. Sistema de inspección automática según las reivindicaciones 2 y 3 tomadas en conjunto, caracterizado por que el módulo de gestión (18) y el dispositivo de presentación (20) están dispuestos en un dispositivo de control (60).
5. Sistema de inspección automática según la reivindicación 4, caracterizado por que el dispositivo de control (60) comprende una interfaz hombre/máquina adaptada para mostrar un modelo 3D de la superficie a inspeccionar y para mostrar una representación de una posición en tiempo real de cada robot de la flota con respecto a la superficie a inspeccionar.
6. Sistema de inspección automática según una de las reivindicaciones 1 a 5, caracterizado por que cada robot de la flota comprende un módulo de localización adaptado para asociar a cada resultado del procesamiento una localización de este resultado del procesamiento con respecto a un marco de referencia relativo a la superficie a inspeccionar.
7. Sistema de inspección automática según una de las reivindicaciones 1 a 6, caracterizado por que cada robot (14, 14a, 14b, 14c, 16) de la flota (12) comprende un módulo de emergencia (30) adaptado para detectar una avería del robot y, a partir de un conjunto de tareas de emergencia determinadas en función de una posición del robot de la flota (12) con respecto al objeto, dicho robot de la flota (12) es capaz de ejecutar al menos una tarea de emergencia en caso de avería.
8. Sistema de inspección automática según una de las reivindicaciones 1 a 7, caracterizado por que cada robot (14, 14a, 14b, 14c, 16) de la flota (12) comprende un módulo de detección de obstáculo, estando cada robot (14, 14a, 14b, 14c, 16) de la flota (12) adaptado para ejecutar una tarea de evitar al menos un obstáculo detectado por el módulo de detección de obstáculo.
9. Sistema de inspección automática según una de las reivindicaciones 1 a 8, caracterizado por que la flota (12) comprende al menos un robot rodante (16), comprendiendo cada robot rodante (16):
- un módulo de adquisición de imágenes (26) de al menos una porción de la superficie a inspeccionar, y - un módulo de procesamiento de las imágenes (28) adquiridas adaptado para proporcionar una información representativa del estado de cada porción de la superficie inspeccionada, llamada resultado del procesamiento.
10. Procedimiento de inspección automática de una superficie de un objeto de tipo aeronave (54), vehículo de transporte, edificio o trabajo de ingeniería, siendo dicha superficie susceptible de presentar un defecto, que comprende:
- una etapa de adquisición de imágenes de al menos una porción de la superficie a inspeccionar por cada robot volador (14, 14a, 14b, 14c) de una flota (12) de robots que comprende al menos un robot volador, y
- una etapa de procesamiento de las imágenes adquiridas para proporcionar una información representativa del estado de cada porción de superficie inspeccionada, llamada resultado del procesamiento,
- caracterizado por que comprende una etapa de determinación, a partir de un modelo de la superficie a inspeccionar, de un conjunto de instrucciones de desplazamiento y de instrucciones de adquisición de imágenes para cada robot (14, 14a, 14b, 14c, 16) de la flota (12).
ES16741082T 2015-06-15 2016-06-15 Sistema y procedimiento de inspección automática de superficie Active ES2910700T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1555452A FR3037429B1 (fr) 2015-06-15 2015-06-15 Systeme et procede d'inspection automatique de surface
PCT/FR2016/051448 WO2016203151A1 (fr) 2015-06-15 2016-06-15 Système et procédé d'inspection automatique de surface

Publications (1)

Publication Number Publication Date
ES2910700T3 true ES2910700T3 (es) 2022-05-13

Family

ID=54608624

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16741082T Active ES2910700T3 (es) 2015-06-15 2016-06-15 Sistema y procedimiento de inspección automática de superficie

Country Status (15)

Country Link
US (1) US10377485B2 (es)
EP (1) EP3308232B1 (es)
JP (1) JP2018521406A (es)
KR (1) KR102675315B1 (es)
CN (1) CN107709158A (es)
BR (1) BR112017026528A2 (es)
CA (1) CA2989154C (es)
ES (1) ES2910700T3 (es)
FR (1) FR3037429B1 (es)
IL (1) IL255814B (es)
MA (1) MA42512A (es)
PL (1) PL3308232T3 (es)
PT (1) PT3308232T (es)
SG (1) SG11201709768YA (es)
WO (1) WO2016203151A1 (es)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10521960B2 (en) 2017-05-03 2019-12-31 General Electric Company System and method for generating three-dimensional robotic inspection plan
EP3922565B1 (en) 2015-08-17 2024-03-13 H3 Dynamics Holdings Pte. Ltd. Drone box
EP3173979A1 (en) 2015-11-30 2017-05-31 Delphi Technologies, Inc. Method for identification of characteristic points of a calibration pattern within a set of candidate points in an image of the calibration pattern
EP3174007A1 (en) 2015-11-30 2017-05-31 Delphi Technologies, Inc. Method for calibrating the orientation of a camera mounted to a vehicle
US10170011B2 (en) * 2016-07-26 2019-01-01 International Business Machines Corporation Guide drones for airplanes on the ground
US10820574B2 (en) 2016-07-29 2020-11-03 International Business Machines Corporation Specialized contextual drones for virtual fences
US9987971B2 (en) 2016-07-29 2018-06-05 International Business Machines Corporation Drone-enhanced vehicle external lights
US10664791B2 (en) 2016-09-28 2020-05-26 Federal Express Corporation Systems and methods for monitoring the internal storage contents of a shipment storage using one or more internal monitor drones
US20180114302A1 (en) * 2016-10-23 2018-04-26 The Boeing Company Lightning strike inconsistency aircraft dispatch mobile disposition tool
US11145043B2 (en) * 2016-10-24 2021-10-12 Ford Motor Company Using unmanned aerial vehicles to inspect autonomous vehicles
US10825097B1 (en) 2016-12-23 2020-11-03 State Farm Mutual Automobile Insurance Company Systems and methods for utilizing machine-assisted vehicle inspection to identify insurance buildup or fraud
US10235892B1 (en) * 2017-05-05 2019-03-19 Architecture Technology Corporation Aircraft surface state event track system and method
US10682677B2 (en) * 2017-05-10 2020-06-16 General Electric Company System and method providing situational awareness for autonomous asset inspection robot monitor
AT16628U1 (de) 2017-05-23 2020-03-15 Ars Electronica Linz Gmbh & Co Kg System zum Steuern von unbemannten Luftfahrzeugen in einem Schwarm, um ein bewegtes Objekt mit mehreren Kameras zu filmen
FR3067634B1 (fr) * 2017-06-15 2020-10-23 Donecle Plateforme de commande et de suivi des inspections de surfaces d'objets predetermines par des robots d'inspection et systeme d'inspection mettant en oeuvre une telle plateforme
GB2565757A (en) * 2017-07-13 2019-02-27 Sita Information Networking Computing Uk Ltd Database of Drone flight plans for aircraft inspection using relative mapping
US20190047577A1 (en) * 2017-08-09 2019-02-14 Walmart Apollo, Llc System and method for automated vehicle breakdown recovery
JP6918672B2 (ja) * 2017-10-11 2021-08-11 株式会社日立システムズ 劣化診断システム
CN108408082A (zh) * 2018-02-11 2018-08-17 西安航空学院 一种用于大飞机垂尾裂纹探测的无人机及其操作方法
CN110197348B (zh) * 2018-02-24 2021-11-19 北京图森智途科技有限公司 自动驾驶车辆控制方法和自动驾驶控制装置
EP3534334B1 (en) 2018-02-28 2022-04-13 Aptiv Technologies Limited Method for identification of characteristic points of a calibration pattern within a set of candidate points derived from an image of the calibration pattern
EP3534333A1 (en) * 2018-02-28 2019-09-04 Aptiv Technologies Limited Method for calibrating the position and orientation of a camera relative to a calibration pattern
US11114898B2 (en) * 2018-03-12 2021-09-07 Lg Electronics Inc. Device and method for supporting improved communication speed in wireless power transmission system
CN108508916B (zh) * 2018-04-02 2021-05-07 南方科技大学 一种无人机编队的控制方法、装置、设备及存储介质
US11429101B2 (en) * 2018-04-19 2022-08-30 Aurora Flight Sciences Corporation Adaptive autonomy system architecture
US10533840B2 (en) * 2018-04-24 2020-01-14 Gulfstream Aerospace Corporation Method for characterizing shape changes of an aircraft due to flight loads
CN108985163A (zh) * 2018-06-11 2018-12-11 视海博(中山)科技股份有限公司 基于无人机的受限空间安全探测方法
CN108872130B (zh) * 2018-06-25 2019-08-23 北京空间飞行器总体设计部 基于神经网络的常用飞行器表面材质识别方法
JP7170234B2 (ja) * 2018-06-28 2022-11-14 パナソニックIpマネジメント株式会社 検査装置及び検査方法
SG11202012189SA (en) * 2018-07-04 2021-01-28 H3 Dynamics Pte Ltd Defect detection system using a camera equipped uav for building facades on complex asset geometry with optimal automatic obstacle deconflicted flightpath
FR3084485B1 (fr) 2018-07-26 2022-08-05 Donecle Engin volant motorise de mesure du relief de surfaces d'un objet predetermine et procede de commande d'un tel engin
CN109352621A (zh) * 2018-10-19 2019-02-19 飞码机器人私人有限公司 一种建筑质量检测机器人系统及其方法
CN109506964B (zh) * 2019-01-03 2024-05-31 北京航天神舟智能装备科技股份有限公司 一种用于动车组一级修智能库检的方法
US11587299B2 (en) 2019-05-07 2023-02-21 The Joan And Irwin Jacobs Systems and methods for detection of anomalies in civil infrastructure using context aware semantic computer vision techniques
EP3977052A4 (en) 2019-05-29 2023-04-26 Rizse, Inc. UAV-BASED AVIATION INSPECTION SYSTEMS AND ASSOCIATED METHODS
JP6788291B1 (ja) * 2019-06-03 2020-11-25 株式会社イクシス 点検支援システム
CN110356586A (zh) * 2019-08-28 2019-10-22 象限空间(天津)科技有限公司 一种大型飞机的无人机自动巡检系统
DE102019214139B4 (de) * 2019-09-17 2021-07-29 Atlas Elektronik Gmbh Optische Minendetektion in geringer Wassertiefe
KR102154249B1 (ko) * 2019-12-26 2020-09-09 엘아이지넥스원 주식회사 이동형 레이더 운용을 위한 제어 타이밍 설계 방법 및 그를 위한 장치
JP7413618B2 (ja) * 2020-01-14 2024-01-17 オングリットホールディングス株式会社 ロボット装置とその制御方法、並びにロボットシステム
CN111429565B (zh) * 2020-03-18 2021-04-06 中国民航科学技术研究院 一种民航客机机身表面三维数据采集管理系统及方法
US11423611B2 (en) 2020-05-27 2022-08-23 The Joan and Irwin Jacobs Technion-Cornell Institute Techniques for creating, organizing, integrating, and using georeferenced data structures for civil infrastructure asset management
US20220092766A1 (en) * 2020-09-18 2022-03-24 Spirit Aerosystems, Inc. Feature inspection system
US11631184B2 (en) 2020-09-18 2023-04-18 Spirit Aerosystems, Inc. Feature inspection system
DE102020127797B4 (de) * 2020-10-22 2024-03-14 Markus Garcia Sensorverfahren zum optischen Erfassen von Nutzungsobjekten zur Detektion eines Sicherheitsabstandes zwischen Objekten
US11544919B2 (en) 2020-12-09 2023-01-03 Precisionhawk, Inc. Drone inspection of an undifferentiated surface using a reference image
CN112268548B (zh) * 2020-12-14 2021-03-09 成都飞机工业(集团)有限责任公司 一种基于双目视觉的飞机局部外形测量方法
CN112505065B (zh) * 2020-12-28 2022-11-04 上海工程技术大学 一种实现室内无人机对大部件表面缺陷进行检测的方法
CN112884733A (zh) * 2021-02-09 2021-06-01 北京首都机场节能技术服务有限公司 一种用于对飞行器的表面进行缺陷识别的方法和系统
US11823578B2 (en) * 2021-02-16 2023-11-21 Easy Aerial Inc. Unmanned aerial vehicle (UAV) systems and methods for maintaining railway situational awareness
WO2023034585A1 (en) * 2021-09-03 2023-03-09 Spirit Aerosystems, Inc. Feature inspection system
US20230186563A1 (en) * 2021-12-10 2023-06-15 The Boeing Company Three-dimensional inspection twin for remote visual inspection of a vehicle

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03255302A (ja) * 1990-03-05 1991-11-14 Mitsubishi Electric Corp パターン検出装置
US6907799B2 (en) * 2001-11-13 2005-06-21 Bae Systems Advanced Technologies, Inc. Apparatus and method for non-destructive inspection of large structures
JP4475632B2 (ja) * 2004-03-19 2010-06-09 中国電力株式会社 無人飛行体を用いた送電線点検システム
JP2006027448A (ja) * 2004-07-16 2006-02-02 Chugoku Electric Power Co Inc:The 無人飛行体を利用した空撮方法及びその装置
CN1305194C (zh) * 2004-12-17 2007-03-14 华北电力大学(北京) 电力线路巡检机器人飞机及其控制系统
US8060270B2 (en) * 2008-02-29 2011-11-15 The Boeing Company System and method for inspection of structures and objects by swarm of remote unmanned vehicles
EP2583262A1 (en) * 2008-10-27 2013-04-24 Scot I. Williams Wind turbine inspection
US8812154B2 (en) * 2009-03-16 2014-08-19 The Boeing Company Autonomous inspection and maintenance
CN101561683B (zh) * 2009-04-01 2010-08-11 东南大学 环境污染检测机器人的运动控制装置
US8982207B2 (en) 2010-10-04 2015-03-17 The Boeing Company Automated visual inspection system
TW201215442A (en) * 2010-10-06 2012-04-16 Hon Hai Prec Ind Co Ltd Unmanned Aerial Vehicle control system and method
US9014880B2 (en) 2010-12-21 2015-04-21 General Electric Company Trajectory based sense and avoid
DE102011017564B4 (de) * 2011-04-26 2017-02-16 Airbus Defence and Space GmbH Verfahren und System zum Prüfen einer Oberfläche auf Materialfehler
DK2527649T3 (da) * 2011-05-25 2014-01-13 Siemens Ag Fremgangsmåde til inspektion af komponenter af en vindmølle
CN102355569A (zh) * 2011-05-30 2012-02-15 南京航空航天大学 基于无线机器视觉的飞机蒙皮结构监测方法
CN102280826B (zh) * 2011-07-30 2013-11-20 山东鲁能智能技术有限公司 变电站智能机器人巡检系统及巡检方法
CN102354174B (zh) * 2011-07-30 2012-12-26 山东电力研究院 基于变电站移动式巡检装置的巡检系统及其巡检方法
CN102510011B (zh) * 2011-10-24 2014-10-29 华北电力大学 基于微型多旋翼无人直升机的电力杆塔智能巡检方法
ES2895454T3 (es) 2011-11-09 2022-02-21 Abyssal S A Sistema y método de operación para vehículos operados de manera remota con imágenes en 3D superpuestas
US8833169B2 (en) * 2011-12-09 2014-09-16 General Electric Company System and method for inspection of a part with dual multi-axis robotic devices
CN102566576B (zh) * 2012-02-24 2014-03-19 山东鲁能智能技术有限公司 一种用于变电站顺控系统的多巡检机器人协同运作方法
US8855442B2 (en) * 2012-04-30 2014-10-07 Yuri Owechko Image registration of multimodal data using 3D-GeoArcs
US9651950B2 (en) * 2012-07-18 2017-05-16 The Boeing Company Mission re-planning for coordinated multivehicle task allocation
CN102941920A (zh) * 2012-12-05 2013-02-27 南京理工大学 一种基于多旋翼飞行器的高压输电线路巡检机器人及其方法
US9470658B2 (en) * 2013-03-12 2016-10-18 The Boeing Company Self-contained holonomic tracking method and apparatus for non-destructive inspection
US20140336928A1 (en) * 2013-05-10 2014-11-13 Michael L. Scott System and Method of Automated Civil Infrastructure Metrology for Inspection, Analysis, and Information Modeling
FR3012425B1 (fr) * 2013-10-24 2017-03-24 European Aeronautic Defence & Space Co Eads France Robot collaboratif d'inspection visuelle d'un aeronef
CN103941746B (zh) * 2014-03-29 2016-06-01 国家电网公司 无人机巡检图像处理系统及方法
CN104199455A (zh) * 2014-08-27 2014-12-10 中国科学院自动化研究所 基于多旋翼飞行器的隧道巡检系统
US9371133B2 (en) 2014-11-07 2016-06-21 Paccar Inc Drone systems for pre-trip inspection and assisted backing
CN112837266A (zh) * 2014-11-24 2021-05-25 基托夫系统有限公司 自动检查
CN104538899A (zh) * 2015-01-19 2015-04-22 中兴长天信息技术(北京)有限公司 基于无线传输的电力线巡检用无人机平台
ITUA20161534A1 (it) * 2016-03-10 2017-09-10 Wpweb Srl Procedimento per analizzare un velivolo, relativo sistema di analisi di un velivolo e sistema di sghiacciamento e/o antigelo

Also Published As

Publication number Publication date
KR102675315B1 (ko) 2024-06-13
CA2989154C (fr) 2023-10-24
EP3308232B1 (fr) 2022-01-05
FR3037429A1 (fr) 2016-12-16
CN107709158A (zh) 2018-02-16
IL255814A (en) 2018-01-31
BR112017026528A2 (pt) 2018-08-14
WO2016203151A1 (fr) 2016-12-22
IL255814B (en) 2022-01-01
JP2018521406A (ja) 2018-08-02
KR20180029973A (ko) 2018-03-21
PT3308232T (pt) 2022-04-08
PL3308232T3 (pl) 2022-06-06
MA42512A (fr) 2018-06-06
US20180170540A1 (en) 2018-06-21
FR3037429B1 (fr) 2018-09-07
US10377485B2 (en) 2019-08-13
CA2989154A1 (fr) 2016-12-22
SG11201709768YA (en) 2017-12-28
EP3308232A1 (fr) 2018-04-18

Similar Documents

Publication Publication Date Title
ES2910700T3 (es) Sistema y procedimiento de inspección automática de superficie
US20200344464A1 (en) Systems and Methods for Improving Performance of a Robotic Vehicle by Managing On-board Camera Defects
US11218689B2 (en) Methods and systems for selective sensor fusion
EP3901728B1 (en) Methods and system for autonomous landing
US10599149B2 (en) Salient feature based vehicle positioning
US10060746B2 (en) Methods and systems for determining a state of an unmanned aerial vehicle
EP3600965B1 (en) Systems and methods for calibrating vehicular sensors
CN107850902B (zh) 可移动物体上的相机配置
US20190068829A1 (en) Systems and Methods for Improving Performance of a Robotic Vehicle by Managing On-board Camera Obstructions
CN109562844B (zh) 自动着陆表面地形评估以及相关的系统和方法
WO2018208995A1 (en) Self-localized mobile sensor network for autonomous robotic inspection
EP3426558B1 (en) Method for analysing an aircraft, corresponding system of analysis of an aircraft, and de-icing and/or anti- icing system
Gohl et al. Towards autonomous mine inspection
CN110226143A (zh) 前导无人机的方法
KR20200003911A (ko) 항공기에 대한 외부 오브젝트를 감지하고 회피하기 위한 시스템 및 방법
US11440657B2 (en) Aerial vehicles with machine vision
US20210208606A1 (en) Information processing system, information processing method, and program
US20210088652A1 (en) Vehicular monitoring systems and methods for sensing external objects
Sherman et al. Cooperative search and rescue using autonomous unmanned aerial vehicles
CN115602003A (zh) 无人驾驶航空器飞行避障方法、系统和可读存储介质
US20240192705A1 (en) Automated Unmanned Aerial Vehicle Dock Verification And Landing
US20220309786A1 (en) Method for training a supervised artificial intelligence intended to identify a predetermined object in the environment of an aircraft
Liu et al. A Monument Digital Reconstruction Experiment Based on the Human UAV Cooperation
Lugo Autonomous landing of a quadrotor UAV using vision and infrared markers for pose estimation