ES2923873T3 - Procedimiento para analizar una aeronave, sistema de análisis correspondiente de una aeronave, y sistema de descongelación y/o de anticongelación - Google Patents

Procedimiento para analizar una aeronave, sistema de análisis correspondiente de una aeronave, y sistema de descongelación y/o de anticongelación Download PDF

Info

Publication number
ES2923873T3
ES2923873T3 ES17719324T ES17719324T ES2923873T3 ES 2923873 T3 ES2923873 T3 ES 2923873T3 ES 17719324 T ES17719324 T ES 17719324T ES 17719324 T ES17719324 T ES 17719324T ES 2923873 T3 ES2923873 T3 ES 2923873T3
Authority
ES
Spain
Prior art keywords
aircraft
drone
inspection
sensor
scan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17719324T
Other languages
English (en)
Inventor
Alessandro Falcone
Davide Miccone
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wpweb Srl
Original Assignee
Wpweb Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wpweb Srl filed Critical Wpweb Srl
Application granted granted Critical
Publication of ES2923873T3 publication Critical patent/ES2923873T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F5/00Designing, manufacturing, assembling, cleaning, maintaining or repairing aircraft, not otherwise provided for; Handling, transporting, testing or inspecting aircraft components, not otherwise provided for
    • B64F5/20Ground installations for de-icing aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F5/00Designing, manufacturing, assembling, cleaning, maintaining or repairing aircraft, not otherwise provided for; Handling, transporting, testing or inspecting aircraft components, not otherwise provided for
    • B64F5/60Testing or inspecting aircraft components or systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/25UAVs specially adapted for particular uses or applications for manufacturing or servicing
    • B64U2101/26UAVs specially adapted for particular uses or applications for manufacturing or servicing for manufacturing, inspections or repairs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Transportation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Investigating Or Analyzing Materials Using Thermal Means (AREA)

Abstract

En este documento se describe un método para analizar una aeronave (5) que se encuentra en un área de inspección mediante al menos un dron (1) que comprende al menos un sensor diseñado para analizar la superficie de la aeronave (5). El método comprende los pasos de: - llevar al menos un dron (1) al área objetivo; - realizar un primer escaneo de al menos una parte de la aeronave (5); - procesar el primer escaneo para determinar automáticamente una ruta de inspección (12) para el al menos un dron (1); y - realizar a través del al menos un dron (1) un segundo escaneo siguiendo la ruta de inspección (12) y simultáneamente analizando la superficie de la aeronave (5) a través del al menos un sensor (18). (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Procedimiento para analizar una aeronave, sistema de análisis correspondiente de una aeronave, y sistema de descongelación y/o de anticongelación
Campo técnico
La presente exposición se refiere a soluciones para el análisis de una aeronave, por ejemplo, para detectar hielo en un avión, y a un sistema de descongelación y/o anticongelación correspondiente.
Descripción de la técnica anterior
En la técnica, se conocen sistemas de descongelación para aeronaves, tales como aviones. En particular, la descongelación es un procedimiento en el que se elimina el hielo, la nieve, la escarcha o el granizo de la aeronave, por ejemplo, de las alas, las superficies de cola, antenas, hélices, tomas de presión y fuselaje. El procedimiento de descongelación puede ir seguido por una etapa de anticongelación, destinada a evitar la formación de hielo. En general, los dos procedimientos pueden llevarse a cabo incluso de manera simultánea.
En general, el procedimiento de descongelación puede llevarse a cabo utilizando procedimientos mecánicos, con aplicación de calor (véase, por ejemplo, el documento n.° US 6.092.765) y/o con fluidos proporcionados expresamente que bajan el punto de congelación del agua (véase, por ejemplo, el documento n.° WO 2011/034992).
Habitualmente, el procedimiento de descongelación es largo y la aeronave debe retrasar el despegue hasta que un operario confirme que se eliminó el hielo, la nieve o la escarcha. Frecuentemente, también debe utilizarse una cantidad considerable de líquidos de descongelación, por ejemplo, etilenglicol, lo que provoca que el procedimiento de descongelación resulte costoso y perjudicial para el medioambiente.
Por este motivo, se han propuesto soluciones que prevén la utilización de sensores de tal manera que se controle la cantidad de líquido rociado sobre la aeronave directamente en función de la cantidad de hielo que está presente en la aeronave. Por tanto, estos sensores permiten la reducción de la cantidad de líquido descongelante utilizado, lo que reduce el tiempo y el coste del procedimiento de descongelación.
Por ejemplo, el documento n.° WO 2011/034992 describe una solución en la que se utiliza un sistema que comprende una o más boquillas que rocían un líquido sobre la aeronave. En particular, estas boquillas están montadas en una grúa y pueden desplazarse verticalmente. También montadas en la grúa se encuentran cámaras de video que pueden utilizarse para detectar los bordes de la aeronave utilizando un algoritmo de detección de bordes, y sensores que permiten la detección de la presencia y posiblemente el grosor de una capa de hielo en una zona determinada de la aeronave.
Por consiguiente, aunque la aeronave pasa por debajo de la estructura, las cámaras pueden detectar la presencia de la aeronave y activar la pulverización del líquido descongelante en función del hielo detectado en la zona de la aeronave que se ubica debajo de la cámara. Por consiguiente, mediante la utilización de una pluralidad de estas boquillas/cámaras puede monitorizarse y tratarse la totalidad de la superficie de la aeronave.
Los inventores han observado que la solución descrita en el documento n.° WO 2011/034992 presenta numerosos inconvenientes.
Un primer problema está relacionado con la presencia de una estructura de soporte, es decir, la grúa, que en muchos aeropuertos no resulta fácil de instalar.
Además, la aeronave debe pasar por debajo de la estructura anterior durante el tratamiento, y la eficacia del tratamiento también depende de la velocidad de avance de la aeronave, que debe adaptarse en función de la cantidad de hielo que va a eliminarse.
Un problema adicional está relacionado con el hecho de que el sistema solo detecta la presencia/ausencia de la aeronave y no tiene en cuenta el tipo de zona que va a tratarse, por ejemplo, las superficies de las alas y de la cola. Por consiguiente, para ahorrar líquido, el operario debe desactivar manualmente determinadas boquillas cuando una parte de la aeronave que no requiere ningún tratamiento pasa por debajo de las cámaras.
La presente invención se refiere, por tanto, a un procedimiento de análisis de una aeronave por medio de por lo menos un dron según el preámbulo de la reivindicación 1, que se conoce, por ejemplo, a partir del documento WO 2015/059241 A1.
Objeto y sumario de la presente exposición
El objeto de la presente descripción es proporcionar soluciones que permitan mejorar el análisis de la aeronave. Según la invención, el objeto anterior se logra mediante un procedimiento para analizar una aeronave que presenta las características que constituyen el contenido de la reivindicación 1. Las reivindicaciones también se refieren a un sistema de análisis correspondiente de una aeronave según la reivindicación 13 y a un sistema de descongelación y/o anticongelación según la reivindicación 15.
Las reivindicaciones forman parte integrante de las enseñanzas proporcionadas en la presente memoria en relación con la invención.
Según la invención, la aeronave se analiza por medio de por lo menos un dron que comprende por lo menos un sensor destinado a analizar la superficie de la aeronave. Por ejemplo, estos sensores pueden comprender un sensor diseñado para detectar la presencia de hielo en la superficie de la aeronave, una cámara de video, etc. Inicialmente, se lleva por lo menos un dron a la zona en la que se ubica la aeronave, tal como una zona de inspección determinada o un hangar. Por ejemplo, el dron o los drones pueden llevarse a la zona de inspección utilizando un carrito o plataforma rodante, o pueden volar de manera autónoma a la zona de inspección.
Según la invención, se realiza una primera exploración de por lo menos una parte de la aeronave. Por ejemplo, esta primera exploración puede realizarse a través de uno o más drones y/o una cámara instalada en un lugar conocido, por ejemplo, una cámara instalada en un hangar o a bordo de un vehículo terrestre, por ejemplo, la plataforma rodante que transporta el dron o los drones. Por consiguiente, durante esta primera exploración puede adquirirse una imagen de por lo menos una parte de la aeronave.
Según la invención, la primera exploración se procesa luego para determinar automáticamente una trayectoria de inspección para el dron o los drones. Por ejemplo, en diversas formas de realización, la posición y orientación de la aeronave se detectan gracias a la primera exploración, y la trayectoria de inspección se determina basándose en estos datos. Para determinar la trayectoria de inspección, el sistema determina el tipo de aeronave. Por ejemplo, el tipo de aeronave puede suministrarse como entrada al sistema, o el tipo de aeronave puede detectarse automáticamente comparando los datos de la primera exploración con los datos de referencia almacenados en una base de datos. Luego, una vez se conoce el tipo de aeronave, el sistema accede a una base de datos para obtener datos característicos del tipo respectivo de aeronave y determinar la trayectoria de inspección gracias a estos datos. En general, los datos característicos pueden incluir directamente la trayectoria de inspección o datos que identifiquen una pluralidad de zonas de la aeronave.
En diversas formas de realización, la trayectoria de inspección no solo comprende datos que identifican la posición requerida para cada dron, sino también datos que identifican la orientación de los sensores.
Según la invención, el sistema realiza entonces, a través del dron o drones, una segunda exploración, según la trayectoria de inspección y analizando simultáneamente la superficie de la aeronave a través del sensor o sensores del dron. Por ejemplo, durante la segunda exploración puede adquirirse u obtenerse, por ejemplo a través de la base de datos, un modelo tridimensional de la aeronave, y los datos adquiridos pueden proyectarse sobre este modelo tridimensional.
En diversas formas de realización, los datos adquiridos pueden visualizarse a través de un dispositivo de visualización, por ejemplo, un dispositivo de visualización de realidad virtual o de realidad aumentada. Alternativa o adicionalmente, los datos pueden utilizarse para conducir un robot cisterna de tal manera que rocíe de manera automática un líquido descongelante y/o anticongelante en las zonas de la superficie de la aeronave que están cubiertas de hielo.
Breve descripción de los dibujos
Ahora se describirán unas formas de realización de la presente descripción en detalle con referencia a los dibujos adjuntos, que se proporcionan únicamente a modo de ejemplo no limitativo y en los que:
- la figura 1 muestra una forma de realización de un sistema de análisis de una aeronave según la presente exposición;
- la figura 2 muestra un diagrama de bloques de una forma de realización de un dron que puede utilizarse en el sistema de la figura 1;
- las figuras 3a y 3b muestran dos posibles formas de realización para el análisis de una aeronave utilizando una pluralidad de drones;
- la figura 4 ilustra un diagrama de flujo de un procedimiento para el análisis de una aeronave que puede implementarse con los sistemas de las figuras 1, 3a y 3b;
- la figura 5 ilustra una posible trayectoria de inspección que puede seguir un dron para el análisis de una aeronave;
- la figura 6 ilustra un posible esquema de referencia para un dron;
- las figuras 7 y 8 muestran dos posibles formas de realización de elementos de visualización diseñados para mostrar el estado de la aeronave a un operario;
- la figura 9 muestra una posible forma de realización de un sistema de descongelación automático que utiliza un robot cisterna controlado a distancia; y
- la figura 10 muestra un diagrama de bloques de una forma de realización del robot cisterna utilizado en el sistema de la figura 8.
Descripción detallada de unas formas de realización
En la siguiente descripción se ilustran diversos detalles específicos destinados a proporcionar una comprensión exhaustiva de las formas de realización. Las formas de realización pueden obtenerse sin uno o más de los detalles específicos, o con otros procedimientos, componentes, materiales, etc. En otros casos, las estructuras, los materiales o las operaciones conocidos no se ilustran ni se describen en detalle para que no se enmascaren los diversos aspectos de las formas de realización.
La referencia a “una forma de realización” en el marco de la presente descripción está destinada a indicar que una configuración, estructura o característica particular descrita en relación con la forma de realización está incluida en por lo menos una forma de realización. Por tanto, frases tales como “en una forma de realización”, que pueden estar presentes en diversos puntos de esta descripción, no se refieren necesariamente a una misma forma de realización. Además, las conformaciones, estructuras o características particulares pueden combinarse de cualquier manera adecuada en una o más formas de realización.
Las referencias utilizadas en la presente memoria se proporcionan simplemente por motivos de conveniencia y, por tanto, no definen el ámbito de protección ni el alcance de las formas de realización.
Tal como se mencionó anteriormente, la presente exposición se refiere a soluciones para el análisis de una aeronave, por ejemplo, para la detección de hielo en la aeronave, y a un sistema correspondiente para descongelar la aeronave.
La figura 1 muestra una primera forma de realización de un sistema de análisis según la presente descripción. En particular, en la forma de realización en cuestión, el sistema no se basa en una estructura fija, sino que utiliza un dron 1 o varios drones 1, un denominado “enjambre de drones”.
En general, por “dron” se entiende una aeronave sin piloto controlado a distancia. La figura 2 muestra, en este contexto, una posible forma de realización de un dron 1.
En la forma de realización en cuestión, el dron 1 comprende uno o más motores 12, por ejemplo, motores de hélice, que permiten un libre desplazamiento del dron. Por ejemplo, en la forma de realización en cuestión, el dron 1 comprende cuatro motores de hélice P1, P2, P3 y P4.
En la forma de realización en cuestión, el movimiento del dron 1 está controlado a distancia por una unidad de control a distancia 20 a través de un canal de comunicación por radio.
Con este fin, el dron 1 comprende una unidad de procesamiento 10, tal como un microprocesador programado mediante código de software, que gestiona la comunicación a distancia con la unidad de control 20 y el movimiento, es decir, el accionamiento de los motores 12.
En la forma de realización en cuestión, la unidad de procesamiento 10 comprende por lo menos los siguientes módulos de software y/o hardware:
- un módulo de gestión de misiones 104;
- un módulo de procesamiento de datos 102;
- un módulo de vuelo 106; y
- un módulo de comunicación 116.
En la forma de realización en cuestión, el módulo de gestión de misiones 104 está configurado para controlar las diversas funciones del dron 1, por ejemplo, la gestión a distancia (por medio del módulo 116) y el vuelo (por medio del módulo 106).
El módulo de procesamiento de datos 102 está configurado, posiblemente, para procesar los datos adquiridos por el dron 1. En general, este módulo 102 también puede estar integrado en el módulo 104.
En la forma de realización en cuestión, el módulo de comunicación 116 está conectado a una antena 16 y configurado para comunicarse con la unidad de control a distancia 20 para recibir comandos de control a distancia y/o para enviar datos a la unidad de control a distancia 20, por ejemplo, información sobre el estado del dron 1. En diversas formas de realización, la comunicación intercambiada a través del módulo 116 se realiza a través de un protocolo de comunicación encriptado. Por ejemplo, el módulo de comunicación 116 puede comprender por lo menos uno de entre los siguientes:
- una interfaz WiFi según el estándar IEEE 802.11, realizándose posiblemente la comunicación con la unidad de control 20 a través de uno o más puntos de acceso y una LAN (red de área local);
- un transceptor para una red móvil, tal como un transceptor GSM (sistema global para comunicaciones móviles), un transceptor CDMA (acceso múltiple por división de código), un transceptor W-CDMA (acceso múltiple por división de código de banda ancha), un transceptor UMTS (sistema universal de telecomunicaciones móviles), un transceptor HSPA (acceso de paquetes de alta velocidad), y/o un transceptor LTE (evolución a largo plazo), realizándose posiblemente la comunicación con la unidad de control 20 a través de una estación base, e Internet; y
- cualquier otra interfaz bidireccional de radiocomunicaciones diseñada para transmitir señales digitales y/o analógicas.
El módulo de vuelo 106 está configurado para accionar los motores 12 del dron 1. Con este fin, el módulo 106 puede estar conectado a uno o más sensores 14. Por ejemplo, los sensores 14 pueden comprender por lo menos uno de entre los siguientes:
- un acelerómetro triaxial 141 para detectar las aceleraciones axiales del dron 1;
- un giroscopio 142 para detectar las aceleraciones angulares del dron 1;
- un sensor 143, por ejemplo, una brújula magnética, para detectar la orientación del dron 1;
- un sensor de altitud 144, por ejemplo, un sensor de presión, para detectar la altitud del dron;
- un receptor de navegación por satélite opcional 145, por ejemplo, un receptor GPS, GALILEO y/o GLONASS; y
- un sistema SONAR opcional (navegación por sonido y telemetría) 146, que comprende, por ejemplo, uno o más transceptores de ultrasonido, configurados para detectar posibles obstáculos.
En general, también pueden proporcionarse otros sensores útiles para la identificación de la posición del dron 1 y/o del entorno en el que se ubica el dron 1, tal como una cámara de video conectada a un módulo de detección que permite la detección de posibles obstáculos o elementos característicos.
El módulo de vuelo 106 puede presentar asociados también unos módulos adicionales. Por ejemplo, en la forma de realización en cuestión, el dron 1 comprende un módulo anticolisión 108 configurado para suministrar datos al módulo 106 útiles para evitar colisiones. Por ejemplo, con este fin, el módulo 108 puede interactuar con el sistema SONAR 146 o con una cámara de video. Este módulo también puede utilizarse para suministrar datos al módulo 106 útiles para permitir una colisión controlada con características dadas, por ejemplo, para conseguir que el dron 1 aterrice.
Por ejemplo, habitualmente, las funciones de anticolisión y de detección de obstáculos se implementan en un módulo con denominadas funciones de detección y prevención, que habitualmente aprovechan los datos suministrados por un sistema SONAR 146 y/o una cámara de vídeo.
En diversas formas de realización, el módulo de vuelo 106 puede estar conectado a un módulo de tolerancia a colisiones 110 que permite recuperar el control del dron 1, en caso de una colisión inesperada.
En general, el dron 1 puede comprender una mayor o menor cantidad de inteligencia a bordo. Por ejemplo, en una forma de realización, el dron 1 está configurado para recibir, a través del módulo 116, comandos de control de bajo nivel. Estos comandos de control de bajo nivel pueden incluir, por ejemplo, un comando de desplazamiento en una dirección dada, una variación de la velocidad, etc.
Alternativa o adicionalmente, el dron 1 puede estar configurado para recibir, a través del módulo 116, comandos de control de alto nivel. Estos comandos de control de alto nivel pueden incluir, por ejemplo, un comando que indica que el dron 1 debe alcanzar una posición dada (por ejemplo, una posición GPS determinada), realizar una operación dada, etc.
Por ejemplo, con este fin puede proporcionarse un módulo de control de vuelo 112 configurado para recibir comandos de control de alto nivel y enviar comandos de control de bajo nivel al módulo de vuelo 106. Por ejemplo, con este fin, el módulo de control de vuelo 112 puede comparar datos que identifican la posición del dron (por ejemplo, la posición recibida por el receptor 145) con los datos de posición recibidos por medio de uno o más comandos de control.
En general, el módulo de control de vuelo 112 también puede controlar el módulo 106 basándose en otros datos recibidos de los sensores 14. Por ejemplo, en diversas formas de realización, el receptor de navegación por satélite 145 puede utilizarse de manera diferencial, lo que permite, por tanto, la detección de los desplazamientos del dron 1 con alta precisión. Además, el módulo de control de vuelo 112 también puede utilizar una cámara para detectar objetos característicos que permitan la orientación del dron 1.
Tal como se describirá a continuación en la presente memoria, en diversas formas de realización, cada dron 1 comprende un módulo de detección 114 y uno o más sensores 18 diseñados para detectar características de la aeronave 5. Por ejemplo, en diversas formas de realización, estos sensores 18 comprenden por lo menos uno de entre los siguientes:
- una o más cámaras de video 181,
- un sistema 182 LIDAR (detección de luz y distancia);
- un georradar 183; y/o
- un sensor de reflexión 184.
En general, el análisis de los datos detectados puede realizarse en los módulos 114 y/o 102 o por lo menos parcialmente en la unidad de control a distancia 20.
Por ejemplo, en diversas formas de realización, puede proporcionarse un módulo de telemedición 118, que envía los datos adquiridos por los diversos sensores 14 y/o 18 a través del módulo de comunicación 116 a la unidad de control a distancia 20.
Inicialmente, los drones 1 se estacionan en un refugio 3 proporcionado para ese fin, tal como uno o más hangares. A continuación, un dron o enjambre de drones 1 recibe de la unidad de control a distancia 20 una solicitud de inspección de una aeronave 5 que se ubica en una zona de inspección o zona objetivo 4 dada. Por ejemplo, esta solicitud puede enviarse mediante el control de tierra de aeronave 2.
En una forma de realización, se proporciona solo una zona objetivo 4 en una posición fija, y cada aeronave 5 que va a inspeccionarse debe moverse hacia esta zona objetivo 4. En este caso, la trayectoria para alcanzar la zona objetivo 4 puede estar configurada de manera previa.
En otras formas de realización, pueden preverse diversas zonas objetivo 4 y/o la posición de la zona objetivo 4 puede ser variable. En este caso, la solicitud de inspección también puede comprender información que identifique la posición de la zona objetivo solicitada, por ejemplo, la identificación de la zona objetivo 4 y/o las coordenadas (por ejemplo, la posición GPS) de la zona objetivo 4 o de la aeronave 5 que va a inspeccionarse. También en este caso, la trayectoria para alcanzar la zona objetivo 4 puede (por lo menos en parte) estar configurada de manera previa.
Por ejemplo, en diversas formas de realización, la trayectoria para alcanzar la zona objetivo 4 puede configurarse (por lo menos en parte) a través de las denominadas geovallas 6, que permiten la especificación de barreras virtuales bidimensionales o tridimensionales que el dron o los drones 1 no pueden traspasar. Por ejemplo, en diversas formas de realización, estas geovallas 6 se almacenan en el módulo de control de vuelo 112 del dron 1, y la unidad de control 20 podría enviar solo la posición de la zona objetivo 4 que debe alcanzarse. Por consiguiente, en general, cada dron 1 puede alcanzar la zona objetivo 4 de manera autónoma, por ejemplo a través de las geovallas 6 y su propio receptor 145, o gestionarse por la unidad de control a distancia 20 con comandos de bajo y/o de alto nivel.
Una vez que se alcanza la zona objetivo 4, el dron o drones 1 realiza/realizan una exploración de la aeronave 5. También en este caso, el dron o drones 1 pueden realizar la exploración de manera más o menos autónoma.
Por ejemplo, la figura 3a muestra una forma de realización en la que el dron o los drones 1 está(n) en comunicación con una unidad de control 250, que podría ser la unidad de control 20 u otra unidad de control prevista en la zona objetivo 4.
En la forma de realización en cuestión, la unidad de control 250 se comunica, a través de un canal de comunicación 13 y la interfaz 116, con el dron o drones 1, por ejemplo, la unidad de control del vuelo 112 ilustrada en la figura 2, de tal manera que programa la trayectoria 12 que debe seguir cada dron 1 para explorar la aeronave 5.
En cambio, la figura 3b muestra una forma de realización en la que el dron o los drones 1 exploran la aeronave 5 de manera autónoma y preferentemente en coordinación entre sí. Por ejemplo, uno de los drones 1 podría desempeñar el papel de la unidad de control 250.
En general, la coordinación entre los diversos drones puede obtenerse a través de algoritmos de optimización proporcionados con ese fin.
La figura 4 muestra una posible forma de realización de un procedimiento para explorar, es decir, analizar, una aeronave 5. Este procedimiento puede implementarse con ambos sistemas de análisis ilustrados en las figuras 3a y 3b.
Después de una etapa inicial 1000, uno o más drones 1 realizan, en una etapa 1002, una primera exploración aproximada de la aeronave 5 para identificar la posición de la aeronave 5 y detectar la forma de la aeronave 5. En particular, la posición de la aeronave puede conocerse ya, por ejemplo, a través de la posición GPS de la aeronave 5. Sin embargo, con frecuencia, la posición y orientación exactas de la aeronave 5 pueden ser desconocidas.
Durante esta etapa, no se requiere una alta precisión y, por consiguiente, un único dron 1 podría tomar, con la cámara 181, una fotografía de la aeronave 5 desde una distancia media a larga (que reproduce sustancialmente la totalidad de la aeronave 5) o sobrevolar la aeronave 5 rápidamente, tomando una pluralidad de fotografías consecutivas, lo que permiten la reconstrucción de la forma de la aeronave.
Por ejemplo, esta exploración 1002 puede realizarse a través de un mecanismo SLAM (localización y mapeo simultáneos). Los sistemas SLAM se conocen bien en el sector de la robótica, lo que hace que resulte superflua cualquier descripción detallada en la presente memoria. Por ejemplo, una posible solución se describe en el artículo de F. Caballero, L. Merino, J. Ferruz, A. Ollero, “Vision-Based Odometry and SLAM for Medium and High Altitude Flying UAVs”, Journal of Intelligent and Robotic Systems, marzo de 2009, volumen 54, publicación 1, páginas 137­ 161, cuyo contenido se incorpora a la presente memoria a modo de referencia.
En general, esta exploración 1002 también podría realizarse por una pluralidad de drones, por ejemplo, una pluralidad de drones 1 que sobrevuelan la aeronave en paralelo o que toman fotografías de diferentes zonas de la aeronave.
En general, la reconstrucción de la aeronave 5 en la etapa 1002 puede ser tridimensional o incluso simplemente bidimensional y, en general, permite la identificación de la posición, orientación y forma aproximada de la aeronave 5. Por ejemplo, el resultado de la exploración 102 podría ser una imagen bidimensional A_IMG.
En general, la detección de la aeronave 5 en la etapa 1002 también podría realizarse utilizando una cámara de video montada en una posición fija o en un vehículo terrestre, tal como un carrito o vehículo sobre el que está montada la unidad de control 250. En este caso, el dron o drones también podrán orientarse por sí mismos con respecto a la posición de esta cámara de video.
A continuación, una vez conocida la forma aproximada de la aeronave 5, el sistema puede determinar en una etapa 1006 la trayectoria que debe seguir cada dron 1.
Por ejemplo, podría asignarse una zona determinada de la aeronave 5 a cada dron 1, evitando, por tanto, la necesidad de realizar una exploración de zonas en las que partes de la aeronave 5 no están presentes. Preferentemente, las trayectorias se eligen para reducir el tiempo total de la etapa de análisis.
Sin embargo, esta forma de realización no tiene en cuenta las características de la aeronave 5; por ejemplo:
- determinadas zonas, tales como las superficies de las alas y de la cola, se ven más afectadas por la presencia de hielo y, por consiguiente, deberán explorarse de manera más exhaustiva;
- determinadas zonas de la aeronave 5, tales como el fuselaje, presentan un volumen y, por consiguiente, una superficie que es mayor que la de otras zonas bastante planas, tales como las alas, y esta diferencia de superficie no puede derivarse de una visualización bidimensional;
- el dron 1 no debería volar en determinadas zonas, por ejemplo, las zonas en donde se encuentran los motores de la aeronave, tales como las hélices o las turbinas; y
- determinadas zonas, tales como las alas o el tren de aterrizaje, también deben inspeccionarse desde debajo de la aeronave 5.
Por consiguiente, en una forma de realización preferida actualmente, el sistema de análisis accede, en una etapa 1004, a una base de datos A_DB, que comprende por lo menos en parte las características de la aeronave 5 anteriormente mencionadas.
Por ejemplo, el tipo de avión, por ejemplo, su número de modelo, se conoce habitualmente por el control de tierra de aeronave 2 y, por consiguiente, este dato también puede suministrarse al sistema de análisis. En el caso de que no se disponga de este dato, el sistema de análisis puede comparar, en la etapa 1004, la forma aproximada de la aeronave 5 detectada en la etapa 1002 también con datos de referencia almacenados en la base de datos A_DB de forma que se detecta el tipo de aeronave.
Por consiguiente, al conocer el tipo de aeronave y su posición/orientación, el sistema puede utilizar los datos almacenados en la base de datos A_DB para calcular, en una etapa 1006, la trayectoria de cada dron 1, también teniendo en cuenta las características de la aeronave 5, en particular con referencia a las zonas que se analizan y a las zonas prohibidas.
Por ejemplo, la base de datos A_DB podría comprender un modelo tridimensional de la aeronave 5 dividido en una pluralidad de zonas, en donde asociado a cada zona hay un índice. Por ejemplo, el índice “0” podría indicar una zona prohibida y el índice “10” podría indicar una zona de alto riesgo que requiere un mayor tiempo de análisis. Por consiguiente, al conocer las distintas zonas e índices (lo que, por tanto, puede indicar los tiempos de análisis requeridos), el sistema de detección es capaz de seleccionar trayectorias que reducen el tiempo total de análisis para todos los drones 1.
En general, en la base de datos A_DB también podrían almacenarse directamente las trayectorias de inspección para cada zona de la aeronave 5. Por ejemplo, en este caso, las diversas zonas de la aeronave 5 pueden estar asignadas a diferentes drones 1.
Por ejemplo, la figura 5 muestra una parte de una posible trayectoria de inspección 8 para un único dron 1.
En diversas formas de realización, los datos que identifican la trayectoria de inspección 8 no solo comprenden datos que identifican la trayectoria de vuelo, sino también datos que identifican la orientación de los sensores 18. Esta orientación de los sensores 18 puede ser necesaria, por ejemplo, para determinados sensores ópticos o radares que funcionan mediante reflexión, que frecuentemente requieren que el rayo emitido se envíe formando ángulos sustancialmente rectos sobre la superficie de la aeronave 5.
Por ejemplo, en la forma de realización ilustrada en la figura 6, la trayectoria de vuelo se identifica con las posiciones cartesianas x, y z que el dron 1 debería alcanzar en instantes dados. En cambio, la orientación de uno o más sensores 18 puede especificarse a través de uno o más ángulos. Por ejemplo, en la forma de realización en cuestión, puede especificarse la inclinación o el cabeceo 9 y la guiñada 9 de por lo menos un sensor 18. Por ejemplo, la inclinación 9 puede regularse a través de un motor que permite la inclinación del sensor 18 con respecto al dron 1, es decir, la rotación del sensor 18 en la dirección vertical. En cambio, el ángulo 9 puede corresponder a la guiñada del dron 1 o puede proporcionarse un motor adicional que permita la rotación del sensor 18 también horizontalmente. Por consiguiente, en general, los sensores 18 pueden incluso estar fijados de manera rígida al dron 1, y la orientación de los sensores 18 puede corresponder a la orientación del dron 1, que por tanto se hace rotar de manera apropiada.
Por consiguiente, en una etapa 1008 en la figura 4, el dron o drones 1 pueden seguir la trayectoria de inspección 8 respectiva determinada en la etapa 1006 y simultáneamente realizar la exploración de la aeronave 5 de tal manera que detecte la presencia de hielo 9 en la aeronave 5.
Por ejemplo, tal como se describió anteriormente, el dron 1 puede comprender con este fin un sensor LIDAR.
Alternativa o adicionalmente, también pueden utilizarse sensores que aprovechan las características de reflectancia del hielo, por ejemplo, en el espectro de infrarrojo cercano, tal como se describe por ejemplo en el documento n.° US 5.500.530. Con este fin, por ejemplo, puede utilizarse una cámara multiespectro que permita el análisis individual de diferentes espectros. Estos sensores con emisor y receptores que aprovechan la reflectancia del hielo (habitualmente en el espectro visible o infrarrojo) son particularmente útiles dado que son bastante robustos con respecto a las vibraciones de un dron y también pueden utilizarse en condiciones de movimiento.
En particular, es posible determinar la firma espectral de las superficies contaminadas por el hielo, la nieve o la escarcha, dado que cada sustancia presenta su propia forma espectral diferente. La imagen espectral recopilada por la cámara multiespectral contiene información detallada tanto en el dominio espacial como en el dominio espectral. Esto permite la determinación de la firma espectral de las superficies del avión y de los diversos tipos de contaminación y la correlación de los valores de radiancia detectados por el sensor con el tipo de superficie efectivo: escarcha, hielo transparente, nieve fresca, etc.
Por consiguiente, es posible derivar un espectro sustancialmente continuo para cada píxel de la imagen, lo que hace posible la detección, identificación y cuantificación de la sustancia en la imagen con el mayor detalle posible. Mediante la utilización de procedimientos de clasificación es posible analizar la evolución espectral de los píxeles individuales para reconocer y seleccionar diferentes materiales o para permitir mediciones colorimétricas de alta resolución. Por ejemplo, en diversas formas de realización, este cálculo puede realizarse con procedimientos de aprendizaje automático, por ejemplo, a través de procedimientos de agrupamiento y/o redes neuronales.
Para reducir el tamaño de los datos del espectro es posible seleccionar un conjunto específico de longitudes de onda para un objetivo específico (identificación de zonas contaminadas por hielo o similares), y las imágenes adquiridas se utilizan en un procedimiento de cálculo para producir imágenes de salida en el que se destacan algunas características (contaminación).
En general, también pueden utilizarse otros sistemas para la detección a distancia de hielo dentro del dron 1, tales como sistemas de georradar 183.
Por ejemplo, en diversas formas de realización, durante la exploración de la aeronave, uno de los sensores 18 emite una luz polarizada. Si la luz reflejada mantiene la polarización, la superficie analizada puede clasificarse como no contaminada. En cambio, si la luz reflejada se despolariza hasta cierto punto, la superficie analizada puede clasificarse como contaminada por hielo, escarcha o nieve.
A continuación, el dron también puede proceder a la realización de un análisis más detallado de la superficie mediante la utilización de un sensor basado en tecnología de georradar y/o LIDAR, lo que permite una detección precisa del grosor de la capa de hielo.
En general, el análisis de los datos para la detección del hielo puede realizarse directamente dentro del dron 1 o por lo menos parcialmente en la unidad de control a distancia 250. Por ejemplo, en diversas formas de realización, el procesamiento y clasificación de los datos espectrales asociados a cada píxel de la cámara multiespectral se realiza directamente dentro del dron 1, por ejemplo, en los módulos 114 y/o 102, asociando, por ejemplo, a cada píxel un primer valor si la superficie asociada al píxel respectivo no está contaminada y un segundo valor si la superficie asociada al píxel respectivo comprende hielo. Del mismo modo, pueden asignarse valores adicionales a tipos específicos de contaminación, por ejemplo, escarcha, hielo transparente o nieve. Esta forma de realización presenta por tanto la ventaja de que se transmite una única imagen, que identifica directamente el tipo de contaminación de la superficie elegida. Además, también el número de posibles valores asociados a cada píxel es muy limitado. Con este fin, puede ser suficiente transmitir una imagen, por ejemplo con tonos de gris, en la que cada color/valor (codificado, por ejemplo, en 4 u 8 bits) identifique un tipo de contaminación determinado.
Para mapear los datos, puede utilizarse de nuevo el sistema SLAM descrito anteriormente, que por tanto permite asociar los datos detectados por los sensores 18 con datos de posición correspondientes (detectados por los sensores 14). Por ejemplo, una vez conocidas la posición del dron 1 y la orientación de los sensores 18 respectivos y los datos detectados correspondientes, estos datos pueden proyectarse sobre el modelo tridimensional de la aeronave 5 almacenado en la base de datos A_DB.
En general, en la etapa 1008 también podría detectarse de manera autónoma un modelo tridimensional de la aeronave 5 utilizando los sensores que ya están disponibles dentro del dron 1, por ejemplo, el sistema SONAR 146 y/o la cámara de video 181. Por ejemplo, una posible solución se describe en el artículo de Jorge Artieda, et al. “Visual 3-D SLAM from UAVs”, Journal of Intelligent and Robotic Systems, agosto de 2009, 55:299, cuyo contenido se incorpora a la presente memoria a modo de referencia.
Por consiguiente, al final de la etapa 1008, el sistema de análisis ha adquirido los datos de los diversos sensores 14/18 de cada dron 1, ha detectado la presencia de hielo 9 y ha asociado los datos a un modelo tridimensional de la aeronave A_SCAN. Por ejemplo, en diversas formas de realización, solo se realiza la adquisición de datos a través de los drones 1, y se realiza la detección de la forma de la aeronave A_IMG, la gestión por la base de datos A_DB y el mapeo de los datos en el modelo tridimensional A_SCAN a través de la unidad de control a distancia 250, tal como un ordenador programado a través de un código de software.
Finalmente, el procedimiento de detección termina en la etapa 1010.
En general, también pueden asociarse otros datos al modelo tridimensional de la aeronave A_SCAN. Por ejemplo, también la imagen visual detectada por la cámara 181 puede proyectarse sobre el modelo tridimensional de la aeronave A_SCAN. Por ejemplo, esta proyección de la imagen visual podría utilizarse para detectar daños en la aeronave 5. En general, también podrían utilizarse otros sensores del dron 1, por ejemplo, el sistema LIDAR, para detectar posibles daños en la aeronave 5. Por consiguiente, en general, el sistema de detección para detectar hielo descrito podría utilizarse incluso solo para detectar daños en una aeronave 5, por ejemplo cuando la temperatura ambiente descarta a priori la formación de hielo.
Por consiguiente, pueden asociarse varias capas de información al modelo tridimensional de la aeronave A_SCAN. En particular, cada capa corresponde a la proyección de datos (posiblemente procesados) de un sensor particular 14/18 o de datos combinados procedentes de varios sensores 14/18 que representan diversas características de la aeronave 5, tales como:
- la capa de hielo sobre la aeronave 5;
- zonas dañadas de la aeronave 5;
- el perfil térmico de la aeronave 5; y/o
- la apariencia visual de la aeronave 5.
Por consiguiente, un operario puede visualizar estas capas por separado o superpuestas. En este caso, las operaciones de descongelación y/o anticongelación pueden realizarse por un operario humano, quien se vale de un dispositivo de visualización para identificar las zonas contaminadas de la aeronave.
Por ejemplo, la figura 7 muestra una forma de realización en la que se utiliza un dispositivo de visualización de realidad virtual 10, tal como por ejemplo un teléfono inteligente, una tableta, un ordenador portátil o un dispositivo similar montado dentro de un vehículo, que está en comunicación con la unidad de control 250 y comprende un programa de visualización del modelo tridimensional de la aeronave A_SCAN. Por ejemplo, la aplicación podría habilitar la activación/desactivación de la visualización de las capas y/o la rotación del modelo A_SCAN. Por ejemplo, en la forma de realización en cuestión, solo se activa la visualización de la capa que comprende información que identifica la presencia de hielo. Por ejemplo, el grosor de la capa de hielo podría resaltarse en este elemento de visualización, por ejemplo, a través de diferentes colores.
Del mismo modo, la figura 8 muestra una forma de realización en la que se visualiza el modelo tridimensional A_SCAN a través de un dispositivo de visualización de realidad aumentada 11.
En este caso, el modelo tridimensional A_SCAN no se visualiza directamente, sino que los datos correspondientes se proyectan nuevamente en una pantalla. En particular, un dispositivo de visualización de realidad aumentada 11, tal como un teléfono inteligente, una tableta o unas gafas de realidad aumentada, normalmente comprende una cámara que detecta una imagen y un sensor de posición, por ejemplo, un receptor GPS. Luego, una vez conocida la posición del dispositivo, el dispositivo de realidad aumentada visualiza directamente una imagen, en la que la información del modelo tridimensional A_SCAN se proyecta directamente sobre la imagen detectada a través de la cámara. En algunos dispositivos de realidad aumentada, los datos del modelo tridimensional pueden proyectarse directamente sobre una superficie por lo menos parcialmente transparente, por ejemplo vidrio, y ya no está prevista la visualización de la imagen detectada por la cámara del dispositivo de visualización 11.
Finalmente, la figura 9 muestra una forma de realización en la que los datos se utilizan para accionar un robot cisterna 12 directamente.
La figura 10 muestra en este contexto una posible forma de realización del robot cisterna 12.
En la forma de realización en cuestión, el robot cisterna 12 comprende una pluralidad de motores 32 que permiten el desplazamiento del robot cisterna 12. Por ejemplo, en la forma de realización en cuestión, el robot 12 comprende un motor principal M1 para mover el robot 12 hacia delante o hacia atrás, y un motor auxiliar M1 que permite el direccionado del robot cisterna 12.
También en este caso, el movimiento del robot 1 se controla a distancia por la unidad de control a distancia 20 y/o 250 a través de un canal de comunicación por radio.
Del mismo modo que el dron 1, el robot 12 comprende una unidad de procesamiento 30, tal como un microprocesador programado mediante código de software, que gestiona la comunicación a distancia con la unidad de control 20/250 y el movimiento, es decir, el accionamiento, de los motores 32.
En la forma de realización en cuestión, la unidad de procesamiento 30 comprende por lo menos los siguientes módulos de software y/o hardware:
- un módulo de gestión de misiones 304;
- un módulo de procesamiento de datos 302;
- un módulo de accionamiento 306; y
- un módulo de comunicación 316;
Los módulos anteriores realizan sustancialmente las mismas funciones que los módulos 102, 104, 106 y 116 del dron 1, con la diferencia de que el robot 12 es un robot terrestre y no vuela.
Por consiguiente, el módulo de gestión de misiones 304 puede controlar las diversas funciones del robot 1, por ejemplo, la gestión a distancia (por medio del módulo 316) y el accionamiento (por medio del módulo 306). El módulo de procesamiento de datos 302 posiblemente puede procesar los datos adquiridos por el robot 12. En general, este módulo 302 también puede estar incorporado en el módulo 304.
En la forma de realización en cuestión, el módulo de comunicación 316 está conectado a una antena 36 y configurado para comunicarse con la unidad de control a distancia 20/250 de tal manera que reciba comandos de control a distancia y/o envíe datos a la unidad de control a distancia 20/250, por ejemplo, información sobre el estado del robot 12. En diversas formas de realización, la comunicación intercambiada a través del módulo 316 se realiza a través de un protocolo de comunicación encriptado.
El módulo de accionamiento 306 está configurado para accionar los motores 32 del robot 12. Con este fin, el módulo 306 puede estar conectado a uno o más sensores 34. Por ejemplo, los sensores 34 pueden comprender:
- un acelerómetro triaxial 341 para detectar las aceleraciones axiales del robot 12;
- un sensor 342, por ejemplo, una brújula magnética, para detectar la orientación del robot 12;
- un receptor de navegación por satélite opcional 343, por ejemplo, un receptor GPS, GALILEO o GLONASS; y
- un sistema SONAR opcional 344, que comprende, por ejemplo, uno o más transceptores de ultrasonido, configurados para detectar posibles obstáculos.
Asimismo en este caso, el módulo 306 puede presentar unos módulos asociados adicionales. Por ejemplo, en la forma de realización en cuestión, el robot 12 comprende un módulo anticolisión 308 configurado para suministrar datos al módulo 306 útiles para evitar colisiones. Tal como se mencionó anteriormente, las funciones de orientación y/o anticolisión pueden implementarse con un módulo con una función de detección y prevención.
Asimismo, los comandos de control para el robot 12 pueden ser más o menos complejos. Por ejemplo, en una forma de realización, el robot 12 está configurado para recibir a través del módulo 316 comandos de control de bajo nivel. Estos comandos de control de bajo nivel pueden incluir, por ejemplo, un comando de desplazamiento en una dirección dada, una variación de la velocidad, etc. Adicional o alternativamente, el robot 12 puede estar configurado para recibir, a través del módulo 316, comandos de control de alto nivel. Estos comandos de control de alto nivel pueden incluir, por ejemplo, un comando que indica que el robot 12 debe alcanzar una posición dada (por ejemplo, una posición GPS dada), realizar una operación dada, etc. Por ejemplo, con este fin, puede proporcionarse un módulo para controlar el accionamiento 312 configurado para recibir comandos de control de alto nivel y enviar comandos de control de bajo nivel al módulo de accionamiento 306. Por ejemplo, con este fin, el módulo de control de accionamiento 312 puede comparar datos que identifican la posición del robot 12 (por ejemplo, la posición recibida del receptor GPS 143) con los datos de posición recibidos junto con un comando de control. En general, el módulo de control de accionamiento 312 también puede controlar el módulo 306 basándose en otros datos recibidos por los sensores 34.
Tal como se mencionó anteriormente, el robot cisterna 12 debería realizar la operación de descongelación automáticamente en función de los datos de hielo asociados al modelo A_SCAN. Con este fin, el robot 12 comprende uno o más dispositivos de descongelación 40, tales como una o más boquillas 401 para pulverizar un líquido descongelante y/o anticongelante sobre la aeronave 5. En diversas formas de realización, las boquillas pueden moverse por un brazo mecánico, preferentemente un brazo telescópico, que presenta asociados uno o más actuadores 402, tales como motores hidráulicos y/o pistones. En la forma de realización en cuestión, las boquillas 401 y los actuadores 402 están controlados a través de un módulo de descongelación 320. Por consiguiente, una vez conocidas la posición del robot 12 y la posición del hielo 9 sobre la aeronave 5 (gracias al modelo A_SCAN), el dispositivo de descongelación 40 podrá accionarse por el módulo 320 y/o por la unidad de control a distancia 20/250 para pulverizar el líquido sobre el hielo 9. Del mismo modo que el dron 1, la unidad de control 20/250 podría calcular entonces una trayectoria de guía para el robot 12 y datos de control para el dispositivo 40, por ejemplo, la posición del brazo mecánico 402 y la apertura de la boquilla 401.
En general, el robot 12 también puede comprender un módulo de detección 314 y uno o más sensores 38 diseñados para detectar características de la aeronave 5, que pueden corresponder por lo menos en parte a los sensores 18 del dron 1. Por ejemplo, en diversas formas de realización, estos sensores 38 comprenden una o más cámaras 381 y/o un sistema LIDAR 382. En general, el análisis de los datos detectados puede realizarse en los módulos 314 y/o 302 o por lo menos parcialmente en la unidad de control a distancia 20/250. Por consiguiente, el robot 12 podría comprobar directamente si se ha eliminado el hielo 9. Además, asimismo, el robot 12 puede comprender un módulo de telemedición 318 configurado para enviar los datos adquiridos por los sensores 34/38 a la unidad de control a distancia 20/250.
En diversas formas de realización, el robot 12 puede aplicar posteriormente un segundo líquido, por ejemplo, un líquido descongelante. En general, también en este caso puede utilizarse la base de datos A_DB, que podría comprender datos que identifican las zonas en las que debe aplicarse el líquido descongelante.
Por consiguiente, en las soluciones descritas anteriormente, el dron 1 se mueve hacia la aeronave 5 después de haber recibido la información de la zona 4 sobre la que operar, es decir, la zona en donde se encuentra estacionada la aeronave 5. Por ejemplo, la información puede suministrarse por el control de tierra de aeronave 2 y puede comprender las coordenadas GPS de la aeronave 5. El dron o el enjambre de drones 1 parte/parten de un refugio 3 previsto expresamente presente en los terrenos del aeropuerto y alcanzan la zona objetivo 4 presente en la que se encuentra la aeronave 5 sobre la que operar. Estas operaciones pueden realizarse en relación con los sistemas de seguridad aeroportuaria para no poner en peligro las operaciones relativas al tránsito aéreo y terrestre. Además, la aproximación a la aeronave puede realizarse a través de corredores establecidos de manera previa expresamente utilizando sistemas de geovallas, que permiten el paso del dron 1 solo en algunas zonas específicas y no en otras. Alternativamente, el dron o drones 1 pueden transportarse en una plataforma rodante prevista para este fin en la zona 4.
Una vez que el dron 1 alcanza la zona objetivo 4 en donde se encuentra estacionada la aeronave sobre la que llevar a cabo las operaciones de análisis, se orienta con respecto a la aeronave 5. Por ejemplo, en diversas formas de realización, el dron 1 presenta componentes SLAM disponibles, que pueden comprender, por ejemplo, sensores de ultrasonido, láseres de exploración, sensores de cámara, sensores de imagen 3D o cualquier otro sensor que sea capaz de identificar objetos y/o profundidades y que permita la medición de distancias entre puntos o la adquisición de información de nubes de puntos. A continuación, el dron 1 explora, a través de sus propios componentes SLAM, los objetos alrededor de la zona objetivo.
Preferentemente, en base al mandato de misión, que especifica el tipo de aeronave sobre la que llevar a cabo las operaciones de inspección y descongelación y la base de datos A_Db , el dron 1 identifica la aeronave 5 sobre la que debe llevar a cabo sus propias operaciones. Por ejemplo, el reconocimiento de la aeronave 5 puede derivar de una comparación entre la exploración A_IMG realizada por el dron 1 del objeto comprendido en la zona objetivo y los modelos de aeronaves presentes en la base de datos A_DB. Alternativa o adicionalmente a una exploración de toda la aeronave, pueden utilizarse marcadores o elementos característicos proporcionados expresamente de cada aeronave que permitan acelerar el procedimiento de reconocimiento. Por ejemplo, si el fuselaje de la aeronave presenta determinadas características y no otras, ciertamente corresponde a un modelo de aeronave dado y no a otro.
Por consiguiente, el dron 1 puede orientarse a sí mismo con respecto a la aeronave 5, conociendo el tipo, posición y orientación de la aeronave 5 y/o tomando como referencia elementos caracterizadores de la misma (fuselaje, alas, cola, etc.), y puede iniciar la actividad de inspección, por ejemplo, a partir de las zonas de la aeronave 5 más propensas a la formación de hielo.
Por consiguiente, durante esta etapa, el dron 1 realiza un análisis o inspección de toda la aeronave 5. También en este caso, es posible utilizar los componentes SLAM para identificar las zonas de la aeronave que van a inspeccionarse, un algoritmo de inspección que asigna al dron una trayectoria de inspección y sensores basados en tecnologías ópticas y/o radares.
Para una ejecución más rápida de las actividades de inspección, el sistema puede implementarse a través de un enjambre de drones coordinado. La coordinación puede realizarse a nivel de software distribuyendo tareas entre diversos drones. Un dron puede, por ejemplo, realizar una inspección solo de las alas de la aeronave, mientras que otro puede comprobar la proa, el fuselaje, la cola y otras partes.
Durante la exploración o incluso posteriormente, las zonas contaminadas identificadas por los sensores 18 están asociadas al modelo tridimensional de la aeronave A_SCAN. Durante la exploración de la aeronave, también pueden realizarse otros análisis de la superficie de la aeronave, por ejemplo a través de la cámara 181. Las adquisiciones realizadas pueden transmitirse al procesador central 20/250, que puede evaluar la presencia de zonas dañadas. Este procesamiento también puede tener en cuenta el estado previsto de una zona explorada (por ejemplo, superficie lisa) con el estado detectado a partir de la exploración (por ejemplo, zonas irregulares inesperadas). Por ejemplo, el estado previsto anterior también puede almacenarse en la base de datos A_DB. Los posibles elementos de inconsistencia entre el estado previsto y el detectado pueden resaltarse asociando los puntos de interés con el modelo tridimensional de la aeronave A_SCAN. El dron 1 también puede estar equipado con una cámara multiespectral para tomar primeros planos de las zonas potencialmente dañadas. Estos primeros planos pueden revisarse por operarios humanos para determinar el grado y la naturaleza de los daños.
Una vez finalizada la exploración y después de que las zonas contaminadas y/o dañadas se hayan asociado al modelo tridimensional de la aeronave 5, el sistema envía las imágenes procesadas de este modo a un elemento de visualización. Tal como se mencionó anteriormente, el elemento de visualización 10/11 puede ser un sistema de realidad aumentada puesto a disposición del operario, en el caso de que las operaciones de descongelación se realicen directamente por el operario. Las operaciones de descongelación pueden consistir en la pulverización de fluidos descongelantes y anticongelantes previstos expresamente. A través del elemento de visualización, el operario puede ver tanto en modo inmersivo el modelo tridimensional de las zonas de la aeronave en las que operar como en modo subjetivo las zonas contaminadas, que están, por ejemplo, resaltadas con diferentes gradientes de color con respecto a la superficie de la aeronave.
Al final de la actividad de descongelación, el dron 1 puede realizar otra exploración para comprobar los resultados de la misma y proporcionar al operario advertencias en caso de características críticas (actividad de descongelación incompleta), lo que proporciona una visualización adicional de las zonas contaminadas.
Los datos recopilados por el dron 1 también pueden utilizarse para procesar una trayectoria para un robot cisterna 12, que corresponde sustancialmente a un camión cisterna controlado a distancia, que puede pulverizar el líquido descongelante. Por ejemplo, este camión cisterna controlado a distancia 12 puede estar equipado con un brazo móvil y llevar a cabo la actividad de descongelación basándose en la información recibida del dron 1.
Por supuesto, sin perjuicio del principio de la invención, los detalles de construcción y las formas de realización pueden variar ampliamente con respecto a lo que se ha descrito e ilustrado en la presente memoria simplemente a modo de ejemplo, sin por ello alejarse del alcance de la presente invención, tal como se define por las siguientes reivindicaciones.

Claims (15)

REIVINDICACIONES
1. Procedimiento de análisis de una aeronave (5) que se encuentra ubicada en una zona de inspección (4) por medio de por lo menos un dron (1) que comprende por lo menos un sensor (18) adaptado para analizar la superficie de dicha aeronave (5), comprendiendo el procedimiento las etapas siguientes:
- llevar dicho por lo menos un dron (1) a dicha zona de inspección (4);
- realizar una primera exploración (1002) de por lo menos una parte de dicha aeronave (5);
- procesar dicha primera exploración (1004) con el fin de determinar automáticamente (1006) una trayectoria de inspección (12) para dicho por lo menos un dron (1), comprendiendo dicho procesamiento:
- determinar el tipo de dicha aeronave (5),
- acceder a una base de datos (A_DB) con el fin de obtener datos característicos para dicho tipo de dicha aeronave (5); y
- determinar dicha trayectoria de inspección (12) en función de dichos datos característicos para dicho tipo de dicha aeronave (5); y
- realizar por medio de dicho por lo menos un dron (1) una segunda exploración (1008) después de dicha trayectoria de inspección (12) y analizar simultáneamente la superficie de dicha aeronave (5) por medio de dicho por lo menos un sensor (18);
caracterizado porque dicha base de datos (A_DB) comprende un modelo tridimensional de dicha aeronave (5) dividido en una pluralidad de zonas, en donde asociado a cada zona hay un índice que indica si la zona respectiva debe analizarse o es una zona prohibida.
2. Procedimiento según la reivindicación 1, en el que dichos índices indican los tiempos de análisis requeridos.
3. Procedimiento según la reivindicación 2, en el que un primer índice indica una zona prohibida y un segundo índice indica una zona de alto riesgo que requiere un mayor tiempo de análisis.
4. Procedimiento según la reivindicación 2 o la reivindicación 3, que comprende analizar dicha aeronave (5) por medio de una pluralidad de drones (1) y, al conocer las diversas zonas e índices, seleccionar trayectorias de inspección (12) que reduzcan el tiempo de análisis total para todos los drones (1).
5. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que dicha realización de una primera exploración (1002) de por lo menos una parte de dicha aeronave (5) comprende adquirir a través de dicho por lo menos un dron (1) y/o una cámara instalada en un lugar conocido una imagen de por lo menos una parte de dicha aeronave (5).
6. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que dicho procesamiento de dicha primera exploración (1004) para determinar (1006) una trayectoria de inspección (12) para dicho por lo menos un dron (1) comprende determinar la posición y orientación de dicha aeronave (5) y determinar (1006) dicha trayectoria de inspección (12) para dicho por lo menos un dron (1) en función de dicha posición y dicha orientación de dicha aeronave (5).
7. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que dicha trayectoria de inspección (12) comprende unos datos que identifican las posiciones (x, y, z) para dicho por lo menos un dron (1) y unos datos que identifican las orientaciones para dicho por lo menos un sensor (18).
8. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que dicha realización por medio de dicho por lo menos un dron (1) de una segunda exploración (1008) comprende:
- determinar un modelo tridimensional (A_SCAN) de dicha aeronave (5), y
- proyectar los datos detectados por medio de dicho por lo menos un sensor (18) sobre dicho modelo tridimensional de dicha aeronave (5).
9. Procedimiento según la reivindicación 8, en el que dicho modelo tridimensional de dicha aeronave (5) se almacena en dicha base de datos (A_DB).
10. Procedimiento según cualquiera de las reivindicaciones anteriores, que comprende visualizar los datos detectados por medio de dicho por lo menos un sensor (18) a través de un dispositivo de visualización, tal como un dispositivo de visualización de realidad virtual (10) o de realidad aumentada (11).
11. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que dicho por lo menos un sensor (18) comprende por lo menos un sensor adaptado para detectar la presencia de hielo (9) sobre la superficie de dicha aeronave (5).
12. Procedimiento según la reivindicación 11, que comprende accionar un robot cisterna (12) en función de dichos datos detectados por medio de dicho por lo menos un sensor (18) con el fin de pulverizar un líquido descongelante y/o anticongelante sobre las zonas de la superficie de dicha aeronave (5) que comprenden hielo (9).
13. Sistema de análisis para una aeronave, que comprende por lo menos un dron (1) y una unidad de procesamiento (250), en el que dicho sistema de análisis está configurado para implementar el procedimiento según cualquiera de las reivindicaciones anteriores 1 a 11.
14. Sistema según la reivindicación 13, en el que dicha unidad de procesamiento (250) está incorporada en dicho por lo menos un dron (1) o a distancia con respecto a dicho por lo menos un dron (1).
15. Sistema de descongelación y/o anticongelación, que comprende el sistema de análisis según la reivindicación 13 y un robot cisterna (12), y en el que el sistema de descongelación y/o anticongelación está configurado para implementar el procedimiento según la reivindicación 12.
ES17719324T 2016-03-10 2017-03-07 Procedimiento para analizar una aeronave, sistema de análisis correspondiente de una aeronave, y sistema de descongelación y/o de anticongelación Active ES2923873T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ITUA2016A001534A ITUA20161534A1 (it) 2016-03-10 2016-03-10 Procedimento per analizzare un velivolo, relativo sistema di analisi di un velivolo e sistema di sghiacciamento e/o antigelo
PCT/IB2017/051330 WO2017153912A1 (en) 2016-03-10 2017-03-07 Method for analysing an aircraft, corresponding system of analysis of an aircraft, and de-icing and/or anti- icing system

Publications (1)

Publication Number Publication Date
ES2923873T3 true ES2923873T3 (es) 2022-10-03

Family

ID=56203611

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17719324T Active ES2923873T3 (es) 2016-03-10 2017-03-07 Procedimiento para analizar una aeronave, sistema de análisis correspondiente de una aeronave, y sistema de descongelación y/o de anticongelación

Country Status (6)

Country Link
EP (1) EP3426558B1 (es)
DK (1) DK3426558T3 (es)
ES (1) ES2923873T3 (es)
IT (1) ITUA20161534A1 (es)
PL (1) PL3426558T3 (es)
WO (1) WO2017153912A1 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3037429B1 (fr) * 2015-06-15 2018-09-07 Donecle Systeme et procede d'inspection automatique de surface
US10170011B2 (en) * 2016-07-26 2019-01-01 International Business Machines Corporation Guide drones for airplanes on the ground
US10820574B2 (en) 2016-07-29 2020-11-03 International Business Machines Corporation Specialized contextual drones for virtual fences
US9987971B2 (en) 2016-07-29 2018-06-05 International Business Machines Corporation Drone-enhanced vehicle external lights
GB2565757A (en) * 2017-07-13 2019-02-27 Sita Information Networking Computing Uk Ltd Database of Drone flight plans for aircraft inspection using relative mapping
FR3084485B1 (fr) * 2018-07-26 2022-08-05 Donecle Engin volant motorise de mesure du relief de surfaces d'un objet predetermine et procede de commande d'un tel engin
GB2584914A (en) * 2019-06-28 2020-12-23 Airbus Operations Ltd Autonomous mobile aircraft inspection system
GB2590468A (en) * 2019-12-19 2021-06-30 Airbus Operations Ltd Analysing surfaces of vehicles
NL2025866B1 (en) * 2020-06-19 2022-02-17 Mainblades Holding B V Method of inspecting an aeroplane using an autonomous flying vehicle
US20220309644A1 (en) * 2021-03-24 2022-09-29 The Boeing Company Automated assessment of aircraft structure damage
CN113788089B (zh) * 2021-10-29 2022-07-29 季华实验室 一种agv车和无人机协同除冰系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5180122A (en) * 1991-05-10 1993-01-19 Fmc Corporation Apparatus for deicing
US8982207B2 (en) * 2010-10-04 2015-03-17 The Boeing Company Automated visual inspection system
FR3012425B1 (fr) * 2013-10-24 2017-03-24 European Aeronautic Defence & Space Co Eads France Robot collaboratif d'inspection visuelle d'un aeronef

Also Published As

Publication number Publication date
PL3426558T3 (pl) 2022-11-21
WO2017153912A1 (en) 2017-09-14
ITUA20161534A1 (it) 2017-09-10
EP3426558A1 (en) 2019-01-16
DK3426558T3 (da) 2022-07-25
EP3426558B1 (en) 2022-04-27

Similar Documents

Publication Publication Date Title
ES2923873T3 (es) Procedimiento para analizar una aeronave, sistema de análisis correspondiente de una aeronave, y sistema de descongelación y/o de anticongelación
US20200344464A1 (en) Systems and Methods for Improving Performance of a Robotic Vehicle by Managing On-board Camera Defects
CN110062919B (zh) 递送车辆的放下地点规划
CA2920388C (en) Unmanned vehicle searches
US10430653B2 (en) System and method for autonomous vehicle control
JP6673371B2 (ja) 可動物体を使用して障害物を検出する方法及びそのシステム
Kong et al. Autonomous landing of an UAV with a ground-based actuated infrared stereo vision system
Celik et al. Monocular vision SLAM for indoor aerial vehicles
US20190068829A1 (en) Systems and Methods for Improving Performance of a Robotic Vehicle by Managing On-board Camera Obstructions
US20200301015A1 (en) Systems and methods for localization
US10409293B1 (en) Gimbal stabilized components for remotely operated aerial vehicles
AU2014253606A1 (en) Landing system for an aircraft
Kong et al. A ground-based multi-sensor system for autonomous landing of a fixed wing UAV
CN108369086B (zh) 用于服务物体的方法和系统
WO2024097457A2 (en) Systems and methods for active-light based precision localization of aircrafts in gps-denied environments
ES2958408A1 (es) Metodo para la realizacion de tareas en un objeto y sistema de vehiculos no tripulados
CN115235466A (zh) 导航系统和方法的辐射测量热成像改进
Çelik et al. Research Article Monocular Vision SLAM for Indoor Aerial Vehicles