ES2956065T3 - Método para analizar datos de sensor relativos a una turbina eólica - Google Patents

Método para analizar datos de sensor relativos a una turbina eólica Download PDF

Info

Publication number
ES2956065T3
ES2956065T3 ES18769961T ES18769961T ES2956065T3 ES 2956065 T3 ES2956065 T3 ES 2956065T3 ES 18769961 T ES18769961 T ES 18769961T ES 18769961 T ES18769961 T ES 18769961T ES 2956065 T3 ES2956065 T3 ES 2956065T3
Authority
ES
Spain
Prior art keywords
image
deviation
data
images
blade
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18769961T
Other languages
English (en)
Inventor
Thomas Sulzer
Joonas Asikainen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sulzer & Schmid Laboratories AG
Original Assignee
Sulzer & Schmid Laboratories AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sulzer & Schmid Laboratories AG filed Critical Sulzer & Schmid Laboratories AG
Application granted granted Critical
Publication of ES2956065T3 publication Critical patent/ES2956065T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F03MACHINES OR ENGINES FOR LIQUIDS; WIND, SPRING, OR WEIGHT MOTORS; PRODUCING MECHANICAL POWER OR A REACTIVE PROPULSIVE THRUST, NOT OTHERWISE PROVIDED FOR
    • F03DWIND MOTORS
    • F03D17/00Monitoring or testing of wind motors, e.g. diagnostics
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F03MACHINES OR ENGINES FOR LIQUIDS; WIND, SPRING, OR WEIGHT MOTORS; PRODUCING MECHANICAL POWER OR A REACTIVE PROPULSIVE THRUST, NOT OTHERWISE PROVIDED FOR
    • F03DWIND MOTORS
    • F03D80/00Details, components or accessories not provided for in groups F03D1/00 - F03D17/00
    • F03D80/50Maintenance or repair
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F05INDEXING SCHEMES RELATING TO ENGINES OR PUMPS IN VARIOUS SUBCLASSES OF CLASSES F01-F04
    • F05BINDEXING SCHEME RELATING TO WIND, SPRING, WEIGHT, INERTIA OR LIKE MOTORS, TO MACHINES OR ENGINES FOR LIQUIDS COVERED BY SUBCLASSES F03B, F03D AND F03G
    • F05B2260/00Function
    • F05B2260/80Diagnostics
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F05INDEXING SCHEMES RELATING TO ENGINES OR PUMPS IN VARIOUS SUBCLASSES OF CLASSES F01-F04
    • F05BINDEXING SCHEME RELATING TO WIND, SPRING, WEIGHT, INERTIA OR LIKE MOTORS, TO MACHINES OR ENGINES FOR LIQUIDS COVERED BY SUBCLASSES F03B, F03D AND F03G
    • F05B2270/00Control
    • F05B2270/80Devices generating input signals, e.g. transducers, sensors, cameras or strain gauges
    • F05B2270/804Optical devices
    • F05B2270/8041Cameras
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/70Wind energy
    • Y02E10/72Wind turbines with rotation axis in wind direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Sustainable Development (AREA)
  • Sustainable Energy (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)
  • Wind Motors (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Un método para el análisis de datos de sensores relacionados con una turbina eólica comprende los pasos de - recuperar una pluralidad de conjuntos de datos de sensores mejorados (7), comprendiendo cada uno datos de sensores (71) almacenados en asociación con datos de posición de sensores (74) que definen la pose de un sensor (42, 44) en el momento en el que se adquirieron los datos del sensor (71); - procesar la pluralidad de conjuntos de datos de sensor (71) en combinación con los datos de posición del sensor (74), generando así una vista integrada de los conjuntos de datos de sensor mejorados (7). (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método para analizar datos de sensor relativos a una turbina eólica
La invención se refiere al campo de la inspección de plantas y, en particular, a un método para analizar datos de sensor relativos a una turbina eólica.
El sector de la energía eólica necesita nuevos métodos de inspección que puedan capturar y documentar el estado de las centrales eléctricas, es decir, turbinas, con el tiempo. Las palas de las turbinas suelen estar hechas de compuestos reforzados con fibra, con resinas como poliéster y epoxi, y con fibras de vidrio y carbono como material de refuerzo. Los defectos de las palas pueden deberse al impacto de objetos, rayos, a la erosión por la lluvia y el granizo, a la tensión mecánica y a la flexión, al envejecimiento, etc. Los propietarios y operadores deben obtener total transparencia con respecto a la salud de sus activos. El conocimiento detallado de los defectos y su propagación en el tiempo es el requisito previo más importante para el mantenimiento preventivo y la reparación, de los cuales se sabe que generan grandes ahorros de costes. Adicionalmente, facilita el cumplimiento de la legislación y de los requisitos por parte de las compañías de seguros. Por esta razón, las palas de los rotores y las torres de las turbinas eólicas deben inspeccionarse periódicamente.
Estas inspecciones las llevan a cabo manualmente equipos de trabajos verticales en cuerda. Los escaladores de inspección altamente capacitados identifican visualmente defectos en una superficie de pala de hasta 500 m2 y registran anomalías con cámaras portátiles. Los problemas actuales con la inspección tradicional con acceso mediante cuerdas incluyen: una población de plantas envejecida, las cuales inspecciones frecuentes, un aumento del tamaño de las turbinas, con palas de más de 60 metros y torres de más de 100 metros, la calidad de la inspección depende del juicio subjetivo de los escaladores, las condiciones climáticas adversas pueden limitar el desempeño del inspector, el equipo de cuerdas puede detectar daños, pero no se puede garantizar una cobertura total y una documentación digital perfecta del estado de la pala, los informes se crean principalmente de forma manual.
Suponiendo que se pueda obtener de forma sistemática un conjunto de imágenes de una pala de turbina, el problema sigue siendo analizar sistemáticamente estas imágenes y extraer información técnicamente significativa de manera confiable. Preferiblemente, este proceso debería automatizarse en gran medida.
Los documentos DE 202015 102791 U1 y DE 102011 017564 A1 muestran imágenes obtenidas al volar sobre una superficie con un VANT que se combinan uniéndolas en dos dimensiones, formando una única imagen compuesta. La relación entre las imágenes está determinada por la información sobre la posición del VANT cuando se tomaron las imágenes. La unión puede degradar la calidad de las imágenes en regiones superpuestas.
Por lo tanto, un objeto de la invención es crear un método para analizar datos de sensor relativos a una turbina eólica del tipo mencionado inicialmente, que supere las desventajas mencionadas anteriormente.
Estos objetos se logran mediante un método para analizar datos de sensor relativos a una turbina eólica de acuerdo con las reivindicaciones.
El método para analizar datos de sensor relativos a una turbina eólica comprende las etapas de
• recuperar (del almacenamiento) una pluralidad de conjuntos de datos de sensor mejorados, comprendiendo cada uno datos de sensor almacenados en asociación con datos de posición de sensor que definen la posición de un sensor en el momento en el que se adquirieron los datos de sensor;
• procesar la pluralidad de conjuntos de datos de sensor en combinación con los datos de posición de sensor, generando así una vista integrada de los conjuntos de datos de sensor mejorados.
Los datos de sensor mejorados pueden ser el resultado de una misión de inspección que comprende un patrón de inspección con configuraciones o datos de referencia para un VANT, para sensores de inspección (tales como una cámara) y para sensores de navegación, y que define posiciones del VANT en las que se tomarán lecturas de los sensores (tales como imágenes) y/o áreas o puntos que se inspeccionarán o fotografiarán. posiciones del VANT en las que se van a tomar lecturas de los sensores (tales como imágenes), y/o áreas o puntos a inspeccionar o fotografiar.
Los datos de sensor, es decir, cada conjunto de datos de sensor, se almacenan en combinación con los metadatos del sensor. Esta combinación se llamará datos de sensor mejorados. Los datos de sensor pueden ser en particular datos de imagen. Los metadatos del sensor pueden comprender en particular datos de posición de sensor. Los datos de posición describen la posición de un objeto en el espacio 3D, es decir, la combinación de su posición y su orientación. Otros metadatos del sensor pueden describir parámetros del sensor de inspección relativos a los datos de sensor capturados. Por ejemplo, si el sensor es una cámara, los metadatos del sensor pueden ser el tiempo de exposición, ajustes de enfoque, etc.
En las realizaciones, almacenar cada conjunto de datos del sensor en asociación con los datos de posición de sensor comprende las etapas de, durante una misión de inspección:
• almacenar cada conjunto de datos de sensor, por ejemplo, una imagen, con una marca de tiempo;
• almacenar, en cada momento en el que se captura una imagen, los datos de posición de sensor con una marca de tiempo.
Cualquier metadato adicional se puede almacenar de la misma manera. Los diferentes datos pueden almacenarse en asociación con un identificador de misión que identifica de forma única la misión de inspección y permite vincular los datos a los datos de la misión que caracterizan la misión en su conjunto, como, por ejemplo, una identidad de la turbina, un tipo de modelo de turbina, su ubicación geográfica, su propietario u operador, etc.
La trayectoria de vuelo de referencia puede ser en términos de la trayectoria y posición del VANT o la trayectoria y posición del sensor de inspección. Los dos están relacionados por su posición relativa y los ángulos del cardán.
En las realizaciones, el sensor es una cámara y los datos del sensor son datos de imagen, y la etapa de
• procesar la pluralidad de conjuntos de datos de sensor en combinación con los datos de posición de sensor, generando de este modo una vista integrada de los conjuntos de datos del sensor mejorado comprende la etapa de
• visualizar, en un dispositivo de visualización, una o más imágenes definidas por los datos de la imagen, y al menos una de las siguientes etapas
• visualizar cada una de las imágenes visualizadas, datos de posición de sensor asociados;
• visualizar al menos dos imágenes ordenadas de acuerdo con los datos de posición de sensor asociados.
De esta manera, se puede proporcionar un navegador de imágenes que permite una vista integrada de una pluralidad de imágenes de la pala, de modo que corresponda a la configuración física del sensor o cámara de inspección con respecto a la pala en el instante en que se tomaron las imágenes.
En las realizaciones, la etapa de
• visualizar al menos dos imágenes ordenadas de acuerdo con los datos de posición de sensor asociados;
comprende al menos una de las etapas de
• visualizar al menos dos imágenes en una fila horizontal, siendo la posición relativa de las imágenes en la fila de acuerdo con una posición horizontal relativa comprendida en los datos de posición de sensor respectivos asociados a cada imagen, en donde las imágenes en la misma fila horizontal están asociadas a la misma posición vertical comprendida en los datos de posición de sensor respectivos;
• visualizar al menos dos imágenes en una columna vertical, siendo la posición relativa de las imágenes en la columna de acuerdo con una posición vertical relativa comprendida en los datos de posición de sensor respectivos asociados con cada imagen; en donde las imágenes en la misma columna vertical están asociadas con la misma posición horizontal comprendida en los datos de posición de sensor respectivo.
Se entiende que las imágenes "asociadas con la misma posición vertical" no significa necesariamente que las posiciones verticales sean exactamente iguales, pero pueden diferir hasta cierto punto. O puede significar que una posición vertical comprendida en los datos de posición de sensor respectivo se encuentra dentro de una banda de posiciones verticales de un ancho determinado. De ese modo, es posible visualizar vistas de la misma pala tomadas en diferentes posiciones horizontales alrededor de la pala y al menos aproximadamente a la misma altura en una vista integrada, permitiendo al usuario ver parte o toda la circunferencia de la pala a lo largo de una línea de cuerda de una manera intuitivamente atractiva en la secuencia horizontal. Lo mismo vale, mutatis mutandis, para imágenes "asociadas a la misma posición horizontal" a diferentes alturas a lo largo de la envergadura de la pala. Aquí se puede inclinar la banda de posiciones horizontales que se considera que abarcan "lo mismo", es decir, no vertical, si la pala también está inclinada en una proyección que se ve en la secuencia de imágenes.
En las realizaciones, las imágenes asociadas a la misma posición horizontal se capturan como una secuencia de imágenes a medida que el VANT sigue una sección esencialmente vertical de su trayectoria de vuelo.
En las realizaciones, el método comprende la etapa de visualizar al menos dos imágenes en una columna vertical y desplazarse, de acuerdo con una entrada de usuario, por la columna en dirección vertical en el dispositivo de visualización.
En las realizaciones, el método comprende las etapas de
• visualizar una sección ampliada de una primera imagen de al menos dos imágenes en la columna vertical, mostrando la sección ampliada parte de la primera imagen en posición horizontal y con un nivel de ampliación, y • realizar un desplazamiento, de acuerdo con una entrada de usuario, por la sección ampliada,
• de ese modo, cuando la sección ampliada alcanza un límite superior o inferior de la primera imagen, cambiar la visualización para mostrar una sección ampliada de una segunda imagen adyacente con el mismo nivel de ampliación y situada en la misma posición horizontal dentro de la segunda imagen.
Se puede elegir que la posición horizontal sea la misma en las coordenadas de la imagen. Como alternativa, se puede elegir que tenga la misma posición horizontal en la pala, p. ej., en un sistema de coordenadas de la pala (o "coordenadas de la pala"), en donde la posición horizontal se puede definir y medir a lo largo de las líneas de cuerda.
Esto permite desplazar la sección ampliada a través de una secuencia de imágenes dispuestas verticalmente, presentando así una vista ampliada casi continua de partes de la pala.
En las realizaciones, el método comprende las etapas de
• introducir una selección de usuario que especifica una característica lineal seleccionada de la pala;
• visualizar una sección ampliada de una primera imagen que muestra una parte de la característica lineal seleccionada;
• introducir un comando de desplazamiento y, en respuesta al comando de desplazamiento, mover la sección ampliada para seguir la característica lineal seleccionada.
La característica lineal seleccionada puede ser, por ejemplo, el borde de ataque o el borde de salida, una línea de costura o una línea de soldadura en la superficie de la pala. Dado el modelo informático de la pala, que también comprende dichas características lineales, y dado que las imágenes se pueden mapear en el modelo, la posición de una característica en el modelo se puede proyectar nuevamente en las imágenes y usarse para seleccionar la parte de la imagen que se mostrará en la sección ampliada.
En las realizaciones, el sensor es una cámara y los datos del sensor son datos de imagen, y la etapa de
• procesar la pluralidad de conjuntos de datos de sensor en combinación con los datos de posición de sensor, generando de este modo una vista integrada de los conjuntos de datos del sensor mejorado comprende las etapas de
• identificar, en imágenes representadas por los datos de la imagen, una o más desviaciones en la pala;
• determinar automáticamente, para cada una de las una o más desviaciones, una ubicación de desviación que define una ubicación de la desviación en la pala;
• almacenar, para cada una de las una o más desviaciones, la ubicación de la desviación como parte de los datos de desviación asociados a la desviación.
El término "desviación" representa cambios en la superficie de una pala 3 que se desvían de un estado normal u original de la superficie. Normalmente, una desviación es un defecto o un parche causado por la reparación de un defecto. En términos generales, las desviaciones son causadas por eventos que cambian el estado de la superficie. Dichos eventos pueden ser eventos de daño o eventos de reparación o mantenimiento.
Los datos de desviación son un conjunto de información que describe una desviación. Puede comprender una o más imágenes de desviación, una categorización de desviación y una ubicación de desviación. Una imagen de desviación es una subimagen cortada de una imagen a lo largo de una línea delimitadora, normalmente un cuadro delimitador. La categorización de desviación comprende un tipo, una gravedad, etc. de la desviación. También puede incluir una recomendación de acción, indicando un tipo de acción para reparar un defecto. Los diferentes datos comprendidos por datos de desviación con respecto a una desviación o defecto particular se pueden almacenar en asociación con un identificador de desviación único.
La ubicación de la desviación generalmente corresponde a la ubicación de la desviación en el espacio 3D. Puede expresarse en términos de un sistema de referencia 3D externo a la pala, o uno fijado a la pala, o en términos de un sistema de coordenadas de pala bidimensional en la superficie de la pala. En estos, por ejemplo, una coordenada puede dar la posición medida desde la raíz de la pala, la otra posición en una línea de cuerda, medida desde uno de los bordes.
En las realizaciones, el método comprende (para identificar desviaciones en la pala) las etapas de
• presentar una imagen a un usuario;
• introducir una entrada de usuario que especifica una imagen de desviación que muestra la desviación dentro de la imagen, en particular, cuando la entrada de usuario especifica una línea delimitadora, en particular un cuadro delimitador, que delinea la imagen de desviación del resto de la imagen;
• almacenar la imagen de desviación como parte de los datos de desviación asociados a la desviación; y opcionalmente comprende (para determinar una ubicación de desviación) las etapas de
• calcular la ubicación de la desviación en la pala determinando, en función de la línea delimitadora, una ubicación de la imagen de desviación dentro de la imagen, y proyectar esta ubicación en un modelo informático de la pala;
• almacenar la ubicación de la desviación como parte de los datos de desviación asociados a la desviación.
La entrada del usuario puede introducirse por medio de un dispositivo señalador tal como un ratón de ordenador, y dibujando la línea delimitadora o un cuadro delimitador que comprenda al menos aproximadamente la imagen de desviación.
La línea delimitadora se puede determinar automáticamente a partir de un único punto de la imagen de desviación. Este punto puede ser seleccionado por el usuario o puede determinarse automáticamente. La línea o cuadro delimitador se puede determinar automáticamente, por ejemplo, utilizando un tamaño de cuadro estándar o determinando un parche de imagen alrededor del punto seleccionado que comparte propiedades de la imagen como el color y/o la estructura con el punto seleccionado.
Si el usuario selecciona un solo punto, entonces esto se puede utilizar como la ubicación de la imagen de desviación dentro de la imagen.
Esto (determinar una ubicación de desviación) se puede hacer teniendo en cuenta los datos de posición de sensor asociados con la imagen y el modelo informático 3D de la pala. Los datos de posición de sensor permiten determinar la posición relativa de la cámara con respecto a la pala real en el momento en que se tomó la imagen. La geometría de la cámara es conocida y puede depender de la configuración de la cámara, como ajustes de zoom y enfoque, que forman parte de los metadatos del sensor. Esta información permite proyectar, dentro del modelo informático 3D, un punto en el sistema de coordenadas de la imagen de nuevo en el modelo 3D de la pala y así determinar la posición en la pala.
La ubicación de la imagen de desviación dentro de la imagen se puede determinar a partir de la línea delimitadora, por ejemplo, como el centro de gravedad de la sección de la imagen determinada por la línea delimitadora.
En las realizaciones, el método comprende (para identificar desviaciones en la pala) las etapas de
• realizar un análisis de una imagen implementado por ordenador para identificar una o más imágenes de desviación que muestren desviaciones dentro de la imagen;
• almacenar la imagen de desviación como parte de los datos de desviación asociados a la desviación; y opcionalmente comprende (para determinar una ubicación de desviación) la etapa de
• calcular la ubicación de la desviación en la pala determinando automáticamente una ubicación de la imagen de desviación dentro de la imagen y proyectar esta ubicación en un modelo informático de la pala;
• almacenar la ubicación de la desviación como parte de los datos de desviación asociados a la desviación.
La etapa de determinar automáticamente la ubicación de la imagen de desviación dentro de la imagen puede ser parte del análisis implementado por ordenador anterior. Por ejemplo, puede ser el resultado de un análisis realizado con una red neuronal convolucional (CNN) u otro método de aprendizaje automático. Como alternativa, se puede determinar mediante las etapas de
• determinar automáticamente una línea delimitadora, en particular un cuadro delimitador, que delinea la imagen de desviación del resto de la imagen, y
• determinar automáticamente, desde la línea delimitadora, la ubicación de la imagen de desviación dentro de la imagen.
En las realizaciones, el método comprende las etapas de
• determinar automática o manualmente, para cada una de las una o más desviaciones, una categorización de desviación que define una o más propiedades de la desviación, que comprende al menos uno de
o un tipo de la desviación,
o la gravedad de la desviación,
o una recomendación de acción para tratar la desviación; y
• almacenar la categorización de la desviación como parte de los datos de desviación asociados a la desviación.
Una categorización de desviación comprende propiedades de la desviación. Otros elementos de una categorización de desviación pueden comprender otras propiedades de desviación, como, por ejemplo, el tamaño de la desviación. Esto se puede expresar en coordenadas de pala. Puede comprender un alargamiento máximo en cada una de las dos direcciones de coordenadas.
En las realizaciones, la determinación automática de la categorización de la desviación comprende el uso de un método de clasificación derivado del aprendizaje automático supervisado.
Se pueden aplicar métodos de clasificación de imágenes basados en datos de entrenamiento. Se puede utilizar un conjunto de entrenamiento de imágenes de desviación con categorizaciones de desviación asociadas que se establecieron manualmente para entrenar un algoritmo de clasificación que realizará la clasificación automática en función de imágenes de desviación nuevas. Dichos algoritmos pueden utilizar, por ejemplo, redes neuronales convolucionales (CNN).
En las realizaciones, el método de clasificación puede usarse como entrada, además de una imagen de desviación, la ubicación de desviación asociada. Esto permite tener en cuenta el hecho de que es más probable que aparezcan ciertos defectos en determinadas ubicaciones de la pala. Esto puede mejorar la eficiencia y la calidad de la clasificación. Por ejemplo, es más probable que los defectos debidos a rayos ocurran cerca de la punta, es más probable que la erosión ocurra en el borde de ataque, es más probable que se produzcan grietas en lugares de alta tensión (que se pueden encontrar mediante simulación FEM de la pala bajo carga), etc.
En las realizaciones, el método comprende las etapas de
• para dos o más conjuntos de datos de desviaciones (que representan desviaciones que han sido identificadas y localizadas) que representan desviaciones identificadas en diferentes imágenes, comparar sus ubicaciones de desviación en la pala, y,
• si las ubicaciones son las mismas, almacenar una asociación entre los dos conjuntos de datos de desviación para representar el hecho de que pertenecen a la misma desviación física.
De esta manera, las imágenes de desviación extraídas de diferentes imágenes coinciden, mostrando la misma desviación física desde diferentes puntos de vista y/o en diferentes momentos en el tiempo. La comparación de la ubicación de la desviación se puede realizar automáticamente. Los diferentes puntos de vista normalmente corresponden a imágenes o datos de sensor generalmente mejorados capturados durante la misma misión de inspección que inspecciona una sola pala. Los diferentes momentos en el tiempo normalmente corresponden a misiones de inspección separadas que inspeccionan la misma pala en momentos diferentes, por ejemplo, meses o años de diferencia.
En las realizaciones, el método comprende la etapa de
• emitir, en una forma legible por humanos, un informe sobre al menos una pala o el conjunto de palas de una turbina, comprendiendo el informe: una lista de desviaciones y, para cada desviación al menos
o una imagen de desviación,
o una categorización de desviación y una
o ubicación de la desviación y
o opcionalmente más de una imagen de desviación si existe más de una imagen de desviación para la misma desviación física.
En función de la base de dichos informes, un operador de turbina puede demostrar el cumplimiento de los requisitos legales y de las compañías de seguros. Generalmente, se pueden especificar requisitos técnicos para garantizar el funcionamiento seguro y eficiente de la turbina. Demostrar que una turbina o pala satisface los requisitos puede ayudar a prolongar la vida útil de la pala y/o de la turbina.
En las realizaciones, el método comprende las etapas de
• mantener una base de datos que comprende, para al menos una pala, datos de desviación y, en particular, también datos de sensor mejorados, de una pluralidad de misiones de inspección, en donde hay presentes asociaciones entre conjuntos de datos de desviación de diferentes inspecciones, representando el hecho de que pertenecen a la misma desviación física observada en diferentes momentos del tiempo;
• realizar opcionalmente un análisis de una progresión en el tiempo de los defectos representados por los datos de desviación de una pluralidad de misiones de inspección sobre una pluralidad de turbinas, determinando de ese modo un modelo estadístico de progresión de defectos y utilizar este modelo estadístico para predecir, para una pala seleccionada, una progresión de defectos y, opcionalmente, planificar acciones de mantenimiento en la pala.
Estos conjuntos de datos de desviación de diferentes inspecciones, pero que pertenecen a la misma desviación física pueden denominarse datos históricos de desviación. Para una desviación que represente un defecto que no ha sido reparado, también se les puede llamar datos del historial de defectos.
Los datos del historial de desviaciones se pueden complementar con información sobre las reparaciones realizadas. Esta información se puede agregar manualmente. Como resultado, los datos del historial de desviaciones cubren, para cada desviación, su evolución inicial como defecto, luego una acción de mantenimiento como la reparación del defecto, y luego la evolución posterior de la desviación reparada, todo en el mismo lugar de la pala.
En las realizaciones, se utilizan imágenes de al menos una misión de inspección anterior para realizar un análisis de una imagen implementado por ordenador para identificar una o más imágenes de desviación, comparando una imagen con una imagen de la misma ubicación en la pala de una misión de inspección anterior. Esto hace posible identificar desviaciones en función de una diferencia en las imágenes y/o identificar cambios en una desviación a lo largo del tiempo. En las realizaciones, a partir de los datos del historial de desviaciones y en particular de los datos del historial de defectos de una pluralidad de misiones de inspección sobre una pluralidad de turbinas que tienen tipos de palas comparables, se realiza un análisis de la progresión del defecto a lo largo del tiempo. Por ejemplo, se puede derivar automáticamente un modelo estadístico de la evolución de las propiedades de desviación comprendidas en la categorización de la desviación. Esto corresponde a un modelo de progresión de defectos para el tipo de palas consideradas. A partir de dicho modelo de progresión de defectos, se puede realizar la predicción de la progresión del defecto y planificar el mantenimiento. En función de esto, se pueden realizar acciones de mantenimiento. Dependiendo del tipo y gravedad de todos los defectos de una pala, el mantenimiento puede implicar reparaciones locales o una revisión general o reemplazo de la pala.
De acuerdo con la invención, la etapa de
• visualizar al menos dos imágenes ordenadas de acuerdo con los datos de posición de sus sensores asociados;
comprende las etapas de
• determinar la probabilidad de que se produzcan desviaciones dentro de imágenes de una secuencia de imágenes;
• visualizar automáticamente la secuencia de imágenes; y
• modificar automáticamente, de acuerdo con esta probabilidad, al menos un parámetro que controla la visualización de la secuencia de imágenes.
La secuencia de imágenes comprende así imágenes que deben visualizarse y el modo de visualización se adapta automáticamente según un número esperado de desviaciones. Esta probabilidad de ocurrencia puede considerarse como una distribución de probabilidad sobre el área de la pala.
Como resultado, es posible que un experto humano que revisa las imágenes se mueva automática y rápidamente sobre áreas donde se esperan pocas desviaciones o ninguna, y se enfoque y concentre en áreas donde se esperan más desviaciones.
La probabilidad de que se produzcan desviaciones también se puede expresar como una densidad esperada de desviaciones o defectos. Por ejemplo, esto puede ser un número de desviaciones o defectos esperados por imagen o por unidad de área dentro de la imagen. En el primero, la densidad es un valor escalar asociado con la imagen. En este último, la densidad tiene, para diferentes ubicaciones en la imagen, valores separados. Estos valores se pueden representar mediante un mapa de densidad asociado a la imagen. Los mapas de densidad de las imágenes, en combinación, corresponden a un mapa de densidad que cubre el área de la pala.
Las imágenes que se muestran pueden ser las imágenes originales o datos de imagen, o imágenes (procesadas) generadas mediante el procesamiento de las primeras. El procesamiento de las imágenes puede implicar una adaptación de los parámetros de color y brillo, y/o combinar imágenes uniéndolas y/o fusionándolas, o cambiando de una imagen a la siguiente a medida que la cámara virtual se mueve a lo largo de su trayectoria de vuelo. Como alternativa, o adicionalmente, el procesamiento de las imágenes puede implicar una superposición de las imágenes con mapas de densidad asociados que representan la probabilidad de que se produzcan desviaciones dentro de las imágenes asociadas, por ejemplo, mediante una coloración o modificación de las imágenes de acuerdo con la densidad. En dichos casos, la trayectoria de vuelo virtual se puede expresar en un sistema de coordenadas relacionado con un plano en el que se encuentran las imágenes.
Como alternativa, o adicionalmente, procesar las imágenes puede implicar generar una vista virtual mapeando o proyectando imágenes en el modelo informático de la pala y renderizando una vista de la pala vista desde una cámara virtual. En dichos casos, la trayectoria de vuelo virtual se puede expresar en un sistema de coordenadas 3D del modelo informático de la pala.
En las realizaciones, uno o más parámetros que controlan la visualización de la secuencia de imágenes son del conjunto de:
• una tasa de cambio en la visualización de la secuencia de imágenes;
• una ampliación de las imágenes;
• una selección de secciones de imágenes.
De este modo, la trayectoria de vuelo de una cámara virtual, a partir de imágenes originales o procesadas, se puede determinar en función de la probabilidad de que se produzcan desviaciones, adaptando sus parámetros, como velocidad, distancia desde la pala (o factor de aumento o zoom) y/o dirección de visión. La distancia desde la pala, o el factor de aumento o zoom, corresponden al tamaño de un área representada por una imagen.
En las realizaciones, la trayectoria de vuelo se genera a partir de una trayectoria de vuelo de referencia. La trayectoria de vuelo de referencia se puede generar a partir de un análisis estadístico de datos de defectos en múltiples turbinas eólicas y palas del mismo tipo, utilizando anotaciones de defectos de expertos humanos. La trayectoria de vuelo de referencia se puede adaptar modificando los parámetros de vuelo de la cámara virtual, como el nivel de zoom y la dirección de visualización según la probabilidad de que se produzcan desviaciones.
En las realizaciones, la trayectoria de vuelo puede generarse determinando en primer lugar un conjunto de áreas con una densidad esperada relativamente alta de desviaciones o defectos ("puntos críticos"), determinando luego una trayectoria que cubra todas estas áreas (para esto se pueden utilizar algoritmos conocidos para el problema del viajante). Luego, los parámetros de vuelo de la cámara virtual se pueden adaptar como se ha descrito anteriormente. Como se explica más adelante, a partir de las imágenes se puede determinar la densidad esperada de desviaciones o la probabilidad de que se produzcan desviaciones mediante un sistema de aprendizaje automático.
Adicionalmente, se puede indicar al usuario la probabilidad de que se produzcan desviaciones en la imagen que se muestra. Esto se puede hacer por medios ópticos, acústicos, hápticos (vibración), etc. Los medios ópticos pueden implicar un elemento de visualización en el dispositivo de visualización, como cambiar el color de un área de la pantalla, cambiar la posición de un elemento indicador a lo largo de una escala, etc.
Asimismo, el software de exploración de imágenes puede visualizar uno o más de los siguientes datos: altitud o posición vertical en la que se encuentra la imagen, cámara ISO, ajustes de apertura y exposición, y/o la distancia de enfoque. Por cada defecto o desviación, la ubicación en la pala, p. ej., expresada como distancia desde la raíz de la pala y desde el borde de ataque, también se puede visualizar.
En las realizaciones, se realizan las etapas de
• aceptar una entrada de usuario;
• de conformidad con la entrada de usuario, realizar uno de parar, modificar la velocidad de cambio o rebobinar la visualización de la secuencia de imágenes.
Esto hace posible, por ejemplo, que el usuario que visualiza la secuencia de imágenes pueda hacerlo sin interacción constante con el sistema, como sería el caso si el usuario tuviera que controlar una acción de desplazamiento o el movimiento de una cámara virtual, y detener o pausar la visualización al notar una desviación.
En las realizaciones, la etapa de
• determinar una probabilidad de que se produzcan desviaciones dentro de las imágenes de una secuencia de imágenes a visualizar;
comprende las etapas de
• introducir una imagen y/o datos de posición asociados a la imagen de la secuencia de imágenes en un sistema de aprendizaje automático que está entrenado para asociar una imagen y/o datos de posición asociados con la imagen con una probabilidad de que se produzcan desviaciones dentro de la imagen, y recuperar la probabilidad de que se produzcan desviaciones del sistema de aprendizaje automático.
La probabilidad de que ocurran desviaciones dentro de la imagen se puede expresar como un conjunto de una o más desviaciones, estando asociada cada desviación a una categorización y una ubicación esperada en la imagen y/o en la pala. Estas dos ubicaciones contienen la misma información, ya que una puede calcularse a partir de la otra. Dado un conjunto de desviaciones de una o más imágenes, se puede calcular una densidad correspondiente de desviaciones o defectos en las imágenes y/o en la superficie de la pala.
Los datos de posición asociados a la imagen corresponden a su posición en la pala. Puede expresarse mediante una posición y un tamaño (y opcionalmente una orientación angular) de la imagen en el sistema de coordenadas de la pala y puede calcularse a partir de los datos de postura del sensor asociados a la imagen.
El aprendizaje automático puede implicar arquitecturas de aprendizaje profundo, como redes neuronales profundas, redes de creencias profundas y redes neuronales recurrentes.
El sistema de aprendizaje automático se puede entrenar según la naturaleza de los datos utilizados al aplicarlo. Por ejemplo, los datos de entrenamiento pueden comprender imágenes junto con la posición y el tamaño de la imagen en la pala como datos de entrada, e información de desviación, como la probabilidad de ocurrencias como datos de salida. En las realizaciones, los datos de entrada pueden ser solo la posición de la imagen, sin tener en cuenta el contenido de la imagen.
En las realizaciones, el sensor es un sensor de distancia y los datos del sensor son datos de distancia, y la etapa de • procesar la pluralidad de conjuntos de datos de sensor en combinación con los datos de posición de sensor, generando de este modo una vista integrada de los conjuntos de datos del sensor mejorado se logra mediante la etapa de
• a partir de múltiples conjuntos de mediciones de distancia realizadas por el sensor de distancia, combinadas con datos de posición de sensor que representan la posición del sensor de distancia cuando se obtuvo cada conjunto de mediciones de distancia, determinar un modelo 3D de la turbina.
Un conjunto de mediciones de distancia puede comprender, según el tipo de sensor, un mapa de profundidad 2D o una secuencia lineal de mediciones de distancia a partir de distancias de escaneo dentro de un plano. En cada caso, dicho conjunto de mediciones de distancia está asociado a la postura del sensor de distancia, que a su vez puede determinarse a partir de la postura del VANT y los ángulos del cardán, en el momento en que se tomaron las mediciones. Esta información se puede combinar, resultando en, para cada conjunto de mediciones de distancia, un conjunto de puntos en el espacio 3D. Para un escáner lineal, estos puntos se encuentran dentro de un plano en el espacio 3D. Una pluralidad de dichos conjuntos de mediciones de distancia puede dar, dependiendo de la trayectoria de vuelo y la posición del sensor de distancia, puntos en el espacio 3D de todas las partes de la turbina que sean de interés. La información de estos puntos, que representa una nube de puntos, se puede integrar de formas conocidas para generar un modelo 3D desde cero, o para adaptar parámetros de un modelo 3D determinado.
Se conocen métodos para generar modelos 3D desde cero, dado un conjunto de puntos de datos correspondientes a una nube de puntos.
Los métodos para adaptar los parámetros de un modelo 3D determinado a una nube de puntos pueden implicar métodos de optimización que varían los parámetros del modelo 3D hasta que logra una coincidencia óptima con la nube de puntos. Los métodos de optimización pueden ser deterministas o estocásticos. Adaptar un determinado modelo tiene la ventaja de que se incorpora información a priori sobre la estructura de la turbina.
Esto resuelve el problema de que los modelos 3D actualizados de las palas y de la turbina completa pueden no estar disponibles para los operadores de la turbina. En las realizaciones, dado un modelo exacto de las palas, se pueden realizar simulaciones de las propiedades mecánicas y/o del comportamiento aerodinámico de una turbina y, en base a esto, se puede optimizar el funcionamiento de la turbina.
Asimismo, estos datos pueden ser valiosos en la evaluación de la vida útil de la pala. Usar un modelo 3D completo, que actualmente no está disponible para el operador, permite el cálculo de las fuerzas y tensiones en la pala causadas en el funcionamiento de la turbina y luego se puede proporcionar, por ejemplo, a compañías de seguros al solicitar prórroga de la operación.
En las realizaciones, el método comprende las siguientes etapas para adquirir datos de sensor relativos a una turbina eólica, utilizando un vehículo aéreo no tripulado (VANT) que comprende al menos un sensor de inspección para adquirir los datos del sensor:
• determinar una trayectoria de vuelo de referencia para el VANT;
• operar el VANT para que vuele automáticamente a lo largo de una trayectoria de vuelo real derivada de la trayectoria de vuelo de referencia,
• adquirir, a medida que el VANT vuela a lo largo de una o más secciones de la trayectoria de vuelo real, con el sensor de inspección, múltiples conjuntos de datos de sensor,
• almacenar cada conjunto de datos del sensor en asociación con datos de posición de sensor que define la posición del sensor de inspección en el momento en que se adquirió el conjunto de datos del sensor.
En una realización, un programa informático para el análisis de datos de sensor relacionados con una turbina eólica se puede cargar en una memoria interna de un ordenador digital o un sistema informático, y comprende instrucciones ejecutables por ordenador para hacer que uno o más procesadores del ordenador o sistema informático ejecuten el análisis método. En otra realización, un producto de programa informático comprende un medio legible por ordenador que tiene las instrucciones ejecutables por ordenador grabadas en el mismo. El medio legible por ordenador preferiblemente no es transitorio; es decir, tangible. En otra realización más, el programa informático está realizado como una señal reproducible y legible por ordenador y, por tanto, puede transmitirse en forma de dicha señal. La ejecución del método puede implicar que el programa informático interactúe con un usuario, mediante dispositivos de salida como una pantalla, impresora, etc. y dispositivos de entrada como un teclado, un dispositivo de puntero, una pantalla táctil, etc.
Otras realizaciones son evidentes a partir de las reivindicaciones de patente dependientes.
El objeto de la invención se explicará con más detalle en el siguiente texto con referencia a ejemplos de realización que se ilustran en los dibujos adjuntos, en los que:
figura 1 una turbina eólica y una trayectoria de vuelo de referencia;
figura 2 un VANT;
figura 3 datos de sensor mejorados capturados por el VANT;
figura 4 datos de sensor mejorados visualizados en un dispositivo de visualización;
figura 5 elementos de una imagen;
figura 6 una pala y un sistema de coordenadas de pala; y
figura 7 datos de desviación.
En principio, las partes idénticas se proporcionan con los mismos símbolos de referencia en las figuras.
La figura 1 muestra esquemáticamente una turbina eólica 10 que comprende una torre 1 que soporta una góndola que encierra un tren de transmisión que acciona un generador eléctrico a través de una caja de cambios. Las palas de turbina 3 están dispuestas sobre un buje para formar un rotor 2 que acciona el tren de transmisión.
Cada pala 3 normalmente está asegurada en su extremo de raíz 32, y luego se "extiende" radialmente "hacia fuera" hasta un extremo libre o punta 31. La distancia desde la punta 31 hasta la raíz 32, en el extremo opuesto de la pala 3, se llama "envergadura". El borde frontal o de ataque 33 de la pala 3 conecta los puntos más adelantados de la pala 3 que primero entran en contacto con el aire. El borde trasero o de salida 34 de la pala 3 es donde el flujo de aire que ha sido separado por el borde de ataque 33 se vuelve a unir después de pasar sobre una superficie o lado de succión 35 y una superficie de presión o lado 36 de la pala.
Una "línea de cuerda" conecta los bordes delantero y trasero de la pala 3 en la dirección del flujo de aire típico a través de la pala. La longitud de la línea de cuerda se llama cuerda. Dado que muchas palas 10 cambian su cuerda a lo largo de la envergadura, la longitud de la cuerda se conoce como "cuerda de raíz", cerca de la raíz y la "cuerda de punta", cerca de la punta de la pala. Las líneas de cuerda están dispuestas en los "planos de cuerda" que se extienden a través de las líneas de corriente en las correspondientes superficies de presión y succión de la pala.
La figura 1 también muestra una trayectoria de vuelo de referencia 54a. La trayectoria de vuelo de referencia 54a se puede generar a partir de una trayectoria de vuelo genérica 53 escale según las dimensiones reales, expresadas por un conjunto de parámetros, de la turbina 10 a inspeccionar.
La trayectoria de vuelo muestra varias secciones 533 a lo largo de las cuales el VANT 4 se mueve a lo largo de la envergadura de la pala 3 en trayectorias verticales, hacia arriba o hacia abajo. Cada una de dichas secciones verticales cubre la extensión de la pala 3 y, por tanto, las imágenes tomadas a lo largo de una sección cubren una sección circunferencial de la pala. Las secciones verticales están dispuestas alrededor de la pala 3, por lo que las imágenes 6 de todas las secciones verticales juntas pueden proporcionar una vista completa de la superficie de la pala 3.
La figura 2 muestra esquemáticamente un vehículo aéreo no tripulado (VANT) 4, como un multicóptero, tal como se puede utilizar en realizaciones de la invención. Lleva un sensor de inspección 42 suspendido por el cardán 41, giratorio alrededor de al menos dos o tres ángulos de Euler. El sensor de inspección 42 normalmente es una cámara óptica y en adelante se denominará como tal. Sin embargo, se pueden prever otros tipos de sensores de inspección, como dispositivos que operan en los rangos no ópticos del espectro electromagnético, sensores de alcance, etc. La cámara 42 comprende un accionamiento de enfoque 43 para cambiar una configuración de enfoque de la lente de la cámara.
Unido y movido con el sensor de inspección (cámara) 42 hay un sensor de distancia 44. En otras realizaciones, el sensor de distancia 44 está unido y se mueve con un cuerpo principal del VANT 4 y no con el cardán 41. El sensor de distancia 44 puede generar un mapa de profundidad 2D o una secuencia lineal de mediciones de distancia a partir de distancias de escaneo dentro de un plano de escaneo 48. La mayoría de las realizaciones ilustrativas descritas en el presente documento se basarán en este último. Un mapa de profundidad 2D comprende información 3D porque comprende una matriz de datos 2D, en donde los datos indican la distancia desde un punto (tal como un sensor) o en general también desde un plano.
El VANT 4 comprende un módulo GPS 45 y/u otro sensor 46, como un sensor inercial, un giroscopio, un barómetro y/o una brújula. Un controlador de vuelo 47 está dispuesto para integrar datos del GPS 45 y/u otro sensor 46 y el sensor de distancia 44, y un modelo informático de un objeto a inspeccionar, como una turbina eólica 10, y para generar comandos de vuelo tales como vectores de posición o velocidad para ser ejecutados por el VANT 4. Esto se puede hacer, en un momento y lugar determinado, determinar la posición del VANT 4, comparándola con la posición según la trayectoria de referencia y calculando los comandos de vuelo basados en la posición actual, información de velocidad y aceleración para mover el VANT a una siguiente posición a lo largo de la trayectoria de referencia en un momento futuro. La trayectoria de referencia y la siguiente posición normalmente incluyen vectores de velocidad de referencia.
La figura 3 ilustra una secuencia de datos de sensor 71, en este caso una secuencia de imágenes o datos de imágenes 72 y su relación con otros datos. Los datos de imagen 72 se capturan a intervalos espaciales regulares a medida que el VANT 4 se mueve a lo largo de la pala 3, a lo largo de secciones esencialmente verticales de la trayectoria de vuelo real 54b, subiendo o bajando. Cada imagen se almacena como un conjunto de datos de sensor mejorados 7, que comprende los datos del sensor 71, en este caso datos de imagen 72, junto con los metadatos del sensor 73. Los metadatos del sensor 73 comprenden datos de posición de sensor 74 que representan la posición de la cámara 42 cuando se capturó la imagen, y metadatos 75 adicionales, generados normalmente por la cámara 42. Los datos de sensor mejorados 7 pueden estar asociados a un identificador de misión, p. ej., una cadena de caracteres, que identifica de forma única la misión de inspección.
Para una misión de inspección típica que cubre una pala, con una resolución de aprox. cinco píxeles por milímetro y con 30 MPixel por imagen, los datos de imagen 72 pueden usar aprox. 12 GB de almacenamiento informático.
La figura 4 muestra la secuencia de imágenes 6 presentadas en un dispositivo de visualización 8, dispuestas en una cuadrícula 610, con filas que comprenden imágenes 6a, 6c tomadas esencialmente a la misma altura (a lo largo de la envergadura de la pala 3, suponiendo que la pala 3 esté en posición vertical, apuntando hacia abajo). Las columnas comprenden imágenes 6a, 6b de la misma sección vertical de la pala 3. En las realizaciones, hay una o más filas y una o más columnas. Un elemento de desplazamiento de rejilla vertical 611 está configurado, según la entrada de usuario, para desplazar las una o más columnas de la cuadrícula 610 verticalmente. En la figura, la posición de desplazamiento vertical es tal que la fila más inferior, mostrando la punta desde diferentes ángulos, solo se muestra parcialmente. También puede estar presente un elemento de desplazamiento horizontal (no se muestra en la figura).
Las imágenes 6a, 6b, 6c muestran la pala 3 frente a un paisaje, y en algunas imágenes se ve una desviación 69 que es un defecto. En el presente ejemplo, las desviaciones 69 o defectos observados en las tres imágenes de la fila del medio corresponden al mismo defecto físico. En la fila más baja, la región oscura corresponde a un parche creado cuando se reparó la pala 3.
Para una imagen 6 seleccionada por el usuario, indicada por un borde grueso, se muestran los datos de posición de sensor 74 y otros metadatos del sensor 75 asociados a la imagen. También se puede mostrar en la pantalla 8 información adicional tal como metadatos del sensor 73 pertenecientes a todas las imágenes en asociación con las imágenes 6.
La interfaz de usuario permite a un usuario seleccionar una de las imágenes 6a, 6b, 6c para una vista ampliada, que se muestra como una sección ampliada 6d de la imagen seleccionada. El usuario puede establecer un nivel de zoom o un factor de ampliación. El ejemplo muestra una sección de la imagen denominada 6c ampliada. La parte de esta imagen "sin zoom" 6c que se está ampliando se identifica mediante un cuadro de zoom 614. La vista ampliada comprende un elemento de desplazamiento vertical 612 y un elemento de desplazamiento horizontal 613. Al desplazarse con estos elementos de desplazamiento se mueve la sección de la imagen que se está ampliando, lo cual puede indicarse moviendo el marco de zoom 614 dentro de la imagen sin zoom. Cuando el marco de zoom alcanza el borde de una primera imagen sin zoom, el sistema se puede configurar para mover el marco de zoom a una segunda imagen adyacente en dirección vertical u horizontal, dependiendo de qué límite se haya alcanzado. El marco de zoom se puede colocar, además, en una ubicación en la segunda imagen adyacente que muestra una ubicación física en la pala 3 está en o más cerca de la ubicación física mostrada en la sección ampliada 6d en la primera imagen anterior 6c. La ubicación física de los puntos o secciones de la imagen en cada caso se puede calcular proyectando estos puntos, en un modelo 3D de la pala 3, de nuevo sobre la superficie de la pala modelada, como se explica en otra parte de la presente solicitud.
En las realizaciones, el marco de zoom se puede colocar en la segunda imagen adyacente en la misma posición vertical u horizontal, dependiendo de si se cruzó un borde horizontal o vertical de las imágenes 6, en las que estaba en la primera imagen 6c.
En otras realizaciones, se puede hacer que el marco de zoom 614 siga una característica lineal seleccionada 615. Esta característica lineal 615 se puede definir en el modelo 3D. Puede ser una curva en la superficie de la pala. Dado un punto en la característica lineal 615, una imagen 6 que comprende este punto se determina automáticamente a partir de su ubicación en el modelo 3D y los datos de imagen 72 con los datos de posición de sensor asociados 74, y se muestra en un nivel de zoom seleccionado como una sección ampliada 6d. Operar otro controlador de desplazamiento mueve el punto que se visualizará a lo largo de la característica lineal 615 y actualiza la sección ampliada 6d.
Dichas características lineales pueden ser el borde anterior 33 o el borde posterior 34, o una línea de costura 615.
Las imágenes 6 en la fila central de la cuadrícula 610 y la vista ampliada 6d muestran todas la misma desviación, en este caso un defecto. El defecto se puede identificar de forma independiente en cada imagen 6 y, en función de la ubicación del defecto en la pala, los conjuntos de datos de desviación asociados se pueden vincular, indicando que se refieren al mismo defecto físico.
La figura 5 muestra elementos de una imagen 6, que comprende una vista de una pala 3, delimitada por un marco de imagen 61, con desviaciones 69 ilustrativas. En el presente ejemplo, tres de las desviaciones 69 representan defectos y una representa un parche en la superficie causado por la reparación de un defecto anterior. Cada desviación 69 está asociada a una línea delimitadora 66, que puede ser un cuadro delimitador, otra forma regular como una elipse o una forma libre. Un usuario puede dibujar una línea delimitadora 66 o determinarla automáticamente mediante un software de análisis de imágenes. Para cada desviación 69 se extrae una imagen de desviación 65 que muestra solo una parte de la imagen 6 que comprende parte o la totalidad de la desviación 69. Por ejemplo, si la línea delimitadora 66 es un cuadro delimitador, la imagen de desviación 65 puede ser la parte de la imagen 6 contenida en el cuadro delimitador.
La figura 6 muestra una pala 3 y un sistema de coordenadas de pala. El sistema de coordenadas de la pala tiene una coordenada de tramo x y una coordenada de cuerda y. En el presente ejemplo, la coordenada de extensión tiene su origen en la raíz 32 de la pala 3, y la coordenada de cuerda en el borde de ataque 33. Los puntos en el lado de succión 35 y el lado de presión 36 se pueden distinguir en coordenadas de cuerda asignándoles valores positivos o negativos, respectivamente.
La figura 7 muestra datos de desviación 64 que comprenden
• una imagen de desviación 65, es decir, datos de imagen;
• categorización de desviación 67, tales como
o tipo, por ejemplo: erosión, grasa o aceite, agrietación, daños por rayos, delaminación, área reparada o severidad, por ejemplo: pequeña inconformidad, inconformidad media, inconformidad severa
o recomendación de acción, por ejemplo: no se requiere acción, se requiere reparación inmediata, se requiere un seguimiento continuo, se requiere desmantelamiento; y
• lugar de desviación 68, como x=10135, y=250, indicando la ubicación en milímetros en el sistema de coordenadas de la pala.
Si bien la invención se ha descrito en las presentes realizaciones, se entiende claramente que la invención no se limita a las mismas, sino que se puede realizar y poner en práctica de otro modo de diversas formas dentro del alcance de las reivindicaciones.

Claims (16)

REIVINDICACIONES
1. Método para analizar y visualizar datos de sensor relativos a una turbina eólica, que comprende las etapas de • recuperar una pluralidad de conjuntos de datos de sensor mejorados (7), comprendiendo cada uno datos de sensor (71) almacenados en asociación con datos de posición de sensor (74) que definen la posición de un sensor (42, 44) en el momento en el que se adquirieron los datos de sensor (71), en donde el sensor es una cámara (42) y los datos de sensor (71) son datos de imagen (72);
• visualizar, en un dispositivo de visualización (8), una o más imágenes (6) definidas por los datos de imagen (72);
• visualizar al menos dos imágenes (6) ordenadas de acuerdo con sus datos de posición de sensor (74) asociados; caracterizado por que la etapa de
• visualizar al menos dos imágenes (6) ordenadas de acuerdo con sus datos de posición de sensor (74) asociados; comprende las etapas de
• determinar una probabilidad de ocurrencia de desviaciones (69) dentro de las imágenes de una secuencia de imágenes;
• visualizar automáticamente la secuencia de imágenes;
• modificar automáticamente, de acuerdo con esta probabilidad, al menos un parámetro que controla la visualización de la secuencia de imágenes.
2. El método según la reivindicación 1, en donde la etapa de
• visualizar al menos dos imágenes (6) ordenadas de acuerdo con los datos de posición de sensor (74) asociados; comprende al menos una de las etapas de
• visualizar al menos dos imágenes (6a, 6c) en una fila horizontal, estando la posición relativa de las imágenes (6a, 6c) en la fila de acuerdo con una posición horizontal relativa comprendida en los datos de posición de sensor (74) respectivos asociados a cada imagen (6a, 6c), en donde las imágenes (6a, 6c) en la misma fila horizontal están asociados a la misma posición vertical comprendida en los datos de posición de sensor (74) respectivos;
• visualizar al menos dos imágenes (6a, 6b) en una columna vertical, estando la posición relativa de las imágenes (6a, 6b) en la columna de acuerdo con una posición vertical relativa comprendida en los datos de posición de sensor (74) respectivos asociados a cada imagen (6a, 6b); en donde las imágenes (6a, 6b) en la misma columna vertical están asociados a la misma posición horizontal comprendida en los datos de posición de sensor (74) respectivos.
3. El método según la reivindicación 2, que comprende la etapa de visualizar al menos dos imágenes (6a, 6b) en una columna vertical y en realizar un desplazamiento, de acuerdo con una entrada de usuario, por la columna en dirección vertical en el dispositivo de visualización (8).
4. El método según la reivindicación 3, que comprende las etapas de
• visualizar una sección ampliada (6d) de una primera imagen (6a) de las al menos dos imágenes (6a, 6b) en la columna vertical, mostrando la sección ampliada (6d) parte de la primera imagen (6a) en posición horizontal y con un nivel de ampliación, y
• realizar un desplazamiento, de acuerdo con una entrada de usuario, por la sección ampliada,
• de ese modo, cuando la sección ampliada (6d) alcanza un límite superior o inferior de la primera imagen (6a), cambiar la visualización para mostrar una sección ampliada (6d) de una segunda imagen (6b) adyacente con el mismo nivel de ampliación y situada en la misma posición horizontal dentro de la segunda imagen (6b).
5. El método según una de las reivindicaciones 1 a 3, que comprende las etapas de
• introducir una selección de usuario que especifica una característica lineal seleccionada de la pala (3);
• visualizar una sección ampliada (6d) de una primera imagen (6a) que muestra una parte de la característica lineal seleccionada;
• introducir un comando de desplazamiento y, en respuesta al comando de desplazamiento, mover la sección ampliada (6d) para seguir la característica lineal seleccionada.
6. El método según una de las reivindicaciones 1 a 5, en donde el sensor es una cámara (42) y los datos de sensor (71) son datos de imagen (72), y en donde la etapa de
• procesar la pluralidad de conjuntos de datos de sensor (71) en combinación con los datos de posición de sensor (74), generando de ese modo una vista integrada de los conjuntos de los datos de sensor mejorados (7) comprende las etapas de
• identificar, en imágenes (6) representadas por los datos de imagen (72), una o más desviaciones (69) en la pala (3);
• determinar automáticamente, para cada una de las una o más desviaciones (69), una ubicación de desviación (68) que define una ubicación de la desviación (69) en la pala (3);
• almacenar, para cada una de las una o más desviaciones (69), la ubicación de la desviación (68) como parte de los datos de desviación (64) asociados a la desviación (69).
7. El método según la reivindicación 6, que comprende las etapas de
• presentar una imagen (6) a un usuario;
• introducir una entrada de usuario que especifica una imagen de desviación (65) que muestra la desviación (69) dentro de la imagen (6), en particular en donde la entrada de usuario especifica una línea delimitadora (66), en particular un cuadro delimitador, que delinea la imagen de desviación (65) del resto de la imagen (6);
• almacenar la imagen de desviación (65) como parte de los datos de desviación asociados a la desviación (69); y que comprende opcionalmente las etapas de
• calcular la ubicación de desviación (68) en la pala determinando, en función de la línea delimitadora (66), una ubicación de la imagen de desviación (65) dentro de la imagen (6) y proyectar esta ubicación en un modelo informático de la pala (3);
• almacenar la ubicación de la desviación (68) como parte de los datos de desviación asociados a la desviación (69) .
8. El método según la reivindicación 6, que comprende las etapas de
• realizar un análisis implementado por ordenador de una imagen (6) para identificar una o más imágenes de desviación (65) que muestran desviaciones (69) dentro de la imagen (6);
• almacenar la imagen de desviación (65) como parte de los datos de desviación asociados a la desviación (69); y que comprende opcionalmente la etapa de
• calcular la ubicación de desviación (68) en la pala determinando automáticamente una ubicación de la imagen de desviación (65) dentro de la imagen (6) y proyectar esta ubicación en un modelo informático de la pala (3);
• almacenar la ubicación de la desviación (68) como parte de los datos de desviación asociados a la desviación (69).
9. El método según una de las reivindicaciones 6 a 8, que comprende las etapas de
• determinar automática o manualmente, para cada una de las una o más desviaciones (69), una categorización de desviación (67) que define una o más propiedades de la desviación (69), que comprende al menos uno de o un tipo de la desviación (69),
o una gravedad de la desviación (69),
o una recomendación de acción para tratar la desviación (69); y
• almacenar la categorización de desviación (67) como parte de los datos de desviación asociados a la desviación (69).
10. El método según la reivindicación 9, en donde determinar automáticamente la categorización de desviación (67) comprende el uso de un método de clasificación derivado del aprendizaje automático supervisado.
11. El método según una de las reivindicaciones 6 a 10, que comprende las etapas de
• para dos o más conjuntos de datos de desviación (64) que representan desviaciones (69) identificadas en diferentes imágenes, comparar sus ubicaciones de desviación (68) en la pala (3) y,
• si las ubicaciones son las mismas, almacenar una asociación entre los dos conjuntos de datos de desviación (64) para representar el hecho de que pertenecen a la misma desviación física (69).
12. El método según una de las reivindicaciones 6 a 11, que comprende la etapa de
• emitir, en una forma legible por humanos, un informe relativo a al menos una pala (3) o el conjunto de palas (3) de una turbina (10), comprendiendo el informe: una lista de desviaciones (69) y, para cada desviación (69), al menos
o una imagen de desviación (65),
o una categorización de desviación (67) y una
o ubicación de desviación (68) y
o opcionalmente más de una imagen de desviación (65), si existe más de una imagen de desviación (65) para la misma desviación física (69).
13. El método según una de las reivindicaciones 6 a 11, que comprende las etapas de
• mantener una base de datos que comprende, para al menos una pala (3), datos de desviación (64) y, en particular, también datos de sensor mejorados (7), de una pluralidad de misiones de inspección, en donde hay presentes asociaciones entre conjuntos de datos de desviación (64) de diferentes inspecciones, representando el hecho de que pertenecen a la misma desviación física (69) observada en diferentes momentos en el tiempo;
• realizar opcionalmente un análisis de una progresión en el tiempo de los defectos representados por los datos de desviación (64) de una pluralidad de misiones de inspección sobre una pluralidad de turbinas (10), determinando de ese modo un modelo estadístico de progresión de defectos y utilizar este modelo estadístico para predecir, para una pala (3) seleccionada, la progresión de defectos y opcionalmente planificar acciones de mantenimiento en la pala (3).
14. El método según la reivindicación 1, en donde uno o más parámetros que controlan la visualización de la secuencia de imágenes son del conjunto de:
• una tasa de cambio en la visualización de la secuencia de imágenes;
• una ampliación de las imágenes;
• una selección de secciones de imágenes.
15. El método según la reivindicación 1 o 14, que comprende las etapas de
• aceptar una entrada de usuario;
• de conformidad con la entrada de usuario, realizar uno de parar, modificar la velocidad de cambio o rebobinar la visualización de la secuencia de imágenes.
16. El método según una de las reivindicaciones 13 a 15, en donde la etapa de
• determinar una probabilidad de ocurrencia de desviaciones (69) dentro de las imágenes de una secuencia de imágenes a visualizar;
comprende las etapas de
• introducir una imagen y/o datos de posición asociados a la imagen de la secuencia de imágenes en un sistema de aprendizaje automático que está entrenado para asociar una imagen y/o datos de posición asociados a la imagen con una probabilidad de ocurrencia de desviaciones (69) dentro la imagen, y recuperar la probabilidad de ocurrencia de desviaciones (69) del sistema de aprendizaje automático.
ES18769961T 2017-09-08 2018-09-07 Método para analizar datos de sensor relativos a una turbina eólica Active ES2956065T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17190208.3A EP3453874A1 (en) 2017-09-08 2017-09-08 Method for analysis of sensor data related to a wind turbine
PCT/EP2018/074105 WO2019048597A1 (en) 2017-09-08 2018-09-07 METHOD FOR ANALYZING SENSOR DATA RELATING TO A WIND TURBINE

Publications (1)

Publication Number Publication Date
ES2956065T3 true ES2956065T3 (es) 2023-12-12

Family

ID=59829303

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18769961T Active ES2956065T3 (es) 2017-09-08 2018-09-07 Método para analizar datos de sensor relativos a una turbina eólica

Country Status (3)

Country Link
EP (2) EP3453874A1 (es)
ES (1) ES2956065T3 (es)
WO (1) WO2019048597A1 (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109751202B (zh) * 2019-03-08 2023-10-20 上海中认尚科新能源技术有限公司 一种评估风电机组叶片增功装置性能的检测装置及方法
CN110480331B (zh) * 2019-09-17 2024-03-19 河北大唐国际新能源有限公司 用于标定风机叶片零位安装角的设备
EP3839250A1 (en) * 2019-12-16 2021-06-23 Siemens Gamesa Renewable Energy A/S Method and an apparatus for computer-implemented monitoring of a wind turbine
US11428212B2 (en) 2020-02-11 2022-08-30 Inventus Holdings, Llc Wind turbine drivetrain wear detection using azimuth variation clustering
WO2021173138A1 (en) * 2020-02-27 2021-09-02 Lm Wind Power A/S System and method for monitoring wind turbine rotor blades using infrared imaging and machine learning
US20230105991A1 (en) * 2020-03-17 2023-04-06 Siemens Gamesa Renewable Energy A/S Method of imaging a wind turbine rotor blade
CN112102403B (zh) * 2020-08-11 2022-11-25 国网安徽省电力有限公司淮南供电公司 用于输电塔场景下的自主巡检无人机的高精度定位方法及其系统
US20230392585A1 (en) 2020-10-19 2023-12-07 Vestas Wind Systems A/S Method and tool for detecting defects on a wind turbine generator blade
CN112561288A (zh) * 2020-12-07 2021-03-26 东北大学 一种采用图像模型的风力发电机运行状态智能辩识方法
WO2022171624A1 (en) * 2021-02-09 2022-08-18 Lm Wind Power A/S System and method for inspection of a wind turbine blade shell part
CN113339206B (zh) * 2021-06-10 2022-12-06 湖南圣尧智能科技股份有限公司 一种无人机风电巡检方法及无人机
CN113867406B (zh) * 2021-11-10 2024-07-12 广东电网能源发展有限公司 基于无人机的线路巡检方法、系统、智能设备和存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011017564B4 (de) * 2011-04-26 2017-02-16 Airbus Defence and Space GmbH Verfahren und System zum Prüfen einer Oberfläche auf Materialfehler
US8792705B2 (en) * 2011-11-03 2014-07-29 United Technologies Corporation System and method for automated defect detection utilizing prior data
DE102013113326A1 (de) * 2013-12-02 2015-06-03 Hgz Patentvermarktungs Gmbh Verfahren zum optischen Erfassen einer Windkraftanlage zu Prüfzwecken mit Hilfe eines Luftfahrzeuges
DE202015102791U1 (de) * 2015-05-29 2015-07-01 Nikolaus Kreuzhermes System zur Erfassung von Bilddaten einer Oberfläche eines Objekts und Kamerasystem zur Verwendung in einem solchen System
WO2017050893A1 (en) * 2015-09-22 2017-03-30 Pro-Drone Lda. Autonomous inspection of elongated structures using unmanned aerial vehicles

Also Published As

Publication number Publication date
EP3453874A1 (en) 2019-03-13
WO2019048597A1 (en) 2019-03-14
EP3679247B1 (en) 2023-06-21
EP3679247C0 (en) 2023-06-21
EP3679247A1 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
ES2956065T3 (es) Método para analizar datos de sensor relativos a una turbina eólica
ES2913948T3 (es) Método y vehículo aéreo no tripulado para la adquisición de datos de sensor relacionados con una turbina eólica
EP3743332B1 (en) Solar panel inspection by unmanned aerial vehicle
US11508056B2 (en) Drone inspection analytics for asset defect detection
US11555477B2 (en) Bird or bat detection and identification for wind turbine risk mitigation
JP6918672B2 (ja) 劣化診断システム
US9805456B1 (en) Method and system for assessing damage to infrastructure
JP7030431B2 (ja) 点検支援システム及び点検支援制御プログラム
JP6779698B2 (ja) 舗装ひび割れ解析装置、舗装ひび割れ解析方法及び舗装ひび割れ解析プログラム
Xu et al. BrIM and UAS for bridge inspections and management
JP6868487B2 (ja) 被写体異常有無調査システム
ES2730975T3 (es) Procedimiento y sistema para examinar una superficie en cuanto a defectos de material
CN112904877A (zh) 一种基于无人机的风机叶片自动巡检系统及方法
JP2018021491A (ja) システム及び飛行ルート生成方法
CN106762451A (zh) 基于无人机的风机叶片损伤检测方法、装置及系统
JP5255857B2 (ja) 乱気流予測システムおよび乱気流予測方法
CN113610749B (zh) 基于神经网络的风机叶片缺陷检测方法
AU2018357616A1 (en) Information processing device, information processing method, program, and information processing system
Yu et al. Unmanned aircraft path planning for construction safety inspections
US20240078654A1 (en) System and method for inspection of a wind turbine blade shell part
Turkan Bride Structural Inspections using Bridge Information Modeling (BrIM) and Unmanned Aerial Vehicles (UAVs)
Lin et al. Bridge Inspection with Aerial Robots and Computer Vision: A Japanese National Initiative
KR20230138105A (ko) LiDAR 데이터를 활용한 드론 사진 이미지 단위 변환 방법
CN117392087A (zh) 一种基于图像识别的风电场叶片检测方法及系统
KR20240003935A (ko) 짐벌장치가 장착된 무인기를 이용한 전력설비 진단장치 및 그 동작방법