ES2821735T3 - Sistema y procedimiento de detección de pájaros - Google Patents

Sistema y procedimiento de detección de pájaros Download PDF

Info

Publication number
ES2821735T3
ES2821735T3 ES15763682T ES15763682T ES2821735T3 ES 2821735 T3 ES2821735 T3 ES 2821735T3 ES 15763682 T ES15763682 T ES 15763682T ES 15763682 T ES15763682 T ES 15763682T ES 2821735 T3 ES2821735 T3 ES 2821735T3
Authority
ES
Spain
Prior art keywords
avian
interest
cameras
airspace
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15763682T
Other languages
English (en)
Inventor
Carlos Jorquera
Aaron Coppage
Jason Desalvo
Ryan Luttrell
Jason Luttrell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Identiflight International LLC
Original Assignee
Identiflight International LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Identiflight International LLC filed Critical Identiflight International LLC
Application granted granted Critical
Publication of ES2821735T3 publication Critical patent/ES2821735T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F03MACHINES OR ENGINES FOR LIQUIDS; WIND, SPRING, OR WEIGHT MOTORS; PRODUCING MECHANICAL POWER OR A REACTIVE PROPULSIVE THRUST, NOT OTHERWISE PROVIDED FOR
    • F03DWIND MOTORS
    • F03D7/00Controlling wind motors 
    • F03D7/02Controlling wind motors  the wind motors having rotation axis substantially parallel to the air flow entering the rotor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F03MACHINES OR ENGINES FOR LIQUIDS; WIND, SPRING, OR WEIGHT MOTORS; PRODUCING MECHANICAL POWER OR A REACTIVE PROPULSIVE THRUST, NOT OTHERWISE PROVIDED FOR
    • F03DWIND MOTORS
    • F03D17/00Monitoring or testing of wind motors, e.g. diagnostics
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F03MACHINES OR ENGINES FOR LIQUIDS; WIND, SPRING, OR WEIGHT MOTORS; PRODUCING MECHANICAL POWER OR A REACTIVE PROPULSIVE THRUST, NOT OTHERWISE PROVIDED FOR
    • F03DWIND MOTORS
    • F03D7/00Controlling wind motors 
    • F03D7/02Controlling wind motors  the wind motors having rotation axis substantially parallel to the air flow entering the rotor
    • F03D7/0264Controlling wind motors  the wind motors having rotation axis substantially parallel to the air flow entering the rotor for stopping; controlling in emergency situations
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F03MACHINES OR ENGINES FOR LIQUIDS; WIND, SPRING, OR WEIGHT MOTORS; PRODUCING MECHANICAL POWER OR A REACTIVE PROPULSIVE THRUST, NOT OTHERWISE PROVIDED FOR
    • F03DWIND MOTORS
    • F03D80/00Details, components or accessories not provided for in groups F03D1/00 - F03D17/00
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F03MACHINES OR ENGINES FOR LIQUIDS; WIND, SPRING, OR WEIGHT MOTORS; PRODUCING MECHANICAL POWER OR A REACTIVE PROPULSIVE THRUST, NOT OTHERWISE PROVIDED FOR
    • F03DWIND MOTORS
    • F03D80/00Details, components or accessories not provided for in groups F03D1/00 - F03D17/00
    • F03D80/10Arrangements for warning air traffic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F05INDEXING SCHEMES RELATING TO ENGINES OR PUMPS IN VARIOUS SUBCLASSES OF CLASSES F01-F04
    • F05BINDEXING SCHEME RELATING TO WIND, SPRING, WEIGHT, INERTIA OR LIKE MOTORS, TO MACHINES OR ENGINES FOR LIQUIDS COVERED BY SUBCLASSES F03B, F03D AND F03G
    • F05B2270/00Control
    • F05B2270/80Devices generating input signals, e.g. transducers, sensors, cameras or strain gauges
    • F05B2270/804Optical devices
    • F05B2270/8041Cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/70Wind energy
    • Y02E10/72Wind turbines with rotation axis in wind direction

Abstract

Sistema de detección aviar para detectar una especie aviar voladora, donde la detección se realiza en un espacio aéreo que tiene un volumen equivalente a un hemisferio equivalente promedio con un radio medio seleccionado entre una gama que es mayor o igual a 0,5 km y menor o igual a 1,2 km, donde el sistema de detección aviar comprende: una pluralidad de primeros sistemas de captación de imágenes que comprenden una pluralidad de primeras cámaras (615), donde cada una de dichas primeras cámaras (615) tiene un campo amplio de visión y están alineadas en direcciones de alineación distintas para proporcionar una cobertura hemisférica del espacio aéreo que rodea dicho sistema de detección aviar; un sistema de captación de imágenes estéreo que comprende al menos una cámara estéreo (620), donde cada cámara estéreo (620) consta de un par de segundas cámaras (625) que tienen independientemente un gran zoom; un indicador (630) conectado operativamente a cada una de las cámaras estéreo (620) para posicionar cada una de dichas cámaras estéreo (620) para captar una imagen de un objeto móvil (230, 231, 232, 233) detectado por las primeras cámaras (615); y un procesador conectado operativamente para recibir datos de imágenes de ambas primeras cámaras (615) y de cada cámara estéreo (620), donde el procesador se ha configurado para: identificar una producción o salida de un subgrupo de píxeles de las primeras cámaras (615) que corresponde al objeto móvil (230, 231, 232, 233), la producción del subgrupo de píxeles correspondientes a una región de interés móvil (110) definida oír el subgrupo de píxeles, donde cada pixel se asocia a un valor de intensidad; obtener uno o más atributos de identificación del umbral para la producción del subgrupo de píxeles de las primeras cámaras (615), los atributos de identificación del umbral con respecto a una caracterización inicial del subgrupo de píxeles como corresponde al objeto móvil (230, 231, 232, 233) sobre el que se puede realizar otro análisis posterior, donde al menos un atributo de identificación del umbral comprende un parámetro límite que es una característica del límite de los cantos de una especie aviar voladora; analizar uno o más atributos de identificación del umbral para decidir si el objeto móvil (230, 231, 232, 233) es un objeto móvil de interés; obtener uno o más parámetros de identificación aviar para el objeto móvil (230, 231, 232, 233) de interés de la cámara estéreo (620), los parámetros de identificación aviar son seleccionados del grupo formado el tamaño, la velocidad, envergadura de las alas, forma de las alas, postura aviar o ratio de anchura respecto a altura de la envergadura del ala o viceversa, color, forma del contorno, geometría, intensidad de luz y trayectoria de vuelo, donde la cámara estéreo (620) se utiliza para determinar una distancia del objeto móvil de interés, en el caso en que el procesador se haya además configurado, determinar si la distancia del objeto móvil de interés está dentro de la distancia definida por el usuario (215); cuando la distancia del objeto móvil de interés está dentro de una distancia definida por el usuario (215): comparar uno o más parámetros de identificación aviar con uno o más parámetros de identificación aviar de referencia correspondientes e identificar si el objeto móvil de interés es una especie aviar de interés.

Description

DESCRIPCIÓN
Sistema y procedimiento de detección de pájaros
Fundamento de la invención
Existe un interés y la necesidad de una detección fiable y sólida de los pájaros volando o pájaros voladores. Los sistemas de detección aviar tienen muchas aplicaciones, que oscilan desde recuentos aviares, clasificación y/o identificación en un lugar geográfico específico, hasta sistemas de disuasión y contramedidas para la aviación y los sistemas de producción eólica. Un objetivo común de dichos sistemas es la sustitución de recuentos inexactos por el hombre y recuentos subjetivos por un sistema de detección fiable y automatizado. Esta es una reflexión sobre la detección por el hombre de pájaros voladores. Requiere un entrenamiento intensivo para ser capaces de identificar adecuadamente los pájaros y especies de estos. Se trata pues de una tarea muy intensa e imprecisa.
Una aplicación específica de los sistemas de detección de pájaros es la generación de energía eólica. Existe una preocupación en lo que se refiere al riesgo de que los pájaros sufran una colisión con los aerogeneradores. Un reto para evaluar exactamente el riesgo de colisión de los pájaros con los aerogeneradores es la dificultad a la hora de determinar con fiabilidad el número de pájaros y especies de dichos pájaros en una zona de una turbina o en una turbina que va a ser localizada. Es difícil monitorizar continuamente el espacio aéreo, y por tanto se realizan búsquedas de muertes por choque de pájaro convencionales usando programas sistemáticos con un cálculo intrínseco de muertes basado en una distribución uniforme respecto al tiempo, tal como se explica en “Impacts of Wind Energy Facilities on Wildlife and Wildlife Habitat” Technical Review 07-2, Sept. 2007 (disponible en wildlife.org. /documents/technical-reviews/docs/Wind07-2.pdf). Esto tiene grandes inconvenientes, que incluyen no tener en cuenta muertes en grupo, pájaros heridos que salen del área inmediata o son retirados por aves de carroña y el reto asociado a localizar animales muertos de forma fiable y sistemática. Independientemente de dichas inexactitudes, existe documentación sobre muertes de aves de rapiña en muertes por aerogeneradores. Ver, por ejemplo, Id. En p.15 y las referencias allí citadas, que incluyen las instalaciones del parque eólico de California como el Altamont Pass Wind Resource Areas (APWRA), San Goronio and Tehachapi. Los cálculos anuales de cadáveres de aves de rapiña en APWRA oscilan entre 881-1300 o bien aproximadamente 1,5-2,2 muertes de aves de rapiña/MW/año, que incluyen unas 75 a 116 águilas reales. Con estas estadísticas en mente, existe interés en los sistemas de detección de pájaros que se van a utilizar con la planificación, el desarrollo, la expansión y el funcionamiento de los parques eólicos.
Un ejemplo de un sistema de detección y disuasión de pájaros es dtbird@ por Liquen (descripción disponible en dtbird.com/index.php/en/technology/detection). Una limitación fundamental de dicho sistema es la eficacia en la detección del 86-96% para una distancia de solamente 150 m desde el aerogenerador, con una eficacia que cae a medida que aumenta la distancia.
Otras implementaciones de sistemas de detección aviar se basan en el radar incluyendo, por ejemplo, los Merlin Avian Radar Systems por DeTect (www.detect-inc.com/avian.htlm). Sin embargo, dichos sistemas requieren un equipo caro y voluminoso de radares y no son adecuados para distinguir entre las especies aviar de interés. Por ejemplo, un inconveniente fundamental es la incapacidad de distinguir entre una especie de ave de rapiña valorada o en vías de extinción y otra especie de pájaro que no se encuentra en vías de extinción ni tiene importancia comercial. Por ejemplo, sería beneficioso distinguir entre un águila real y un buitre americano, por ejemplo, con una puesta en práctica para la velocidad de las paletas del aerogenerador según las especies de interés únicamente. Los sistemas de radar no son apropiados para dichas aplicaciones, puesto que no obtienen detalles visuales que de algún modo distingan entre distintas especies de aves de un tamaño similar y/o características de vuelo similares. Además, los sistemas a base de radares producen muchos falsos positivos, que van desde objetos que se mueven de un modo similar a una paleta de aerogenerador.
La patente americana 2013/0050400 (Stiesdal) describe una disposición para impedir la colisión de un animal volador con un aerogenerador. Una primera cámara captura imágenes del entorno de un aerogenerador y detecta un objeto que se mueve. Tras la detección del objeto que se mueve, se coloca una segunda cámara para capturar dicho objeto móvil y para identificar las características de los pájaros. La patente americana nr. 8598998 describe un sistema para evitar la colisión de animales. Se han descrito otros sistemas, por ejemplo, en las patentes americanas 2009/0185900 (Hirakata) y 2008/0298692 (Silwa). Cada uno de esos sistemas tiene limitaciones inherentes, como las de no proporcionar una cobertura completa de todas las direcciones del espacio aéreo circundante, no suministrar la eficacia de detección suficiente y/o no poder distinguir de un modo fiable entre las especies aviares y limitar la detección a especies aviares específicas.
Debido al riesgo de aves migratorias, aves de rapiña y otras aves de interés que incluyen murciélagos, se desea tener un sistema fiable, económico y robusto para identificar ciertas especies de aves, antes de colocar aerogeneradores, así como durante el funcionamiento de estos. Se dispone aquí de varios métodos y sistemas para la detección aviar, que incluyen sistemas de detección altamente fiables y sensibles sobre márgenes de detección suficientemente grandes para proporcionar tiempo suficiente a la hora de actuar con el fin de minimizar o evitar el contacto no deseado entre una especie específica aviar y el aerogenerador, mientras se minimiza el cierre o apagado innecesario de aerogeneradores para especies aviar o bien otros objetos móviles que no son de interés, mientras se evita la necesidad de grandes grupos de observadores humanos.
Resumen de la invención
El problema es abordado por un sistema de detección aviar conforme a la reivindicación 1. Otras configuraciones de la invención son expuestas en las reivindicaciones dependientes 2 a 5. El problema es también abordado por un método de detección de un pájaro moviéndose conforme a la reivindicación 6. Otras configuraciones de la invención se exponen en las reivindicaciones dependientes 7 a 10.
Los sistemas y métodos revelados disponen de un método de detección de pájaros voladores en grandes volúmenes o espacios aéreos que es a la vez económico y fiable. Los sistemas son totalmente expansibles, siendo compatibles con cualquier número de cámaras y sistemas, dependiendo de la aplicación de interés, con áreas más grandes abarcadas al aumentar el número de sistemas. La integración de cámaras configuradas especialmente con unos algoritmos eficientes facilita la determinación rápida y precisa de objetos moviéndose conjuntamente a si dichos objetos representan un pájaro de interés garantizando un análisis posterior de objetos móviles en un espacio aéreo definido por el usuario. Un primer amplio campo de cámaras de visualización ayuda con el control simultáneo de un espacio aéreo muy grande y la visualización de un gran número de objetos voladores. Diversos algoritmos, que incluyen el reconocimiento de patrones, la detección de cantos y el análisis de parámetros límite, y el análisis del comportamiento de la posición del cuerpo aviar y de la postura o bien de la perspectiva con relación al entorno, refina además la decisión de si se debiera analizar un objeto móvil detectado. Una segunda cámara de gran zoom, como una cámara estéreo, hace zoom ópticamente sobre objetos móviles detectados relevantes y puede disponer de información rápida respecto a la distancia del objeto que se mueve e información adicional en relación con características ópticas más finas del objeto móvil para la identificación de la especie de un pájaro volador.
Una ventaja de los sistemas aquí planteados es la capacidad de visualizar el espacio aéreo circundante en todas las direcciones de visión disponibles desde una fuente o bien origen centrado en o alrededor de los sistemas. A esta capacidad de visualizar todas las imágenes desde un sistema hacia el espacio aéreo circundante se hace referencia aquí como que proporciona una cobertura hemisférica básicamente completa del espacio aéreo circundante. La configuración de las pantallas y la integración con un procesador que analiza imágenes facilita la detección fiable a una gran distancia de cualquier dirección de visión, mayor de unos 600m y de hasta al menos 1,2 km. La capacidad de detectar de un modo fiable un objeto volador a distancias tan grandes es particularmente útil para los sistemas de aerogeneradores donde un ave rapaz que vuela o desciende rápido requiere una detección suficientemente avanzada y el aviso para permitir la implementación de la acción antes del impacto. Por ejemplo, la detección fiable en una gama entre unos 800 m y 1 km es beneficiosa para aportar tiempo de parada suficiente para una pala de aerogenerador moviéndose antes de que un pájaro acelerando contacte potencialmente con una pala de aerogenerador. Además, la gran cobertura del espacio aéreo reduce el número total de sistemas requeridos, con un sistema proporcionando cobertura aeroespacial fiable que puede requerir una pluralidad de sistemas convencionales. Esto es un reflejo de la capacidad de los sistemas instantáneos para la recogida, almacenamiento y/o análisis de grandes volúmenes de datos, que se incluyen simultáneamente.
El sistema de detección aviar puede ser para detectar un pájaro volador en un espacio aéreo. El sistema consta de una primera cámara que tiene un campo amplio de visión para detectar un objeto móvil; una segunda cámara con un gran zoom; un posicionador conectado a la segunda cámara para colocar la segunda cámara de manera que capte la imagen detectada por la primera cámara; y un procesador conectado en funcionamiento para recibir datos de imágenes desde la primera cámara, la segunda cámara, o ambas para identificar un objeto móvil que es un pájaro volador en base a los datos de la imagen. Una ventaja de los sistemas de detección instantánea es la capacidad de completar básicamente la cobertura hemisférica del espacio aéreo que rodea el sistema de detección aviar hasta largas distancias desde el sistema.
Cualquiera de los sistemas descritos aquí puede comprender una pluralidad de primeras pantallas y segundas pantallas dispuestas en una configuración espacial para proporcionar una cobertura hemisférica sustancialmente completa.
La primera pantalla puede constar de un ojo de pez o gran angular o bien detector configurado para captar la imagen de datos visuales de un espacio aéreo circundante básicamente hemisférico, y puede incluir una pluralidad de imágenes individuales para proporcionar el campo de visión deseado.
La cobertura hemisférica básicamente completa proporciona el recubrimiento de un volumen de espacio aéreo que tiene una distancia de detección desde la primera cámara que es mayor o igual a 0,6 km y menor o igual a 2 km o bien comprendido entre 0,6 km y 1,2 km. Teniendo esto en cuenta, cualquiera de los espacios aéreos que aquí se disponen puede tener un volumen asociado a partir del cual se determina un radio semiesférico correspondiente (por ejemplo, Vespacio aéreo= (2/3)n r3, donde r se selecciona de manera que proporciona el volumen espacial aéreo equivalente al de ser controlado por el sistema). De acuerdo con ello, r aporta un tipo de distancia de detección media que es captada eficazmente por cualquiera de 0los sistemas aquí dispuestos. La variación de r respecto a la superficie exterior del volumen aeroespacial se puede cuantificar estadísticamente, tanto por una desviación estándar, un error estándar de la media o algo similar. En un aspecto, la desviación estándar es menor o igual a aproximadamente el 20%, 10% o 5% de un valor medio de r. Para los sistemas independientes que no observan directamente el espacio aéreo inmediatamente sobre el sistema, un segundo sistema situado a una distancia de separación puede aportar la cobertura deseada de dicho espacio aéreo, de manera que se consiga una cobertura hemisférica completa o básicamente en combinación alrededor del sistema.
Los sistemas y los métodos aquí proporcionados se pueden describir en términos de eficacia de la detección para una especie aviar de interés seleccionada que sea mayor al 96% para el volumen de espacio aéreo, que incluya más de un 99% o bien 99,9% de probabilidad de manera que la posibilidad de perder una especie aviar de interés sea estadísticamente insignificante. Los sistemas y los métodos aquí proporcionados se pueden describir como que tienen un porcentaje de falsos positivos para una especie aviar de interés que es menor o igual al 5% para el volumen de espacio aéreo. La eficacia de detección junto con el bajo nivel de identificación de falsos positivos es una mejora fundamental al respecto, teniendo en cuenta en especial el gran volumen de espacio aéreo que es controlado, como entre unos 0,45 km3 y 16,8 km3 o bien 0,45 km3 y 2,1 km3 (lo que corresponde a distancias de detección entre unos 0,6 km y 2 km, o bien 0,6 km y 1 km, respectivamente), o bien cualquier otro intervalo inferior de las mismas.
La especie aviar de interés puede ser un águila real o bien una especie aviar en extinción.
El procesador identifica una producción de un subgrupo de pixeles de la primera cámara o de la segunda cámara que corresponde al objeto móvil. El subgrupo de píxeles puede comprender píxeles colindantes, píxeles directamente adyacentes, o ambos. La producción del subgrupo de píxeles puede ser una secuencia de valores de intensidad, donde cada valor corresponda a una intensidad de píxel individual y/o a un valor de color, con varios colores asignados a un valor numérico para ayudar a la identificación del color. La producción del subgrupo de pixeles puede ser una producción que varía con el tiempo. De este modo, las regiones son identificadas con respecto a un objeto móvil.
El procesador analiza la producción del subgrupo de pixeles para determinar si el objeto móvil es un pájaro volador. La producción puede ser además un fotograma individual o puede constar de más de un fotograma, un intervalo de tiempo de un solo fotograma o de más de un fotograma, o una combinación de estos, para facilitar una producción que varía con el tiempo.
El procesador analiza la producción para identificar la presencia de uno o más atributos de identificación del umbral, como un parámetro de identificación del umbral que sea un parámetro limítrofe. El parámetro limítrofe puede tratarse de una característica del contorno de los cantos de un pájaro volador. De este modo, el parámetro de identificación del umbral puede disponer de un corte inicial para determinar si se sigue analizando o se caracteriza el subgrupo de pixeles.
En un aspecto, la característica limítrofe del contorno se puede identificar determinando un gradiente de intensidad de la producción del subgrupo de pixeles. La característica limítrofe del contorno se puede identificar comparando el gradiente de intensidad con uno o más valores de referencia. En este aspecto, los “valores de referencia” se pueden utilizar para distinguir los objetos que correspondan a objetos no animales, como nubes, escombros, plantas o bien objetos artificiales. Por ejemplo, la característica limítrofe del contorno puede corresponder a un parámetro de rectitud de cantos, y la producción identificada como que corresponde a un objeto artificial para un parámetro de rectitud de contornos indicativo de una línea recta construida artificialmente. Las líneas rectas o las curvas indebidamente lisas tienden a ser artificiales por naturaleza y se pueden usar para ayudar con la caracterización preliminar de un objeto móvil que no se trate de un pájaro volador. De acuerdo con ello, la característica limítrofe de un contorno se puede relacionar con la cuantificación de un parámetro relacionado, como con la longitud, curvatura, suavidad, aspereza, color, gradiente de luz, intensidad de luz, longitud de onda de luz, uniformidad o algo similar. En un aspecto, la característica limítrofe del contorno corresponde a un pajaro volador, como una especie aviar de interés en peligro de extinción.
Uno o más de los atributos de identificación del umbral puede ser un parámetro de evolución temporal, como un parámetro de evolución temporal que corresponda a una característica de la evolución del tiempo de movimiento de un pájaro volador.
En un aspecto, uno o más atributos de identificación del umbral pueden ser un parámetro del color. En un aspecto, el parámetro del color puede corresponder a una característica del color característica de un pájaro volador.
Tras la identificación de la presencia de uno o más atributos de identificación del umbral, el procesador analiza la producción del subgrupo de pixeles para determinar uno o más parámetros de identificación aviar.
El procesador puede comparar la producción del subgrupo de pixeles con uno o más valores de referencia en una base de datos de imágenes de referencia para determinar si el objeto móvil es un pajaro volador, lo que incluye asignar una probabilidad de que el objeto móvil es un pájaro volador y/o una especie de interés de pájaro volador. De este modo, se pueden priorizar los recursos de forma apropiada para los objetos de mayor probabilidad.
El procesador compara la producción del subgrupo de pixeles con los valores de referencia para determinar uno o más parámetros de identificación aviar seleccionados del grupo formado por el tamaño, la velocidad, la amplitud del ala, la forma del ala, la postura del pájaro o la relación entre el ancho con respecto a la altura de la amplitud del ala o viceversa (w/h o h/w), color, forma del contorno, geometría, intensidad de luz, y trayectoria del vuelo. En este contexto, los “valores de referencia” se pueden referir a valores que se obtienen empíricamente a partir de pájaros voladores conocidos. Por ejemplo, se puede observar un pájaro volador y se obtienen valores sobre su tamaño, velocidad, amplitud de ala, forma de ala, color, forma limítrofe, geometría, intensidad, postura y trayectorias típicas que a su vez se definen por rangos acerca de un valor promedio. Estos parámetros se pueden obtener para un pájaro específico o para una pluralidad de pájaros. Los valores de referencia se pueden disponer en una base de datos de imágenes de referencia o bien pueden ser determinados usando uno o más algoritmos de imágenes de referencia, mientras la base de datos o el algoritmo están conectados al procesador. El algoritmo de la imagen de referencia puede ser parte de una aplicación de aprendizaje automático de manera que el sistema se caracterice por ser un sistema inteligente que aprende y actualiza continuamente para mejorar la caracterización aviar a medida que se obtienen y caracterizan más imágenes de referencia.
En un aspecto, el procesador analiza la producción del subgrupo de píxeles a través de un algoritmo de reconocimiento de patrones. El algoritmo de reconocimiento de patrones puede identificar el subgrupo de pixeles como una especie de pájaro volador, que incluye una especie de ave de rapiña en extinción.
Cualquiera de los sistemas y métodos aquí dispuestos puede tener un procesador que analice la producción del subgrupo de pixeles de una pluralidad de fotogramas que contienen los datos de las imágenes, donde el subgrupo de pixeles se mueve espacialmente con el tiempo (cámara estacionaria-fijada) y el movimiento con el tiempo se utiliza para determinar una trayectoria de la producción del subgrupo de pixeles. De este modo, la trayectoria puede comprender posiciones, distancias, velocidades, direcciones o alguna combinación de estas con el tiempo. De acuerdo con ello, los sistemas y los métodos pueden consistir además en determinar una trayectoria predictiva que corresponda a un intervalo de tiempo futuro. Para dichas situaciones donde un objeto está volando directamente hacia una pantalla, el movimiento se puede determinar efectivamente por un aumento en el número de pixeles en la producción del subgrupo de pixeles con el tiempo, a medida que el objeto se desplaza hacia la cámara. Del mismo modo, para un objeto que se aleja, se puede reducir con el tiempo el número de píxeles en la producción del subgrupo de píxeles. Un objeto móvil que no está cambiando sustancialmente en distancia desde la pantalla, puede equivaler a un subgrupo de pixeles que no varia significativamente en número con el tiempo, pero si sufrirá un cambio en la localización de los pixeles con respecto a una cámara que no se mueve, en comparación con un vuelo de ida y vuelta desde una cámara.
Cualquiera de los algoritmos de reconocimiento puede constar de una base de datos de parámetros físicos asociados a una especie de interés aviar voladora, y el procesador compara un parámetro físico determinado de la primera cámara o de la segunda cámara con un parámetro físico correspondiente de la base de datos de parámetros físicos para filtrar los objetos móviles que no son un pájaro volador o bien no son una especie aviar voladora de interés y/o asignar probabilidades. Dichos parámetros se conocen aquí también como “parámetros de identificación aviar”. El parámetro de identificación aviar es cualquier parámetro observable útil para clasificar un objeto móvil como una especie aviar, lo que incluye las especies aviar específicas. Los ejemplos incluyen parámetros físicos del pájaro, como el tamaño, color, forma o bien otras características físicamente características. Otros parámetros incluyen la trayectoria del vuelo o el movimiento de las alas (o la falta de este).
Cualquiera de los sistemas y métodos de detección aviar se puede utilizar para detectar un pájaro volador de interés que sea un ave de rapiña protegida por el estado o federalmente protegida, por una agencia o gobierno, como una especie en peligro de extinción o un águila real.
Cualquiera de los sistemas de detección aviar utiliza un procesador que filtra los objetos que se mueven que no corresponden a especies aviares de interés. Por ejemplo, el pájaro puede corresponder a una multitud de especies que no están amenazadas como el buitre americano. Alternativamente, el objeto móvil puede incluso no ser un pájaro, sino residuos o deshechos que vuelan por el espacio aéreo, una aeronave, el movimiento de las nubes, o bien otro movimiento natural de la vegetación. Los sistemas que aquí se disponen alojan dichos objetos móviles y para dichos objetos no se implanta ningún tipo de acción. Esto contrasta con los sistemas a base de radares que no pueden averiguar de forma eficiente dichos falsos positivos.
En un aspecto, los sistemas y métodos se han descrito además en términos de un parámetro óptico de las cámaras. Por ejemplo, el primer campo de visión amplio de la cámara se puede cuantificar y seleccionar a partir de una gama mayor o igual a 0,5 km2 e inferior o igual a 1,6 km2 a una distancia de detección definida, como a unos 0,8 km hasta aproximadamente 1,2 km. Alternativamente, la primera cámara se puede describir como que tiene una cierta gama del campo de visión. Para una primera cámara que tiene una lente rectangular, los campos de visión se pueden describir en una dirección horizontal y en una dirección vertical, como entre unos 60° y 180° seleccionados independientemente o bien entre 60° y 120°. Un primer sistema de creación de imágenes (por ejemplo, un campo de visión amplio o un sistema WFOV) puede estar formado por una pluralidad de primeras cámaras, como un par de cámaras alineadas una con respecto a la otra en un ángulo de 60 a 70°, que, en combinación, proporcionen una cobertura fiable de al menos 120°. Una combinación de dichas primeras cámaras que pueda disponer de una cobertura circunferencial completa y, de hasta un punto, una cobertura hemisférica. En un aspecto, cualquiera de las cámaras aquí proporcionada se puede describir como que tiene una resolución. Tal como aquí se define, la resolución se refiere a la capacidad de resolver de un modo fiable los elementos de un tamaño definido. Por ejemplo, la primera cámara puede tener una resolución que se adecuada para detectar un objeto móvil que sea un pájaro. En un aspecto, la resolución de la primera cámara capaz de detectar un objeto en movimiento que pueda ser un pájaro se sitúa entre unos 8” /píxel hasta unos 14” /píxel. Del mismo modo, la resolución de la primera cámara puede ser de unos 0,3m. Alternativamente, se puede describir la resolución de la primera cámara en términos funcionales como que es de una resolución suficiente para detectar un pájaro de interés que tiene un tamaño determinado, como el tamaño de un pájaro de interés, que incluye un águila real.
La segunda cámara se puede describir, por ejemplo, como que tiene un zoom alto, que se puede seleccionar a partir de una gama mayor o igual a 10x e inferior o igual a 1000x, o que se puede fijar, pero a un zoom alto, y puede ser descrita también como parte de una cámara estéreo que proporciona información a distancia. Similar a la resolución descrita para la primera cámara, la segunda cámara se puede describir en términos de una resolución. En particular, la segunda cámara se ha configurado para poder proporcionar un zoom elevado en una región identificada, al menos en parte, por la primera cámara, como un pájaro en movimiento. La resolución se selecciona de manera que aporta información confirmando que el objeto móvil es un pájaro y sirve para identificar la especie. En un aspecto, la resolución de la segunda cámara es mayor o igual a 0,25 cm/píxel e inferior o igual a 10 cm /píxel, lo que incluye mayor o igual a 0,25 cm/píxel y mayor o igual a 1 cm /píxel. A esta resolución tan alta, se puede obtener información sobre los rasgos de identificación precisos, para el objeto móvil, el color de ojos, el color del pico, la forma de erizar sus plumas, la forma de las plumas de la cola, la forma de la punta del ala, y otras formas visualmente marcadas de las especies aviar de interés. El “elevado zoom” puede referirse simplemente a la resolución mayor si se compara con la primera cámara, con un zoom elevado fijado usado en combinación con un posicionador, para garantizar que la segunda cámara capte la imagen de una región deseada identificada por la primera cámara.
Para conseguir un campo de visión que detecte un pájaro colocado en cualquier parte en el espacio aéreo que rodea el sistema de cámaras se pueden colocar una pluralidad de primeras cámaras en distintas direcciones de alineación para conseguir 360° completos y la cobertura hemisférica por parte de los campos de visión de las primeras cámaras incluyendo una dirección de alineación vertical. En este aspecto, una de las primeras cámaras se colocará en una dirección de alineación vertical para proporcionar cobertura para el espacio aéreo en una dirección vertical que no queda cubierta por el campo de visión de otra primera cámara. Esto es especialmente importante para el espacio aéreo que se encuentra alrededor de un objeto físico que tiene una altura vertical como un edificio, un vehículo, o un molino de viento. Una pluralidad de dichas primeras cámaras orientadas garantiza la cobertura de todos los ángulos respecto al edificio, al campo de aviación o al aerogenerador. Alternativamente, se pueden usar una pluralidad de sistemas para garantizar la deseada cobertura hemisférica.
Un objeto móvil puede ser identificado de forma continuada para el movimiento de objetos desde el campo de visión de una primera cámara hasta un campo de visión de la segunda cámara adyacente, que forma propiamente parte del sistema o bien parte de un segundo sistema diferente.
Según lo que se desee, las cámaras podrán captar la imagen de un campo de visión en el espectro visible y/o en el espectro no visible. Por ejemplo, captar la imagen de una emisión por infrarrojos del campo de visión es útil para la detección de animales vivos de una temperatura distinta de la del espacio aéreo que los rodea. De acuerdo con ello, la primera cámara, la segunda cámara, o ambas tanto la primera como la segunda, se pueden configurar para detectar una gama de longitud de onda que corresponda a la luz en el espectro visible o infrarrojo. Dicho intervalo de longitudes de onda en el infrarrojo es útil para la identificación en unas condiciones de tiempo adverso o de poca luz (por ejemplo, noche), o bien en cualquier condición donde el color/la visibilidad no sea detectable.
Cualquiera de los sistemas de detección se puede configurar para identificar simultáneamente una pluralidad de objetos móviles, y tal como se desea, determinar los parámetros de identificación aviar y los atributos de identificación del umbral, y las probabilidades asociadas a ellos.
Una aplicación de alguno de los sistemas y métodos de detección aviar aquí descritos es con un aerogenerador y ésta se ha utilizado para reducir la incidencia de las muertes por un aerogenerador, incluyendo especies de interés específicas como un ave de rapiña o un águila real.
Una pluralidad de sistemas de detección aviar se puede conectar a un aerogenerador en distintas direcciones de alineación para conseguir dicha cobertura hemisférica básicamente completa de dicho espacio aéreo que rodea el aerogenerador. Por ejemplo, una de las primeras cámaras se puede orientar en una dirección hacia arriba para cubrir una zona del espacio aéreo sobre el aerogenerador, mientras las otras cámaras proporcionan cobertura del espacio aéreo más próxima al suelo en una orientación de cobertura completa de 360°. Alternativamente, los sistemas pueden encontrarse solos y separados espacialmente de los aerogeneradores, de manera que se dispongan estratégicamente alrededor y dentro del área que va a ser controlada, lo que incluye aproximadamente una presencia en el perímetro de un aerogenerador o de un parque eólico que comprenda una pluralidad de aerogeneradores separados espacialmente. A este respecto, se puede lograr una reducción significativa del número total de sistemas puesto que básicamente es posible que se necesite básicamente menos de una proporción uno a uno de sistema frente a aerogenerador, para conseguir la cobertura adecuada y fiable.
Cualquiera de los sistemas y métodos aquí establecidos puede además comprender un controlador conectado operativamente al procesador para disponer de una implementación de la actividad. Ejemplos de implementación de la actividad incluyen aquellos seleccionados del grupo formado por una alarma, una alerta a un operador, un recuento, una medida de invalidación activa, o bien un descenso o paro de una velocidad del aspa del aerogenerador cuando el sistema de detección aviar identifica un pájaro volador que es amenazado o bien una especie amenazada que tiene una trayectoria predecible en un espacio aéreo que rodea el aerogenerador que de algún modo probablemente producirá un impacto en la pala del aerogenerador. Como se prefiera, para aplicaciones en parques eólicos, este paro o ralentización de la velocidad de la pala puede ser identificado para el subgrupo de aerogeneradores en el parque eólico como un riesgo alto de que el pájaro en extinción golpee la turbina.
Otra aplicación del sistema y de los métodos de detección aviar aquí mostrados incluye para el recuento una serie de pájaros voladores y/o especies de identificación de interés dentro del espacio aéreo que rodea un sistema de detección aviar durante un periodo de tiempo. Esto se puede complementar con declaraciones sobre el impacto ambiental, la evaluación y gestión del riesgo.
Los sistemas y métodos de detección aviar son compatibles con aplicaciones estacionarias o en movimiento. Por ejemplo, las aplicaciones estacionarias incluyen encuestas de recuento de pájaros simples en un lugar fijo. Aplicaciones en movimiento incluyen aquellas donde incluso regiones más grandes se van a examinar, en cuyo caso los sistemas pueden estar montados sobre un vehículo en movimiento, lo que incluye un vehículo aerotransportado, por el agua o de tierra.
Los sistemas son compatibles con cualquier clase de posicionadores. Por ejemplo, el posicionador o colocador puede comprender una plataforma de giro e inclinación conectada a la segunda cámara para desplazar una dirección de alineamiento de la segunda cámara en base a una producción desde la primera cámara.
La primera cámara, la segunda cámara, o ambas la primera y la segunda cámara pueden ser cámaras que tengan lentes y sensores. Las cámaras ejemplo incluyen cámaras que tengan sensores CCD o CMOS.
Cualquiera de los sistemas aquí mostrados dispuesto con una segunda cámara que es una cámara estéreo se usaba para determinar la distancia y posible trayectoria de los objetos desplazándose. El sistema de detección aviar para detectar un pájaro volador en un espacio aéreo comprende una primera cámara que tiene un campo amplio de visión para detectar un objeto móvil; una cámara estéreo que consta de un par de cámaras, teniendo cada una de ellas independientemente de la otra un gran zoom; un posicionador o indicador conectado operativamente a la cámara estéreo para colocar dicha cámara estéreo frente a la imagen de dicho objeto detectado por la primera cámara; y un procesador conectado operativamente para recibir datos de imágenes de dicha primera cámara, dicha cámara estéreo, o ambas y para determinar una posición y trayectoria de dicho objeto móvil, identificando con ello un objeto móvil que es un pájaro volando en base a los datos de la imagen de la primera cámara, de la segunda cámara o de ambas la primera y la segunda cámara.
El sistema de detección aviar aporta una cobertura hemisférica básicamente completa del espacio aéreo que rodea el sistema de detección aviar. Por ejemplo, el sistema de detección aviar puede comprender una pluralidad de primeras cámaras y una pluralidad de cámaras estéreo, en las que una o más de las cámaras se encuentra alineada en diferentes direcciones de alineación para proporcionar la cobertura hemisférica sustancialmente completa del espacio aéreo que rodea el sistema de detección aviar. Por ejemplo, las primeras cámaras pueden estar fijas y las segundas cámaras móviles con una dirección de alineación controlada, que incluya una plataforma de giro e inclinación, para suministrar cobertura sobre un gran campo de visión sin sacrificar la resolución.
Cualquiera de los sistemas de detección aviar puede tener un procesador que esté conectado sin cable a las pantallas o a un procesador enroscado, para obtener una producción de datos de imágenes de la primera cámara, de la segunda cámara o de la cámara estéreo.
Aquí también se han dispuesto métodos de detección de una especie de pájaro volador implementados por algunos de los sistemas aquí revelados.
Aquí también se dispone de métodos de detección de un pájaro volador en un espacio aéreo. El método puede constar de las etapas de : captar la imagen del espacio aéreo que rodea un sistema de imágenes; obtener uno o más atributos de identificación del umbral para una producción de un subgrupo de pixeles de la etapa de captación de imágenes; analizar uno o más atributos de identificación para identificar un objeto de interés móvil; obtener uno o más parámetros de identificación aviar para el objeto móvil de interés; comparar uno o más parámetros de identificación aviar con uno correspondiente o con más parámetros de identificación aviar de referencia para identificar un pájaro volador; e implementar una implementación de acción para el pájaro volador; donde el método detecta el pájaro volador dentro del espacio aéreo que tiene un volumen equivalente a un espacio aéreo hemisférico más o menos equivalente con un radio promedio seleccionado entre una gama que es mayor o igual a 0,5 km y menor a o igual a 1,2 km o valores inferiores del mismo.
En un aspecto, la etapa de captación de la imagen consiste en identificar una producción de un subgrupo de pixeles, tales como una producción que sea una secuencia de valores de intensidad luminosa.
La etapa de captación de la imagen consiste en obtener un amplio campo de visión con una primera cámara y hacer zoom ópticamente y/o centrarse en el objeto de interés móvil con una segunda cámara, donde la segunda cámara se utiliza para determinar una posición del objeto móvil de interés desde el sistema de capación de imágenes. La posición se puede determinar con respecto a otro punto fijado en relación con el sistema de captación de imágenes. Por ejemplo, una cámara sobre el terreno que se encuentra a una distancia de un aerogenerador se puede utilizar para determinar una posición aviar con respecto al aerogenerador, aportando con ello una distancia desde el aerogenerador. Del mismo modo, se pueden determinar las posiciones y las distancias desde otros objetos, incluyendo un avión, una pista, un edificio, una línea de alimentación, o cualquier otra estructura.
El método consiste además en clasificar una especie por pájaro volador de interés. Es decir, la producción del subgrupo de píxeles que corresponde a un pájaro volador puede ser analizada además con los parámetros de identificación aviar para determinar si el pájaro volador corresponde a una especie en particular. Aquí en general se hace referencia a la especie en particular como una “especie de interés” y puede corresponder a un ave de rapiña o bien a cualquier otro pájaro de interés, dependiendo de la aplicación de interés.
La etapa de captación de imágenes puede consistir además en la obtención de una pluralidad de imágenes en momentos diferentes y determinar una trayectoria de la producción del subgrupo de pixeles.
Cualquiera de los sistemas y dispositivos aquí aportados determinan la distancia del objeto móvil usando una segunda cámara que es una cámara estéreo que está situada para captar la imagen del objeto móvil. De este modo, los objetos que pueden ser grandes, pero estar colocados lejos se distinguen en cuanto a su posición de los objetos más pequeños que están situados más cerca del sistema.
Cualquiera de las etapas de clasificación y/o identificación puede comprender un algoritmo de reconocimiento de patrones.
Tal como aquí se utiliza, uno o más atributos de identificación del umbral se podrán seleccionar del grupo compuesto por distancia, trayectoria, parámetro límite, forma límite, característica de los bordes, espaciado de pixeles, intensidad de pixeles, color de pixeles, gradiente de intensidad, parámetros de la evolución temporal, y cualquier combinación de estos.
Uno o más atributos de identificación del umbral es un parámetro del contorno o canto. De acuerdo con ello, cualquiera de los métodos aquí dispuesto puede comprender además la etapa de comparar los parámetros de demarcación con una característica de cantos propia de un pájaro volador. Ejemplos de características o límites de cantos propias de un pájaro volador pueden incluir formas, colores, intensidad y distribuciones relativas de estos. Por ejemplo, para un pájaro, las formas específicas de las puntas de las alas, el cuerpo, el calor, las plumas de la cola pueden aportar datos de las formas límite o de los cantos características, útiles para ser comparadas con los parámetros de demarcación obtenidos de la producción del subgrupo de pixeles.
Del mismo modo, se puede utilizar un parámetro de demarcación para determinar si el objeto móvil que está relacionado con la producción del subgrupo de pixeles corresponde a un objeto construido artificialmente, como un avión. Esto se puede conseguir identificando un objeto móvil que corresponda a un objeto construido artificialmente mediante la identificación de al menos una parte de los parámetros de demarcación, como una forma propia de un objeto construido artificialmente, que incluya un parámetro de rectitud de cantos indicativo de un objeto construido artificialmente. La rectitud de cantos puede cuantificar como de recta es una parte de la demarcación o bien, del mismo modo, la suavidad de una parte de la demarcación. Las especies aviares que son pájaros o murciélagos típicamente no tienen cantos continuamente rectos o lisos.
Uno o más parámetros de identificación aviar se han seleccionado del grupo formado por el tamaño, la velocidad, la forma de las alas, la envergadura de las alas, el color, la forma de los contornos, la geometría, intensidad de luz, trayectoria de vuelo, postura, temperatura o característica térmica.
Cualquiera de los métodos puede comprender además la etapa de obtención de una trayectoria predictiva del pájaro volador, basada en trayectorias determinadas previamente. Por ejemplo, se puede predecir aquí que un pájaro que está elevándose o planeando en círculos ascendentes tiene una trayectoria similar continuada. Alternativamente, un pájaro que está en una zambullida se puede predecir que continúa sumergiéndose hasta una cierta elevación seguida de una retirada abrupta de la zambullida.
El pájaro volador que va a ser detectado puede ser una especie amenazada, una especie en peligro de extinción o un pájaro migratorio. Por ejemplo, una especie amenazada o en peligro de extinción es un ave de rapiña. A este respecto, los sistemas y métodos aquí proporcionados se adaptan fácilmente para la localización de los parques eólicos, como para distintas localizaciones geográficas que tienen unas condiciones políticas y ecológicas que, en cambio, definen que pájaros son de interés. Los sistemas y los métodos se pueden adaptar mediante la revisión y actualización de los valores de referencia relevantes en un algoritmo de reconocimiento de patrones y de los parámetros de identificación aviar. Por ejemplo, un ave marina migratoria puede tener un aspecto, tamaño y características de vuelo diferentes a las de un águila real. Un sistema en una aplicación para la detección de aves marinas se podrá adecuar de acuerdo con ello para la detección del ave marina, mientras que una aplicación para la detección de águilas reales se adaptará para ese tipo de pájaros.
Cualquiera de los métodos aquí presentados puede utilizar una etapa de comparación que comprenda un algoritmo de reconocimiento de patrones para facilitar el proceso y la identificación.
Los métodos y los sistemas aquí presentados representan una mejoría sustancial del método, que se caracteriza por tener unos índices de fiabilidad extremadamente elevados en la detección incluso a gran distancia. En un aspecto, el sistema se podrá describir en términos de una sensibilidad de detección superior al 96% y una detección de falsos positivos inferior al 5% para una especie amenazada, una especie en peligro de extinción o una especie de interés para el espacio aéreo de hasta una distancia máxima desde el sistema de captación de imágenes que sea mayor de 0,6 km e inferior a 1,2 km. El efecto de dichos índices es tan escaso que se pierden pocas especies de interés y existe poca o ninguna sobre detección por asignar de forma incorrecta una identificación de especie al ave incorrecta. Por lo tanto, los sistemas aquí presentados tienen un número de aplicaciones importante, que incluye un aerogenerador.
Cualquiera de los sistemas y métodos se puede utilizar con un aerogenerador. El método puede comprender además las etapas de disminución de velocidad de un aerogenerador de palas o bien de parar el movimiento del generador de palas para minimizar o evitar el riesgo de que el pájaro volador golpee la pala al tener la trayectoria predictiva que probablemente resultaría en el choque del pájaro contra la pala o bien en el espacio aéreo interior accionable que está dentro del espacio aéreo circundante.
En un aspecto, la aviar es una especie que está en peligro de extinción o bien amenazada, que incluye aquellas aves que se han definido en la Ley de Especies Amenazadas de Estados Unidos para aplicaciones en el propio Estados Unidos, o cualquier especie identificada por las agencias gubernamentales de exteriores o el tratado internacional. En un aspecto, la especie aviar es un águila real.
Una ventaja de los métodos y dispositivos aquí expuestos en una aplicación de energía eólica es que la caracterización de las especies aviar ayuda a maximizar la producción del aerogenerador evitando que disminuya o se pare la velocidad de las palas del aerogenerador en caso de una especie aviar identificada como que no corresponde a las especies de interés. En un aspecto, la velocidad del aerogenerador de palas no se ve reducida activamente para una especie aviar que ha sido identificada como una especie aviar sin interés, maximizando con ello la eficiencia del aerogenerador.
El implementar una etapa de acción puede implicar: disponer de una alerta a una persona; emitir una alarma; desencadenar un recuento; desencadenar una medida disuasoria para estimular el movimiento de la especie aviar voladora fuera de los alrededores de la primera cámara; registrar una imagen o video de la especie aviar que vuela por el espacio aéreo alrededor de la primera cámara; o reducir o parar la velocidad de las palas del aerogenerador.
El método puede comprender además la etapa de definir un espacio aéreo de implementación de la acción que tenga una distancia de acción promedio que sea inferior al radio equivalente medio del espacio aéreo básicamente hemisférico que rodea el sistema captador de imágenes, donde la implementación de la acción se lleve a cabo para una especie aviar voladora que se encuentra dentro del espacio aéreo básicamente hemisférico y que tiene una trayectoria hacia el espacio aéreo de implementación de la acción o bien dentro del espacio aéreo de implementación de la acción. Este aspecto puede ser especialmente útil para evitar el golpeteo en las palas donde la especie aviar voladora es seguida en el espacio aéreo, pero no se lleva a cabo una contramedida afirmativa para evitar o minimizar el golpe con las palas hasta que la especie aviar voladora está dentro de una zona de “peligro” o parece que se dirige a la zona de peligro. La zona de peligro a la que se hace aquí referencia puede ser un espacio aéreo de implementación de la acción menor al espacio aéreo circundante, de manera que pueda ser igualmente hemisférico, pero con un radio algo inferior al 70%, menor del 50% o menor del 30% de la distancia de detección máxima, como para una distancia de detección máxima entre 600 m y 1,2 km. Cuanto mayor es la velocidad del pájaro, mayor es el alcance de la zona de peligro, de manera que se pueden tomar contramedidas apropiadas antes de un choque potencial de la especie aviar. De acuerdo con todo ello, cualquiera de los sistemas y métodos puede tener una distancia de detección que se determine para garantizar el tiempo suficiente para que se disponga de una contramedida para una velocidad de vuelo determinada máxima de la especie aviar de interés. Alternativamente, la distancia de detección puede ser controlada activamente y modificada dependiendo de las condiciones. Por ejemplo, se puede detectar la velocidad y la dirección del viento, variando la distancia de detección de acuerdo con ello, para aumentar la distancia desde direcciones donde el pájaro tendría el viento a favor y reducir la distancia donde el pájaro volara contra el viento.
Cualquiera de los métodos puede constar además de la etapa de enmascaramiento de la turbina para una imagen de una especie aviar voladora en una región óptica que contenga una pala de turbina en movimiento, mejorando así la detección, que se incluye mediante el algoritmo de la fig. 5.
También aquí se dispone de un sistema de detección aviar para detectar una especie aviar voladora en un espacio aéreo que rodea un aerogenerador. El sistema puede comprender una pluralidad de sistemas captadores de imágenes, comprendiendo cada sistema: una primera cámara que tenga un amplio campo de visión para detectar un objeto en movimiento; una segunda cámara que tenga un zoom alto, donde la primera y la segunda cámara determinen una posición y una trayectoria de una especie aviar voladora en el espacio aéreo; y un indicador conectado a la segunda cámara para colocar la segunda cámara de manera que capte la imagen del objeto móvil detectado por la primera cámara. Un procesador se conectará operativamente para recibir los datos de las imágenes de cualquiera de las cámaras, la primera y la segunda, o ambas, y para identificar un objeto móvil que es una especie aviar voladora en base a los datos de la imagen. Puede que exista un procesador para cada sistema de imágenes o bien un único procesador que esté conectado operativamente a cada uno de los sistemas captadores de imágenes. Cada uno de los múltiples sistemas se coloca con respecto a los otros del sistema captador de imágenes para suministrar una cobertura hemisférica básicamente completa del espacio aéreo que rodea el aerogenerador. El controlador está conectado operativamente al aerogenerador para reducir o parar las palas del aerogenerador en caso de que una especie aviar haya sido identificada como un riesgo de golpeo de la pala del aerogenerador en movimiento.
El sistema de detección puede constar de al menos cuatro sistemas de captación de imágenes, donde: al menos tres de los sistemas están montados sobre un aerogenerador o bien sobre una estructura de soporte independiente como una torre autónoma, no asociada a una generación eólica, alineados los tres en una dirección única definida horizontalmente para proporcionar una cobertura de 360° por parte de al menos tres primeras cámaras hasta una distancia en vertical; y al menos un sistema captador de imágenes está montado en una barquilla del aerogenerador o bien una superficie superior del aerogenerador en una dirección definida verticalmente para aportar la cobertura vertical por al menos la cuarta primera cámara. Juntos, al menos los cuatro sistemas captadores de imágenes aportan la cobertura hemisférica básicamente completa del espacio aéreo que rodea el aerogenerador o la estructura independiente, hasta una distancia que es mayor o igual a 600 m, que incluye entre 600 m y 1,2 km.
Cualquiera de los sistemas de detección aviar se puede configurar como un sistema independiente. Por ejemplo, el sistema independiente puede comprender una torre que aguante una multitud de sistemas que capten imágenes, comprendiendo cada uno de ellos un par de primeras pantallas; una o más pantallas estéreo, donde cada una de ellas consta de un par de segundas pantallas; donde los sistemas de imágenes están conectados a la torre al extremo superior por medio de una conexión que coloca todos los campos amplios de sistemas de visión en direcciones ópticas para proporcionar una visión de 360° alrededor de la torre.
El sistema de detección aviar es compatible con una serie de pantallas y sistemas de imágenes, como tres campos amplios de sistemas de visión, aportando cada uno de ellos un campo de visión entre 120° y 140° y al menos una pantalla estéreo. Se puede disponer de una zona conectada a tierra para el material complementario, conectado eléctricamente a todos los sistemas de imágenes mediante cables que circulen por un pasillo interior por dentro de la torre. De este modo, el equipo puede quedar fijado de un modo fiable en una configuración protegida contra manipulaciones o de regulación precintada, minimizando por tanto el riesgo de pérdida, daño o destrucción. Se puede desplegar un sistema de mitigación de rayos desde la parte superior de la torre, donde se encuentran colocados los sistemas de captación de imágenes para captar la imagen del espacio aéreo alrededor de la torre, sin obstrucción óptica por parte del sistema de mitigación de rayos. Por ejemplo, para una pluralidad de imágenes estéreo el sistema de mitigación de rayos se puede colocar en un origen o punto de aplicación, de manera que el sistema de mitigación no se encuentre en una trayectoria óptica. Para una captación de imágenes única estéreo, se seleccionan unas posiciones relativas para minimizar interferencias y, si es preciso, se puede colocar un segundo sistema de detección independiente que garantice que cualquier punto o mancha ciega es captada por el segundo sistema de detección aviar, y/o para proporcionar la cobertura vertical deseada sobre el primer sistema de detección aviar.
Cualquiera de los sistemas aquí dispuestos se puede configurar como un sistema independiente. “Independiente o autónomo” equivale a un sistema independiente de otra estructura. Es decir, distinto de los sistemas configurados para acoplarse a estructuras que tienen otra función, como los aerogeneradores para generación energética.
El sistema de detección aviar puede constar además de una pluralidad de sistemas de visión de amplio campo, donde cada campo de visión consta de un par de primeras pantallas que forman un ángulo de alineación una con respecto a la otra para conseguir un campo de ángulo amplio para cada campo amplio de sistema de visión, mayor o igual a 90° y menor o igual a 180°, donde dicha pluralidad de campos de sistemas de visión en combinación, proporciona una cobertura de imagen de 360° alrededor de dichas segundas pantallas. La pantalla estéreo se puede colocar rápidamente con un posicionador, como un sistema de inclinación motorizado, para focalizar las regiones de interés identificadas por el sistema WFOV.
El sistema es compatible con una pantalla estéreo individual, lo que es una ventaja pues disminuye los costes del hardware, así como con una pluralidad de pantallas estéreo. Mientras que múltiples pantallas estéreo aumentan los costes, pueden ser beneficiosas para análisis más detallados y seguimientos, en especial para un número elevado de aves presentes en múltiples direcciones. De este modo cada uno de los amplios campos de visión se puede conectar individualmente a una pantalla estéreo única.
Cualquiera de los sistemas se puede conectar a una parte superior de la torre por medio de las conexiones. El sistema de detección aviar puede comprender además un sustrato que tenga una superficie superior y una superficie inferior, donde el indicador conecta la pantalla estéreo con la superficie superior del sustrato y el campo amplio del sistema de visión está conectado a la superficie de base del sustrato.
La superficie de conexión de la torre puede comprender además una parte de conexión central para aguantar la pantalla estéreo y conectarla a una pieza en la parte superior de la torre; y el soporte exterior sobresale para sujetar el campo de visión de las pantallas de visión.
Sin el deseo de ligarse a una teoría en particular, se pueden comentar o ser objeto de discusión algunas creencias o pensamientos de principios subyacentes en relación con los dispositivos y métodos aquí revelados. Se acepta que independientemente de la exactitud o precisión definitiva de alguna explicación mecánica o bien hipótesis, una configuración o materialización de la invención puede ser no obstante operativa y útil.
Breve descripción de las figuras
Fig. 1: Diagrama de flujo de un método de identificación de un ave en un espacio aéreo e implementación del proceso
Fig. 2: Visión lateral esquemática de un sistema de detección aviar autónomo que proporciona cobertura hemisférica (A) y cobertura básicamente hemisférica (B), donde el panel o cuadro inferior de B muestra una región de un punto muerto central que puede ser captada por un segundo sistema para proporcionar la cobertura hemisférica ilustrada en A.
Fig. 3: Visión lateral esquemática (A) y visión superior (B) de una pluralidad de sistemas de detección aviar montados sobre un objeto para obtener cobertura hemisférica alrededor del objeto. Cada sistema se caracteriza por proporcionar cobertura sobre un espacio aéreo definido.
Fig. 4: Diagrama de flujo de un algoritmo utilizado para detectar e identificar un pajaro volador en un espacio aéreo que rodea el sistema de captación de imágenes.
Fig. 5: Diagrama de flujo de un algoritmo de enmascaramiento de turbina para la detección aviar con un aerogenerador interpuesto.
Fig. 6: Ilustración esquemática de un sistema de detección aviar montado en una torre independiente.
Fig. 7: Ilustración esquemática de una torre captadora de imágenes con una parte del sistema de detección aviar apoyado en ella, con cableado y zona conectada a tierra para facilitar un sistema independiente y autosuficiente. Fig. 8A: Ilustración esquemática de tres grupos de sistemas, comprendiendo cada uno de ellos un par sensores de cambios de visión para formar un sistema WFOV y sensores de alta resolución para formar un sensor de imágenes estéreo. Un sistema ionizante ioniza el aire y reduce el riesgo de impacto del rayo.
Fig. 8B es una visión próxima de uno de los sistemas de la figura 8A, al que se hace aquí referencia como “conjunto funcional de captación de imágenes”, que tiene tanto un primero como un segundo sistema captador de imágenes, estando cada sistema formado por dos pantallas.
Fig. 9: Ilustración esquemática de tres pares de campos de sensores de visión, con un par de sensores estéreos de alta resolución que forman un sistema estéreo captador de imágenes conectado a una plataforma de giro e inclinación.
Fig. 10A: Ilustra el sistema de la figura 9 acoplado a una parte superior de una torre con un ionizador para minimizar el riesgo de impacto de rayos. La fig. 10B ilustra una conexión de la torre preparada para conectarse a la parte superior de esta y recibir y soportar los diversos sistemas captadores de imágenes.
Fig. 11: Ilustración esquemática del sistema de visión estéreo que comprende un par de sensores de alta resolución. A muestra una visión en perspectiva, con los dos extremos sensores de los sistemas de alta resolución visibles en la cara, y protegidos de los elementos por una tapa que sobresale. B es una visión lateral. C es una visión de la base. D es una visión de la base en perspectiva.
Fig. 12: Ilustración esquemática del campo de visión de los sensores, donde A ilustra la tapa exterior que rodea los sensores. B es una visión del par de sensores colocados en la tapa, en un ángulo determinado uno con respecto al otro, aproximadamente de 60°, donde cada sensor aporta un campo de visión de 60°, es decir una cobertura de al menos unos 120°. C es una visión del sistema de A girado para ilustrar mejor las posiciones de los sensores dentro de la tapa exterior.
Fig. 13: Ilustración esquemática del campo de visión de los sensores de la fig. 12, desde una visión en perspectiva de base A; una visión B; y una visión lateral C.
Fig. 14: Muestra una zona o cobertura conectada a tierra o un equipo independiente (panel superior) y los componentes correspondientes contenidos en el mismo (panel inferior)
Fig. 15 es una ilustración global de los diversos componentes y del equipo útil con los sistemas dispuestos en el mismo. Para mayor claridad no se muestra la parte superior de la torre ni los sistemas de captación de imágenes correspondientes conectados a ella. El panel superior es una visión en perspectiva y el panel inferior es una visión lateral para ilustrar la base eléctrica para reducir el impacto de los rayos y el posible daño al sistema de imágenes y a la electrónica afín.
Fig. 16A-16C son fotografías de un ave en distintas posturas de orientación. Se puede usar una proporción de la envergadura (w) y altura (h) para calcular mejor la envergadura. Esta estimación se puede utilizar para aportar una estimación más exacta de la verdadera envergadura, como se resumen en el diagrama correspondiente de la fig.
16D.
Fig. 17 es una ilustración esquemática de una torre de observación que soporta un sistema de detección aviar colocado en un radio de acción del campo eólico. Un campo de visión de 120° abarca una pluralidad de aerogeneradores diferentes, hasta 1 km de distancia de la torre. La cobertura completa se consigue al incorporar más sensores de campo de visión amplio (WFOV) hasta conseguir un alcance de 360°. Se pueden colocar sistemas adicionales que cubran otros aerogeneradores. De este modo, se lleva a cabo una reducción significativa en hardware y costes ya que se requieren menos sistemas para la cobertura completa. Esto ilustra también la escalabilidad de los sistemas instantáneos, ya que se puede abarcar cualquier espacio aéreo si se añaden más sistemas.
Figs. 18 y 19 son fotografías de un ave de rapiña antes (Fig. 18) y después (Fig. 19) de la medición estéreo. La distancia del ave de rapiña es de aproximadamente 1km del sistema.
Fig. 20 es una fotografía de un sistema que controla o sigue un ave rapaz. La imagen superior del sensor es del sensor de alta resolución y la imagen del sensor inferior del sensor WFOV, con los aerogeneradores visibles.
Fig. 21 es una serie de imágenes del sensor etiquetadas (i)-(v) de un par de aves monitorizadas en el sensor WFOV, con un primer pájaro que mantiene una altura de vuelo libre o planeando sobre el suelo y el aerogenerador. Una segunda ave se acerca al suelo tal como se muestra en el panel (ii) y vuela por detrás de la turbina (iii) cerca del suelo (iv) antes de incrementar la altura desde el suelo (v). Ambos pájaros son monitorizados con éxito.
Descripción detallada de la invención
En general, los términos y frases aquí utilizados tienen su significado ya reconocido que se puede hallar en textos estándar, referencias a revistas y contextos conocidos por los expertos en la materia. Las siguientes definiciones servirán para aclarar su uso específico en el contexto de la invención.
“Especie aviar” se utiliza ampliamente para hacer referencia a un animal que vuela. De acuerdo con ello, el término incluye pájaros, murciélagos e insectos. Las especies aviar especialmente relevantes para los métodos y sistemas aquí indicados son los animales voladores que están en peligro de extinción o que están amenazados o son de interés comercial o ambiental. En un aspecto, la especie aviar es un pájaro o un murciélago. En un aspecto, la especie aviar es un pájaro de interés como un ave de rapiña y/o un águila que puede estar en peligro de extinción o amenazada. En un aspecto, la especie aviar es un águila real.
“Espacio aéreo” se utiliza aquí para referirse a un volumen de espacio que rodea el sistema de detección. Para aclarar que los sistemas aquí indicados se han configurado para detectar una especie aviar voladora en cualquier dirección observable del sistema, en general se hace referencia aquí al espacio aéreo como hemisférico. En este contexto, “espacio aéreo hemisférico” se refiere a una cobertura o alcance en todas las direcciones desde un punto de origen correspondiente a una pantalla del sistema de detección. De acuerdo con ello, las pantallas de los sistemas que aquí se muestran permiten un alcance angular acimut 0°<9<360o (0°<9<2n rad) (Fig. 3B); y una cobertura angular de inclinación (o elevación) 0°<9<180° (0°<9<n rad) (Fig. 2A) para una detección definida de distancia de interés de hasta una distancia máxima correspondiente a r (215 de la fig. 2A). El espacio aéreo real que corresponde a dicha detección hemisférica puede ser no hemisférico, lo que refleja unas condiciones de mundo real donde pueden existir obstrucciones a la línea de visión desde una pantalla (fig. 2B, panel superior), espacio muerto inmediatamente por encima de ciertos sistemas (Fig. 2B, panel inferior) o bien una pluralidad de cámaras separadas (fig. 3) que aportan hemisferios “abultados” y similares.
“Básicamente hemisférico” se refiere a un volumen de espacio aéreo definido en términos de un centro de partida y que se extiende fuera de una distancia seleccionada por el usuario, pero que puede desviarse de un verdadero volumen hemisférico, definido como 2/3-nr3, por un volumen semiesférico con la base que bisecciona el hemisferio, donde r es la distancia de detección máxima promedio desde el centro de origen, que corresponde a la posición del sistema de detección aviar, tal como se muestra en la fig. 2B. En los aspectos donde el volumen se ha de expresar de forma cuantitativa, la desviación puede expresarse como inferior a un 20%, inferior a un 10% o inferior a un 5% de un volumen de hemisferio para una distancia “media” correspondiente, r, para el sistema. Además, para una pluralidad de sistemas de detección que estás situados espacialmente en posiciones distintas respectivamente, el hemisferio puede abultarse hacia dentro o hacia fuera en ciertos lugares, mientras que cada sistema individual puede tener una forma de cobertura o alcance generalmente semiesférica. Independientemente de dichas desviaciones, los sistemas y métodos aquí propuestos tienen una característica común de detección fiable de objetos voladores a una distancia, que incluye distancias relativamente largas de hasta unos 600 m hasta 1,2 km, sobre direcciones visualmente observables definidas como 0°<9<360°, 0°<9<180°, y 0°<9<120°. Según se requiera, ciertas direcciones pueden tener una distancia de detección mayor que otras direcciones. Por ejemplo, dependiendo de la dirección del viento (y consecuentemente de la dirección de la cara de la pala), se puede extender una cierta dirección de detección que corresponda a la dirección del viento y sea perpendicular a la cara de la pala. Esto puede acomodar una mayor velocidad de vuelo para una dirección del ave voladora, alineada con el viento. De acuerdo con ello, el espacio aéreo en general descrito como básicamente hemisférico puede incluir espacios aéreos moldeados elípticamente con un eje mayor alineado con la dirección del viento. El eje mayor puede ser mayor del 20%, 40% o 60% del eje menor.
“Cobertura o alcance hemisférico básicamente completo” se refiere a un alcance del espacio aéreo, con respecto a un origen que corresponde a una pantalla o sensor que esencialmente abarca todas las direcciones de acercamiento posibles de un animal volador a la cámara. En otras palabras, se dispone de una cobertura completa de la línea de visión. De acuerdo con ello, se pueden utilizar tantos sistemas adicionales necesarios para cubrir toda región de espacio muerto que no tenga una buena cobertura de línea de visión desde un primer sistema.
“Cámara” se refiere a cualquier dispositivo que obtenga imágenes del espacio aéreo que rodea el sistema. La cámara puede constar de una cámara que incluya los componentes ópticos asociados como lentes, sensores, filtros, difusores, y similares. Las cámaras modelo incluyen sensores CCD o CMOS. La imagen puede ser de luz visible o luz no visible. Para las aplicaciones donde el pájaro de interés tiende a volar durante el día y en condiciones sin niebla ni tormenta, se puede utilizar una cámara de luz visible, En contraste, para aves nocturnas que tienden a volar en condiciones de poca luz como los murciélagos, se puede utilizar una cámara de infrarrojos que captura imágenes de infrarrojo. Para conseguir cobertura de 24 horas se usan tanto la cámara de luz visible como la de infrarrojos. El “sensor” se utiliza aquí como algo generalmente sinónimo a una cámara, y refleja que los sistemas pueden monitorizar objetos moviéndose sin tener que realmente visualizar una imagen a un usuario, pero se puede implementar con el software para realizar un seguimiento automático y realizar los pasos apropiados dependiendo del objeto volador monitorizado.
“Indicador” se utiliza aquí ampliamente para referirse a la capacidad de colocar la segunda imagen para que enfoque, como por zoom y/o enfoque, sobre un objeto desplazándose que puede haber sido identificado por la primera cámara. De acuerdo con ello, un indicador puede ser un conductor motorizado que alinea de forma activa la segunda cámara en una dirección de visualización deseada. El indicador puede alinear de forma continuada la segunda cámara con el tiempo, de manera que un objeto moviéndose sea continuamente enfocad. El indicador o posicionador puede ser una plataforma de giro o alineación motorizada que aporte la orientación espacial completa de la segunda cámara. Alternativa o adicionalmente, el indicador se puede implementar a una segunda cámara que sea funcionalmente un zoom digital. En este aspecto, el indicador se puede implementar funcionalmente dentro del software para proporcional un zoom digital de la producción del subgrupo de pixeles de la primera imagen.
“Procesador” se utiliza aquí ampliamente y puede incluir el hardware como los procesos de los ordenadores y los implementados en los ordenadores. Ejemplos de recursos informáticos útiles en los sistemas y métodos presentes incluyen microordenadores, como un ordenador personal, ordenadores multiprocesadores, ordenadores de estaciones de trabajo, grupos de ordenadores o equivalentes de los mismos. Preferiblemente, los algoritmos y el software aquí aportado se encuentran integrados o registrados en cualquier medio lector informático, como un disco duro, disco flexible o cinta magnética o quizás en la forma de un disco duro o chip de memoria, como una memoria de acceso aleatorio o una memoria solo de lectura.
“Campo amplio de visión” (WFOV) se refiere a una cámara, en general una “primera cámara” que puede captar imágenes de al menos una parte sustancial del espacio aéreo circundante. Por ejemplo, se puede utilizar un gran angular para captar una imagen de un espacio aéreo básicamente hemisférico. Los ejemplos incluyen cámaras que tienen una resolución que coincide con la de la zona WFOV, como una resolución de unos 4608x3280 (15,1 mpixels) para conseguir un campo de visión completo deseado mayor o igual a 120°, como de aproximadamente 130° FOV, cuando se aparea a una segunda cámara WFOV alineada apropiada. Por ejemplo, cada cámara WFOV se puede seleccionar para cubrir aproximadamente 65° a unos 800 m, de manera que combinando un par de dichas cámaras WFOV se consigue 130° FOV y, por lo tanto, se puede adaptar algún tipo de distorsión de lente. Las cámaras WFOV pueden disponer de áreas de inspección independientes o se pueden unir. Las cámaras configuradas para dar zonas de inspección independientes pueden ser más rápidas dependiendo del análisis y procesamiento de imágenes. Según se desee, las cámaras WFOV pueden ser calibradas periódicamente para garantizar exactitud. Se puede emplear un filtro Kalman para el comportamiento monitorizado predictivo. Una exposición automática configurable y otros parámetros se podrán utilizar para mejorar la eficacia.
“Zoom alto” se refiere a una cámara, en general una segunda cámara o una cámara estéreo, configurada para enfocar herméticamente sobre un potencial objeto móvil o sobre un objeto móvil detectado, identificado por la primera cámara de amplio campo de visión. El zoom alto puede tener una distancia focal variable que sea capaz de grandes factores de longitud focal. En las configuraciones, el zoom alto aporta un grado elevado de aumento de la imagen, como para acceder a los parámetros ópticos de interés que ayudan a la clasificación de imágenes, como la identificación de un pájaro volador y como la clasificación por identificación o la identificación de una especie específica o tipo de ave. El zoom alto se puede referir también a tener una “resolución alta” adaptada a la especie aviar de interés que está siendo monitorizada, como una resolución de 1280x960 (1,2 Mega pixeles) hasta 1920x1440 (2,8 mega pixeles), y puede ser adaptada a las condiciones operativas y a las características de la especie aviar de interés (por ejemplo, tamaño). De este modo, un sensor o una cámara y los componentes ópticos correspondientes se hacen coincidir para generar un tamaño de píxeles ideal en un espacio de sensor CCD para una calidad de la imagen optimizada en un campo de visión confinado. Se pueden utilizar componentes ópticos relacionados como filtros ópticos de alta calidad. Ejemplos de componentes ópticos usados con las cámaras incluyen lentes varifocales de 300 mm Tamron o Nikon. EL zoom alto puede corresponder a una cámara estéreo.
“Eficiencia de detección” es una indicación de la fiabilidad del sistema a la hora de detectar una especie aviar de interés que entra en el espacio aéreo y se puede expresar como el número de aves de interés detectadas por el sistema dividido por el número total de aves de interés que entra en el espacio aéreo. Se puede decir que los sistemas y métodos aquí aportados tienen una elevada eficiencia de detección, tan elevada como del 95%, mayor del 99%, o mayor del 99,9% si son activos. Del mismo modo, “el falso positivo” hace referencia al número de aves identificadas como una especie de interés que no pertenece realmente a las especies de interés. Se desea que el número sea pequeño pues de lo contrario podrá existir un gasto en recursos asociado a una implementación de acción por una especie aviar identificada erróneamente como una especie aviar de interés. En un aspecto, el porcentaje de falsos positivos es inferior al 5%, inferior al 1% o inferior al 0,1%.
“Producción de un subgrupo de pixeles” se refiere a una región de la imagen digital capturada por una cámara que puede corresponder a una región de interés en movimiento. Esta región de interés que se desplaza se define por un subgrupo de píxeles, donde cada píxel se asocia a un valor de intensidad. El subgrupo de píxeles se puede describir como que se ha formado de los píxeles adyacentes. Los “píxeles vecinos” equivale a los píxeles que corresponden a un número definido de pixeles. En un aspecto, los pixeles vecinos se refieren a los diez pixeles que rodean a cada uno. La producción puede comprender también píxeles agrupados, es decir que son directamente adyacentes uno de otro. Naturalmente, el subgrupo puede incluir una combinación de píxeles vecinos y adyacentes.
“Producción que varía con el tiempo” hace referencia al subgrupo de píxeles que tiene una producción que varía con el tiempo. Este cambio se puede asociar al movimiento del subgrupo de píxeles y puede ser un parámetro útil en la caracterización e identificación de imágenes.
“Atributos de identificación del umbral” hace referencia a una caracterización inicial de un subgrupo de píxeles que corresponden a un objeto volador y sobre el cual se pueden realizar más análisis. Los ejemplos incluyen distancia del objeto, posición, trayectoria, forma límite, tamaño, color, y/o la característica térmica. Los píxeles y los correspondientes objetos que tienden a no cumplir uno o más atributos de identificación del umbral no son probablemente una especie aviar voladora y por tanto no se tendrán en cuenta en posteriores análisis o pruebas.
“Detección de cantos” se refiere a los sistemas, algoritmos y procesos que identifican los puntos o píxeles en una imagen digital cuya intensidad o brillo cambia, como por un cambio discontinuo de la intensidad luminosa. Los diversos puntos o píxeles que tienen dicho cambio de brillo de la imagen se organizarán en segmentos lineales a los que aquí se conocen como un canto. La detección de cantos o contornos es útil aquí en varios procesos que incluyen la detección de un objeto móvil y la clasificación de dichos objetos. En una configuración, la detección del canto se realiza determinando un gradiente de intensidad y clasificando un objeto como que tiene un canto para un gradiente que excede un gradiente de intensidad seleccionado por un usuario. Dicha detección de cantos puede ser una parte útil de obtención del atributo de identificación del umbral para el subgrupo de pixeles.
“Parámetro del contorno” hace referencia a un parámetro que es el reflejo de al menos una parte o bien todo el canto del subgrupo de píxeles. Ejemplos de parámetros del contorno incluyen las formas de los cantos, el perímetro total, el área interior, la intensidad y las variaciones localizadas del mismo. Los parámetros de los contornos más útiles incluyen aquellos datos que se pueden comparar con un parámetro de contorno o del canto de un pájaro volador característico. Por ejemplo, la especie aviar voladora puede tener formas de ala únicas, el movimiento, las curvaturas y el arrugado y aspereza de la superficie, con distintos finales o extremos anteriores (es decir, cabeza, pico, etc.) y posteriores (por ejemplo, plumas de la cola). Cualquiera de esos aspectos que es característico de una especie aviar voladora se menciona aquí como “característica propia del contorno del canto de una especie aviar voladora” y se puede utilizar aquí en un análisis preliminar del subgrupo de píxeles para determinar si se garantizan posteriores análisis.
“Valores de referencia” se refiere a cualquier parámetro asociado a una especie aviar voladora, que incluya una especie aviar de interés. Los valores de referencia se pueden obtener a partir de la evidencia empírica, como de las formas de los pájaros, de su color, tamaño, patrón de vuelo, características térmicas etc. Alternativamente, los valores de referencia pueden ser generados ellos mismos visualizando un pájaro conocido y generando los parámetros en unas condiciones de vuelo en un mundo real. En este aspecto, un pájaro o especie aviar entrenado como un ave de rapiña se puede usar para la adquisición de imágenes y seguir el patrón de determinación de contornos característico de la especie aviar voladora. En un aspecto, la especie aviar voladora es un águila real. Cualquier valor de referencia se puede almacenar en una base de datos de imágenes de referencia para su uso por parte de cualquiera de los sistemas y métodos aquí planteados.
“Parámetro de identificación aviar” se refiere a cualquier parámetro útil para determinar si un subgrupo de píxeles corresponde a una especie aviar específica. Los ejemplos incluyen tamaño, velocidad, envergadura del ala, forma del ala, color, forma de contorno, geometría, intensidad luminosa y trayectoria de vuelo. Para una imagen que sea una imagen infrarroja, el parámetro puede corresponder a la temperatura o a una característica térmica. Conceptualmente, el parámetro de identificación aviar puede ser similar a la característica de identificación del contorno de cantos de la especie aviar voladora, pero se puede adaptar o hacer a medida de una especie aviar específica para conseguir una mejor identificación de la especie. Los recursos computacionales añadidos y el tiempo para la obtención de parámetros de identificación aviar fiables y el uso de estos para la identificación de especies hace que este aspecto sea únicamente útil para aquellos objetos móviles que se han definido como potencialmente especies aviar a partir de un análisis inicial relacionado con los límites.
Cualquiera de los sistemas aquí descrito puede tener un registro de paro e inicio automatizado, como el basado en las condiciones ambientales, las condiciones de la luz diurna y/o la detección de objetos móviles. Esto facilitará el registro primario de todas las cámaras conforme a uno o más parámetros configurables, como los parámetros seleccionados por el usuario o los preajustes de fábrica. Ejemplos de dichos parámetros pueden ser el registro automatizado si se monitoriza o sigue un objeto de alta o baja prioridad durante más de 0,5 segundos. De acuerdo con ello, el sistema puede funcionar a 24/7, con ciertos sistemas que se ajustan a datos sin registro por la noche para aplicaciones donde no se desea el seguimiento nocturno. Alternativamente, el sistema se puede ajustar a un registro forzado si un evento importante ha ocurrido recientemente, como un impacto de pajaro en una turbina.
Los sistemas pueden tener una secuencia de comandos de registro a la medida para proporcionar una evaluación del error de la plataforma de giro e inclinación y las correcciones apropiadas. Por ejemplo, puesto que los aerogeneradores están localizados generalmente en lugares expuestos a mucho viento, ráfagas de viento fuertes pueden causar un deslizamiento de la plataforma de inclinación y giro y la corrección del error puede reajustar la plataforma de inclinación a una posición deseada. Según se desee, la localización de píxeles se puede convertir y expresar en términos del grado relativo a un origen, como la localización de la cámara. Se puede disponer de un control manual como el control por parte del usuario del sistema de inclinación y giro para pasar a modo manual la segunda cámara. Por ejemplo, un usuario puede clicar manualmente un lugar o posición en una imagen WFOV de tal forma que las cámaras de alta resolución automáticamente activen el zoom en esa posición.
Cualquiera de los sistemas puede incluir una exposición automática para optimizar la visibilidad durante el día puesto que las condiciones luminosas varían, así como la calidad de la imagen al modificar la exposición. Por ejemplo, durante la noche y por la mañana pronto las cámaras de alta resolución pueden registrar el tiempo de exposición, con un tiempo de exposición máximo para no desdibujar un pájaro que se mueve a elevada velocidad mientras no se altera de forma adversa la calidad de la imagen requerida para lograr una caracterización de la especie aviar de elevada exactitud. Se pueden ajustar los aumentos de forma dinámica dependiendo de la hora del día ya que hacia el atardecer la luz se vuelve más tenue.
Ejemplo 1: Métodos de detección.
Respecto a la figura 1, un proceso de flujo global de una estrategia general para detectar una especie aviar voladora en un espacio aéreo se consigue captando la imagen de al menos una parte de todo el espacio aéreo que rodea el sistema con una cámara de amplio campo de visión 100. Por ejemplo, en un espacio aéreo no obstruido una única cámara de amplio campo de visión que tiene un sistema óptico de ángulo amplio (ver, por ejemplo, patente americana nr. 8.284.258) puede captar la imagen de un hemisferio entero. Alternativamente, para las cámaras que abarcan menos de un hemisferio completo de espacio aéreo circundante, se pueden usar muchas cámaras para conseguir la total cobertura del hemisferio. Esto puede ser especialmente útil en las situaciones donde existe una obstrucción física, es decir con un edificio, torre, árbol, nacelle de aerogenerador o algo similar. En dichas situaciones, se puede colocar más de una cámara de forma estratégica para lograr múltiples campos de visión, que cuando se combinan aportan una cobertura hemisférica completa o básicamente completa.
Una cámara o varias cámaras de campo de visión amplio son útiles para identificar una región de interés que se desplaza 110, que se puede describir en términos de una producción de un subgrupo de píxeles del espacio aéreo captado por la imagen. La región de interés móvil se puede detectar o identificar comparando imágenes de un campo de visión en momentos diferentes y detectando cambios en la imagen, tal como ocurriría con un objeto móvil. Un ejemplo de una técnica consiste en determinar cambios en la intensidad de los píxeles e identificar dicho cambio en la intensidad de los píxeles como una región de interés. El monitorizar el movimiento de dicho cambio en la intensidad de los píxeles con el tiempo aporta una región móvil de interés. En un aspecto, se identifica una pluralidad de regiones de interés móviles siendo cada región monitorizada individualmente.
Para una región de interés móvil se puede obtener la distancia de la región de interés móvil 120 con respecto a un lugar o posición geográfica seleccionado por el usuario. Por ejemplo, una segunda cámara que tiene un zoom elevado para enfocar con precisión en la región de interés puede aportar información sobre la distancia. Por ejemplo, el nivel de aumentos del zoom que corresponde a una imagen especialmente enfocada puede dar información sobre la distancia de la región móvil de interés. Otro ejemplo es una cámara estéreo que obtiene una imagen estéreo de la región móvil de interés para medir la distancia desde la región móvil de interés y la cámara estéreo (ver por ejemplo patente americana nr. 6.4111.327; Mahammed y cols.,”Object Distance Mesurement by Stereo VISION”, IJsA iT 2(2):5-8 (2013))Otros ejemplos de una segunda cámara incluyen dos sistemas de cámaras, como dos cámaras (CCD), dispositivos de carga acoplada. Los métodos y los sistemas que aquí se muestran son compatibles con una gama de cámaras y métodos que aportan información sobre la distancia de un objeto, imagen captada. De este modo, se obtiene la distancia de la región de interés móvil de los sistemas aquí presentados. Si la región de interés móvil está fuera de una región seleccionada por el usuario, la región de interés se puede caracterizar como que está fuera del espacio aéreo seleccionado por el usuario sin que se lleve a cabo ninguna otra acción 130. Alternativamente, la región móvil de interés puede ser controlada de forma periódica o continua para garantizar que no se mueve dentro de una distancia que está dentro del espacio aéreo definido por el usuario. Dependiendo de la aplicación de interés, el espacio aéreo definido por el usuario se selecciona mediante un rango de distancia. Tal como se ha comentado, el intervalo de distancia seleccionado por el usuario que define el espacio aéreo de interés se puede definir como entre 600 m y 1,2 km. Naturalmente, otros márgenes o intervalos de distancia son compatibles con los dispositivos y métodos aquí propuestos. Por ejemplo, si se dispone de una pluralidad de sistemas para garantizar la cobertura hemisférica básicamente completa, las distancias (y/o trayectorias) para un sistema individual pueden ser diferentes con el objetivo de conseguir una cobertura del espacio aéreo “final” alrededor de todas las posibles aproximaciones, aportando con ello una cobertura básicamente hemisférica con respecto a un punto de origen geográfico.
Para una región de interés móvil, se puede obtener la trayectoria de la región móvil de interés con respecto a una posición geográfica seleccionada por el usuario 120. Por ejemplo, la trayectoria puede venir determinada o caracterizada por una pluralidad de imágenes con el tiempo para lograr una trayectoria promedio. Del mismo modo, una trayectoria anticipada o predicha se podrá determinar en base a la trayectoria anterior. La trayectoria prevista se puede expresar en términos de trayectoria probable, como con unos límites de confianza de la trayectoria exterior que definan un porcentaje de probabilidad, como una probabilidad del 50%, una probabilidad del 75%, una probabilidad del 90% o una probabilidad del 95%. Límites de porcentaje exterior superiores aumentan los límites de confianza externos de la trayectoria. Cualquiera de los métodos y sistemas aquí presentados puede implementar opcionalmente una acción basada en el límite de confianza de la trayectoria seleccionada por el usuario (por ejemplo, 50%, 75%, 090% o 95%) que intersecciona con un punto de interés geográfico. Conceptualmente, con respecto a la figura 2A, cada trayectoria 240 desde el objeto 230 tendrá una curva de límites exteriores de la trayectoria junto con una trayectoria prevista “media” representada por una flecha 240. Esto aporta una solidez y certeza adicional a los sistemas de detección de la aviación aquí presentados, en particular para aplicaciones que requieran una acción tipo parada para una pala de aerogenerador en movimiento centrada alrededor del 200 de la fig., 2A, como a una distancia accionable definida por una flecha disparada 225 y la superficie hemisférica correspondiente 220.
De este modo, la etapa 120 puede ser tan simple como determinar si o no una región de interés que se desplaza se encuentra a una distancia suficientemente “próxima”. Alternativamente, la etapa 120 puede ser más compleja al considerar además una trayectoria (ver, por ejemplo, elementos 230 (objeto de la distancia de interés) y 240 (objeto de la trayectoria de interés) de la fig. 2A. Desplazar objetos dentro de una distancia seleccionada por el usuario (Ver por ejemplo distancia 215 de la figura 2A) se podrá controlar cuidadosamente con la trayectoria 240 representada: sin que se requiera una acción para desplazar objetos que tengan una trayectoria que se aleje del 200 (ver, por ejemplo 231) y una acción requerida para desplazar objetos que tengan una trayectoria hacia el 200 (ver, por ejemplo 232). En contraste, desplazar regiones de interés determinadas para estar fuera del espacio aéreo definido por la distancia 215 (ver por ejemplo 230 de la fig. 2A) puede ser controlado o ignorado, hasta que dicho momento como región de interés desplazándose entre en el espacio aéreo (ver, por ejemplo 233).
Para las regiones de interés móviles que se encuentran dentro de unas distancias definidas por el usuario y que opcionalmente tienen una trayectoria de interés, la región de interés móvil es examinada luego en la etapa 140 e identificada como una especie aviar 160 o como no 150. Por ejemplo, si la región de interés móvil es una pieza de desecho que vuela, como una hoja, una pieza de basura o algo similar, no se tiene en cuenta la región de interés. Alternativamente, si la región móvil de interés se ha identificado como una especie aviar, opcionalmente la etapa siguiente consiste en caracterizar la especie aviar, es decir determinar si se trata o no de una especie aviar de interés.
La etapa de identificar una región móvil de interés, así como las etapas posteriores, es decir si es o no una especie aviar de interés, es compatible con cualquier número de procesos conocidos en el ámbito que proporciona una identificación y/o reconocimiento, un análisis de imágenes sólido, fiable y rápido. Por ejemplo, la detección de cantos puede ser utilizada con cualquiera de los métodos y sistemas aquí presentado. Aunque se dispone de muchos criterios para el reconocimiento de patrones, un aspecto útil es la rectitud del canto. Un canto extremadamente recto o un canto uniformemente curvado es indicativo de un objeto artificial como un avión, helicóptero, globo o bien otro objeto fabricado por el hombre. Los animales voladores, en contraste, no suelen tener esos cantos, pero en lugar de ello tienen plumas o no son tan rectos o lisos. De acuerdo con todo esto, estos factores se pueden utilizar para determinar que la región de interés que se mueve no es una especie aviar 150. Si la especie aviar 150 no es una especie aviar de interés 170, se puede ignorar la especie aviar (y la región de interés móvil correspondiente).
Otros cantos como las plumas de la cola, las plumas de las alas, la punta del ala, los picos y similares pueden ser indicativos de que se trata de una especie aviar. Según se desee, muchos de esos parámetros se podrán usar para mejorar el reconocimiento de patrones y la clasificación aviar. Del mismo modo, para otras especies de animales, como murciélagos o insectos, los cantos asociados a dichas especies animales se pueden usar en uno o más algoritmos de reconocimiento de patrones.
De acuerdo con todo ello, solamente un aspecto de los sistemas y métodos aquí propuestos es el modo fiable y eficiente en el cual regiones de interés móviles (que corresponden al subgrupo de píxeles) pueden ser ignorada (al menos temporalmente). Fuera de una distancia o trayectoria o combinación de ambas definida por el usuario; una región de interés móvil que no sea una especie aviar; o bien una región de interés móvil que no sea una especie aviar de interés. Todos estos aspectos contribuyen a reducir sustancialmente el número de identificaciones falsas positivas, que incluye hasta menos del 10%, menos del 5%, o menos del 1% del número total de identificaciones. Dicha reducción en falsos positivos se obtiene sin sacrificar la sensibilidad de la detección aviar, es decir se detectan más del 10%, más del 5% o más del 1% de todos los pájaros o aves de interés que entran en el espacio aéreo.
Para una especie aviar de interés que está dentro del espacio aéreo definido y opcionalmente a la cabeza de una trayectoria definida por el usuario como trayectoria relevante, se puede llevar a cabo una implementación de acción 180 que dependa de la aplicación de interés. Por ejemplo, si la aplicación es un simple sistema de recuento aviar, la implementación de acción puede corresponder a un incremento en un recuento. Si la aplicación es un sistema de evasión de la especie aviar, la implementación de acción puede corresponder al ruido, luz o bien otra señal disuasoria que estimule al pajaro volador a cambiar su trayectoria de vuelo. Si la aplicación es con un aerogenerador, la implementación de acción puede corresponder a reducir o parar la velocidad de la pala del aerogenerador para minimizar el riesgo del impacto de pájaros y/o la lesión del pájaro o del equipo.
Para los sistemas que tengan una pluralidad de pantallas de amplio campo de visión, el resumen del proceso de la figura 1 puede tener entonces una pluralidad de dichos procesos que alimentan una única etapa de implementación de la acción 180.
Ejemplo 2: Cobertura hemisférica individual y plural de los sistemas captadores de imágenes.
Con respecto a las figuras 2-3, los sistemas y los métodos aquí planteados disponen de buena cobertura en todo el espacio aéreo bien definido. La fig. 2A es una visión lateral esquemática de un sistema de detección aviar 200 para detectar una especie aviar voladora (230231 232233) en un espacio aéreo 210. En este ejemplo, el espacio aéreo 210 es hemisférico y se encuentra definido por una distancia 215. En contraste, la fig. 2B (panel superior) ilustra una configuración donde existe un obstáculo 250 que da lugar a un volumen de espacio aéreo que puede ser parcialmente bloqueado ópticamente 255. El obstáculo puede ser un objeto artificial como un edificio, torre o vehículo, o que aparezca naturalmente como una colina, árbol o peñasco. De acuerdo con ello, el espacio aéreo se puede describir como que es “básicamente hemisférico” y que se esperan desviaciones del verdadero espacio hemisférico a menos que el terreno circundante sea plano y sin obstrucciones. La fig. 2B resalta además que el término “sustancialmente hemisférico” se refiere a un sistema configurado para captar la imagen de todas las direcciones posibles de acercamiento de una especie aviar volando hacia el sistema 200 así como del sistema de acercamiento 200 donde la especie aviar en algún punto debe entrar al espacio aéreo observable ópticamente. Tal como se ha descrito, un segundo sistema puede estar localizado para aportar la cobertura detallada del espacio muerto o región de ángulo muerto o zona ciega 255. Para otro sistema, puede existir un espacio muerto 90 directamente sobre el sistema 200 (Fig. 2B, panel inferior). Ese espacio muerto puede estar cubierto empleando un segundo sistema situado lejos del primer sistema de manera que se capte la imagen del espacio muerto 90.
Un pájaro volador tiene una posición y una trayectoria, definidas por cada una de las cuatro x en la fig. 2A y por los vectores correspondientes 240. Ciertos objetos pueden estar colocados fuera del espacio aéreo de interés 210 y pueden no ser tenidos en cuenta (ver, por ejemplo 230). Otros objetos móviles pueden estar dentro del espacio aéreo definido (ver, por ejemplo 231 y 232). Incluso otros objetos móviles pueden desplazarse desde fuera del espacio aéreo de interés hasta el interior del espacio aéreo de interés (ver por ejemplo 233) y, por lo tanto, ser objeto de posteriores análisis.
El espacio aéreo que rodea el sistema se puede definir en términos de distancia 215 desde la cámara. Para mayor simplicidad la fig. 2A es una sección transversal de un espacio aéreo hemisférico de un radio con una distancia 215. Naturalmente, los sistemas y métodos no se encuentran confinados en espacios aéreos de forma verdaderamente hemisférica. Si se desea, se contemplan otros volúmenes. Por ejemplo, el volumen puede sobresalir o ser mayor en ciertas direcciones dependiendo de la aplicación de interés. Para aplicaciones de impacto de aves alrededor de la pista del aeropuerto o de los aviones, el volumen aéreo espacial a lo largo de la dirección del tráfico aéreo puede verse favorecido de manera que la sección transversal de visión superior del hemisferio se haya configurado en una forma más elipsoide para proporcionar una distancia de detección adicional en la dirección del movimiento del avión, con una distancia relativamente más corta en una dirección perpendicular a la dirección del viaje. Independientemente de la forma específica del volumen del espacio aéreo, un aspecto común de los sistemas y métodos aquí propuestos es la captación de imágenes fiable y la detección de la aviación para espacios aéreos grandes en una dirección accesible con el espacio aéreo resultante que se puede describir en términos de una forma hemisférica promedio equivalente que tiene un radio medio elegido de una gama que es mayor o igual a unos 500 mm y menor o igual a unos 2 km. En un aspecto, el radio medio se sitúa entre 800 m y 1,1 km, de modo que sea suficiente para realizar una etapa de acción apropiada cuando se detecta una especie aviar en el espacio aéreo.
Dependiendo de la aplicación de interés, se pueden detectar especies aviar (231 232) dentro del espacio aéreo, pero solo se puede entrar en acción en caso de una especie aviar que tenga una trayectoria que de algún modo impacte en un volumen de espacio aéreo accionable definido por la distancia de acción 225 que sea inferior a la distancia 215. La distancia de acción 225 puede definirse en términos de un porcentaje de distancia 215, menor a un 80%, menor a un 60% o menor a un 50%. Por ejemplo, para una aplicación de aerogenerador (por ejemplo, sistema 200 montado sobre o cerca de un aerogenerador), una especie aviar voladora 231 que simplemente pase por una región próxima del espacio aéreo puede no requerir una implementación de acción puesto que la probabilidad de impacto con el aerogenerador es muy baja. En contraste, una especie aviar 232 que se dirige a un aerogenerador puede requerir una implementación de acción, como de paro o disminución de la velocidad de las palas del aerogenerador. La especie aviar 232 puede ser monitorizada y si la trayectoria cambia, se puede interrumpir la implementación de acción. Del mismo modo, independientemente de la trayectoria de la especie aviar, para una especie aviar situada dentro del espacio aéreo de acción (como el definido por las líneas a trazos de la fig. 2A), la implementación de acción puede producirse automáticamente con el reconocimiento de que la especie aviar está tan próxima al aerogenerador, como un aerogenerador centrado en una posición que corresponde a 200, que debería realizarse una acción inmediata.
La fig. 3 ilustra una pluralidad de sistemas de imágenes 200a 200b200c200d en una visión lateral (Fig. 3A) y una visión superior (Fig. 3b ) y junto a un objeto 201 un aerogenerador, un edificio, una torre o algo similar. Al igual que la fig. 2A, para simplificar el espacio aéreo que rodea el sistema se ha ilustrado como hemisférico. Sin duda, especialmente para los múltiples sistemas de cámaras, el espacio aéreo puede no ser realmente hemisférico, puesto que cada posición de la cámara puede tener diferentes alturas y posiciones relativas y generar protuberancias en el espacio aéreo en una distancia definida por el usuario 215. Independientemente de dicha mala uniformidad, el espacio aéreo puede definirse en términos de un volumen hemisférico con un volumen efectivo que corresponde al volumen del espacio aéreo no hemisférico, tal como se ilustra en la fig. 3.
La figura 3 ilustra cuatro sistemas de captación de imágenes donde cada uno de ellos es responsable de captar la imagen de una parte del espacio aéreo indicado por 216a-d(FIG. 3B), aportado básicamente toda la cobertura hemisférica alrededor del objeto 201, como un aerogenerador. La visión superior de la FIG: 3B se ha esquematizado mucho en cuanto a claridad para ilustrar la configuración geométrica que aporta una cobertura hemisférica completa. Naturalmente, puede existir un solapamiento importante en el amplio campo de visión entre las primeras cámaras de cada uno de los sistemas 216a-d, mientras las imágenes de los campos de visión efectivos que se hayan captado aporten la cobertura hemisférica completa. Con respecto a las posiciones relativas de las cámaras en cada uno de los sistemas, la pluralidad de primeras cámaras asociadas a cada una de las 200a-d se dispondrán en direcciones distintas de alineamiento indicadas por 216a-c en al FIG. 3A. Cada una de las 200b-d se puede describir como que pata la imagen hasta una distancia vertical 310, con el resto del espacio aéreo dirigido verticalmente cuyas imágenes son captadas por las 200a dispuestas en una dirección de alineación vertical que corresponde a la dirección de la flecha 216a. Según se desee, todos los sistemas se podrán describir tal como se describen para la FIG.2
Ejemplo 3: Algoritmos de reconocimiento de patrones
Los sistemas y métodos aquí presentados son compatibles con cualquier número de algoritmos de reconocimiento de patrones conocidos en el sector, que incluyen el proceso resumido en la FIG.1. Con respecto a la FIG.4 se presenta una descripción más detallada de un algoritmo. La primera cámara identifica una producción de un subgrupo de pixeles del campo de visión 400, como una secuencia de valores de intensidad. De la producción del subgrupo de pixeles, se han identificado uno o más atributos de identificación del umbral 410 y se han usado para determinar si se garantizan exámenes adicionales 420. Los atributos de identificación del umbral pueden ser una clave de una característica propia del ave voladora. El atributo de identificación del umbral puede ser una característica de la disposición de píxeles, de la intensidad, distancia, evolución con el tiempo (por ejemplo, posición, distancia o trayectoria). Un aspecto común de los atributos de identificación del umbral es que proporcionan la capacidad de determinar de forma rápida y fiable si el subgrupo de píxeles garantiza más análisis. Ejemplos de atributos de identificación del umbral incluyen la posición y/o trayectoria, con píxeles que corresponden a un objeto móvil fuera de un espacio aéreo definido por el usuario, lo que sugiere que no se precisa un análisis adicional. Otros ejemplos de parámetros de identificación del umbral incluyen el espaciado de píxeles, número de pixeles, movimiento del píxel, color, intensidad, gradiente, parámetro respecto a los cantos que incluye la forma, evolución con el tiempo y combinaciones de estas.
Según se desee una multitud de atributos de identificación del umbral pueden ser identificados para aportar una exactitud adicional en el primer paso. Si uno o más atributos de identificación del umbral indican que no se garantizan análisis posteriores, se podrán evitar el análisis, procesamiento de dicho subgrupo de píxeles, tal como se indica en 422. Si de lo contrario se realiza un análisis, éste incluirá la identificación de uno o más parámetros de identificación aviar 430 para ayudar en la identificación aviar y/o confirmación de la especie aviar. Los parámetros de identificación aviar pueden incluir tamaño, color, distribución del color, plumaje, formas límites, forma del ala, velocidad, dirección de movimiento, movimiento de las alas y cualquier otro parámetro conocido que ayude a la identificación aviar. Si se desea, los parámetros de identificación aviar se pueden seleccionar para que correspondan a una especie aviar específica, como la del águila o ave de rapiña, que incluya por ejemplo un águila real. Los parámetros de identificación aviar de 430 se comparan con los valores de referencia correspondientes en la etapa 440. Para que una coincidencia aviar 450 sea positiva debe ocurrir una etapa de implementación de la acción 460. En contraste, si no existe coincidencia aviar, posteriores análisis o seguimiento de dicho subgrupo de píxeles puede terminar tal como lo indica la flecha 452.
El subgrupo de píxeles puede encontrarse en una región, en forma de píxeles adyacentes, píxeles vecinos o ambos. Como algo indicativo de un objeto móvil, la producción o salida puede variar con el tiempo y con el espacio. Por ejemplo, la producción puede variar si el objeto se mueve a una posición distinta en el campo de visión de manera que el subgrupo de píxeles cambia de posición. Del mismo modo, a medida que el objeto se acerca o aleja de la primera cámara, el número absoluto del subgrupo de píxeles puede aumentar o disminuir. Del mismo modo, los valores de intensidad absoluta del subgrupo de píxeles pueden aumentar o disminuir con el tiempo o la orientación relativa del objeto móvil con las pantallas.
Para aplicaciones de aerogeneradores en parques eólicos, es especialmente importante que el sistema controle con éxito un objeto volador que pueda ser una especie aviar, incluso si existe una pala de aerogenerador en el campo de visión. Dependiendo de las posiciones relativas de la cámara, la pala de la turbina móvil y la especie aviar, la pala se puede encontrar relativamente lejos o cerca de la especie aviar. Por ejemplo, la turbina puede estar entre la cámara y la especie aviar o la especie aviar puede estar entre la cámara y el aerogenerador. Esto es especialmente importante para aplicaciones donde la cámara está montada en una configuración independiente sobre una torre. De acuerdo con ello, Cualquiera de los sistemas aquí presentado puede utilizar un algoritmo de enmascaramiento de la turbina, como el algoritmo resumido por el esquema de flujo de la FIG.5. De este modo, se mantiene un seguimiento fiable incluso para un sensor que tiene tanto un pájaro como una pala en el campo de visión.
Con respecto a la fig. 5 en la etapa 510 se computa una diferencia de estructura entre un fotograma instantáneo y un último fotograma, con una producción correspondiente que es la diferencia de fotograma. Una diferencia de fotograma del umbral de la etapa 520 da lugar a una diferencia de fotograma basada en la diferencia del fotograma de la etapa 510. Una diversidad de elementos de diferencia del fotograma, etiquetados con “n” proporciona una salida o producción que es un elemento promedio en la etapa 530 que se utiliza posteriormente en la etapa 540 para producir una nueva media móvil. La nueva media móvil es registrada con una cobertura previa de la turbina para generar una nueva salida de la turbina en la etapa 550. Se crea un elemento de sustracción en la etapa 560 para posiciones cercanas a la turbina y dentro de un radio de esta. Se obtiene una máscara final de la turbina en la etapa 570 que se utiliza para aumentar la fiabilidad del seguimiento de un objeto móvil cerca de la turbina.
Ejemplo 4: Configuración del sistema
El sistema de detección se ha diseñado para acomodar mantenimiento y servicios. Para los sistemas autónomos, las opciones incluyen una torre que puede estar ladeada con respecto al suelo para su funcionamiento. Alternativamente, un camión de carga o transporte puede elevar un técnico hasta la parte superior de la torre de captación de imágenes. Se introducen los componentes críticos en cerramientos herméticos que incluirán cierres de terreno, y receptáculo para la captación de imágenes.
Las FIGs 6-7 ilustran sistemas configurados para colocar sobre la parte superior de la torre independiente, lo que incluye una torre que pueda ser transportada y/o montada en un lugar deseado. Además, el sistema se puede integrar directa o indirectamente con un aerogenerador, tal como se ha comentado. Esto puede ser una alternativa conveniente a la colocación sobre una barquilla del aerogenerador, puesto que la instalación puede producirse sin impactar o afectar de algún modo a las turbinas durante la fabricación o posterior instalación en el campo. Con respecto a la FIG,6 se dispondrán tres sistemas de captación de imágenes WFOV 610 para aportar la cobertura circunferencial completa alrededor de una torre independiente 605, donde cada sistema de imágenes 610 comprende un par de primeras cámaras 615 WFOV. Un segundo sistema de captación de imágenes 620que comprende una cámara de alta resolución 625, como sistema de imágenes estéreo que comprende un par de cámaras de alta resolución proporciona una imagen detallada y la información sobre un objeto móvil detectado por la primera cámara o cámaras. Una plataforma de giro e inclinación 630, un tipo de indicador conecta el segundo sistema captador de imágenes 620 a la torre y permite que el segundo sistema captador de imágenes se desplace para centrarse en una región de interés identificada por alguno de los primeros sistemas de captación de imágenes 610 con las segundas cámaras 625. Las primeras cámaras 615 del primer sistema 610 se pueden colocar de forma fija. En este ejemplo, hay tres primeros sistemas de captación de imágenes distintos 610, comprendiendo cada uno de ellos un par de sensores WFOV de las primeras cámaras 615. De este modo, se obtiene una cobertura completa de 360° con capacidad de zoom aportada por el segundo sistema de captación de imágenes 620 que comprende un par de segundas cámaras 625, con un total resultante de ocho transmisiones de video. En caso de que se quiera una cobertura de la zona del espacio aéreo vertical, como en el volumen inmediatamente superior al sistema ilustrado en la FIG. 6, un segundo sistema que está lejos del sistema puede aportar dicha cobertura para estos primer y segundo sistemas de imágenes que no aporta cobertura vertical absoluta.
La FIG.7 ilustra un sistema de detección aviar independiente completo que incluye cobertura o cerramiento 650 para proteger de un modo fiable los componentes electrónicos sensibles y el controlador. En esta ilustración, el sistema consta de tres sistemas de captación de imágenes 610, donde cada uno de ellos consta de un par de primeras cámaras 615, con un segundo sistema de captación de imágenes 620 emparejado a cada primer sistema de captación de imágenes, soportado por la torre 605. Un sistema de mitigación de rayos 640 reduce el riesgo del impacto del rayo en el sistema. En la FIG. 8 se muestra un primer plano de las cámaras del sistema de detección y de un receptáculo de imágenes que comprende un primer par 615 y un segundo par 625 de cámaras en la FIG. 8B. Un sustrato 800 se puede utilizar para conectar el indicador o posicionador 630 a la superficie superior del sustrato 810 y el sistema del amplio campo de visión 610 a la superficie base del sustrato 820. Esto aumenta la estabilidad del posicionador reduciendo la necesidad de calibración. Además, dicho receptáculo de imágenes puede tener una presencia relativamente pequeña (es decir, menor de 45cmx50cmx45cm (HxWxD)), con una masa total de menos de 22 kg. Otro ejemplo de un sistema de detección aviar que comprende un sistema de cámaras estéreo de alta resolución 620 con tres sistemas de captación de imágenes 610 WFOV se muestra en las FIGs 9-10A.Para mayor facilidad de instalación y manejo, la conexión de la torre puede ser modular por naturaleza, tal como se muestra en la FIG. 10B. Los receptáculos para las imágenes pueden estar conectados a la torre 605 con una conexión 609. La conexión de la torre 609 se ha configurado para soportar tres receptáculos de captación de imágenes que cubran toda la circunferencia alrededor de la torre 605 tal como se muestra en la FIG. 8A. Modificando el sistema de mitigación de rayos 640, la conexión de la torre puede soportar una cámara estéreo individual aparte (ver, por ejemplo, FIG.10B). Los cables se pueden extender a través de un conducto interior 606 en la torre 605. La conexión de la torre puede tener salientes soporte, externos 611 para soportar los sistemas WFOV de captación de imágenes y la parte de la conexión central 617 para conectarse a una segunda cámara, como una cámara estéreo y para facilitar la colocación en un extremo superior de una torre, garantizando la conexión fiable sin obstruir el campo de visión, la facilidad de la instalación, y la facilidad del mantenimiento del campo y/o de su sustitución. En particular, los sistemas individuales de captación de imágenes del sistema en su totalidad son fácilmente reemplazables.
El sistema de mitigación de rayos 640 puede ser una varilla de pararrayos o bien puede ser un sistema que ioniza el aire que rodea las cámaras del sistema de detección. El sistema puede conectarse eléctricamente a una única varilla conectada a tierra como una varilla química, en un agujero de 10 pies de profundidad con tapa de acceso, que es rellenado con tierra conductora (FIG.15, panel inferior). El sistema es ideal para tierra a base arena/agregados que tenga un contenido conductor bajo.
La torre de captación de imágenes 605 tiene una altura optimizada para la detección aviar y la clasificación entre unos 5m y 10m, o entre unos 6,3m o 9,1m. La torre se ha configurado para un porcentaje de carga de 113,4 kg con una base equilibrada como bloques de cemento o hormigón preformado. Un mecanismo de elevación/descenso puede estar dotado de una manivela de arranque manual o bien de un motor para facilitar el transporte, despliegue y mantenimiento.
Una ilustración más detallada de una imagen estéreo 620 se puede ver en la FIG: 11, paneles A-D. Un par de sensores de alta resolución 625 se dispondrán dentro de la carcasa 622. Un indicador, dependiente de las cámaras WFOV dirige después la cámara estéreo 620 a una región de interés para el análisis adicional, de la distancia, longitud, altura y/o color. La calibración de la cámara estéreo aporta información respecto a los errores a la hora de medir la distancia. La TABLA 1 resume los resultados de calibración, con una distancia de referencia y una distancia real a la turbina determinada con un telémetro la sérico. La envergadura aviar es proporcional a la distancia desde la cámara, de manera que cualquier error en la distancia conduzca a un error correspondiente en la envergadura determinada. El error máximo observado, a una distancia de 1,1 km, era de un 3,7%, lo que para una envergadura de ave rapaz de 77” corresponde a un error de unos 2.85”. Esto está dentro de la tolerancia aceptable sin impactar de forma indebida la longitud de las alas como un parámetro útil para la clasificación aviar.
Se consigue una exactitud mayor en la medición de la cámara estéreo si se busca un punto objetivo en el objeto móvil para cada cámara de la cámara estéreo. El punto objetivo o de referencia puede ser el centro de gravedad, con errores en el traslado del punto de referencia a errores de distancia. Un error de un píxel puede provocar hasta un 20% de error de distancia. Los centros de gravedad comunes se computan hasta una exactitud de subpíxeles ajustando ambas cámaras del mismo modo.
Otros aspectos importantes del sistema de visión estéreo es un centro de gravedad más próximo al eje de movimiento para conseguir un efecto reducido de la carga del viento, la rigidez estructural para los elementos de captación de imágenes, una masa inferior a 6kg, con una cámara fijada y la otra cámara ajustable para una alineación estéreo mejorada, y ventanas de visualización hidrofóbicas para un mejor rendimiento de las imágenes en unas condiciones ambientales mixtas. Para el funcionamiento a baja temperatura, se puede disponer de elementos de calentamiento.
Una ilustración más detallada del WOFV de un primer sistema de captación de imágenes 610 se consigue en las FIGs 12-13, paneles A-C. Cada primera cámara o sistema WFOV de captación de imágenes 610 puede contener primeras cámaras que sean sensores WFOV 615, de manera que un par de cámaras WFOV se extiendan a lo largo de los ejes indicados como líneas a trazos en la FIG.13, panel B, teniendo un ángulo de separación 616 que aporte la cobertura del espacio aéreo deseada, como un ángulo entre unos 50° y 70°, o aproximadamente 60°. Los sensores pueden ser cámaras contenidas dentro de la carcasa WFOV 612. En este ejemplo, cada cámara WFOV 615 capta la imagen en un ángulo de 65° a 800 m, de manera que el par de cámaras WFOV juntas capta la imagen de unos 130° a 800m. La plataforma de inclinación y giro se encuentra integrada para un seguimiento rápido de múltiples objetos diferentes con el fin de maximizar las imágenes de alta resolución desde el segundo sistema de captación de imágenes 620 de diferentes pájaros y para evitar el seguimiento de un único objeto durante largos periodos de tiempo. Según se desee, diversos parámetros se podrán controlar para establecer un seguimiento prioritario, unas prioridades de seguimiento continuado, y un desplazamiento de un número máximo de grados hacia otro objetivo. En general, las cámaras constan de una parte de lente y de una parte o pieza sensor, seleccionadas para conseguir la resolución deseada y el campo de visión para la aplicación de interés.
Otros aspectos del primer sistema de imágenes son que las cámaras pueden estar en una posición fija y ajustarse para la localización/relocalización, un rendimiento mejorado en cuanto a captación de imágenes en condiciones de tiempo variables mediante la basculación de ventanas de visualización con respecto a la vertical para reducir la obstrucción y el uso de un revestimiento hidrofóbico para disminuir las gotas de agua. Existe un cierre común para ambas cámaras y las cámaras del primer sistema de captación de imágenes se pueden montar sobre el mismo sustrato de la cámara estéreo del segundo sistema de captación de imágenes. Esto aumenta la estabilidad de la calibración de la plataforma de giro e inclinación y reduce el potencial de cambio/giro con el tiempo y las condiciones ambientales.
Un cierre de base 650 (ver, por ejemplo, FIGs.7 y 14-15) se puede usar para guardar el equipo complementario, en particular para sistemas que son independientes de cualquier otra estructura, como un aerogenerador o un radar y la estructura d construcción. El equipo complementario incluye ordenadores, servidores, controladores, e quipo de potencia, control climático y controladores electrónicos para su conexión con un parque eólico para aplicaciones de este, que incluyan una mitigación o el control de la velocidad de las palas del aerogenerador. La conversión de potencia c.c a c.a puede producirse dentro del cierre de nivel básico, reduciendo además la masa y la carga térmica en la torre. La conversión de potencia c.a a c.c. se puede realizar dentro del receptáculo de captación de imágenes para simplificar el cableado de transmisión de potencia y reducir el coste del cableado. Los cables se sellan y colocan dentro del muro de contención o pasaje de la torre, facilitando la desconexión rápida y eficiente de los receptáculos para captación de imágenes de la torre. Para un octavo sistema de transmisión por video (por ejemplo, seis cámaras WFOV y dos cámaras de alta resolución), los requisitos en potencia son de aproximadamente 500 Mbytes/seg, que pueden ser manejados por un único ordenador multifilar.
Ejemplo 5: Resultados de las pruebas in situ
Las FIGS 16A-16C son imágenes de un ave de rapiña de la segunda cámara, por ejemplo, de la cámara estéreo de alta resolución, que ilustran diferentes posturas de los pájaros y su impacto en la envergadura observada. De acuerdo con ello, una importante contribución en la detección y clasificación del análisis de la especie aviar es un porcentaje de envergadura (w) respecto a altura (h), o viceversa, porque dichas dimensiones varían con la postura de la especie aviar. La FIG. 16D ilustra un multiplicador de envergadura correspondiente como una función de la ratio h/w. Esto tiene la ventaja sobre un simple heurístico método que considera la envergadura de los pájaros orientados en distintos ángulos con respecto al sistema óptico. La técnica aquí aportada donde la proporción de w/h o de h/w se utiliza para obtener un multiplicador de envergadura se conoce en general como “estimación de la pose”. Incluso sin dicha estimación de la pose, el sistema de prueba define correctamente el 92% de las águilas reales como grandes aves de rapiña a partir de la medición de la envergadura únicamente.
Con respecto a la FIG. 17, se ha instalado un sistema de prueba de detección aviar en un parque eólico como un sistema independiente, etiquetado como “torre de observación” o torre 605 en la FIG.17. En esta prueba, el WFOV corresponde a unos 120° con 600m, 800 m y 1 km de distancia desde la cámara ilustrada, junto con los lugares para la topografía del terreno y el aerogenerador 201. Se pueden emplear cámaras adicionales para proporcionar cobertura hemisférica, que incluyan sistemas adicionales de cámaras de 120° y/o” torres de observación” adicionales en puntos geográficos distintos para conseguir una detección apropiada con respecto a cada turbina. El sistema de prueba es especialmente útil en la obtención de grupos de datos detallados para la optimización y validación del sistema de detección, garantizando con ello una mayor calidad de imagen y de fiabilidad en la detección. También se ha evaluado la durabilidad del sistema.
La FIG.18 es una imagen de un objeto móvil identificado como una gran ave de rapiña. Los datos asociados a esta imagen son: el número del fotograma, el ancho y la altura (tal como queda reflejado en la caja alrededor del ave de rapiña), distancia, tiempo de detección y nivel de confianza estadístico. La FIG.19 es una imagen del ave de rapiña en un momento posterior, que refleja el seguimiento exacto y la diferente postura en el planeado con respecto a la cámara a medida que el ave de rapiña cambia de dirección y posición. En la fig. 20 se dispone de una elevada resolución para una imagen WFOV de un ave de rapiña. El panel superior es la imagen de alta resolución desde una segunda cámara y el panel inferior una imagen WFOV desde la primera cámara. El seguimiento exitoso de una diversidad de aves de rapiña moviéndose 230 y 233 se ilustra en las imágenes de la FIG. 21, paneles (i)-(v). Ambas aves de rapiña están localizadas “sobre” las turbinas en el panel (i), con el ave de rapiña 233 que disminuye en altitud tal como se refleja en el panel (ii). La importancia del enmascaramiento de la turbina se ilustra en el panel (iii), con el ave de rapiña 233 en al menos una proximidad visual a un aerogenerador. EL ave de rapiña 233 es monitorizado durante el vuelo, incluyendo la distancia vertical desde el suelo a medida que esta aumenta, tal como se muestra en los paneles (iii)-(v).
El sistema de prueba facilita además la recogida de imágenes adecuadas para futura clasificación (procesamiento y análisis post recogida). Con el sistema, se registran 3890 recorridos, que incluyen 148 videos de alta resolución de águilas. De dichos videos, 26 se encuentran dentro de una gama estéreo de referencia de 300m a 1 km de la cámara, con una clasificación correcta del 92,3% por envergadura solamente. Se espera más mejoría con los parámetros de identificación aviar adicional, incluyendo el análisis del color. El sistema también capturaba 8 videos de alta resolución de especies aviar distintas de águilas.

Claims (11)

REIVINDICACIONES
1. Sistema de detección aviar para detectar una especie aviar voladora, donde la detección se realiza en un espacio aéreo que tiene un volumen equivalente a un hemisferio equivalente promedio con un radio medio seleccionado entre una gama que es mayor o igual a 0,5 km y menor o igual a 1,2 km, donde el sistema de detección aviar comprende:
una pluralidad de primeros sistemas de captación de imágenes que comprenden una pluralidad de primeras cámaras (615), donde cada una de dichas primeras cámaras (615) tiene un campo amplio de visión y están alineadas en direcciones de alineación distintas para proporcionar una cobertura hemisférica del espacio aéreo que rodea dicho sistema de detección aviar; un sistema de captación de imágenes estéreo que comprende al menos una cámara estéreo (620), donde cada cámara estéreo (620) consta de un par de segundas cámaras (625) que tienen independientemente un gran zoom; un indicador (630) conectado operativamente a cada una de las cámaras estéreo (620) para posicionar cada una de dichas cámaras estéreo (620) para captar una imagen de un objeto móvil (230, 231, 232, 233) detectado por las primeras cámaras (615); y
un procesador conectado operativamente para recibir datos de imágenes de ambas primeras cámaras (615) y de cada cámara estéreo (620), donde el procesador se ha configurado para:
identificar una producción o salida de un subgrupo de píxeles de las primeras cámaras (615) que corresponde al objeto móvil (230, 231, 232, 233), la producción del subgrupo de píxeles correspondientes a una región de interés móvil (110) definida oír el subgrupo de píxeles, donde cada pixel se asocia a un valor de intensidad; obtener uno o más atributos de identificación del umbral para la producción del subgrupo de píxeles de las primeras cámaras (615), los atributos de identificación del umbral con respecto a una caracterización inicial del subgrupo de píxeles como corresponde al objeto móvil (230, 231, 232, 233) sobre el que se puede realizar otro análisis posterior, donde al menos un atributo de identificación del umbral comprende un parámetro límite que es una característica del límite de los cantos de una especie aviar voladora;
analizar uno o más atributos de identificación del umbral para decidir si el objeto móvil (230, 231, 232, 233) es un objeto móvil de interés;
obtener uno o más parámetros de identificación aviar para el objeto móvil (230, 231, 232, 233) de interés de la cámara estéreo (620), los parámetros de identificación aviar son seleccionados del grupo formado el tamaño, la velocidad, envergadura de las alas, forma de las alas, postura aviar o ratio de anchura respecto a altura de la envergadura del ala o viceversa, color, forma del contorno, geometría, intensidad de luz y trayectoria de vuelo, donde la cámara estéreo (620) se utiliza para determinar una distancia del objeto móvil de interés,
en el caso en que el procesador se haya además configurado, determinar si la distancia del objeto móvil de interés está dentro de la distancia definida por el usuario (215);
cuando la distancia del objeto móvil de interés está dentro de una distancia definida por el usuario (215): comparar uno o más parámetros de identificación aviar con uno o más parámetros de identificación aviar de referencia correspondientes e identificar si el objeto móvil de interés es una especie aviar de interés.
2. Sistema de detección aviar de la reivindicación 1, donde el sistema estéreo de captación de imágenes consta de una única cámara estéreo (620), donde dicho indicador (630) es una plataforma de giro e inclinación que alinea y enfoca de forma continuada las segundas cámaras (625) de la cámara estéreo individual (620) en el objeto móvil (230, 231, 232, 233) identificado por las primeras cámaras (615).
3. Sistema de detección aviar de la reivindicación 2 que además comprende: una conexión en la torre (609) para conectar cada una de las cámaras (615) y el sistema de cámaras estéreo individual a una torre independiente (605).
4. Sistema de detección aviar de la reivindicación 3, que además comprende un sustrato (800) que tiene una superficie superior (810) y una superficie inferior (820), donde dicho posicionador o indicador (630) conecta el sistema de cámaras estéreo individuales a la superficie superior (810) del sustrato (800), donde dicho campo de visión amplio está conectado a la superficie inferior (820) del sustrato (800).
5. Sistema de detección aviar de cualquiera de las reivindicaciones 3 o 4, donde dicha conexión de la torre (609) consta además de: una pieza de conexión central (617) para soportar dicho sistema de cámaras estéreo y conectarse a una parte superior de la torre independiente (605); y unos salientes externos de soporte (611) para soportar los sistemas de campo de visión amplia.
6. Método de detección de una especie aviar voladora en un espacio aéreo que tiene un volumen equivalente a un hemisferio equivalente promedio con un radio promedio seleccionado entre una gama que es mayor o igual a 0,5 km y menor o igual a 1,2 km, comprendiendo el método las etapas en el orden siguiente:
a) captar imágenes del espacio aéreo que rodea un sistema de captación de imágenes con una pluralidad de sistemas de primeras cámaras que consta de primeras cámaras (615), donde cada una de las primeras cámaras (615) está alineada en distintas direcciones de alineación para aportar cobertura hemisférica del espacio aéreo que rodea dicho sistema captador de imágenes;
b) identificar una producción de un subgrupo de píxeles de las primeras cámaras (615) correspondiente a un objeto móvil (230, 231, 232, 233), la producción del subgrupo de píxeles que corresponde a una región de interés móvil (110) definida por el subgrupo de píxeles, donde cada pixel se asocia a un valor de intensidad; c) obtener uno o más atributos de identificación del umbral para la producción del subgrupo de píxeles de la etapa de captación de imágenes, los atributos de identificación del umbral referidos a una caracterización inicial del subgrupo de píxeles como corresponde a un objeto móvil sobre el que se realiza un análisis posterior, donde al menos un atributo de identificación del umbral comprende un parámetro del contorno que es una característica del contorno de los cantos de una especie aviar voladora;
d) analizar uno o más atributos de identificación y decidir si el objeto móvil (230, 231, 232, 233) es un objeto móvil de interés;
e) si el objeto móvil (230, 231, 232, 233) es un objeto móvil de interés: colocar una cámara estéreo (620) para captar la imagen del objeto móvil (230, 231, 232, 233), la cámara estéreo (620) que tenga un par de segundas cámaras (625) que independientemente una de otra tenga un zoom elevado;
f) obtener uno o más parámetros de identificación aviar para el objeto móvil de interés de la cámara estéreo (620), Los parámetros de identificación aviar son seleccionados del grupo compuesto por el tamaño, la velocidad, la amplitud del ala, la forma del ala, la postura del pájaro o la relación entre el ancho con respecto a la altura de la amplitud del ala o viceversa (w/h o h/w), color, forma del contorno, geometría, intensidad de luz, y trayectoria del vuelo de una especie aviar específica, donde la cámara estéreo (620) se utiliza para determinar una distancia del objeto móvil de interés;
g) cuando la distancia del objeto móvil de interés está dentro de una distancia definida por el usuario (215):
comparar uno o más parámetros de identificación con uno o más parámetros de identificación aviar de referencia si el objeto móvil de interés es una especie aviar de interés.
7. Método de la reivindicación 6, para detectar una especie aviar que es un ave de rapiña.
8. Método de la reivindicación 6 donde el método consta además de una etapa de implementación de la acción, para una coincidencia aviar de la etapa de comparación que sea afirmativa, donde las implementaciones de acción incluyan las seleccionadas del grupo que consiste en una alarma, una alerta a un operador, un recuento, una medida de invalidación activa, o un descenso o paro de la velocidad de la pala del aerogenerador cuando el sistema de detección aviar identifica una especie aviar voladora que se encuentra amenazada o en peligro de extinción que tiene una trayectoria prevista en un espacio aéreo circundante de un aerogenerador que de lo contrario acabará impactando con la pala del aerogenerador.
9. Método de cualquiera de las reivindicaciones 6-8, que además comprende la etapa de obtención de una trayectoria predictiva de la especie aviar voladora, donde el método se utiliza con un aerogenerador, comprendiendo dicho método las etapas de:
disminución de la velocidad de la pala del aerogenerador o movimiento de paro de la pala para minimizar o evitar el riesgo del impacto de la pala debido a la trayectoria predictiva tomada por la especie aviar que probablemente acabaría en el impacto de la pala por la especie aviar; y la velocidad de la pala del aerogenerador no disminuye en caso de una especie aviar que se ha identificado como una especie aviar sin interés, maximizando con ello la eficiencia de la turbina.
10. Método de cualquiera de las reivindicaciones 8-9, donde la etapa de implementación de una acción comprende además una o más de las etapas siguientes: desencadenar un proceso de recuento; desencadenar un efecto disuasorio para estimular el movimiento de la especie aviar fuera del entorno de la primera cámara (615); registrar una imagen o video del ave voladora por el espacio aéreo alrededor de la primera cámara (615); o disminuir o parar la velocidad de una pala de aerogenerador.
11. Método de cualquiera de la reivindicación 10, que además comprende la etapa de definir un espacio aéreo de implementación de la acción que tenga una distancia de acción media inferior al radio equivalente medio del espacio aéreo básicamente hemisférico que rodea el sistema de captación de imágenes, donde la implementación de la acción se inicia para aquella especie aviar que está en
el espacio aéreo básicamente hemisférico y que tiene una trayectoria hacia el espacio aéreo de implementación de la acción; o bien
en el espacio aéreo de implementación de la acción
ES15763682T 2014-08-21 2015-08-21 Sistema y procedimiento de detección de pájaros Active ES2821735T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462040018P 2014-08-21 2014-08-21
PCT/US2015/046327 WO2016029135A1 (en) 2014-08-21 2015-08-21 Avian detection systems and methods

Publications (1)

Publication Number Publication Date
ES2821735T3 true ES2821735T3 (es) 2021-04-27

Family

ID=54140639

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15763682T Active ES2821735T3 (es) 2014-08-21 2015-08-21 Sistema y procedimiento de detección de pájaros

Country Status (7)

Country Link
US (3) US10275679B2 (es)
EP (2) EP3183687B1 (es)
AU (3) AU2015305303B2 (es)
CA (1) CA2958579C (es)
DK (1) DK3183687T3 (es)
ES (1) ES2821735T3 (es)
WO (1) WO2016029135A1 (es)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10275679B2 (en) 2014-08-21 2019-04-30 Identiflight International, Llc Avian detection systems and methods
US9856856B2 (en) * 2014-08-21 2018-01-02 Identiflight International, Llc Imaging array for bird or bat detection and identification
DE102015118028A1 (de) * 2015-10-22 2017-04-27 Quantec Grund GmbH & Co. KG Überwachung tieffliegender Luftfahrzeuge
PL232585B1 (pl) * 2016-02-13 2019-06-28 Przybycin Michal Urządzenie rejestrujące kolizje zwierząt latających z elektrowniami wiatrowymi i wskazujące miejsce ich upadku na podłoże
DK179018B1 (en) 2016-03-14 2017-08-21 Ventus Eng Gmbh Method of condition monitoring one or more wind turbines and parts thereof and performing instant alarm when needed
US10096097B2 (en) * 2016-08-01 2018-10-09 The United States Of America As Represented By The Secretary Of The Navy Content-aware bidirectional image edge highlighting
WO2018081610A1 (en) * 2016-10-27 2018-05-03 Nrg Systems, Inc. System and methods for detecting bats and avian carcasses
GB2555836A (en) * 2016-11-11 2018-05-16 Bioseco Sp Z O O Systems and methods for detecting flying animals
DE102016013944B4 (de) * 2016-11-22 2022-12-08 Reyk Buchenberg Detektorsystem für die bedarfsgesteuerte Kennzeichnung von Luftfahrthindernissen
US10794363B2 (en) * 2017-02-10 2020-10-06 Inventus Holdings, Llc Wind turbine curtailment control for volant animals
US10316823B2 (en) * 2017-03-15 2019-06-11 Inventus Holdings, Llc Wind turbine group control for volant animal swarms
PL238221B1 (pl) * 2017-07-19 2021-07-26 Przybycin Michal Układ rejestrujący kolizje zwierząt latających z elektrowniami wiatrowymi i wskazujący miejsce ich upadku na podłoże
DE102017127168A1 (de) * 2017-11-17 2019-05-23 Carsten Ludowig Schutzvorrichtung zum Schutz von Flugobjekten gegenüber wenigstens einer Windenergieanlage
WO2019184578A1 (zh) * 2018-03-30 2019-10-03 杭州海康威视数字技术股份有限公司 一种双目摄像机
US20190307117A1 (en) * 2018-04-10 2019-10-10 Edm International, Inc. Avian collision avoidance system and method
US10854091B2 (en) * 2018-07-03 2020-12-01 Honeywell International Inc. Energy management visualization methods and systems
CN109011506B (zh) * 2018-07-12 2020-09-15 深圳市虚数科技有限公司 一种训练动作识别方法
US20210342597A1 (en) 2018-08-31 2021-11-04 Faunaphotonics Agriculture & Environmental A/S Apparatus and method for identifying organisms
CN111120220B (zh) * 2018-10-31 2021-05-28 北京金风科创风电设备有限公司 风力发电机组叶片视频监测的方法及系统
CN109710595B (zh) * 2018-11-30 2022-03-25 广东工业大学 基于有限信息的输电走廊鸟害热点图的构建方法
US11521083B2 (en) 2019-01-14 2022-12-06 Oregon State University Apparatus and amendment of wind turbine blade impact detection and analysis
DE102019200391B4 (de) * 2019-01-15 2022-10-20 Jochen Kreidenweiss Steuerungs- und Überwachungssystem für eine Windenergieanlage und ein Verfahren zur Überwachung und Steuerung einer solchen
US11272156B2 (en) 2019-02-15 2022-03-08 Analog Devices International Unlimited Company Spatial correlation sampling in time-of-flight imaging
GB2582988A (en) * 2019-04-12 2020-10-14 Rinicom Ltd Object classification
GB2586227B (en) * 2019-08-07 2022-04-20 Renewable Energy Systems Ltd System and method for controlling shadow flicker from a wind turbine
CN110503040B (zh) * 2019-08-23 2022-05-27 斯坦德机器人(深圳)有限公司 障碍物检测方法及装置
US11109586B2 (en) * 2019-11-13 2021-09-07 Bird Control Group, Bv System and methods for automated wildlife detection, monitoring and control
GR1009939B (el) * 2020-03-26 2021-02-19 Digisec Ιδιωτικη Επιχειρηση Παροχης Υπηρεσιων Ασφαλειας Ανωνυμη Εταιρεια Με Διακριτικο Τιτλο Digisec A.E. Συστημα ανιχνευσης ακριβους αναγνωρισης και αποτροπης συγκρουσης πτηνων (bird monitoring system)
WO2022003213A1 (es) * 2020-06-29 2022-01-06 3D Observer Project, S.L. Sistema y método para detectar avifauna en parques eólicos
CN111953874B (zh) * 2020-07-31 2021-06-29 哈尔滨工业大学(深圳) 一种基于超广角镜头360°凝视型智能驱鸟器及其标定方法
EP4248170A1 (en) * 2020-11-23 2023-09-27 Bioseco Sp. z o.o. A stereovision method and system
US11950567B2 (en) 2021-03-04 2024-04-09 Sky View Environmental Service Llc Condor monitoring systems and related methods
CN113569644B (zh) * 2021-06-28 2024-03-15 西安理工大学 一种基于机器视觉的机场鸟类目标检测方法
TW202321130A (zh) * 2021-09-28 2023-06-01 美商卡爾戈科技股份有限公司 貨物管理系統及其方法
US20230133685A1 (en) * 2021-10-29 2023-05-04 Hewlett-Packard Development Company, L.P. Camera systems for tracking target objects
DE102021131070A1 (de) 2021-11-26 2023-06-01 Pne Ag Verfahren zum Steuern einer Windenergieanlage und Flugobjektkollisionsverhinderungssystem
WO2023134924A1 (en) * 2022-01-13 2023-07-20 Agc Glass Europe Bird protection device
CN114941611B (zh) * 2022-04-29 2024-04-16 中国环境科学研究院 一种用于区分风机基座和扇叶致死鸟类的辅助装置
EP4296506A1 (de) * 2022-06-23 2023-12-27 Wobben Properties GmbH Verfahren zum steuern einer windenergieanlage zum schutz von vögeln und fledermäusen
CN116148862B (zh) * 2023-01-16 2024-04-02 无锡市雷华科技有限公司 一种探鸟雷达飞鸟综合预警评估方法

Family Cites Families (133)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774088A (en) 1994-07-26 1998-06-30 The University Of Pittsburgh Method and system for warning birds of hazards
DE9413712U1 (de) 1994-08-25 1994-10-27 Goecke Wilhelm Greifvogelidentifikationssystem zum Schutz von Geflügel
US5657073A (en) 1995-06-01 1997-08-12 Panoramic Viewing Systems, Inc. Seamless multi-camera panoramic imaging with distortion correction and selectable field of view
KR100264393B1 (ko) 1998-02-02 2000-08-16 윤덕용 프리즘에 의한 스테레오 카메라 시스템
US6323858B1 (en) 1998-05-13 2001-11-27 Imove Inc. System for digitally capturing and recording panoramic movies
US6250255B1 (en) 1998-08-06 2001-06-26 Virginia Commonwealth University Methods and apparatus for alerting and/or repelling birds and other animals
US7023913B1 (en) 2000-06-14 2006-04-04 Monroe David A Digital security multimedia sensor
US6623243B1 (en) 1999-04-30 2003-09-23 University Of Maryland Minimization of motion smear: an approach to reducing avian collisions with wind turbines
US6738073B2 (en) 1999-05-12 2004-05-18 Imove, Inc. Camera system with both a wide angle view and a high resolution view
NZ336109A (en) 1999-06-03 2001-11-30 Ind Res Ltd Deterrent system for animals or intruders using steerable acoustic beam
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
DE10001282C2 (de) * 2000-01-14 2001-10-25 Lfk Gmbh Verfahren zur autonomen Detektion von Hubschraubern
DE60138330D1 (de) 2000-02-28 2009-05-28 Hitachi Int Electric Inc Vorricht ung und Systemzur Überwachung von eingedrungenen Objekte
IL139995A (en) 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
JP2003021046A (ja) 2001-07-09 2003-01-24 Sanyo Electric Co Ltd 風力発電装置
US6947059B2 (en) 2001-08-10 2005-09-20 Micoy Corporation Stereoscopic panoramic image capture device
JP2003141562A (ja) 2001-10-29 2003-05-16 Sony Corp 非平面画像の画像処理装置及び画像処理方法、記憶媒体、並びにコンピュータ・プログラム
KR20050046822A (ko) * 2002-10-18 2005-05-18 사르노프 코포레이션 다수의 카메라들을 사용하여 파노라마식 시각화를 가능하게하는 방법 및 시스템
GB0226002D0 (en) 2002-11-07 2002-12-11 Home Networking Ltd Surveillance device
US7643055B2 (en) 2003-04-25 2010-01-05 Aptina Imaging Corporation Motion detecting camera system
US7463280B2 (en) 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
US6809887B1 (en) 2003-06-13 2004-10-26 Vision Technologies, Inc Apparatus and method for acquiring uniform-resolution panoramic images
US8553113B2 (en) 2003-08-20 2013-10-08 At&T Intellectual Property I, L.P. Digital image capturing system and method
US7315799B1 (en) 2003-09-09 2008-01-01 Perot Systems Corporation Method of and article of manufacture for determining probability of avian collision
US20050162978A1 (en) 2004-01-26 2005-07-28 Lima Keith J. Method of increasing avian safety in and around wind-powered electricity production facilities
JP2006033793A (ja) 2004-06-14 2006-02-02 Victor Co Of Japan Ltd 追尾映像再生装置
JP4140567B2 (ja) 2004-07-14 2008-08-27 松下電器産業株式会社 物体追跡装置および物体追跡方法
US7629995B2 (en) * 2004-08-06 2009-12-08 Sony Corporation System and method for correlating camera views
JP4140591B2 (ja) 2004-09-13 2008-08-27 ソニー株式会社 撮像システム及び撮像方法
US7929728B2 (en) * 2004-12-03 2011-04-19 Sri International Method and apparatus for tracking a movable object
JP4378636B2 (ja) 2005-02-28 2009-12-09 ソニー株式会社 情報処理システム、情報処理装置および情報処理方法、プログラム、並びに記録媒体
US7667730B2 (en) * 2005-06-15 2010-02-23 Mitsubishi Electric Research Laboratories, Inc. Composite surveillance camera system
JP4188394B2 (ja) 2005-09-20 2008-11-26 フジノン株式会社 監視カメラ装置及び監視カメラシステム
DE102005046860A1 (de) 2005-09-29 2007-04-05 Daubner & Stommel GbR Bau-Werk-Planung (vertretungsberechtigter Gesellschafter: Matthias Stommel, 27777 Ganderkesee) Verfahren zur Regelung einer Windenergieanlage
US7806604B2 (en) 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
US7506815B2 (en) 2006-02-16 2009-03-24 Spiegel H Jay Laser waterfowl repellent
US7834910B2 (en) 2006-03-01 2010-11-16 David M. DeLorme Method and apparatus for panoramic imaging
WO2007129378A1 (ja) 2006-04-27 2007-11-15 The Tokyo Electric Power Company, Incorporated 風力発電装置、風力発電装置の制御方法およびコンピュータプログラム
US7773121B1 (en) 2006-05-03 2010-08-10 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration High-resolution, continuous field-of-view (FOV), non-rotating imaging system
US8446509B2 (en) 2006-08-09 2013-05-21 Tenebraex Corporation Methods of creating a virtual window
US8248473B2 (en) * 2006-10-05 2012-08-21 Graber Curtis E Robotic sentry with low dispersion acoustic projector
US8187045B2 (en) 2007-01-19 2012-05-29 Thibodaux Ronald J Air-propelled vessel with articulating member
DE102007004027A1 (de) 2007-01-22 2008-07-24 Daubner & Stommel GbR Bau-Werk-Planung (vertretungsberechtigter Gesellschafter: Matthias Stommel, 27777 Ganderkesee) Windenergieanlage mit Detektionseinrichtung
US7701362B2 (en) 2007-02-16 2010-04-20 Precise Flight, Inc. Optical system for detecting an object
WO2009155348A1 (en) 2008-06-17 2009-12-23 Pandion Systems, Inc. System and method for detecting bats and their impact on wind facilities
ES2633742T3 (es) 2007-03-16 2017-09-25 L-3 Communications Corporation Sistema para procesamiento de imagen panorámica
US20080298674A1 (en) * 2007-05-29 2008-12-04 Image Masters Inc. Stereoscopic Panoramic imaging system
US9046080B2 (en) 2007-05-29 2015-06-02 John W. Sliwa Method and apparatus for reducing bird and fish injuries and deaths at wind and water-turbine power-generation sites
TW200850006A (en) 2007-06-01 2008-12-16 Nat Univ Chung Cheng Scalable fractional motion estimation method for multimedia encoding system
WO2009010961A2 (en) 2007-07-13 2009-01-22 Birdsvision Ltd. Method and system for detecting and deterring animal intruders
ES2468248T3 (es) 2007-07-17 2014-06-16 Laufer Wind Group Llc Procedimiento y sistema para reducir la contaminación lumínica
JPWO2009102001A1 (ja) * 2008-02-15 2011-06-16 東京電力株式会社 鳥類探査システム、鳥類探査方法およびコンピュータプログラム
JP2009203873A (ja) 2008-02-27 2009-09-10 Tokyo Electric Power Co Inc:The 飛来物検知システム、風力発電装置およびコンピュータプログラム
JP5072053B2 (ja) 2008-03-21 2012-11-14 東京電力株式会社 飛来物探査装置および映像取得手段の設置方法
DE102008018880A1 (de) 2008-04-14 2009-10-15 Carl Zeiss Optronics Gmbh Überwachungsverfahren und -vorrichtung für Windkraftanlagen, Gebäude mit transparenten Bereichen, Start- und Landebahnen und/oder Flugkorridore von Flughäfen
US8284258B1 (en) 2008-09-18 2012-10-09 Grandeye, Ltd. Unusual event detection in wide-angle video (based on moving object trajectories)
FR2937094B1 (fr) 2008-10-10 2010-12-17 Enria Systeme et procede de comptage et d'analyse d'impacts d'animaux sur une pale d'eolienne.
EP2190092A2 (en) * 2008-11-19 2010-05-26 Vestas Wind Systems A/S Improved lightning protection system for wind turbines
GB0822468D0 (en) 2008-12-10 2009-01-14 Qinetiq Ltd Method for mitigating the effects of clutter and interference on a radar system
US8488001B2 (en) 2008-12-10 2013-07-16 Honeywell International Inc. Semi-automatic relative calibration method for master slave camera control
FR2939902A1 (fr) 2008-12-16 2010-06-18 Henri Pierre Roche Systeme de detection d'oiseaux et d'arret automatise d'eolienne industrielle
JP2010193768A (ja) 2009-02-24 2010-09-09 Tokyo Electric Power Co Inc:The 鳥威嚇装置および風力発電装置
US9277878B2 (en) 2009-02-26 2016-03-08 Tko Enterprises, Inc. Image processing sensor systems
US9293017B2 (en) 2009-02-26 2016-03-22 Tko Enterprises, Inc. Image processing sensor systems
US20100231687A1 (en) 2009-03-16 2010-09-16 Chase Real Estate Services Corporation System and method for capturing, combining and displaying 360-degree "panoramic" or "spherical" digital pictures, images and/or videos, along with traditional directional digital images and videos of a site, including a site audit, or a location, building complex, room, object or event
CN101852979A (zh) * 2009-03-30 2010-10-06 鸿富锦精密工业(深圳)有限公司 全景相机
DE102009016819B4 (de) 2009-04-09 2011-12-15 Carl Zeiss Optronics Gmbh Verfahren zur Detektion wenigstens eines Objekts und/oder wenigstens einer Objektgruppe, Computerprogramm, Computerprogammprodukt, Stereokameraeinrichtung, aktiv Strahlung aussendendes Bildsensorsystem und Überwachungsvorrichtung
WO2010151362A1 (en) 2009-04-16 2010-12-29 Columbia University Optical barrier to pests
US7971827B2 (en) 2009-04-27 2011-07-05 Barrientos Ernesto D Bird collision prevention device for an aircraft
DE102009032578A1 (de) 2009-07-10 2011-01-13 Stefan Kranz Windkraftanlage zur Erzeugung elektrischer Energie
US20110069148A1 (en) 2009-09-22 2011-03-24 Tenebraex Corporation Systems and methods for correcting images in a multi-sensor system
US8446521B2 (en) 2009-11-16 2013-05-21 Honeywell International Inc. Distributed agile illumination system and method
US8446457B2 (en) 2009-11-30 2013-05-21 Daniel Theobald System for providing camera views
KR101142737B1 (ko) * 2009-12-10 2012-05-04 한국원자력연구원 조류 대응 시스템
US20110164108A1 (en) * 2009-12-30 2011-07-07 Fivefocal Llc System With Selective Narrow FOV and 360 Degree FOV, And Associated Methods
MX2012008878A (es) 2010-02-01 2012-11-06 Youngkook Electronics Co Ltd Dispositivo de camara de seguimiento y supervision y sistema remoto de supervision que usa el mismo.
US9001211B1 (en) 2010-06-11 2015-04-07 Kervin R. Spivey Surveillance system apparatus
US8641374B2 (en) 2010-06-30 2014-02-04 Vestas Wind Systems A/S Cleaning and inspecting apparatus for wind turbine and related methods
EP2590396B1 (en) * 2010-07-02 2018-08-08 Sony Interactive Entertainment Inc. Information processing system and information processing method
DE202010010765U1 (de) 2010-07-28 2010-11-04 Enertrag Windfeld Systemtechnik Gmbh Videosystem zur Vogelerkennung in Windparks
CA2814347A1 (en) 2010-10-19 2012-04-26 Renewable Energy Systems Americas Inc. Systems and methods for avian mitigation for wind farms
US20120154521A1 (en) 2010-10-26 2012-06-21 Townsend Julie A 360-degree camera head for unmanned surface sea vehicle
DE102010053895A1 (de) 2010-12-09 2012-06-14 Eads Deutschland Gmbh Umfeld-Darstellungsvorrichtung sowie ein Fahrzeug mit einer derartigen Umfeld-Darstellungsvorrichtung und Verfahren zur Darstellung eines Panoramabildes
US9036001B2 (en) 2010-12-16 2015-05-19 Massachusetts Institute Of Technology Imaging system for immersive surveillance
KR101666397B1 (ko) 2010-12-21 2016-10-14 한국전자통신연구원 객체 영상 획득 장치 및 방법
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
CA2772210C (en) 2011-03-24 2015-11-24 Kabushiki Kaisha Topcon Omnidirectional camera and lens hood
JP5906028B2 (ja) 2011-06-22 2016-04-20 キヤノン株式会社 画像処理装置、画像処理方法
US20130201296A1 (en) 2011-07-26 2013-08-08 Mitchell Weiss Multi-camera head
US9416769B2 (en) 2011-08-31 2016-08-16 Siemens Aktiengesellschaft Method to control the operation of a wind turbine
US20130050400A1 (en) * 2011-08-31 2013-02-28 Henrik Stiesdal Arrangement and Method to Prevent a Collision of a Flying Animal with a Wind Turbine
JP2013050883A (ja) * 2011-08-31 2013-03-14 Nintendo Co Ltd 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
CA2849753A1 (en) 2011-09-23 2013-03-28 Donald Ronning Method and system for detecting animals in three dimensional space and for inducing an avoidance response in an animal
US20140261151A1 (en) 2011-09-23 2014-09-18 Lite Enterprise, Inc. Method and system for provoking an avoidance behavioral response in animals
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US8988230B2 (en) 2011-10-25 2015-03-24 Accipiter Radar Technologies Inc. Device and method for smart, non-habituating, automatic bird deterrent system
GB2498331A (en) * 2011-12-17 2013-07-17 Apem Ltd Method of classifying images of animals based on their taxonomic group
KR20130085316A (ko) 2012-01-19 2013-07-29 한국전자통신연구원 원거리 사람 식별을 위한 다중 카메라 기반의 얼굴영상 획득 장치
US20150010399A1 (en) 2012-01-31 2015-01-08 Birdsvision Ltd. Method and system for detection and deterrence of flying animals and prevention of collisions with wind turbines
US9115699B2 (en) 2012-02-28 2015-08-25 General Electric Company Ultrasonic sound emitting devices for wind turbines
US8742977B1 (en) 2012-03-02 2014-06-03 Gregory Hubert Piesinger Wind turbine bird strike prevention system method and apparatus
RU2615470C2 (ru) 2012-03-26 2017-04-04 Волаком Ад Система предотвращения столкновения животных
US20130298845A1 (en) * 2012-05-12 2013-11-14 Randall Blanchard Apparatuses, systems and methods for warning flying birds of hazards
EP2860963B1 (en) 2012-06-11 2019-05-22 Sony Interactive Entertainment Inc. Image generation device, and image generation method
JP2014027442A (ja) * 2012-07-26 2014-02-06 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US9152019B2 (en) 2012-11-05 2015-10-06 360 Heros, Inc. 360 degree camera mount and related photographic and video system
US20140313345A1 (en) 2012-11-08 2014-10-23 Ornicept, Inc. Flying object visual identification system
US9474265B2 (en) 2012-11-27 2016-10-25 Elwha Llc Methods and systems for directing birds away from equipment
US9775337B2 (en) 2012-11-27 2017-10-03 Elwha Llc Methods and systems for directing birds away from equipment
JP6078317B2 (ja) 2012-12-07 2017-02-08 株式会社トプコン 全方位カメラ
US9402026B2 (en) 2013-01-05 2016-07-26 Circular Logic Systems, Inc. Spherical panoramic image camera rig
US20140362176A1 (en) 2013-01-05 2014-12-11 Patrick A. St. Clair Spherical panoramic imaging system
US9125394B2 (en) 2013-01-30 2015-09-08 General Electric Company Ultrasonic sound emitting devices for wind turbines
CA2938159C (en) 2013-02-04 2021-07-27 Valorisation-Recherche, Limited Partnership Omnistereo imaging
US9759068B2 (en) 2013-02-28 2017-09-12 General Electric Company System and method for controlling a wind turbine based on identified surface conditions of the rotor blades
US10043359B2 (en) 2013-03-08 2018-08-07 Denso Wave Incorporated Apparatus and method of monitoring moving objects
WO2014152855A2 (en) 2013-03-14 2014-09-25 Geerds Joergen Camera system
SG11201507832TA (en) * 2013-03-28 2015-10-29 Nec Corp Bird detection device, bird detection system, bird detection method, and program
JP6316023B2 (ja) 2013-05-17 2018-04-25 キヤノン株式会社 カメラシステム及びカメラ制御装置
JP6027560B2 (ja) 2014-02-18 2016-11-16 富士フイルム株式会社 自動追尾撮像装置
WO2015127292A1 (en) 2014-02-20 2015-08-27 Turtle Beach Corporation Ultrasonic intrusion deterrence apparatus and methods
JP2017517232A (ja) 2014-06-06 2017-06-22 コングスベルグ ディフェンス&エアロスペース アクティーゼルスカブ 少なくとも1つの観測エリアをリモートモニタリングするシステム及び方法
WO2015187172A1 (en) 2014-06-06 2015-12-10 Siemens Aktiengesellschaft Method and system to dissuade avian life forms from a region
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9856856B2 (en) 2014-08-21 2018-01-02 Identiflight International, Llc Imaging array for bird or bat detection and identification
US10275679B2 (en) 2014-08-21 2019-04-30 Identiflight International, Llc Avian detection systems and methods
US20160078298A1 (en) 2014-09-16 2016-03-17 Geovision Inc. Surveillance Method and Camera System Using the Same
US9609234B1 (en) 2014-12-24 2017-03-28 Vecna Technologies, Inc. Camera module and operating method
TWI537885B (zh) 2015-01-07 2016-06-11 晶睿通訊股份有限公司 監控方法與監控系統
KR101576130B1 (ko) 2015-07-22 2015-12-09 (주)씨프로 고해상도용 cctv 파노라마 카메라 장치
US9891049B2 (en) 2015-10-29 2018-02-13 Trimble Inc. Method of solving initial azimuth for survey instruments, cameras, and other devices with position and tilt information
US20170234966A1 (en) * 2016-02-17 2017-08-17 Qualcomm Incorporated Device for uav detection and identification
US11212437B2 (en) 2016-06-06 2021-12-28 Bryan COLIN Immersive capture and review

Also Published As

Publication number Publication date
WO2016029135A1 (en) 2016-02-25
CA2958579C (en) 2023-05-09
US20190325254A1 (en) 2019-10-24
EP3183687B1 (en) 2020-07-08
EP3798444A1 (en) 2021-03-31
US20160055400A1 (en) 2016-02-25
AU2021202277A1 (en) 2021-05-13
DK3183687T3 (da) 2020-09-14
US11544490B2 (en) 2023-01-03
EP3183687A1 (en) 2017-06-28
US10275679B2 (en) 2019-04-30
CA2958579A1 (en) 2016-02-25
AU2023203521A1 (en) 2023-06-29
US20230287866A1 (en) 2023-09-14
AU2015305303A1 (en) 2017-03-23
AU2021202277B2 (en) 2023-04-06
AU2015305303B2 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
ES2821735T3 (es) Sistema y procedimiento de detección de pájaros
US11751560B2 (en) Imaging array for bird or bat detection and identification
US11441543B2 (en) System recording the collisions of flying animals with wind turbines, its application and manner of recording collisions of flying animals with wind turbines with the use of the system
WO2022003213A1 (es) Sistema y método para detectar avifauna en parques eólicos