CN114902555A - 用于捕获和/或处理电致发光图像的方法、系统和图像处理设备以及空中交通工具 - Google Patents
用于捕获和/或处理电致发光图像的方法、系统和图像处理设备以及空中交通工具 Download PDFInfo
- Publication number
- CN114902555A CN114902555A CN202080091477.9A CN202080091477A CN114902555A CN 114902555 A CN114902555 A CN 114902555A CN 202080091477 A CN202080091477 A CN 202080091477A CN 114902555 A CN114902555 A CN 114902555A
- Authority
- CN
- China
- Prior art keywords
- image
- array
- aerial vehicle
- frame
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 118
- 238000012545 processing Methods 0.000 title claims abstract description 67
- 230000003287 optical effect Effects 0.000 claims description 57
- 238000012935 Averaging Methods 0.000 claims description 21
- 238000013507 mapping Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 11
- 230000003247 decreasing effect Effects 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 81
- 208000035405 autosomal recessive with axonal neuropathy spinocerebellar ataxia Diseases 0.000 description 30
- 238000010586 diagram Methods 0.000 description 25
- 238000000605 extraction Methods 0.000 description 9
- 238000007689 inspection Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 230000002950 deficient Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 230000010355 oscillation Effects 0.000 description 5
- 230000007547 defect Effects 0.000 description 4
- 238000009432 framing Methods 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 208000032005 Spinocerebellar ataxia with axonal neuropathy type 2 Diseases 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 208000033361 autosomal recessive with axonal neuropathy 2 spinocerebellar ataxia Diseases 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 238000005424 photoluminescence Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 231100000040 eye damage Toxicity 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005206 flow analysis Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011545 laboratory measurement Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02S—GENERATION OF ELECTRIC POWER BY CONVERSION OF INFRARED RADIATION, VISIBLE LIGHT OR ULTRAVIOLET LIGHT, e.g. USING PHOTOVOLTAIC [PV] MODULES
- H02S50/00—Monitoring or testing of PV systems, e.g. load balancing or fault identification
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/62—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
- G01N21/66—Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light electrically excited, e.g. electroluminescence
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02S—GENERATION OF ELECTRIC POWER BY CONVERSION OF INFRARED RADIATION, VISIBLE LIGHT OR ULTRAVIOLET LIGHT, e.g. USING PHOTOVOLTAIC [PV] MODULES
- H02S50/00—Monitoring or testing of PV systems, e.g. load balancing or fault identification
- H02S50/10—Testing of PV devices, e.g. of PV modules or single PV cells
- H02S50/15—Testing of PV devices, e.g. of PV modules or single PV cells using optical means, e.g. using electroluminescence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2201/00—Features of devices classified in G01N21/00
- G01N2201/02—Mechanical
- G01N2201/021—Special mounting in general
- G01N2201/0214—Airborne
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20216—Image averaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- Aviation & Aerospace Engineering (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Radar, Positioning & Navigation (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Automation & Control Theory (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Chemical & Material Sciences (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Photovoltaic Devices (AREA)
Abstract
本文公开了捕获和处理PV阵列(40)的电致发光(EL)图像(1910)的方法(400)。在所描述的实施例中,方法400包括控制空中交通工具(20)沿飞行路径飞行以捕获PV阵列(40)的对应PV阵列子区段(512b)的EL图像(1910),从至少一些所捕获的EL图像中获得相应图像质量参数,基于相应图像质量参数来动态调整该空中交通工具沿飞行路径的飞行速度以用于捕获PV阵列子区段(512b)的EL图像(1910),从EL图像(1910)中提取PV阵列子区段(512b)的多个框架(1500);从所提取的框架(2100)中确定PV阵列子区段(512b)的具有最高图像质量的参考框架;执行所提取的框架(2100)与参考框架的图像对准以生成经图像对准的框架(2130),并且对经图像对准的框架(2130)进行处理以产生PV阵列子区段(512b)的具有比参考框架更高的分辨率的经增强图像(2140)。还公开了针对其方法的系统、图像处理设备以及空中交通工具。
Description
技术领域
本申请涉及一种用于捕获并处理光伏(PV)阵列的电致发光(EL)图像的方法、用于捕获EL图像的空中交通工具、以及用于处理EL图像的图像处理设备。
背景技术
已经发现太阳能板在全球范围内被广泛使用。然而,由于高的初始资本投资成本,安装在现场的太阳能板必须正确且高效地工作一段时间以确保投资回报。所以,保持安装在现场的太阳能板的质量是重要的。由于太阳能板在太阳能农场(或通常光电(PV)工厂)中的大量部署,以及太阳能板远程部署(诸如在房屋的屋顶上),经常难以监测个体太阳能板的性能。各种成像技术,诸如视觉、热(红外)、紫外线(UV)荧光、光致发光(PL)和电致发光(EL)成像,可被用于检测太阳能板的缺陷。例如,在PV制造期间使用EL检查用于质量控制。
对于EL测量,这些太阳能板的PV模块被连接到电源上并且置于正向偏压之下。发射的近红外光由在近红外波段敏感的相机捕获。对于现场检查,EL成像也已经在采样的基础上被使用。现场EL检查的常用方法之一是使用移动拖车。在该方法中,携带暗室的移动拖车被现场部署。PV模块从其安装位置取下,用于在拖车内部的暗室中进行测量。该方法确保在受控环境中进行PV模块的EL测量。然而,由于PV模块必须被拆卸,使用这种方法的大规模检查是耗时的并且是不可行的。另外,存在在模块处理期间引入缺陷的风险。
另一EL检查方法是使用相应在白天期间安装在三脚架上的具有锁定电流控制的相机在夜间进行的的。虽然这种方法不需要从其支撑框架上拆卸PV模块,但它也是耗时且高劳动密集型的。另外,所捕获的图像的透视和强度失真可能起因于安装到三脚架的相机捕获图像的限制。
因此,希望提供一种解决现有技术中提到的问题中的至少一者的解决方案,和/或向公众提供有用的替代方案。
发明内容
根据第一方面,提供了一种处理PV阵列的电致发光(EL)图像的方法。该方法包括:(i)从EL图像中提取所述PV阵列的PV阵列子区段的多个框架(frame),该PV阵列子区段包括该PV阵列的一个或多个PV模块,(ii)从所提取的框架中确定PV阵列子区段的具有最高图像质量的参考框架,(iii)执行所提取的框架与所述参考框架的图像对准,以生成经图像对准的框架,以及(iv)处理经图像对准的框架以产生PV阵列子区段的具有比所述参考框架更高的分辨率的经增强图像。
所描述的实施例能够在暗光条件下或者在没有自然光的情况下(诸如在夜间期间)拍摄低分辨率、单色图像、以及视频,并且仍可以产生经增强的分辨率和经降噪的图像以标识有缺陷的PV模块。一般来说,如果使用平均,则所处理的图像中的噪声的量值可减小大致被平均的图像的数目的平方根。结果,通常可实现更高图像质量的经增强图像。
具体地,从图像中提取各框架可以包括确定图像中每个PV模块的相应拐角点,并且基于每个PV模块的所标识的拐角点来构建每个PV模块的相应框架。
在具体实施例中,确定图像中的每个PV模块的相应拐角点可以包括对在不同图像中重复的特定PV模块的相应拐角点进行聚类,并且计算针对相应拐角点的每个聚类的相应平均位置。
优选地,确定具有最高图像质量的参考框架可包括基于框架的锐度、信噪比和完整性中的至少一者来评估每个框架的图像质量。
该方法还可包含在执行图像对准之前将所提取的框架布置成堆叠布置。此外,PV模块的相应拐角点可以按堆叠布置来堆叠,并且执行图像对准可以包括将所提取的框架中的每个PV模块的相应拐角点与参考框架中的PV模块的对应拐角点对准。
设想处理经图像对准的框架可以包括根据每个框架中的PV模块对图像对准的框架进行编组,并且对经图像对准的框架的每个编组执行图像平均以获得每个PV模块的相应经增强框架。
此外,图像平均可以基于加权图像堆叠平均和/或深度卷积神经网络结构。
该方法还可包括:根据PV阵列子区段中的每个PV模块的位置,将每个经增强框架与水平索引和垂直索引相关联,以及根据其水平和垂直索引布置经增强框架以产生PV阵列子区段的经增强图像。
该方法还可包括缩放每个经增强框架的相应图像强度。另外,该方法还可包括将PV阵列子区段的经增强图像映射到PV阵列子区段的底图(base map)上。底图可以包括每个PV模块的地理位置。
在特定实施例中,将经增强图像映射到底图上还可包括将经增强图像定向以将经增强图像中的PV阵列子区段与底图中的PV阵列子区段对准。
此外,PV阵列分段的每个EL图像可以包括图像标识符,并且对经增强图像进行定向可以包括:将特定EL图像的图像标识符与每个经增强框架相关联,每个经增强框架的PV模块被表征在特定EL图像中;以及基于与每个经增强框架相关联的图像标识符来确定经增强图像的定向。
地理位置可以包括GPS坐标。
此外,该多个框架可以是PV阵列子区段的连贯框架。
根据第二方面,提供了一种用于处理PV阵列的EL图像的图像处理设备。该图像处理设备包括:图像处理器,其被配置成从EL图像中提取PV阵列的PV阵列子区段的多个框架,该PV阵列子区段包括该PV阵列的一个或多个PV模块,从所提取的框架中确定该PV阵列子区段的具有最高图像质量的参考框架,执行所提取的框架与所述参考框架的图像对准以生成经图像对准的框架,以及处理该经图像对准的框架以产生PV阵列子区段的经增强图像,该经增强图像具有比参考框架更高的分辨率和更低的噪声水平。
图像处理器还可被配置成通过确定图像中每个PV模块的相应拐角点并且基于每个PV模块的所标识的拐角点来构建针对每个PV模块的相应框架来从图像中提取框架。
优选地,图像处理器还可被被配置成通过对可以在不同图像中重复的特定PV模块的相应拐角点进行聚类,并且针对相应拐角点的每个聚类计算相应平均位置来确定图像中的每个PV模块的相应拐角点。
图像处理器还可被配置成通过基于框架的锐度、信噪比和完整性中的至少一者评估每一框架的图像质量来确定具有最高图像质量的参考框架。
另外,图像处理器还可被配置为在执行图像对准之前以堆叠布置来布置所提取的框架。
此外,PV模块的各个拐角点可以按堆叠布置来堆叠,并且图像处理器还可被配置成通过将所提取的框架中的每个PV模块的各个拐角点与参考框架中的PV模块的对应拐角点对准来执行图像对准。
在具体实施例中,图像处理器还可被配置成通过根据每一框架中的PV模块对经图像对准的框架进行编组,对经图像对准的框架进行处理,并对经图像对准的框架的每一编组进行图像平均以获得针对每个PV模块的相应的经增强框架。
此外,图像处理器可以被配置成基于经加权图像堆叠平均和/或深度卷积神经网络结构来执行图像平均。
图像处理器还可被配置成根据PV阵列子区段中的每个PV模块的位置,将每个经增强框架与水平索引和垂直索引相关联,并且根据其水平和垂直索引布置经增强框架以产生PV阵列子区段的经增强图像。
图像处理器可被配置成缩放每个经增强框架的相应图像强度。
图像处理器还可被配置成将PV阵列子区段的经增强图像映射到PV阵列子区段的底图上。底图则可以包括每个PV模块的地理位置。另外,图像处理器可以被配置成通过将该经增强图像进行定向以将该经增强图像中的PV阵列子区段与该底图中的PV阵列子区段对准来将该经增强图像映射到该底图上。
此外,PV阵列子区段的每个EL图像可以包括图像标识符,并且图像处理器可以被配置成通过将特定EL图像的图像标识符与每个经增强框架相关联并且基于与每个经增强框架相关联的图像标识符来确定经增强图像的定向来对经增强图像进行定向,每个经增强框架的PV模块被表征在特定EL图像中。
地理位置可以包括GPS坐标。另外,该多个框架可以是PV阵列子区段的连贯框架。
根据第三方面,提供了一种控制空中交通工具的移动的方法,该空中交通工具具有用于捕获PV阵列的EL图像的相机。该方法包括控制空中交通工具沿飞行路径飞行以捕获PV阵列的对应PV阵列子区段的EL图像,从至少一些所捕获的EL图像中导出相应图像质量参数,以及基于相应图像质量参数来动态调整空中交通工具沿飞行路径的飞行速度以用于捕获PV阵列子区段的EL图像。
有利地,通过根据从至少一些所捕获的EL图像中获得的图像质量参数动态调整空中交通工具的飞行速度,空中交通工具能够调整其飞行速度,从而能够以更高的图像质量(诸如更好的信噪比或图像清晰度)捕获EL图像。
图像质量参数可以包括SNR扫描因子和运动模糊扫描因子。在具体示例中,SNR扫描因子可以取决于目标SNR、测得的SNR以及所捕获的包括PV阵列子区段的特定PV模块的EL图像的估计数量。
另一方面,运动模糊扫描因子可以是测得的对象偏转与预定义的最大对象偏转的比率。
优选地,基于相应的图像质量参数来动态调整空中交通工具沿飞行路径的飞行速度可包括基于SNR扫描因子和运动模糊扫描因子中的最小者得出目标飞行速度,并动态调整空中交通工具的当前飞行速度以匹配目标飞行速度。
另外,导出目标飞行速度可以包括将SNR扫描因子和运动模糊扫描因子中的最小中应用于空中交通工具的当前飞行速度以导出目标扫描速度,并且如果目标扫描速度可以低于空中交通工具的最大飞行速度,则选择目标扫描速度作为目标飞行速度。
该方法还可包括:如果目标扫描速度超过空中交通工具的最大飞行速度,则选择最大飞行速度作为目标飞行速度。
该方法还可包括基于用户输入因子来调整目标飞行速度。
另外,该方法还可包括在控制空中交通工具沿飞行路径飞行以捕获PV阵列的对应PV阵列子区段的EL图像之前,检测来自PV阵列的一个或多个PV模块发射的EL信号。
所述方法还可包括:在检测EL信号之前,将空中交通工具操纵至初始位置,其中空中交通工具的偏航轴和相机的光轴可垂直于地面。
此外,该方法可包括将空中交通工具导航至EL信号的位置。
在特定实施例中,检测由PV阵列的一个或多个PV模块发射的EL信号可包括绕车辆的偏航轴旋转空中交通工具,同时增加相机的光轴角度,直到可检测到EL信号。
相机的光轴角度可以从0°增加至70°。设想然后可以按递减的俯仰速度增加相机的光轴角度。优选地,空中交通工具还可以按递减的偏航速度旋转。
该方法还可包括在旋转空中交通工具之前将空中交通工具操纵至预定义高度。
该方法还可包括通过以下方式将相机的视野(FOV)与对应PV阵列子区段对准:确定对应PV阵列子区段中的参考PV模块的相应关键点;从相机的FOV的相应关键点导出要与对应PV阵列子区段对准的目标对准点;执行透视变换以将相应关键点与目标对准点对准;以及基于透视变换相对于对应PV阵列子区段来操纵空中交通工具。
此外,将相机的FOV与对应PV阵列子区段对准还可包括将空中交通工具操纵到适当高度,其中对应PV阵列子区段可以在适当高度处在相机的FOV内的预定义尺寸比率处。
对应PV阵列子区段可以以预定义尺寸比率占据相机的FOV的80%至90%。
另外,该方法还可包括根据测量的图像锐度来动态调整相机的焦点。
空中交通工具还可包括与相机的光轴对准的光源,并且该方法还可包括除了在捕获PV阵列的EL图像时之外,向光源供电。
根据第四方面,提供了一种空中交通工具,包括用于捕获PV阵列的EL图像的相机、用于致动空中交通工具运动的推进设备以及通信耦接至相机和推进设备的控制器。该控制器被配置成控制空中交通工具沿飞行路径飞行以捕获PV阵列的对应PV阵列子区段的EL图像,从至少一些所捕获的EL图像中得到相应图像质量参数,以及基于相应图像质量参数来动态调整空中交通工具沿飞行路径的飞行速度以用于捕获PV阵列子区段的EL图像。
图像质量参数随后可以包括SNR扫描因子和运动模糊扫描因子。优选地,SNR扫描因子可以取决于目标SNR、测得的SNR以及所捕获的包括PV阵列子区段的特定PV模块的EL图像的估计数量。
另一方面,运动模糊扫描因子可以是测得的对象偏转与预定义的最大对象偏转的比率。
优选地,控制器还可被配置成基于相应图像质量参数,通过基于SNR扫描因子和运动模糊扫描因子中的最小者导出目标飞行速度,并动态调整空中交通工具的当前飞行速度以匹配目标飞行速度,来动态调整空中交通工具沿飞行路径的飞行速度。
控制器还可被配置成通过将SNR扫描因子和运动模糊扫描因子中的最小者应用于空中交通工具的当前飞行速度来导出目标扫描速度,并且如果目标扫描速度可以低于空中交通工具的最大飞行速度,则选择目标扫描速度作为目标飞行速度。
另外,控制器可被配置成如果目标扫描速度超过空中交通工具的最大飞行速度,则选择最大飞行速度作为目标飞行速度。
控制器还可被配置成基于用户输入因子来调整目标飞行速度。
此外,控制器还可被配置成检测由来自PV阵列的一个或多个PV模块发射的EL信号,PV阵列具有阵列轴,并且该一个或多个PV模块与阵列轴对准并且可以包括平坦表面;确定PV阵列的阵列轴;并控制相机沿着阵列轴捕获PV阵列的EL图像,同时动态调整推进设备以将相机的光轴对准成垂直于该一个或多个PV模块的平坦表面。
此外,控制器可被配置成通过动态调整推进设备以将空中交通工具的偏航轴设定成垂直于地面,并将相机的光轴动态调整成垂直于地面,来将空中交通工具设定成初始位置。
控制器还可被配置成动态调整推进设备,以将空中交通工具导航至所述EL信号的位置。
所述控制器还可被配置成通过动态调整推进设备以使空中交通工具绕空中交通工具的偏航轴旋转,同时增加相机的光轴角度直到可定位由PV阵列的一个或多个PV模块发射的EL信号为止,来定位所述EL信号。
相机的光轴角度可以从0°增加至70°。具体地,然后可以按递减的俯仰速度增加相机的光轴角度。优选地,空中交通工具还可以按递减的偏航速度旋转。
控制器还可被配置成动态调整推进设备,以在旋转空中交通工具之前将空中交通工具操纵至预定义高度。
另外,控制器可被配置成通过以下方式将相机的视野(FOV)与对应PV阵列子区段对准:确定对应PV阵列子区段中的参考PV模块的相应关键点;从相机的FOV的相应关键点导出要与对应PV阵列子区段对准的目标对准点;执行透视变换以将相应关键点与目标对准点对准;以及基于透视变换来动态调整推进设备以相对于对应PV阵列子区段操纵空中交通工具。
控制器还可被配置成通过动态调整推进设备以将空中交通工具操纵至适当高度,将相机的FOV对准到对应PV阵列子区段,其中对应PV阵列子区段可以在适当高度处在相机的FOV内的预定义尺寸比率处。
对应PV阵列子区段可以以预定义尺寸比率占据相机的FOV的80%至90%。
控制器还可被配置成根据测得的图像锐度动态调整相机的焦点。
另外,空中交通工具还可包括与相机的光轴对准的光源,并且控制器还可被配置成除了在捕获PV阵列的EL图像时之外,向光源供电。
根据第五方面,提供了一种从具有相机的空中交通工具捕获的PV阵列的PV阵列子区段的EL图像中获得PV阵列子区段的经增强图像的方法。该方法包括:(i)控制空中交通工具沿飞行路径飞行以捕获PV阵列的对应PV阵列子区段的EL图像,从至少一些所捕获的EL图像中导出相应的图像质量参数,基于相应的图像质量参数来动态调整空中交通工具沿飞行路径的飞行速度以用于捕获PV阵列子区段的EL图像,(iv)从EL图像中提取PV阵列子区段的多个框架,(v)从所提取的框架中确定PV阵列子区段的具有最高图像质量的参考框架,(vi)执行所提取的框架与参考框架的图像对准,以生成经图像对准的框架,以及(vii)处理经图像对准的框架以产生具有比参考框架更高的分辨率的PV阵列子区段的经增强图像。
根据第六方面,提供了一种用于捕获和处理PV阵列的PV阵列子区段的EL图像的系统。该系统包括空中交通工具和图像处理设备。该空中交通工具包括:用于捕获PV阵列的EL图像的相机、用于致动空中交通工具的移动的推进设备、以及通信地连接至该相机和该推进设备的控制器,并且该空中交通工具被配置成控制空中交通工具沿飞行路径飞行以捕获PV阵列的对应PV阵列子区段的EL图像,从至少一些所捕获的EL图像中导出相应的图像质量参数,以及基于相应图像质量参数来动态调整空中交通工具沿飞行路径的飞行速度以用于捕获PV阵列子区段的EL图像。该图像处理设备包括:图像处理器,其被配置成从EL图像中提取PV阵列的PV阵列子区段的多个框架,该PV阵列子区段包括该PV阵列的一个或多个PV模块,从所提取的框架中确定该PV阵列子区段的具有最高图像质量的参考框架,执行所提取的框架与所述参考框架的图像对准以生成经图像对准的框架,以及处理该经图像对准的框架以产生PV阵列子区段的经增强图像,该经增强图像具有比参考框架更高的分辨率。
附图的简要说明
示例性实施例将参照所附附图来描述,其中:
图1是使UAV捕获PV阵列的EL图像的示例性设定;
图2是解说用于捕获和处理EL图像的系统的系统架构的框图,该系统包括图1的UAV;
图3是作为图2的系统的一部分的光学子系统;
图4是由图2的系统执行的用于捕获和处理EL图像的示例性方法的流程图;
图5是作为图4的示例性方法的一部分的UAV执行POINT(指向)功能的示意图;
图6是作为图4的示例性方法的一部分的UAV执行FIND(寻找)功能的第一部分的示意图;
图7是UAV执行图6的FIND功能的第二部分的示意图;
图8是描绘图6和7的FIND功能的过程和结果的示意图;
图9是在作为图4的示例性方法的一部分执行的ALIGN(对准)功能之前,UVA悬停在PV串上方的UAV的透视图,其中相机的FOV未对准;
图10是在作为图4的示例性方法的一部分执行的ALIGN功能之后,UVA悬停在PV串上方的UAV的透视图,其中相机的FOV对准;
图11是来自根据图9的相机的FOV未对准的相机的视角的EL图像;
图12是来自根据图10的相机的FOV对准的相机的视角的EL图像;
图13是来自根据图11的相机的FOV未对准的控制器的视角的EL图像的示意图;
图14是来自根据图12的相机的FOV对准的控制器的视角的EL图像的示意图;
包括图15A至15F的图15是在作为图4的示例性方法的一部分的SCAN(扫描)功能期间由相机捕获的PV串的一系列六个连贯的EL图像;
图16是在执行对PV串的图像对准之后图15的一系列EL图像的示意图;
图17是示出点对点偏转的图15的两个连贯EL图像的示意图;
图18A是线图,其示出了作为图4的示例性方法的一部分,在执行SCAN功能时UAV的当前飞行速度随时间减小;
图18B是线图,其示出了作为图4的示例性方法的一部分,在执行SCAN功能时UAV的当前飞行速度随时间增大;
包括图19A、图19B、图19C、图19D以及图19E的图19是示意图,其示出了作为图4的示例性方法的一部分的UAV执行AUTO(自动)功能的时间流逝;
图20是在图19的AUTO功能期间捕获的针对所存储的EL图像的文件结构的示意图;
包括图21A、21B和21C的图21是作为图4的示例性方法的一部分的在FREEEZE(冻结)功能期间从三个连贯的EL图像中提取的框架的示意图;
图22是对作为图21的FREEZE功能的一部分提取的框架执行图像增强步骤的示意图;
图23是从图22的图像增强步骤获得的经增强框架的像素强度直方图;
图24是由图21至23的FREEEZE功能生成的经增强EL图像的示意图;
图25A是在作为图4的示例性方法的一部分的MAP(映射)功能的第一部分期间的经增强EL图像的示意图,其中PV模块被布置成两行和两列;
图25B是图25A的替代方案的示意图,其中经增强EL图像具有以两行和三列布置的PV模块;
图25C是图25A的替代方案的示意图,其中经增强EL图像具有以两行和五列布置的PV模块;
图26是在图25A-C的MAP功能的第二部分期间被映射到底图上的经增强EL图像的示意图;
图27是在图26的MAP功能的第三部分中用于沿着PV串近似相机的FOV的中心位置的SCAN功能期间的UAV的示意图;
图28A是图27的MAP功能的第四部分中使用串对准方法将示例性经增强EL图像映射到示例性底图上的示意图;以及
图28B是使用模块对准方法作为图28A的第四部分的替代方案而映射到示例性底图上的示例性经增强EL图像的示意图。
详细描述
以下描述包括用于解说性目的的具体示例。本领域技术人员应当领会,特定示例的变化和更改是可能的并且在本公开的范围内。具体实施方式的附图和下列描述不应脱离前述概述的一般性。
图1解说了用于捕获安装在建筑物屋顶上的PV阵列10的EL图像的示例性EL检查装置或设置100。在该实施例中,PV阵列10包括三个PV串12。每个PV串12包括两行五个PV模块14。PV串12沿PV串12的纵轴布置在每行中,使得PV阵列10具有沿PV串12的纵轴延伸的阵列轴10a。PV串12连接到组合PV串的电输出的组合器盒16。组合器盒16连接到逆变器盒(未示出),逆变器盒然后连接到电网。在将经组合的电输出馈送至电网之前,逆变器盒将经组合的电输出从DC转换成AC。以此方式,由PV模块14生成的电力被馈送到电网中。在EL检查期间,PV阵列10从电网断开。
设置100还包括切换器(switcher)盒32,切换器盒32包括三个通道34。PV阵列10的每个PV串12连接到切换器盒32的相应通道34。设置100还包括连接到切换器盒32的电源36。该电源被配置成向每个PV串12供应高达1000伏的电力和等于PV模块14的短路电流的10%的最小电流。通过选择性地激活通道34,现场工作人员30选择性地向PV串12供应来自电源36的电流,该电源将PV串12置于正向偏压条件下。当处于正向偏压条件中时,PV串12中的一个或多个PV模块14发射光,也称为电致发光(EL),并且从而产生由空中交通工具(例如无人空中交通工具(UAV)20)的光学子系统检测的EL信号。
在图1中,工人30注意到正常工作的PV阵列10生成比预期的更少的电力。视觉检查和红外检查均未指明这一点的原因。在将PV阵列10与电网断开连接,并经由切换器盒32将PV阵列10与电源36电连接之后,工人30指令助手22以部署UAV 20以捕获PV串12的EL图像以供EL检查。UAV 20包括主体210、附接至主体210以允许UAV 20飞行的推进设备230、以及安装至主体210用于捕获EL图像的光学子系统220。
虽然在本实施例中提供了助手22,但是应该清楚的是,工人30可以在没有助手22的帮助的情况下部署UAV 20。另外,还应当注意,多个PV串12可以连接到一个通道34。例如,PV阵列10的所有三个PV串12可以连接到单个通道34。在这种情况下,全部三个PV串12同时处于正向偏压条件下,并且捕获整个PV阵列10的EL图像。值得注意的是,与每个通道34连接到相应的PV串12时相比,在此情形中,由电源36提供的电流量较低,但这不影响PV串12被置于正向偏压条件下。
此外,更大的PV阵列可以包括多个组合器盒16,其然后连接到逆变器盒(未示出)。替换地,PV阵列10可以不包括组合器盒16,而是将PV串12直接连接到逆变器盒。
优选地,向每个PV串12供应PV模块14的短路电流的100%。然而,这不是必要的。例如,可以向每个PV串12供应等于PV模块14的短路电流的60%的电流。在多个注入电流下对同一PV阵列子区段的测量可被用于估计PV模块14的电气特性并且标识电流相关的缺陷。
图2解说了捕获和处理图像的系统200的系统架构。系统200包括无人空中交通工具(UAV)20和图像处理设备260。除了光学子系统220和推进设备230之外,UAV 20还包括机载处理子系统240和电源242(例如,电池)。电源242连接到光学子系统220、推进设备230和机载处理子系统240,并向其供电。机载处理子系统240通信地耦合到光学子系统220和推进设备230,并且被配置成控制光学子系统220和推进设备230以执行各种功能。
首先参考图3描述光学子系统220。光学子系统220包括具有光轴222a的相机222,并且在此实施例中,相机222是可操作用于拍摄单色视频记录的相机。相机222在近红外和/或短红外(NIR,SWIR)EL波段中是敏感的,并且适于在这样的波段中捕获EL图像。相机222包括聚焦透镜223,其也适用于NIR/SWIR EL波段。透镜223(例如,机动聚焦透镜、压控聚合物透镜或液体透镜)允许机载处理子系统240取决于透镜223至PV阵列10的距离调节透镜223的焦点。相机222还包括用于过滤任何不想要的光谱的透镜滤光器(未示出)。
光学子系统220还包括光学距离测量设备(诸如光检测和测距设备(激光雷达)224)。激光雷达的光轴(224a)与相机222的光轴222a对准。激光雷达224可操作用于测量光学子系统220与PV阵列10的距离。
光学子系统220还包括经聚焦光源(诸如激光器226)。激光器的光轴(226a)也与相机222的光轴222a对准。激光器226被布置成发射可见光谱中的光,并且具有不大于相机的视野(FOV)的光束发散,这使得来自激光器的光学干扰最小化。此外,激光器226允许低功率操作,发射窄波段的光,并且创建工人30容易标识的经聚焦形状。经聚焦形状是非对称的,这有利地允许工人30标识相机222指向的位置,并且还标识相机的FOV的旋转。
光学子系统220还包括将光学子系统220附接至UAV 20的主体210的单轴万向架228(图2中示出)。机载处理子系统240控制万向架(gimbal)以一个自由度(即,俯仰)升高/降低相机222的光轴222a。
替换地,光学子系统220可以经由双轴或三轴万向架安装至主体210,以允许用于调整相机222的光轴222a的另外的自由度(偏航、滚动)并且提供FOV的经增强稳定性。此外,由激光器226创建的经聚焦形状可以是对称的。LED也可用来代替激光器226。透镜223的焦点可以是可调节的,无论是机械驱动的还是电驱动的。
参见图2,接下来描述推进设备230。推进设备230包括四组推进器232,四组推进器232由相应的电机234驱动,以允许UAV飞行并执行空中机动飞行,诸如绕空中交通工具的偏航轴210a(见图1)旋转。偏航轴210a是当UAV 20直立时穿过主体210的中间部的垂直轴。
机载处理子系统240包括控制器250和存储器单元252。控制器被配置成根据存储在存储器单元252中的指令集来执行五个功能(FOCUS、POINT、FIND、ALIGN、SCAN、AUTO)。控制器250从光子系统220接收信息,包括从PV阵列10到激光雷达224的距离、以及相机的视觉馈送。使用从光学子系统220接收的信息,控制器250被配置成操作光学子系统220和推进设备230以执行功能POINT、FIND、FOCUS、ALIGN、SCAN和AUTO算法。一旦捕获了EL图像,UAV 20就返回其基地以将EL图像传递到图像处理设备260以供进一步处理。
图像处理设备260被配置成执行功能FREEZE和MAP。图像处理设备260包括框架提取模块270、图像增强模块280、映射模块290和图像处理器300。图像处理设备260将EL图像作为输入,并输出PV阵列10的经增强EL图像。
在下面章节中更详细地描述了空中交通工具的每个组件的操作。
图4是系统200捕获和处理EL图像的示例性方法400的框图。在适用的情况下,连同对应的图5至26B一起描述示例性方法400。在本实施例中,无人空中交通工具20被部署以进行PV阵列40的EL检查,优选在夜间或低自然光条件下进行。PV阵列40类似于PV阵列10,除了PV阵列40包括更多的PV模块之外。来自PV阵列10的各组的组合器盒(未示出)连接到由现场工人30控制的切换器盒532。
在方法400的步骤410处,控制器250执行POINT功能。图5是UAV 20执行POINT功能的示意图500。在UAV 20部署之际,控制器250被配置成控制电源250以向激光器226供电。工人30注意到(spot)由激光器226照亮的区域530并且标识相机222所指向的位置。激光器具有在安全范围内的光强度(激光器:1类或2类),使得现场工人30即使在无意的直接眼睛暴露于激光器226的情况下也不会承受任何眼睛损害。贯穿整个UAV 20的大部分操作,激光器226是开启的。这允许工人30快速标识相机222指向哪里,尤其是当不清楚哪个PV串当前处于正向偏压下时。激光器226在UAV20执行SCAN功能之前被关闭,从而激光器226不会出现在相机222拍摄的EL图像中。
工人30查阅串连接示意图,该示意图通知工人30哪个PV串根据被激活/打开的通道而被置于正向偏压之下。在该实施例中,串连接示意图包含错误,并且通知工人30对于特定的通道,PV串512a被置于正向偏压下。实际上,另一PV串512b被置于正向偏压下,并且PV串512b的一个或多个PV模块514b发射EL信号。PV串512a、512b是PV阵列40的一部分,并且也被称为PV阵列40的PV阵列子区段512a、512b。
在激活特定通道之后,工人30沿着飞行路径520将UAV20手动引导至PV串512a。工人30注意到PV串512a没有发射EL信号,并且推断在串连接示意图中存在错误。为了确定处于正向偏压下(即发射EL信号)的PV串512b的位置,工人30指示控制器250启动FIND功能。
应注意,工人30不必手动将UAV20引导至PV串512a。工人30可以在UAV20部署之后立即启动FIND功能,从而免除POINT功能。替换地,控制器250还可被配置除在UAV 20部署时自动启动FIND功能。
在方法400的步骤420处,控制器250执行FIND功能。图6是UAV 20执行FIND功能的第一部分的示意图600。值得注意的是,工人30和照明区域530在图6a(以及随后的附图)中未解说。FIND功能的第一部分涉及将UAV 20设定为初始位置。在启动时,控制器250被配置除动态调整推进设备220以将UAV20操纵至初始位置,其中UAV的偏航轴210a垂直于地面。控制器250还被配置成动态调整万向架228,以使相机的光轴222a也垂直于地面,或者换句话说,相机的视野示出UAV 20正下方的区域。在这个位置中,光轴222a具有0°的角度。
另外,控制器250还被配置成动态调整推进设备220,以将UAV 20(沿UAV的偏航轴210a)从地面操纵至预定高度610。
图7是UAV 20执行FIND功能的第二部分的示意图700。FIND功能的第二部分涉及在扫掠路径中执行PV阵列40的扫掠,该扫掠路径从UAV20正下方的区域开始并向外螺旋。为了执行扫掠,控制器250被配置成动态调整推进设备220以使UAV 20绕UAV的偏航轴210a旋转(见箭头710)。控制器250还被配置成同时增加720相机的光轴角度。这使相机的FOV从UAV20向外移动。与旋转720相结合,相机的扫掠路径形成螺旋810。这在图8中解说,图8解说了描绘FIND功能的第二部分的结果的示意图800。
给出示例,在初始位置,无人空中交通工具悬停在地面上方10m的高度。如果相机的光轴角度从0°移动到70°,则观察到55米的径向区域(使用正弦定律:)。相机222具有60°的视角。这导致用于直接指向地面的视图的10m的视野因此,三个旋转足以覆盖具有25m半径的PV阵列40。
值得注意的是,相机的光轴角度以递减的俯仰速度增加。从万向架228的角度来看,万向架的俯仰速度随着俯仰角的增加而减小。由于扫掠路径810随着2π乘以半径而增加,相机的FOV在其最后旋转中沿着五倍更大的距离行进(2π·5m≈31;2π·25m≈157m)。因此,相机的旋转710或偏航速度被调整为在最后旋转时低五倍。
相机的偏航速度取决于曝光时间期间在框架中可接受的运动模糊量。对于在曝光期间10个像素的最大偏转、7ms的曝光时间和640px的水平传感器分辨率,22m/s的偏航速度是可能的对于282m的(半径为5m、15m、25m的三个圆的总和)整个螺旋的近似行进距离,如果没有检测到在正向偏压下的PV串,则方法FIND可花费最大13秒。当功能FIND在进行中时,控制器250针对正向偏压的PV串512b的特征来检查由相机222捕获的图像。当检测到来自PV串512b的EL信号时,功能FIND停止。在检测到EL时,控制器250被配置成动态调整推进设备220以将UAV20操纵至EL信号。以此方式,EL信号作为光学标志被用于引导UAV 20。
在方法400的步骤430处,控制器250执行FOCUS功能。控制器250从激光雷达224接收关于相机222到PV串512b中的一个或多个PV模块的距离的信息。控制器250被配置成根据测得的距离动态调整相机的焦点以使相机镜头223和焦点之间的距离与相机镜头223和成像对象之间的距离匹配,以保持相机镜头的焦点。
在方法400的步骤440处,控制器250执行ALIGN功能,接着关于图9至14描述ALIGN功能。图9和图10是悬停在PV串512b上方的UAV 20的透视图900、1000,其中相机的FOV分别与PV串512b未对准和对准。图11和12是来自相机222的视角的EL图像1100、1200,其中相机的FOV分别未对准和对准。图13和14是从控制器250的角度的EL图像1100、1200的示意图1300、1400。
参照图9,相机的FOV910相对于PV串512b未对准。在方法400可前进到SCAN功能之前,相机的FOV 910必须被对准到PV串512b(如图10中所描绘的)。
控制器250从相机222接收EL图像1100(如图11所描绘的)。EL图像1100包括PV串512b(或PV串512b的一部分),与背景1110(即地面)相比,由于由一个或多个PV模块514b发射的EL信号,PV串512b显得明亮(更高的光强度)。控制器250应用算法以确定相机的FOV910相对于PV串512b未对准。该算法利用亮的PV串512b与暗的背景1110之间的强度差异来检测PV串512b(或参考PV模块514b)的位置和定向。具体地,并且参照图13,算法检测PV串的边缘1310,并且从边缘1310导出关键点1320(例如,模块拐角点)。该算法随后确定与每个关键点1320对应的一组经对准点1330,其使未对准和任何角度或角度失真最小化。经对准点1330被设定在上水平指示符1340和下水平指示符1340上。
此外,该算法还确定该UAV 20相对于该PV串512b的适当高度,该适当高度将该PV串512b以预定义大小比率放置在该相机的FOV 910内。该预定义尺寸比率被设定成在PV串512b的顶部与底部与图像边界1410之间保持约5%–10%的空间以便允许对UAV 20的位置振荡的容限。换句话说,PV串512b在预定义大小比率下占据相机的FOV的80%至90%。
算法随后确定透视变换以将关键点1320与经对准点1330对准(如图14中所描绘的)。然后,控制器250被配置成基于透视变换对万向架228和推进设备220进行适当的调整。如在图14中可以看到的,相机的FOV 910被对准到PV串512b,并且PV串512b在相机的FOV910内处于预定义的大小比率。一旦对准,相机的光轴就垂直于PV串的平坦表面。由于PV串包括一个或多个PV模块514b,PV串的平坦表面由一个或多个PV模块的平坦表面构成。该一个或多个PV模块的平坦表面被定义为布置成接收太阳光的表面。
值得注意的是,控制器250被配置成在SCAN功能在进行中时执行重复的ALIGN功能。这确保在SCAN功能期间在捕获EL图像时,相机的光轴垂直于PV串的平坦表面。有利地,这使透视失真最小化,并且增加了由相机222捕获的EL图像的图像分辨率。此外,这允许相机222捕获在EL图像上具有更一致的焦点的EL图像。另外,精确地捕获来自每个PV模块514b的EL强度,这对于分析目的是重要的。
值得注意的是,如果控制器250在EL图像1200中没有检测到PV串512b的端部1210,则控制器250就被配置成调整推进设备220以沿着PV串的纵轴10a(参见图1)操纵UAV 20,直到PV串512b的端部1210在EL图像1200中。
在步骤450处,控制器250执行接下来结合图15至17描述的SCAN功能。图15包括图15A至15F,其分别示出了在沿PV串512b的不同位置处由相机222捕获的PV串512b的一系列1500六个连贯EL框架。值得注意的是,EL框架交叠,使得PV模块1510可能出现多于一次,即在图15A至15E中。
当考虑大型PV设施和UAV 20的有限飞行时间时,扫描速度成为确定系统效率的关键参数。长的相机曝光时间通常导致更好的图像质量,即更好的信噪比(SNR)。然而,与快速扫描速度耦合的长相机曝光时间导致运动模糊,这降低了图像质量。另一方面,短的相机曝光时间导致EL图像具有太多噪声,尤其是当注入的电流低时,这也降低了图像质量。
由于PV模块1510出现在图15A至图15F中,所以存在可用于图像平均(再次在稍后的阶段)的PV模块1510的五个框架(将在稍后的阶段提取)。图像平均1520的SNR大致随着可用于图像平均的框架数(nframes)的平方根而增加。换句话说,图像平均1520的图像噪声随着用于创建图像平均值的框架的数量而减小。可用于图像平均的框架的数目由控制器250实时计算,因为它还取决于扫描速度。
此外,即使ALIGN功能在SCAN功能期间被重复执行,相机的FOV也难以在整个SCAN功能中保持完全稳定。考虑到由于作用在UAV 20上的外力(诸如风)引起的UAV 20的位置振荡,这尤其如此。这在图16中是显而易见的,图16是在执行图15A-15F中的EL图像与PV串512b的图像对准之后的系列1500的示意图。在沿着PV串512b的EL图像之间的点对点偏移中,UAV 20的位置振荡是明显的。虽然通过ALIGN功能减轻(并且在很大程度上校正)位置振荡,但是扫描速度的任何计算必须考虑该偏转以及限制噪声和运动模糊。
限制噪声:
控制器250被配置成在SCAN功能期间执行光流分析(例如,Lucas-Kanade方法)。对于由相机222捕获的图15A至图15F中的每个框架,控制器250计算当前框架中的关键点,并且将当前框架中的关键点与前一框架中的关键点进行比较以确定偏转向量的长度。
图17是示出了点对点偏转的PV串512b两个连贯EL图像(即图15D和15E)的示意图1700。图15E的前一EL图像以虚线示出,而当前EL图像F以粗线示出。根据图15D和15E的EL图像中检测到的关键点的平均偏转,计算图像中心1720中对象1710的偏转。该偏转向量的长度称为df2f。
控制器250计算通过图像中心1720并且处于偏转角的线1730。线1730在交叉点1750、1760处与图像边界1740相交。交叉点1750、1760之间的距离表示行进通过图像平面的对象距离。控制器250然后通过取偏转向量df2f的长度与交叉点1750、1760之间的距离的比率来计算nframes。
噪声对图像质量的影响可以用SNR来量化:
本该实施例中,以如下方式来计算SNR。所捕获的Otsu的方法被用于获得暗背景1110和PV串512b(或PV串512b的一部分)之间的阈值(tOtsu),该阈值由于由一个或多个PV模块514b发射的EL信号而显得更亮。通过对比阈值tOtsu更亮的所有像素的强度进行平均来获得‘信号’值。在EL测量之前,从用相似或相当的系列成像参数(例如,曝光时间、传感器温度和增益)拍摄的多个图像的像素的标准偏差的平均中获得‘噪声’值。
SNR相关的扫描速度因子(或简称为SNR扫描因子)fSNR被应用于当前扫描速度,以确保图像平均1520的SNR(SNRframe)匹配使用方程(2)的目标SNR(SNRtarget)
例如,针对实验室测量,将SNRtarget设定为45。在SCAN功能期间调整相机曝光时间以将SNRframe保持在5(室外测量的最小要求)。控制器250然后估计25个EL图像可供用于图像平均(nframe=25)。基于方程(1),换句话说,当前扫描速度应该减小到其当前值的56%。本质上,降低扫描速度增加了可用于创建图像平均1520的框架数(nframes)。
限制运动模糊:
为了避免运动模糊的影响,在框架的曝光(dexp)期间的对象偏转还应低于预定的最大值(dexp—max)。建议每曝光时间0.75像素的值。根据方程(3),可使用两个框架(tf2f)和曝光时间(texp)之间的时间差将框架到框架偏转(df2f)缩放成曝光时间偏转(dexp)。
如方程(4)中所示,运动模糊相关扫描因子(fblur)等于最大对象偏转dexp_max与当前对象偏转dexp的比率。
扫描速度因子(fscan)从两个因子(fSNR,fblur)中的最小者获得,如方程(5)中所示:
fscan=min(fSNR,fblur) (5)
为了确保高EL图像质量,使用方程(6)获得最大设定扫描速度vquality:
vquality=min(vmax,fscan·vcur) (6)
最大设定扫描速度vquality定义仍然可以实现高EL图像质量的最大扫描速度。
根据方程(6),通过将扫描速度因子fscan与当前飞行速度vcur相乘来计算目标扫描速度。如果目标扫描速度低于UAV 20的最大飞行速度vmax,则目标扫描速度被选择为最大设定扫描速度vquality。换句话说,即使UAV 20能够更快地移动至其最大飞行速度vmax,因为这降低了EL图像的图像质量,所以最大设定扫描速度vquality被设定在最大飞行速度vmax以下。
若最大设定扫描速度超过UAV 20的最大飞行速度vmax,则选择最大飞行速度vmax作为最大设定扫描速度vquality。
目标飞行速度vtarget是根据方程(7)从最大设定扫描速度vquality和用户输入因子fuser获得的。
vtarget=vquality·fuser (7)
用户输入因子fuser是从由工人30远程控制的操纵杆的偏转获得的,并且范围从0%至100%。在100%,目标飞行速度vtarget简单地是最大设定扫描速度vquality。
对目标飞行速度vtarget应用平滑技术以使UAV 20的颠簸移动最小化。在该实施例中,指数移动平均被用于根据方程(8)获得设定速度vset。α是0至100%范围内的平滑因子。
vset=(α·vcur)+((1-α)·vtarget) (8)
接下来参照图18A和18B描述SCAN功能的两个示例性实施例,图18A和18B是示出根据SCAN功能UAV 20的当前飞行速度vcur分别随时间减小和增大的线图1800a、1800b。对于这两个实施例,用户输入因子fuser取为100%,并且UAV 20的最大飞行速度vmax取为9m/s。
参见图18A,在时间=1s时,并且当UAV20以6m/s的当前飞行速度vcur移动时,控制器250从方程(5)获得50%的扫描速度因子fscan1。如果扫描速度因子低于100%,则这表明UAV 20移动的速度快于UAV 20应该的速度。控制器250然后将目标扫描速度确定为3m/s。由于目标扫描速度低于UAV 20的最大飞行速度vmax,根据方程(6),目标扫描速度被选择为最大设定扫描速度vquality。
值得注意的是,由于用户输入因子fuser是100%,所以根据方程(7),最大设定扫描速度vquality也是目标飞行速度vtarget。
然后,控制器250动态地降低空中交通工具的当前飞行速度,直到达到目标飞行速度vtarget。根据方程(8)的平滑技术被应用于使UAV 20的颠簸移动最小化,并且这可以在UAV20的当前飞行速度vcur从6m/s(在时间=1s时)到3m/s(在时间=2s时)的平滑过渡中看到。
在时间=2s时,控制器250从方程(5)获得100%的扫描速度因子fscan2。此时,UAV20的当前飞行速度vcur与最大设定扫描速度vquality匹配。
参见图18B,在时间=1s时,并且当UAV20以3m/s的当前飞行速度vcur移动时,控制器250从方程(5)获得150%的扫描速度因子fscan1。如果扫描速度因子在100%以上,则这表明UAV 20能够移动得快50%,同时仍然与所需的图像质量匹配。控制器250然后将目标扫描速度确定为4.5m/s。
由于目标扫描速度低于UAV 20的最大飞行速度vmax,因此根据方程(6),目标扫描速度被选择为最大设定扫描速度vquality,而不是选择最大飞行速度vmax作为最大设定扫描速度vquality。
类似地,由于用户输入因子fuser是100%,所以根据方程(7),最大设定扫描速度vquality也是目标飞行速度vtarget。根据方程(8)的平滑技术也被应用于使UAV 20的颠簸移动最小化。
然后,控制器250动态地增加空中交通工具的当前飞行速度vcur,直到达到目标飞行速度vtarget。在时间=2s时,控制器250从方程(5)获得100%的扫描速度因子fscan2。此时,UAV 20的当前飞行速度vcur与最大设定扫描速度vquality匹配。
值得注意的是,控制器250持续地执行SCAN功能,直到检测到PV串512b的相对端。一旦PV串512b的相对端被检测到,控制器250就终止SCAN功能并且EL图像被存储在存储器单元252中。
在步骤460,控制器250被配置成执行AUTO功能。图19(包括图19A至19E)是示出UAV20捕获PV阵列40的EL视频图像(使用图5的PV阵列40作为示例)的时间流逝的示意图。PV阵列40被解说为包括PV串的两行1810、1820。控制器250可通信地耦合到并且能够控制电源36和切换器盒532(经由无线连接),切换器盒532进而被电连接到PV阵列40。
在t1,如图19A中所解说的,UAV 20开始于第一行1810的端部1810a并在扫描方向1830上拍摄第一PV串1812a的EL图像。在检测到PV串1812a的端部1814a之际,控制器250被配置成指令切换器盒532关闭当前通道,并打开用于下一PV串1812b的下一通道。值得注意的是,注入到PV串1812b中的电流被维持在与PV串1812a相同的电平。该过程继续,直到控制器250检测到其在t2已经在PV串的第一行1810的相对端1810b处到达最后PV串1812f,如图19B中所示。
在t3,如图19C中所解说的,控制器250被配置成指令电源36降低注入到PV串1812f中的电流。降低注入电流的目的是捕获低电流EL图像以便与较高电流EL图像相比较。然后,控制器250动态调整推进设备220以在扫描方向1840上移动UAV 20,扫描方向1840与扫描方向1830相反。UAV 20沿扫描方向1840移动并捕获处于较低的注入电流的第一行1810中的PV串的EL图像。
图19D解说了,在t4处,控制器250检测到UAV 40已经到达PV串的第一行1810的端部1810a。此时,控制器250被配置成指令切换器框532关闭当前通道并打开下一通道以将第二行1820的第一PV串1820a置于正向偏压下。控制器250还被配置成执行FIND功能以定位由PV串1820a发射的EL信号。值得注意的是,PV串1820a在FIND功能期间在相机的FOV内,并且控制器250能够定位PV串1820a。
在图19E中的t5处,控制器250被配置成将UAV 20导航至PV串1820a。一旦UAV 20已经到达PV串1820a,控制器250就被配置成再次执行SCAN功能。第二行1820中的PV串的EL图像是使用用于捕获第一行1810中的PV串的EL图像的类似过程来捕获的(如在t1至t4中详述的)。值得注意的是,控制器250被配置成贯穿SCAN功能的历时执行ALIGN功能。所捕获的EL图像被存储在存储器单元252中。
图20是所存储的EL图像的文件结构的示意图1900。文件结构包括所存储的EL图像1910和包括附加元数据1920的附加块。元数据1920被分成报头1930和正文1940。报头1922包括关于在保存EL图像1910之前应用于EL图像1910的图像校正方法的信息。图像校正方法包括暗电流减法、平场校正、不良像素取代和透镜失真去除。正文1924存储图像相关数据,该图像相关数据包括相机曝光时间和增益、UAV地理位置、相机定向(偏转、俯仰、横滚)、注入电流、电压以及通道信息。
相机222以大于8比特(例如,14或16比特)的位深来捕获/数字化EL图像1910。这允许比单色8比特传感器的255个亮度步长内更精确地分辨图像强度范围。为了减小文件大小,使用基于8比特图像的图像编码器。每个EL图像1910的上部和下部强度范围被存储在元数据1920中。从由相机222捕获的每一EL图像1910的有效动态范围获得上部和下部强度范围。该范围可被用于将每8比特EL图像缩放到原始较高深度相机图像的相应较低和较高强度范围。
一旦UAV 20返回其基地,所存储的EL图像随后被传送给图像处理设备260以供进一步处理。
在步骤470处,图像处理设备260执行随后参见图21至24描述的FREEZE功能。为了简洁起见,参照处理仅包括PV串512b的EL图像来描述FREEZE功能。应理解,FREEZE功能可以按类似的方式处理每个EL图像。
FREEZE功能包括:(i)由框架提取模块270执行的框架提取步骤;以及(ii)由图像增强模块280执行的图像增强步骤。
图21包括图21A至21C,其分别解说了作为框架提取步骤的一部分被处理的PV串512b的三个连贯的EL框架图像2000a、2000b、2000c。图像处理器300指令框架提取模块270从所有三个EL框架图像2000a、2000b、2000c中确定PV串512b中的每个PV模块514b的相应拐角点2010。在每个EL框架图像2000a、2000b、2000c中,每个PV模块514b的检测到的拐角点被示出为黑点2012。值得注意的是,在本实施例中,框架提取模块270未能在图21A中的第一EL框架图像2000a中检测到特定PV模块2016的特定拐角点2014。
在图21A的第一EL框架图像2000a中检测到的所有拐角点2010在图21B的第二EL框架图像2000b中被可视化为空点2020。值得注意的是,与图21A的第一EL框架图像2000a中的它们对应的黑点2012相比,空点2030稍微向左移动。这是由于点对点偏转的校正。一旦局部拐角点密度超过某个阈值(在该实施例中两个检测到的拐角点2010是足够的),图像处理器300就控制框架提取模块270以生成聚类点2022。通过对用于生成聚类点2022的所有拐角点2010取平均来获得聚类点的位置。这有利地减小了个体拐角点的空间检测误差。
参见图21C,一旦聚类点2022移动到EL框架图像的边界之外,就存储聚类点2022,如EL图像2000c中的聚类点2030所解说的。一旦太多的EL框架图像不再向聚类点添加拐角点2010,就丢弃EL框架图像的边界内的聚类点2022。只要增加新的拐角点2010的EL框架图像与不增加拐角点2010的EL框架图像的比值高于某个阈值,就保持EL框架图像边界内的聚类点2022,诸如EL图像2000c中的聚类点2032。然后,框架提取模块270对所有聚类点2022进行网格化以生成/构造矩形状四边形或框架。每个框架由包含在每个框架中的相应PV模块的聚类点2022构成。
图22解说了从正在图像增强步骤中处理的框架提取步骤中提取的框架2100。图像处理器300指令图像增强模块280根据其在PV串512b中的位置向每个框架2100指派水平和垂直模块索引2110。例如,与特定PV模块2514相关联的第一框架位于PV串512b的第一行和第一列中,并且被指派水平和垂直模块索引[1,1]。
图像处理器300还控制图像增强模块280根据包含在每个框架中的PV模块514b(或类似地,根据它们的模块索引2110)对框架2100进行编组。每个框架2100包括四个聚类点2022(分别标记为‘A’至‘D’)。然后,每个组中的框架2100以堆叠布置(称为堆叠)来布置,使得标记有相同字母(‘A’-‘D’)的聚类点2022被堆叠在彼此的顶部。图22中示出了具有模块索引[1,1]的示例性堆叠2120。
图像增强模块280还被配置成丢弃不是框架2100的一部分的区域2124。
使用示例性堆叠2120作为示例,图像增强模块280还被配置成从示例性堆叠2120内的框架2100确定具有最高图像质量的参考框架。基于框架内的PV模块514b的锐度、SNR和完整性来评估图像质量。
图像增强模块280还被配置成执行框架2100的图像对准。这使用图像对准算法(诸如,“使用经增强的相关系数的参数图像对准”)完成。图像增强模块280将示例性堆叠2120中的其余框架2100与参考框架对准。通过将其余框架中标记为‘A’的聚类点2022与参考框架中标记为‘A’的对应的聚类点2022对准以获得经图像对准的框架2130来进行图像对准。
图像增强模块280还被配置成对经图像对准的框架2130执行图像平均以获得特定PV模块2514的经增强框架2140。使用诸如加权图像堆叠平均2032和/或专用深度卷积网络结构2034之类的超分辨率例程来执行图像平均。经增强框架2140具有比参考框架更高的SNR(即,更低的噪声)和更高的分辨率(分辨率改进因子最高为3)。
对其余堆叠重复相同的过程,以获得PV串512b中其余PV模块514b的相应经增强框架。图像处理器300还控制图像增强模块280,以确定每个经增强框架的相应拐角点2010,并移除经增强框架中任何其余透视失真。
图像处理器300还控制图像增强模块280以根据经增强框架的模块索引2110来布置经增强框架,以产生PV串的经增强EL图像。如果PV串512b中的PV模块514b之间的距离相似,则产生单个经增强EL图像。如果距离因两个PV模块之间的大间隙2112而变化(这表明其中一个PV模块属于分开的PV串512c),则为分开的PV串512c产生分开的经增强EL图像。
图像增强模块280还被配置成缩放每个经增强框架的图像强度,以反映PV串512b中从最暗到最亮的PV模块514b的强度谱。由于强度缩放降低了PV模块强度范围的深度分辨率,因此各个PV模块514b的经增强框架与PV串的经增强EL图像一起存储。
在图像处理期间,图像强度以实数或浮点值表示。当在视觉上显示结果图像时,必须为图像强度指派介于最暗和最亮可显示值之间的亮度值。为了减少具有极端图像(或像素)强度值的像素的影响,亮度范围由包含最小数量像素(之前称为有效动态范围)的最低像素强度仓(bin)(虚线2201a)和最高像素强度仓(虚线2201b)定义。
图23示出了经增强框架2140的像素强度直方图。可以看到分别对应于暗背景和亮EL信号的像素强度的两个峰值2200a、2200b。定义最低像素强度仓(虚线2201a)和最高像素强度仓(虚线2201b)之间的亮度范围,以排除在许多像素中未出现的像素强度。在图23中,将最低像素强度仓(虚线2201a的左侧)以下的像素强度设定为最小值(0),并且将最高像素强度仓(虚线2201b的右侧)以上的像素强度设定为可根据所选精度保存的最大值(对于8比特图像而言,28-1=255)。介于两者之间的图像强度将在定义亮度范围的最小值(0)和最大值(255)之间缩放。
图24解说了图像增强步骤完成后PV串512b的经增强EL图像2200,并且注意到经增强EL图像2200的分辨率好于参考框架的分辨率。值得注意的是,独立于扫描方向2210,即从左到右、从右到左、从上到下或任何其他组合,经增强EL图像2200始终与相机的偏航(即光轴222a)对准,因为EL图像2000a、2000b、2000c是用与PV串512b对准的相机的FOV 910来捕获的。为易于参考,黑色三角形2220被用于指示经增强EL图像2200的左下角,其中经增强EL图像2200与相机的FOV 910对准。
现有已知方法随后可被用于处理经增强EL图像2200,以基于EL成像来标识PV串512b的任何有缺陷的PV模块。在标识了有缺陷的PV模块的情况下,知悉有缺陷的PV组件的地理位置可能是有帮助的。为此目的,可以使用映射模块290。
图像处理器300控制映射模块290以执行如图25至28中所解说的MAP功能。映射模块290被配置成将PV串512b的经增强EL图像2200映射到PV串2410的底图上。为了从经增强EL图像2200中标识PV串512b中的PV模块514b(以及因此任何有缺陷的PV模块)的位置,在SCAN功能期间捕获、处理和存储以下信息:框架相关的定时地理位置(诸如时间、纬度、经度、高度)和相机定向(例如偏航、俯仰、滚转)。该信息被存储在每个所捕获的EL图像/视频的元数据1920中(参考图20)。
图像处理器300控制映射模块290以通过将经增强图像进行定向以将该经增强图像中的PV阵列子区段与底图中的PV阵列子区段对准来将经增强图像映射到底图上。如果经增强EL图像2200中PV串512b的地理位置是已知的,但其定向(即相机的偏航)是未知的,则相对于黑色三角形2220有四个可能的定向(旋转0°、90°、180°、270°)以将图像与底图层中的PV串对准。商用PV模块通常具有4×8、6×10或6×12电池的电池网格,并且通常是矩形而非正方形。在这类情况下,四个定向中只有两个是合理的:相对于黑色三角形2220旋转0°和180°。这将参考图25A、25B和25C进行更详细的说明,图25A、25B和25C解说了三个经增强EL图像2310、2320、2330,其中PV模块分别布置在两行以及两列、三列和五列中。
图25A中的经增强EL图像2310具有相同数量的行和列。由于PV模块2314的形状,当经增强EL图像2310映射到其PV串的底图上时,四个定向中的两个(相对于黑色三角形2220旋转90°和270°)将导致经增强EL图像2310错误地倾斜。
尽管图25B中的经增强EL图像2320具有正方形形状,但经增强EL图像2320在其行和列中具有不同数量的PV模块2324。在四个定向中的两个定向(相对于黑色三角形2220旋转90°和270°)中,一行或一列中PV模块2324的数量将与底图中其PV串的同一行或同一列中的PV模块2324的数量不匹配。
图25C中的经增强EL图像2330被描绘为两个定向(相对于黑色三角形2220旋转0°和180°)。如能够看到的,只有这两个定向将导致与其底图匹配的均匀无偏图像。
图26解说了映射到PV串512b的底图2410上的经增强EL图像2200。由于PV串512b具有纵轴(即图1中的阵列轴10a),并且相机222被布置成以预定义尺寸比率捕获PV串512b的EL图像,因此没有单个EL图像捕获整个PV串512b。具体地,在该实施例中,捕获PV串512b的11个EL图像。每个EL图像与唯一性的图像标识符2420相关联。在该实施例中,每个EL图像按照从1到11的升序进行编号。
当特定EL图像被用于图像平均以产生经增强框架时,图像处理器300还指令映射模块290以将特定EL图像的图像标识符2420与经增强框架相关联。例如,经增强框架2430与唯一性数字标识符“2”、“3”、“4”、“5”和“6”相关联。换句话说,从EL图像“2”、“3”、“4”、“5”和“6”提取的对应框架被用于图像平均以产生经增强框架2430。
映射模块290随后能够基于与每个经增强框架相关联的图像标识符2420来确定经增强图像2200的定向(从两个可用定向:相对于黑三角形2220旋转的0°和180°)。相对于与图像标识符“11”相关联的经增强框架表示在SCAN功能结束时捕获的框架,与图像标识符“1”相关联的经增强框架表示在SCAN功能开始时捕获的框架。
讨论了底图2410内经增强EL图像2200的位置和定向的其他指示符。可根据UAV的飞行路径2450(包括飞行起点2452和飞行终点2454)、飞行高度和相机定向,计算相机的FOV910沿PV串512b的大致中心位置2440。
图27是解说UAV 20在用于沿PV串512b近似相机的FOV 10的中心位置2440的SCAN功能期间的侧视图的示意图2500。UAV 20在地面以上的高度2510为dz。相机222相对于地面以俯仰角α2520对准。俯仰角2520相对于地面与PV串512b的倾斜角2530对准。相机222和PV串512b之间的距离2540为dL。距离2540容易地从激光雷达读数或在FOCUS功能期间由激光雷达224测量中可用。UAV 20和PV串512b之间的水平距离2550是dxy。然后,可基于使用方程(3)的dL来计算水平距离2550:
dxy,1=dL·cos(α) (9)
或基于使用方程(4)的dz和PV串512b离地面的高度2560dPV来计算水平距离2550:
dxy,2=(dz-dPV)·tan(α) (10)
方程(9)优于方程(10),因为dxy,2需要已知或估计成像对象的高度(dPV)。此外,UAV20根据气压估计dz,这对于更长的飞行时间和不断变化的天气可能是错误的。
参考图27,相机的FOV 910的中心位置2440位于PV串512b内,而UAV的飞行路径2450略低。利用高质量的位置数据和简单的PV串互连(PV串512b的情况就是这种情况),映射模块290能够将经增强EL图像2200准确地映射到底图2410上,而无需其他输入。如果存在更复杂的PV串互连和/或低质量的位置数据,则可通过比较测量编号、切换器盒以及关于哪个逆变器盒或组合器盒16连接到哪个切换器盒以及何时连接到切换器盒的信息,获得PV串的其他输入。
图28A解说了使用串对准方法映射到示例性底图2620上的示例性经增强EL图像2610。图28B解说了使用模块对准方法映射到示例性底图2640上的示例性经增强EL图像2630。
参照图28A,对于串对准方法,已知底图2620的拐角点2622,并且经增强EL图像2610大致在底图2620的顶部对准。如果底图在经增强EL图像2610下方包含多个PV串,则选择与经增强EL图像2610共享最多交叠区域的PV阵列2620。然后,经增强EL图像2610的四个拐角点2612由映射模块290按照最相似的方向与底图2620内PV串的拐角点2622进行仿射或透视对准2624。
参考图28B,在该实施例中,经增强EL图像2630中PV模块的数量与底图2640中PV模块的数量不匹配。当仅从所扫描的PV串的一部分中生成经增强EL图像或PV串内的PV模块的互连不遵循规则模式时,就会发生这种情况。在这种情况下,除了底图2640的拐角点2642之外,必须知道PV串的每行和每列中的模块数量。此外,经增强EL图像2630中的PV模块必须与底图2640中的PV模块大致对准。然后,图像处理器300指令映射模块290以获得从经增强EL图像2630中的拐角点2632的偏转向量到底图2640中的PV模块的所有对应拐角点2642的仿射或透视图像变换。图像处理器300还指令映射模块290基于拐角点2632与拐角点2642的最大交叠,并根据最相似的定向,将经增强EL图像2630映射到底图2640上。
一旦经增强EL图像2200、2610、2630被映射到底图2410、2620、2640上,就可以从底图2410、2620、2640中轻松标识经增强EL图像2200、2610、2630中标识的PV模块缺陷的地理位置(诸如GPS坐标)信息,以供维修工作和/或维护。
有利的是,根据所述实施例,UAV 20可以在昏暗的光线条件下拍摄低分辨率单色视频,并且可以生成经增强的分辨率和经改进的质量图像,以标识有缺陷的PV模块并估计PV模块功率损失。具体而言,机载处理子系统240能够自主导航UAV 20并执行示例性方法400。
此外,由于处理诸如框架相关的定时地理位置(诸如时间、纬度、经度、高度等)和相机定向(例如偏航、俯仰、滚动)之类的信息,因此可以可靠且准确地再现特定EL图像的PV串的位置。
应注意,本文描述的各种实施例不应被解释为限制性的。例如,UAV 20还可配备有用于额外距离测量的超声设备。此外,相机222可以在正向偏压下捕获PV串的静止EL图像,或者记录PV串的视频。此外,可以使用彩色传感器代替单色传感器。尽管所描述的实施例使用“PV串”作为示例,但可以使用任何其他PV电气连接,并且从广义上讲,该实施例可以与任何PV阵列一起使用。
可以使用其他类型的空中交通工具,诸如无人机,而不仅仅是UAV。
虽然示例性方法400被描述为包括所有8个功能:FOCUS、POINT、FIND、ALIGN、SCAN、AUTO、FREEZE、MAP,但将理解,系统200可以以任何合理的顺序执行任意数量的功能。例如,在替代实施例中,机载处理子系统240可能不执行AUTO功能,因为工人30可能希望更好地控制要检查的PV串。在这种情况下,工人在SCAN功能完成后手动控制切换器盒32和电源36,并相应地启动FIND或SCAN功能。图像处理设备260还可以在没有MAP功能的情况下执行FREEZE功能。
此外,可以在整个方法400中始终执行FOCUS功能,尤其是在SCAN功能进行时,以确保所捕获的EL图像具有高质量的锐度。替换地,如果UAV 20和PV阵列10之间的距离可以保持在较窄的范围内,则根本不需要执行FOCUS功能。在这样的实施例中,可以使用没有受控焦点调整的固定焦点透镜,而不是聚焦透镜223。
此外,在替换实施例中,UAV 20可以将所捕获的EL图像远程传输到图像处理设备260,而无需首先返回基座。
此外,可以将预先确定的最大值(dexp_max)设定为1.5。
在另一示例中,如果透镜滤波器被布置成滤除来自激光器的任何光学干扰,则可能不需要关闭激光器。
在另一示例中,在SCAN功能期间,预定义尺寸比率也可以设定为在PV串512b的顶部和底部与图像边界1410之间保持约15%-20%(或更高,例如20%-25%)的空间,以允许对UAV 20的位置振荡有更大的容限,这取决于UAV 20看上去的不稳定性。
Claims (74)
1.一种处理PV阵列的电致发光(EL)图像的方法,包括
从所述EL图像中提取所述PV阵列的PV阵列子区段的多个框架,所述PV阵列子区段包括所述PV阵列的一个或多个PV模块;
从所提取的框架中确定所述PV阵列子区段的具有最高图像质量的参考框架;
执行所提取的框架与所述参考框架的图像对准以生成经图像对准的框架;以及
处理所述经图像对准的框架以产生所述PV阵列子区段的具有比所述参考框架更高的分辨率的经增强图像。
2.如权利要求1所述的方法,其特征在于,从所述图像中提取所述框架包括
确定所述图像中的每个PV模块的相应拐角点;以及
基于每个PV模块的所标识的拐角点来构造每个PV模块的相应框架。
3.如权利要求2所述的方法,其特征在于,确定所述图像中的每个PV模块的相应拐角点包括
对在不同图像中重复的特定PV模块的相应拐角点进行聚类;以及
计算针对相应拐角点的每个聚类的相应平均位置。
4.如任一前述权利要求所述的方法,其特征在于,确定具有最高图像质量的参考框架包括基于所述框架的锐度、信噪比和完整性中的至少一者来评估每一框架的图像质量。
5.如任一前述权利要求所述的方法,其特征在于,还包括在执行图像对准之前以堆叠布置来布置所提取的框架。
6.如权利要求5所述的方法,其特征在于,所述PV模块的相应拐角点以堆叠布置来堆叠,并且执行图像对准包括将所提取的框架中的每个PV模块的相应拐角点与所述参考框架中的所述PV模块的对应拐角点对准。
7.如任何前述权利要求所述的方法,其特征在于,处理所述经图像对准的框架包括根据每个框架中的所述PV模块对所述经图像对准的框架进行编组;并且对经图像对准的框架的每个编组执行图像平均以获得针对每个PV模块的相应经增强框架。
8.如权利要求7所述的方法,其特征在于,所述图像平均基于加权图像堆叠平均和/或深度卷积神经网络结构。
9.如权利要求7或8所述的方法,其特征在于,还包括根据所述PV阵列子区段中的每个PV模块的位置,将每个经增强框架与水平索引和垂直索引相关联;以及根据其水平和垂直索引布置所述经增强框架以产生所述PV阵列子区段的所述经增强图像。
10.如权利要求7到9中任一项所述的方法,其特征在于,还包括缩放每个经增强框架的相应图像强度。
11.如任一前述权利要求所述的方法,其特征在于,还包括将所述PV阵列子区段的所述经增强图像映射到所述PV阵列子区段的底图上,所述底图包括每个PV模块的地理位置。
12.如权利要求11所述的方法,其特征在于,将所述经增强图像映射到所述底图上包括对所述经增强图像进行定向以将所述经增强图像中的所述PV阵列子区段与所述底图中的所述PV阵列子区段对准。
13.如权利要求12所述的方法,其特征在于,所述PV阵列子区段的每个EL图像包括图像标识符,并且将所述经增强图像进行定向包括
将特定EL图像的所述图像标识符与其PV模块被表征在所述特定EL图像中的每个经增强框架相关联;以及
基于与每个经增强框架相关联的所述图像标识符来确定所述经增强图像的定向。
14.如权利要求11到13中任一项所述的方法,其特征在于,所述地理位置包括GPS坐标。
15.如任一前述权利要求所述的方法,其特征在于,所述多个框架是所述PV阵列子区段的连贯框架。
16.一种用于处理PV阵列的EL图像的图像处理设备,包括
图像处理器,被配置成
从所述EL图像中提取PV阵列的PV阵列子区段的多个框架,所述PV阵列子区段包括所述PV阵列的一个或多个PV模块;
从所提取的框架中确定所述PV阵列子区段的具有最高图像质量的参考框架;
执行所提取的框架与所述参考框架的图像对准以生成经图像对准的框架;以及
处理所述经图像对准的框架以产生所述PV阵列子区段的具有比所述参考框架更高的分辨率的经增强图像。
17.如权利要求16所述的图像处理设备,其特征在于,所述图像处理器还被配置成通过以下方式从所述图像中提取所述框架:
确定所述图像中的每个PV模块的相应拐角点;以及
基于每个PV模块的所标识的拐角点来构造针对每个PV模块的相应框架。
18.如权利要求17所述的图像处理设备,其特征在于,所述图像处理器还被配置成通过以下方式确定每个PV模块的相应拐角点:
对在不同图像中重复的特定PV模块的相应拐角点进行聚类;以及
计算针对相应拐角点的每个聚类的相应平均位置。
19.如权利要求16到18中任一项所述的图像处理设备,其特征在于,所述图像处理器还被配置成通过基于所述框架的锐度、信噪比和完整性中的至少一者评估每一框架的所述图像质量来确定具有最高图像质量的参考框架。
20.如权利要求16到19中任一项所述的图像处理设备,其特征在于,所述图像处理器还被配置成在执行图像对准之前以堆叠布置来布置所提取的框架。
21.如权利要求20所述的图像处理设备,其特征在于,所述PV模块的相应拐角点以所述堆叠布置来堆叠,并且所述图像处理器还被配置成通过将所提取的框架中的每个PV模块的相应拐角点与所述参考框架中的所述PV模块的对应拐角点对准来执行图像对准。
22.如权利要求16到21中任一项所述的图像处理设备,其特征在于,所述图像处理器还被配置成通过根据每一框架中的PV模块对经图像对准的框架进行编组,来处理所述经图像对准的框架,并对经图像对准的框架的每一编组进行图像平均以获得针对每个PV模块的相应经增强框架。
23.如权利要求22所述的图像处理设备,其特征在于,所述图像处理器还被配置成基于加权图像堆叠平均和/或深度卷积神经网络结构来执行图像平均。
24.如权利要求22或23所述的方法,其特征在于,所述图像处理器还被配置成根据所述PV阵列子区段中的每个PV模块的位置,将每个经增强框架与水平索引和垂直索引相关联;以及根据其水平和垂直索引布置所述经增强框架以产生所述PV阵列子区段的所述经增强图像。
25.如权利要求22到24中任一项所述的图像处理设备,其特征在于,所述图像处理器还被配置成缩放每个经增强框架的相应图像强度。
26.如权利要求16到25中任一项所述的图像处理设备,其特征在于,所述图像处理器还被配置成将所述PV阵列子区段的所述经增强图像映射到所述PV阵列子区段的底图上,所述底图包括每个PV模块的地理位置。
27.如权利要求26所述的图像处理设备,其特征在于,所述图像处理器还被配置成通过将所述经增强图像进行定向以所述经增强图像中的所述PV阵列子区段与所述底图中的所述PV阵列子区段对准来将所述经增强图像映射到所述底图上。
28.如权利要求27所述的图像处理设备,其特征在于,所述PV阵列子区段的每个EL图像包括图像标识符,并且所述图像处理器还被配置成通过以下方式将所述经增强图像进行定向:
将特定EL图像的所述图像标识符与其PV模块被表征在所述特定EL图像中的每个经增强框架相关联;以及
基于与每个经增强框架相关联的所述图像标识符来确定所述经增强图像的定向。
29.如权利要求26到28中任一项所述的图像处理设备,其特征在于,所述地理位置包括GPS坐标。
30.如权利要求16到29中任一项所述的图像处理设备,其特征在于,所述多个框架是所述PV阵列子区段的连贯框架。
31.一种控制空中交通工具的移动的方法,所述空中交通工具具有用于捕获PV阵列的EL图像的相机,所述方法包括:
控制所述空中交通工具沿飞行路径飞行,以捕获所述PV阵列的对应PV阵列子区段的EL图像;
从所捕获的EL图像的至少一些中导出相应的图像质量参数;以及
基于所述相应图像质量参数来动态调整所述空中交通工具沿所述飞行路径的飞行速度以用于捕获所述PV阵列子区段的EL图像。
32.如权利要求31所述的方法,其特征在于,所述图像质量参数包括SNR扫描因子和运动模糊扫描因子。
33.如权利要求32所述的方法,其特征在于,所述SNR扫描因子取决于目标SNR、测得的SNR以及所捕获的包括所述PV阵列子区段的特定PV模块的EL图像的估计数量。
34.如权利要求32或33所述的方法,其特征在于,所述运动模糊扫描因子是测得的对象偏转与预定义最大对象偏转的比率。
35.如权利要求31所述的方法,其特征在于,基于所述相应图像质量参数来动态调整所述空中交通工具沿所述飞行路径的飞行速度包括
基于所述SNR扫描因子和所述运动模糊扫描因子来导出目标飞行速度;以及
动态调整所述空中交通工具的当前飞行速度以匹配所述目标飞行速度。
36.如权利要求35所述的方法,其特征在于,导出所述目标飞行速度包括
将所述SNR扫描因子和所述运动模糊扫描因子中的最小者应用于所述空中交通工具的当前飞行速度以导出目标扫描速度;以及
如果所述目标扫描速度在所述空中交通工具的最大飞行速度之下,则选择所述目标扫描速度作为所述目标飞行速度。
37.如权利要求36所述的方法,其特征在于,还包括:如果所述目标扫描速度超过所述空中交通工具的所述最大飞行速度,则选择所述最大飞行速度作为所述目标飞行速度。
38.如权利要求35到37中任一项所述的方法,其特征在于,还包括基于用户输入因子来调整所述目标飞行速度。
39.如权利要求31到38中任一项所述的方法,其特征在于,还包括:在控制所述空中交通工具沿所述飞行路径飞行以捕获所述PV阵列的对应PV阵列子区段的EL图像之前,检测来自所述PV阵列的一个或多个PV模块发射的EL信号。
40.如权利要求39所述的方法,其特征在于,还包括:在检测所述EL信号之前,将所述空中交通工具操纵至初始位置,其中所述空中交通工具的偏航轴和所述相机的光轴垂直于地面。
41.如权利要求39或40所述的方法,其特征在于,还包括将所述空中交通工具导航至所述EL信号的位置。
42.如权利要求39到41中任一项所述的方法,其特征在于,检测由所述PV阵列的所述一个或多个PV模块发射的EL信号包括绕所述交通工具的偏航轴旋转所述空中交通工具,同时增加所述相机的光轴角度,直到检测到所述EL信号。
43.如权利要求42所述的方法,其特征在于,所述相机的光轴角度从0°增加至70°。
44.如权利要求42或43所述的方法,其特征在于,所述相机的光轴角度以递减的俯仰速度来增加。
45.如权利要求42到44中任一项所述的方法,其特征在于,所述空中交通工具以递减的偏航速度旋转。
46.如权利要求42到45中任一项所述的方法,其特征在于,还包括:在旋转所述空中交通工具之前,将所述空中交通工具操纵至预定义高度。
47.如权利要求31到46中任一项所述的方法,其特征在于,还包括:通过以下方式将所述相机的视野(FOV)与所述对应PV阵列子区段对准:
确定所述对应PV阵列子区段中的参考PV模块的相应关键点;
从针对所述相机的FOV的所述相应关键点中导出要与所述对应PV阵列子区段对准的目标对准点;
执行透视变换以将所述相应关键点与所述目标对准点对准;以及
基于所述透视变换来将所述空中交通工具操纵至所述对应PV阵列子区段。
48.如权利要求47所述的方法,其特征在于,将所述相机的FOV与所述对应PV阵列子区段对准还包括:将所述空中交通工具操纵至适当高度,其中所述对应PV阵列子区段在所述适当高度处以预定义尺寸比率在所述相机的FOV内。
49.如权利要求48所述的方法,其特征在于,所述对应PV阵列子区段以所述预定义尺寸比率占据所述相机的FOV的80%至90%。
50.如权利要求31到49中任一项所述的方法,其特征在于,还包括根据测得的图像锐度来动态调整所述相机的焦点。
51.如权利要求31到50中任一项所述的方法,其特征在于,所述空中交通工具还包括与所述相机的光轴对准的光源,并且所述方法还包括除了在捕获所述PV阵列的所述EL图像时之外,向所述光源供电。
52.一种空中交通工具,包括:
相机,用于捕获PV阵列的EL图像;
推进设备,用于致动所述空中交通工具的移动;以及
控制器,通信地耦合至所述相机和所述推进设备,并且被配置成:
控制所述空中交通工具沿飞行路径飞行,以捕获所述PV阵列的对应PV阵列子区段的EL图像;
从所捕获的EL图像的至少一些中导出相应的图像质量参数;以及
基于所述相应图像质量参数来动态调整所述空中交通工具沿所述飞行路径的飞行速度以用于捕获所述PV阵列子区段的所述EL图像。
53.如权利要求52所述的空中交通工具,其特征在于,所述图像质量参数包括SNR扫描因子和运动模糊扫描因子。
54.如权利要求53所述的空中交通工具,其特征在于,所述SNR扫描因子取决于目标SNR、测得的SNR以及所捕获的包括所述PV阵列子区段的特定PV模块的EL图像的估计数量。
55.如权利要求53或54所述的空中交通工具,其特征在于,所述运动模糊扫描因子是测得的对象偏转与预定义最大对象偏转的比率。
56.如权利要求52所述的空中交通工具,其特征在于,所述控制器还被配置成通过以下方式基于所述相应的图像质量参数来动态调整所述空中交通工具沿所述飞行路径的飞行速度:
基于所述SNR扫描因子和所述运动模糊扫描因子来导出目标飞行速度;以及
动态调整所述空中交通工具的当前飞行速度以匹配所述目标飞行速度。
57.如权利要求56所述的空中交通工具,其特征在于,所述控制器还被配置成通过以下方式导出所述目标飞行速度:
将所述SNR扫描因子和所述运动模糊扫描因子中的最小者应用于所述空中交通工具的当前飞行速度以导出目标扫描速度;以及
如果所述目标扫描速度在所述空中交通工具的最大飞行速度之下,则选择所述目标扫描速度作为所述目标飞行速度。
58.如权利要求57所述的空中交通工具,其特征在于,所述控制器还被配置成:如果所述目标扫描速度超过所述空中交通工具的最大飞行速度,则选择所述最大飞行速度作为所述目标飞行速度。
59.如权利要求56到58中任一项所述的空中交通工具,其特征在于,所述控制器还被配置成基于用户输入因子来调整所述目标飞行速度。
60.如权利要求52到59中任一项所述的空中交通工具,其特征在于,所述控制器还被配置成:
检测由来自所述PV阵列的一个或多个PV模块发射的EL信号,所述PV阵列具有阵列轴,并且所述一个或多个PV模块与所述阵列轴对准并且包括平坦表面:
确定所述PV阵列的所述阵列轴;以及
控制所述相机沿所述阵列轴捕获所述PV阵列的所述EL图像,同时动态调整所述推进设备以将所述相机的光轴对准成垂直于所述一个或多个PV模块的平坦表面。
61.如权利要求60所述的空中交通工具,其特征在于,所述控制器还被配置成在定位所述EL信号之前通过以下方式将所述空中交通工具设定成初始位置:
动态调整所述推进设备以将所述空中交通工具的偏航轴设定成垂直于地面;以及
动态调整所述相机的光轴以垂直于地面。
62.如权利要求60或61所述的空中交通工具,其特征在于,所述控制器还被配置成动态调整所述推进设备,以将所述空中交通工具导航至所述EL信号的位置。
63.如权利要求60到62中任一项所述的空中交通工具,其特征在于,所述控制器还被配置成通过动态调整所述推进设备以使所述空中交通工具绕所述空中交通工具的偏航轴旋转,同时增加所述相机的光轴角度直到定位由所述PV阵列的所述一个或多个PV模块发射的所述EL信号为止,来定位所述EL信号。
64.如权利要求63所述的空中交通工具,其特征在于,所述相机的光轴角度从0°增加至70°。
65.如权利要求63或64所述的空中交通工具,其特征在于,所述相机的光轴角度以递减的俯仰速度来增加。
66.如权利要求63到64中任一项所述的空中交通工具,其特征在于,所述空中交通工具以递减的偏航速度旋转。
67.如权利要求63到66中任一项所述的空中交通工具,其特征在于,所述控制器还被配置成动态调整所述推进设备,以在旋转所述空中交通工具之前将所述空中交通工具操纵至预定义高度。
68.如权利要求60到67中任一项所述的空中交通工具,其特征在于,所述控制器还被配置成:通过以下方式将所述相机的视野(FOV)与所述对应PV阵列子区段对准:
确定所述对应PV阵列子区段中的参考PV模块的相应关键点;
从针对所述相机的FOV的所述相应关键点中导出要与所述对应PV阵列子区段对准的目标对准点;
执行透视变换以将所述相应关键点与所述目标对准点对准;以及
动态调整所述推进设备以基于所述透视变换来将所述空中交通工具操纵至所述对应PV阵列子区段。
69.如权利要求68所述的空中交通工具,其特征在于,所述控制器还被配置成通过动态调整所述推进设备以将所述空中交通工具操纵至适当高度来将所述相机的FOV对准到所述对应PV阵列子区段,其中所述对应PV阵列子区段在所述适当高度处以预定义尺寸比率在所述相机的FOV内。
70.如权利要求69所述的空中交通工具,其特征在于,所述对应PV阵列子区段以所述预定义尺寸比率占据所述相机的FOV的80%至90%。
71.如权利要求60到70中任一项所述的空中交通工具,其特征在于,所述控制器还被配置成根据测得的图像锐度来动态调整所述相机的焦点。
72.如权利要求60到71中任一项所述的空中交通工具,其特征在于,还包括与所述相机的光轴对准的光源,并且所述控制器还被配置成除了在捕获所述PV阵列的所述EL图像时之外,向所述光源供电。
73.一种从由具有相机的空中交通工具捕获的PV阵列的PV阵列子区段的EL图像中获得所述PV阵列子区段的经增强图像的方法,所述方法包括:
控制所述空中交通工具沿飞行路径飞行,以捕获所述PV阵列的对应PV阵列子区段的EL图像;
从所捕获的EL图像的至少一些中导出相应的图像质量参数;
基于所述相应图像质量参数来动态调整所述空中交通工具沿所述飞行路径的飞行速度,以用于捕获所述PV阵列子区段的所述EL图像;
从所述EL图像中提取所述PV阵列子区段的多个框架;
从所提取的框架中确定所述PV阵列子区段的具有最高图像质量的参考框架;
执行所提取的框架与所述参考框架的图像对准以生成经图像对准的框架;以及
处理所述经图像对准的框架以产生所述PV阵列子区段的具有比所述参考框架更高的分辨率的经增强图像。
74.一种用于捕获和处理PV阵列的PV阵列子区段的EL图像的系统,包括:
空中交通工具,包括:
相机,用于捕获PV阵列的EL图像;
推进设备,用于致动所述空中交通工具的移动;以及
控制器,通信地耦合至所述相机和所述推进设备,并且被配置成:
控制所述空中交通工具沿飞行路径飞行,以捕获所述PV阵列的对应PV阵列子区段的EL图像;
从所捕获的EL图像的至少一些中导出相应的图像质量参数;以及
基于所述相应图像质量参数来动态调整所述空中交通工具沿所述飞行路径的飞行速度以用于捕获所述PV阵列子区段的所述EL图像;以及
图像处理设备,包括:
图像处理器,被配置成:
从所述EL图像中提取PV阵列的PV阵列子区段的多个框架,所述PV阵列子区段包括所述PV阵列的一个或多个PV模块;
从所提取的框架中确定所述PV阵列子区段的具有最高图像质量的参考框架;
执行所提取的框架与所述参考框架的图像对准以生成经图像对准的框架;以及
处理所述经图像对准的框架以产生所述PV阵列子区段的具有比所述参考框架更高的分辨率的经增强图像。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SG10201914038S | 2019-12-31 | ||
SG10201914038S | 2019-12-31 | ||
PCT/SG2020/050790 WO2021137764A1 (en) | 2019-12-31 | 2020-12-30 | Method, system, and image processing device for capturing and/or processing electroluminescence images, and an aerial vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114902555A true CN114902555A (zh) | 2022-08-12 |
Family
ID=76689737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080091477.9A Pending CN114902555A (zh) | 2019-12-31 | 2020-12-30 | 用于捕获和/或处理电致发光图像的方法、系统和图像处理设备以及空中交通工具 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20230005115A1 (zh) |
EP (1) | EP4085527A4 (zh) |
JP (1) | JP2023509449A (zh) |
CN (1) | CN114902555A (zh) |
AU (1) | AU2020416573A1 (zh) |
WO (1) | WO2021137764A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230057340A1 (en) * | 2021-08-19 | 2023-02-23 | Yokogawa Electric Corporation | Systems, methods, and devices for automated meter reading for smart field patrol |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7352919B2 (en) * | 2004-04-28 | 2008-04-01 | Seiko Epson Corporation | Method and system of generating a high-resolution image from a set of low-resolution images |
JP5243785B2 (ja) * | 2007-12-28 | 2013-07-24 | 日清紡ホールディングス株式会社 | 太陽電池検査装置及び太陽電池欠陥判定方法 |
CN105721862B (zh) * | 2016-02-01 | 2017-11-21 | 杭州电子科技大学 | 一种无人机航拍视频质量确定方法 |
US11453494B2 (en) * | 2016-05-20 | 2022-09-27 | Skydio, Inc. | Unmanned aerial vehicle area surveying |
EP3743332B1 (en) * | 2018-01-24 | 2022-11-02 | Honeywell International Inc. | Solar panel inspection by unmanned aerial vehicle |
CN108418554A (zh) * | 2018-03-20 | 2018-08-17 | 苏州巨能图像检测技术有限公司 | 电池片黑角检测方法 |
-
2020
- 2020-12-30 JP JP2022540945A patent/JP2023509449A/ja active Pending
- 2020-12-30 US US17/783,028 patent/US20230005115A1/en active Pending
- 2020-12-30 EP EP20910164.1A patent/EP4085527A4/en active Pending
- 2020-12-30 CN CN202080091477.9A patent/CN114902555A/zh active Pending
- 2020-12-30 AU AU2020416573A patent/AU2020416573A1/en active Pending
- 2020-12-30 WO PCT/SG2020/050790 patent/WO2021137764A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
EP4085527A1 (en) | 2022-11-09 |
JP2023509449A (ja) | 2023-03-08 |
EP4085527A4 (en) | 2024-03-06 |
US20230005115A1 (en) | 2023-01-05 |
AU2020416573A1 (en) | 2022-06-23 |
WO2021137764A1 (en) | 2021-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112904877A (zh) | 一种基于无人机的风机叶片自动巡检系统及方法 | |
CN110879601B (zh) | 一种对于未知风机结构的无人机巡检方法 | |
CN105302151B (zh) | 一种飞机入坞引导和机型识别的系统及方法 | |
CN106054929B (zh) | 一种基于光流的无人机自动降落引导方法 | |
Udin et al. | Assessment of photogrammetric mapping accuracy based on variation flying altitude using unmanned aerial vehicle | |
US9488630B2 (en) | Integrated remote aerial sensing system | |
JP2019035736A (ja) | 航空機用レーザスペックルのシステム及び方法 | |
CN108229587B (zh) | 一种基于飞行器悬停状态的输电杆塔自主扫描方法 | |
CN106762451A (zh) | 基于无人机的风机叶片损伤检测方法、装置及系统 | |
US20200357141A1 (en) | Systems and methods for calibrating an optical system of a movable object | |
US20230105991A1 (en) | Method of imaging a wind turbine rotor blade | |
CN109507687A (zh) | 一种搜索跟踪一体化装置及其实现方法 | |
CN107509055A (zh) | 一种旋转式全景焦点识别光电跟踪仪及其实施方法 | |
CN114895711B (zh) | 一种面向风机叶片巡检的无人机自动航迹线规划方法 | |
CN109131895A (zh) | 用于叶片自动跟踪检测的无人机挂载装置、无人机及方法 | |
CN112101118A (zh) | 一种远景与近景图像结合的光伏组件定位与匹配方法 | |
CN108564628A (zh) | 一种面向掘进机自动化的截割头视觉定位定向系统 | |
CN114902555A (zh) | 用于捕获和/或处理电致发光图像的方法、系统和图像处理设备以及空中交通工具 | |
CN114442665A (zh) | 基于无人机的风电叶片巡检线路规划方法 | |
CN104113733B (zh) | 一种低慢小目标电视搜索探测方法 | |
KR102162342B1 (ko) | 태양광 패널 검사용 고품질 영상 획득을 위한 무인 비행체 및 그의 비행 제어 방법 | |
JP2016225863A (ja) | 撮影システム、撮影方法及びプログラム | |
WO2023223036A1 (en) | Uav flight path optimisation | |
US20240231391A1 (en) | Automated imaging of photovoltaic devices using an aerial vehicle and automated flight of the aerial vehicle for performing the same | |
JP2024519280A (ja) | 航空機を使用した太陽光発電デバイスの自動イメージング、および、それを実施するための航空機の自動飛行 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |