CN115170619A - 一种基于密集光流法的云遮挡预测方法 - Google Patents
一种基于密集光流法的云遮挡预测方法 Download PDFInfo
- Publication number
- CN115170619A CN115170619A CN202210651845.1A CN202210651845A CN115170619A CN 115170619 A CN115170619 A CN 115170619A CN 202210651845 A CN202210651845 A CN 202210651845A CN 115170619 A CN115170619 A CN 115170619A
- Authority
- CN
- China
- Prior art keywords
- cloud
- speed
- optical flow
- time
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 97
- 230000003287 optical effect Effects 0.000 title claims abstract description 38
- 230000033001 locomotion Effects 0.000 claims abstract description 58
- 238000004364 calculation method Methods 0.000 claims abstract description 12
- 230000002159 abnormal effect Effects 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000001514 detection method Methods 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 12
- 238000006073 displacement reaction Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 claims description 3
- 238000011426 transformation method Methods 0.000 claims 1
- 230000000903 blocking effect Effects 0.000 abstract description 5
- 239000006096 absorbing agent Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000010248 power generation Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于密集光流法的云遮挡预测方法,包括如下步骤:通过视频采集设备采集实时天空视频,并转成图片序列;对采集到的图片序列进行预处理,消除无关的图像信息,只保留天空区域;对获得的天空区域进行云识别判断;对获得的图片序列进行密集光流法计算,得到每个像素点的速度大小和方向;根据得到的像素点的速度确定云团运动区域;根据像素点的速度大小和方向去除异常点进行云团运动速度校正;根据确定的云团运动区域和校正后的云团运动速度进行云遮挡开始和结束时间的预测。本发明所公开的方法通过对云团整体进行运动追踪,可以更好地预测云团遮挡时间,提高追踪的准确性,并且可以不间断的对新出现云团进行跟踪。
Description
技术领域
本发明涉及太阳能热发电技术领域,特别涉及一种基于密集光流法的云遮挡预测方法。
背景技术
云团对太阳的遮挡会影响光热发电系统的稳定性。由于云团遮挡前后光场采集到的光源变化非常大,进而吸热器的温度会发生很大变化,有可能造成吸热器损坏,引起生产事故。因此,提前预测云团的到来,并提前减少反射到吸热器上的光源是避免吸热器损坏的有效手段。天气预报等气象数据只能预测一个较长时间段内是否多云,而具体云团会于何时遮挡太阳,导致无法采集到光是无法确定的。如何预测何时会发生遮挡有效的手段一般是通过图像处理的方法。现有的方法要么是通过把云看作形状不变的物体进行预测,要么提取云的特征点进行跟踪。
比如,专利CN111583298A,一种基于光流法的短时云图追踪方法中使用Lucas-Kanade光流法进行短时云图追踪。Lucas-Kanade光流法是一种稀疏点光流法,首先通过取出特征点再进行特征点的跟踪。基于这种光流法的云图跟踪存在以下两个问题:
1、云团运动过程中,特征点会发生变化;新云团出现会引入新的特征点。怎么进行特征点更新,何时进行特征点更新是难以解决的问题。该专利没有给出解决方案。
2、太阳区域由于光线变化会生成特征点,该专利没有对这一问题给出解决方案。
云团的形状事实上是在不断发生变化的,而特征点也会发生变化,因此质心法和特征点法这两种方法都存在一定缺陷。因此,有必要设计一种新的技术方案来解决上述问题。
发明内容
为解决上述技术问题,本发明提供了一种基于密集光流法的云遮挡预测方法,通过对云团整体进行运动追踪,可以更好地预测云团遮挡时间,提高追踪的准确性,并且可以不间断的对新出现云团进行跟踪。
为达到上述目的,本发明的技术方案如下:
一种基于密集光流法的云遮挡预测方法,包括如下步骤:
步骤一,通过视频采集设备采集实时天空视频,并转成图片序列;
步骤二,对采集到的图片序列进行预处理,消除无关的图像信息,只保留天空区域;
步骤三,对获得的天空区域进行云识别判断;
步骤四,对步骤一获得的图片序列进行密集光流法计算,得到每个像素点的速度大小和方向;
步骤五,根据得到的像素点的速度确定云团运动区域;
步骤六,根据像素点的速度大小和方向去除异常点进行云团运动速度校正;
步骤七,根据确定的云团运动区域和校正后的云团运动速度进行云遮挡开始和结束时间的预测。
上述方案中,所述视频采集设备包括多个针眼摄像头。
另一技术方案中,所述视频采集设备为全天空成像仪或普通鱼眼摄像头,预测方法中在步骤五和步骤六之间还包括坐标变换的步骤。
进一步的技术方案中,步骤三中,云识别判断的方法包括通道比值的阈值判断方法、机器学习方法或深度学习方法。
进一步的技术方案中,步骤四中,所述密集光流法为Farneback算法。
更进一步的技术方案中,采用Farneback算法计算每个像素点的速度大小和方向具体如下:
首先,将图像进行灰度化处理:将图像进行线性变换,转换为HSV颜色空间,使用该颜色空间的亮度维度V作为灰度信息:
V=max(R,G,B)
其中,R、G、B分别代表RGB颜色空间中的红、绿、蓝三色的亮度值;
然后,将图像像素点的灰度值看成是一个二维变量的函数f(x,y),以感兴趣的像素点为中心,构建一个局部坐标系,对函数进行二项展开,表示为:
f(x,y)=f(x)=xTAx+bTx+c
这里,x为二维列向量,A为2×2的对称矩阵,b为2×1的矩阵,f(x)与f(x,y)等价,表示像素点的灰度值,c表示二次展开的常数项;如果这个像素点移动了,整个多项式就会发生变化,位移为d;位移前后A不变,则变化前后分别表示为
f1(x)=xTAx+b1 Tx+c1
f2(x)=xTAx+b2 Tx+c2
其中,b1和b2分别表示变化前后的2×1矩阵,c1和c2分别表示变化前后的常数项;
从而得到约束条件:
Ad=Δb
其中,
最后,建立目标函数:
‖Ad-b‖2
最小化目标函数求解出位移d,位移d除以发生位移的时间就是速度矢量。
进一步的技术方案中,步骤五的具体方法如下:
(1)进行有效速度阈值的确定;
(2)去除云运动噪音数据;
(3)计算云检测置信度;
(4)计算运动置信度;
(5)根据云检测和运动检测的置信度来确定云团运动区域。
进一步的技术方案中,步骤六的具体方法如下:
(1)确定有效云运动的速度大小范围;
(2)将超出范围的速度大小置零,再将大小相近,但方向不同的速度取平均方向;
(3)以滑窗在步骤四生成的速度矢量生成的伪图像上从左到右,从上到下依次对滑窗内速度进行校正。
进一步的技术方案中,步骤七的具体方法如下:
设天空中太阳在图像中的圆心坐标为(x0,y0),半径为r0;太阳圆盘边缘上的点表示为(x0+r0 cosθ,y0+r0 sinθ),0≤θ<2π;一个特定的云像素点坐标为(x1,y1),速度矢量为(u1,v1);
然后,计算云像素点到达太阳的时间t1,表示为:
如果t1<0,说明该云像素点向远离太阳的方向运动,舍去;
该云像素点的离开时间t2表示为:
最后,每个云像素点到达时间都确定后,其中的最小值即为云前端到达太阳区域的时间,云像素点离开时间中的最大值即为预测的云团全部离开太阳区域的时间。
更进一步的技术方案中,坐标变换的方法如下:
首先,假设相机坐标系下的点为(x,y,z),像素坐标为(u,v),采用下式通过已知坐标点计算相机中心和球心距离ξ、相机坐标系x和y方向的焦距fx和fy:
其中,
d是点(x,y,z)到相机坐标系原点的距离,(cx,cy)是图像中心的坐标;
然后,对于实际采集的图像,通过上两式,计算每个像素的实际坐标,再结合如下公式计算针眼摄像头对应的图像:
通过上述技术方案,本发明提供的一种基于密集光流法的云遮挡预测方法具有如下有益效果:
1、本发明通过对云团整体进行运动追踪,可以克服云团形状不断变化连续跟踪困难和特征点更新困难的技术难题,能够更好地预测云团遮挡时间,可以提高追踪的准确性,并且可以不间断的对新出现云团进行跟踪。
2、本发明使用密集光流法结合抽帧进行运动检测和速度计算,不需要输入特征点,可以直接给出运动物体每个像素点运动的速度矢量。
3、本发明根据像素点的速度大小和方向去除异常点进行云团运动速度校正,可以剔除由其它物体运动、图像本身噪音带来的误检、光线变化带来的误检等造成的异常数据,提高预测的准确度。
4、本发明进行云遮挡开始和结束时间的计算方法不需要对太阳区域每个点分别计算是否可到达和到达时间,且可同时计算开始和结束时间,大大节省计算量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例2所公开的一种基于密集光流法的云遮挡预测方法示意图;
图2为使用滑窗法进行速度校正的示意图;
图3为云团到达太阳的时间和结束时间预测示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种基于密集光流法的云遮挡预测方法,如图1所示,具体实施例如下:
实施例1
步骤一,通过全天空成像仪或普通鱼眼摄像头采集实时天空视频,并转成图片序列。
使用全天空成像仪或普通鱼眼摄像头采集视频,并提取视频中的每帧图像。在一特定时间间隔内(比如1秒),只保留1帧图像可以降低计算量。该时间间隔根据计算设备性能和预测精度要求确定,一般在1~60秒之间。图像采用RGB颜色空间,即红、绿、蓝三色。
步骤二,对采集到的图片序列进行预处理,消除无关的图像信息,只保留天空区域。
首先,用实际采集云图的摄像头先采集一张图片,在其中标出与天空无关的地面远景、建筑物,生成掩膜矩阵。然后,在对实际采集的图片进行预处理时,使用掩膜矩阵去除掉与天空无关的像素,转换为不会被识别为云的像素,比如睛空。
步骤三,对获得的天空区域进行云识别判断。
当图像中太阳附近,容易被识别成云团,所以首先需要进行太阳背景扣除。太阳背景可以通过晴空图像数据采集,结合人工神经网络方法进行学习。在实际使用时通过模型先生成晴空图像,再用实际图像扣除。
在全天空图像中蓝天表现为蓝色通道灰度值较大,红色通道灰度值较小;厚云则表现为蓝色通道灰度值和红色通道灰度值相差不大;薄云往往介于两者之间。因此可以根据物体在红蓝通道不同的表现来判断是否为薄云、厚云及蓝天,比较常见且简单的往往为阈值分割方法,并且根据红蓝通道不同形式的组成,其分割方法也有所不同。当红蓝比小于p1认为是蓝天,大于p1且小于p2为薄云,大于p2为厚云,三通道均值大于238为太阳(未扣除背景前,扣除后不考虑此点)。三个阈值可以通过采集天空数据统计确定,厚云、薄云的认定以人为标定为准。云识别判断的方法包括通道比值的阈值判断方法、机器学习方法或深度学习方法,彼此之间可以结合。此外还需要考虑晴天背景拟合,背景扣除可以用于太阳区域的云检测。
步骤四,对步骤一获得的图片序列进行密集光流法计算,得到每个像素点的速度大小和方向。
光流法是检测运动的有效方法。使用稀疏光流法进行云检测存在特征点因云团变化消失和新云团出现特征点更新困难等问题。而密集光流法不需要输入特征点,并且可以直接给出运动物体每个像素点运动的速度矢量。这里采用公认效果最好的Farneback算法。基于原理的相同,也可以采用其它密集光流法。
密集光流法有两个主要缺点。一是计算量较大,如果每帧都计算会失去实时性;二是尽管其能给出每个像素点的速度矢量,实际上会因为光照变化等因素导致速度矢量的波动和速度大小接近于零的噪音速度矢量。对于第一点可以通过步骤一的抽帧来降低计算量。由于在天空中云的像素运动速度比较小,没有必要每一帧都进行密集光流计算。对于第二点,见步骤六的运动速度校正。
采用Farneback算法计算每个像素点的速度大小和方向具体如下:
首先,将图像进行灰度化处理:将图像进行线性变换,转换为HSV颜色空间,使用该颜色空间的亮度维度V作为灰度信息:
V=max(R,G,B)
其中,R、G、B分别代表RGB颜色空间中的红、绿、蓝三色的亮度值;
然后,将图像像素点的灰度值看成是一个二维变量的函数f(x,y),以感兴趣的像素点为中心,构建一个局部坐标系,对函数进行二项展开,表示为:
f(x,y)=f(x)=xTAx+bTx+c
这里,x为二维列向量,A为2×2的对称矩阵,b为2×1的矩阵,f(x)与f(x,y)等价,表示像素点的灰度值,c表示二次展开的常数项;如果这个像素点移动了,整个多项式就会发生变化,位移为d;位移前后A不变,则变化前后分别表示为
f1(x)=xTAx+b1 Tx+c1
f2(x)=xTAx+b2 Tx+c2
其中,b1和b2分别表示变化前后的2×1矩阵,c1和c2分别表示变化前后的常数项;
从而得到约束条件:
Ad=Δb
其中,
最后,建立目标函数:
‖Ad-b‖2
最小化目标函数求解出位移d,位移d除以发生位移的时间就是速度矢量。
步骤五,根据得到的像素点的速度确定云团运动区域。
(1)进行有效速度阈值的确定:
采集多个时间点密集光流法计算的速度,并对比人工标定为静止的物体,确定一个有效速度的最小阈值vthre1,即小于该速度大小的值,认为是云团是静止的。
(2)去除云运动噪音数据:
将运动像素点速度大小小于有效速度的最小阈值vthre1的速度全部置为0。
(3)计算云检测置信度:
认为红蓝比为阈值p1的像素点是云的置信度为0.5,红蓝比大于阈值p2的像素点是云的置信度为1,小于阈值p1的像素认为是蓝天,不需要进行置信度比较,不需要计算。处于p1和p2中间的点可以插值来获得,比如线性插值用下式计算置信度:
(4)计算运动置信度:
像素点速度大小的均值为认为速度大小大于的点是云在运动的置信度为1,速度大小为vthre1的点是云在运动的置信度为0,参数q小于1,实际取值通过统计实测数据来确定。速度大小在和0之间的点的置信度可以通过插值计算,比如线性插值方法:
(5)根据云检测和运动检测的置信度来确定云团运动区域:
当运动检测置信度比较高或两者置信度接近时,取云团检测和运动检测(光流法)的重叠区域作为云团运动区域;当云检测置信度高时,认为云检测方法识别的云团区域一直是正确的,对云运动进行校正(见步骤七)。这样可以把误检测为云和其它运动物体误检为云两种情况都去除掉。
步骤六,坐标变换。
全天空成像仪使用鱼眼摄像头,其像素坐标是扭曲的,不方便后续处理,需要将其转换为普通针眼摄像头坐标。
首先,假设相机坐标系下的点为(x,y,z),像素坐标为(u,v),则投影公式为
ξ是相机中心和球心距离,d是点(x,y,z)到相机坐标系原点的距离,(cx,cy)是图像中心的坐标,fx和fy分别是相机坐标系x和y方向的焦距;
反投影为:
其中,
采用上式通过已知坐标点计算相机中心和球心距离ξ、相机坐标系x和y方向的焦距fx和fy;
然后,对于实际采集的图像,通过上两式,计算每个像素的实际坐标,再结合如下公式计算针眼摄像头对应的图像:
步骤七,根据像素点的速度大小和方向去除异常点进行云团运动速度校正。
在实际检测中,大部分检测到的运动是来源于云的运动。经过坐标变换后,图像上云运动速度的大小和方向基本是一致的,那么偏离云运动矢量的其它运动应该被认为是异常数据(可能来源于其它物体运动、图像本身噪音带来的误检、光线变化带来的误检等)。这一方法在天空中无云或少云时会失效,因此要结合云检测结果来使用。具体方法如下:
(1)确定有效云运动的速度大小范围,也就是确定两个阈值,具体做法如下:
①采集多个时间不同云团运动的视频数据;
②使用密集光流法计算速度;
③清除掉非云团区域的速度、太阳区域的云团速度、其它云团区域的异常速度;
④取清除后数据中的最小值作为阈值1,最大值作为阈值2。
(2)将速度值小于一定阈值(阈值1)和大于一定阈值(阈值2)的速度大小置零,再将大小相近,但方向不同的速度取平均方向;
(3)以滑窗在步骤四生成的速度矢量生成的伪图像上从左到右,从上到下依次对滑窗内速度进行校正,滑窗算法示意见图2。滑窗内速度校正的具体方法如下:这里的图像指的是由速度矢量构成的二通道伪图像,大小与光流法检测的图像相同。第一个通道表示速度的x分量,第二个通道表示速度的y分量。由这两个分量可以确定速度大小和方向。
①把滑窗内两个阈值内的速度大小取平均为保留范围内的速度,m是个经验参数,通过调整后能够使检测到的运动区域与实际运动云团区域一致即可,一般取0.1即可。保留速度的像素点以外的滑窗内像素点的速度大小置为0。
步骤八,根据确定的云团运动区域和校正后的云团运动速度进行云遮挡开始和结束时间的预测。
设天空中太阳在图像中的圆心坐标为(x0,y0),半径为r0;太阳圆盘边缘上的点表示为(x0+r0 cosθ,y0+r0 sinθ),0≤θ<2π;一个特定的云像素点坐标为(x1,y1),速度矢量为(u1,v1)。
推导过程如下:
若经过时间t后,这个像素点恰好到达太阳边缘上一点,则
令Δx=x0-x1,Δy=y0-y1,则
v1Δx+v1r0 cosθ=u1Δy+u1r0 sinθ
v1Δx-u1Δy=u1r0 sinθ-v1r0 cosθ
令
则
那么,可以得出以下限定条件
可以推导出
或
代入
则可以求得时间。
具体实施计算过程如下:
然后,计算云像素点到达太阳的时间t1,表示为:
如果t1<0,说明该云像素点向远离太阳的方向运动,舍去;
该云像素点的离开时间t2表示为:
最后,每个云像素点到达时间都确定后,其中的最小值即为云前端到达太阳区域的时间,云像素点离开时间中的最大值即为预测的云团全部离开太阳区域的时间。
如图3所示,已变换至针眼摄像头坐标系下。图中灰色区域代表运动的云,黑色区域代表晴空,圆代表太阳区域,预测要到达太阳区域的云团前端用浅灰色特别标记。灰色区域的颜色深浅代表矢量方向(不包括特别标记的云前端),从图中可以看出云团运动方向基本一致。
实施例2
本实施例采用多个针眼摄像头进行图像采集,每个摄像头负责天空的一片区域。
该实施例的具体方法与实施例1的区别在于,省略了步骤六的坐标变换,其余步骤相同。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种基于密集光流法的云遮挡预测方法,其特征在于,包括如下步骤:
步骤一,通过视频采集设备采集实时天空视频,并转成图片序列;
步骤二,对采集到的图片序列进行预处理,消除无关的图像信息,只保留天空区域;
步骤三,对获得的天空区域进行云识别判断;
步骤四,对步骤一获得的图片序列进行密集光流法计算,得到每个像素点的速度大小和方向;
步骤五,根据得到的像素点的速度确定云团运动区域;
步骤六,根据像素点的速度大小和方向去除异常点进行云团运动速度校正;
步骤七,根据确定的云团运动区域和校正后的云团运动速度进行云遮挡开始和结束时间的预测。
2.根据权利要求1所述的一种基于密集光流法的云遮挡预测方法,其特征在于,所述视频采集设备包括多个针眼摄像头。
3.根据权利要求1所述的一种基于密集光流法的云遮挡预测方法,其特征在于,所述视频采集设备为全天空成像仪或普通鱼眼摄像头,预测方法中在步骤五和步骤六之间还包括坐标变换的步骤。
4.根据权利要求1所述的一种基于密集光流法的云遮挡预测方法,其特征在于,步骤三中,云识别判断的方法包括通道比值的阈值判断方法、机器学习方法或深度学习方法。
5.根据权利要求1所述的一种基于密集光流法的云遮挡预测方法,其特征在于,步骤四中,所述密集光流法为Farneback算法。
6.根据权利要求5所述的一种基于密集光流法的云遮挡预测方法,其特征在于,采用Farneback算法计算每个像素点的速度大小和方向具体如下:
首先,将图像进行灰度化处理:将图像进行线性变换,转换为HSV颜色空间,使用该颜色空间的亮度维度V作为灰度信息:
V=max(R,G,B)
其中,R、G、B分别代表RGB颜色空间中的红、绿、蓝三色的亮度值;
然后,将图像像素点的灰度值看成是一个二维变量的函数f(x,y),以感兴趣的像素点为中心,构建一个局部坐标系,对函数进行二项展开,表示为:
f(x,y)=f(x)=xTAx+bTx+c
这里,x为二维列向量,A为2×2的对称矩阵,b为2×1的矩阵,f(x)与f(x,y)等价,表示像素点的灰度值,c表示二次展开的常数项;如果这个像素点移动了,整个多项式就会发生变化,位移为d;位移前后A不变,则变化前后分别表示为
f1(x)=xTAx+b1 Tx+c1
f2(x)=xTAx+b2 Tx+c2
其中,b1和b2分别表示变化前后的2×1矩阵,c1和c2分别表示变化前后的常数项;
从而得到约束条件:
Ad=Δb
其中,
最后,建立目标函数:
‖Ad-b‖2
最小化目标函数求解出位移d,位移d除以发生位移的时间就是速度矢量。
7.根据权利要求1所述的一种基于密集光流法的云遮挡预测方法,其特征在于,步骤五的具体方法如下:
(1)进行有效速度阈值的确定;
(2)去除云运动噪音数据;
(3)计算云检测置信度;
(4)计算运动置信度;
(5)根据云检测和运动检测的置信度来确定云团运动区域。
8.根据权利要求1所述的一种基于密集光流法的云遮挡预测方法,其特征在于,步骤六的具体方法如下:
(1)确定有效云运动的速度大小范围;
(2)将超出范围的速度大小置零,再将大小相近,但方向不同的速度取平均方向;
(3)以滑窗在步骤四计算速度矢量生成的伪图像上从左到右,从上到下依次对滑窗内速度进行校正。
9.根据权利要求1所述的一种基于密集光流法的云遮挡预测方法,其特征在于,步骤七的具体方法如下:
设天空中太阳在图像中的圆心坐标为(x0,y0),半径为r0;太阳圆盘边缘上的点表示为(x0+r0cosθ,y0+r0sinθ),0≤θ<2π;一个特定的云像素点坐标为(x1,y1),速度矢量为(u1,v1);
然后,计算云像素点到达太阳的时间t1,表示为:
如果t1<0,说明该云像素点向远离太阳的方向运动,舍去;
该云像素点的离开时间t2表示为:
最后,每个云像素点到达时间都确定后,其中的最小值即为云前端到达太阳区域的时间,云像素点离开时间中的最大值即为预测的云团全部离开太阳区域的时间。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210651845.1A CN115170619B (zh) | 2022-06-10 | 2022-06-10 | 一种基于密集光流法的云遮挡预测方法 |
PCT/CN2023/098235 WO2023236886A1 (zh) | 2022-06-10 | 2023-06-05 | 一种基于密集光流法的云遮挡预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210651845.1A CN115170619B (zh) | 2022-06-10 | 2022-06-10 | 一种基于密集光流法的云遮挡预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115170619A true CN115170619A (zh) | 2022-10-11 |
CN115170619B CN115170619B (zh) | 2023-08-15 |
Family
ID=83485078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210651845.1A Active CN115170619B (zh) | 2022-06-10 | 2022-06-10 | 一种基于密集光流法的云遮挡预测方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115170619B (zh) |
WO (1) | WO2023236886A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023236886A1 (zh) * | 2022-06-10 | 2023-12-14 | 山东电力建设第三工程有限公司 | 一种基于密集光流法的云遮挡预测方法 |
CN117369026A (zh) * | 2023-12-06 | 2024-01-09 | 江苏省气象台 | 一种实时高精度预测云团驻留时间方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780540A (zh) * | 2016-12-08 | 2017-05-31 | 浙江科技学院 | 面向光伏发电的地基云图云层跟踪及预警方法 |
FR3047829A1 (fr) * | 2016-02-12 | 2017-08-18 | Cie Nat Du Rhone | Procede d'estimation de la position du disque solaire dans une image de ciel |
US20180232557A1 (en) * | 2017-02-16 | 2018-08-16 | Siemens Aktiengesellschaft | Short term cloud forecast, improved cloud recognition and prediction and uncertainty index estimation |
CN108871290A (zh) * | 2018-06-07 | 2018-11-23 | 华南理工大学 | 一种基于光流法检测与贝叶斯预测的可见光动态定位方法 |
CN111583298A (zh) * | 2020-04-24 | 2020-08-25 | 杭州远鉴信息科技有限公司 | 一种基于光流法的短时云图追踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115170619B (zh) * | 2022-06-10 | 2023-08-15 | 山东电力建设第三工程有限公司 | 一种基于密集光流法的云遮挡预测方法 |
-
2022
- 2022-06-10 CN CN202210651845.1A patent/CN115170619B/zh active Active
-
2023
- 2023-06-05 WO PCT/CN2023/098235 patent/WO2023236886A1/zh unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3047829A1 (fr) * | 2016-02-12 | 2017-08-18 | Cie Nat Du Rhone | Procede d'estimation de la position du disque solaire dans une image de ciel |
CN106780540A (zh) * | 2016-12-08 | 2017-05-31 | 浙江科技学院 | 面向光伏发电的地基云图云层跟踪及预警方法 |
US20180232557A1 (en) * | 2017-02-16 | 2018-08-16 | Siemens Aktiengesellschaft | Short term cloud forecast, improved cloud recognition and prediction and uncertainty index estimation |
CN108871290A (zh) * | 2018-06-07 | 2018-11-23 | 华南理工大学 | 一种基于光流法检测与贝叶斯预测的可见光动态定位方法 |
CN111583298A (zh) * | 2020-04-24 | 2020-08-25 | 杭州远鉴信息科技有限公司 | 一种基于光流法的短时云图追踪方法 |
Non-Patent Citations (4)
Title |
---|
D.M.L.H.DISSAWA ET AL: ""Cloud Motion Tracking for Short-Term On-Site Cloud Coverage Prediction"", 《2017 INTERNATIONAL CONFERENCE ON ADVANCES IN ICT FOR EMERGING REGIONS》, pages 332 - 337 * |
WEICONG KONG ET AL: "\"Hybrid approaches based on deep whole-sky-image learning to photovolaic generation forecasting\"", 《APPLIED ENERGY》, vol. 280, pages 1 - 10 * |
蒋俊霞等: ""基于地基云图的云跟踪与太阳辐照度超短期预报方法研究"", 《太阳能学报》, vol. 41, no. 5, pages 351 - 358 * |
赵昱: ""基于HSV空间的镜场云监测"", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 1, pages 138 - 4535 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023236886A1 (zh) * | 2022-06-10 | 2023-12-14 | 山东电力建设第三工程有限公司 | 一种基于密集光流法的云遮挡预测方法 |
CN117369026A (zh) * | 2023-12-06 | 2024-01-09 | 江苏省气象台 | 一种实时高精度预测云团驻留时间方法 |
CN117369026B (zh) * | 2023-12-06 | 2024-03-08 | 江苏省气象台 | 一种实时高精度预测云团驻留时间方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115170619B (zh) | 2023-08-15 |
WO2023236886A1 (zh) | 2023-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107253485B (zh) | 异物侵入检测方法及异物侵入检测装置 | |
CN115170619B (zh) | 一种基于密集光流法的云遮挡预测方法 | |
CN106846359B (zh) | 基于视频序列的运动目标快速检测方法 | |
CN108521554B (zh) | 大场景多目标协同跟踪方法、智能监控系统、交通系统 | |
CN110189375B (zh) | 一种基于单目视觉测量的图像目标识别方法 | |
CN107360344B (zh) | 监控视频快速去雾方法 | |
CN111914695B (zh) | 一种基于机器视觉的涌潮监测方法 | |
CN112232356B (zh) | 一种基于合群度和边界特征的事件相机去噪方法 | |
CN116879870B (zh) | 一种适用于低线束3d激光雷达的动态障碍物去除方法 | |
Yamashita et al. | Removal of adherent waterdrops from images acquired with stereo camera | |
CN110751635A (zh) | 一种基于帧间差分和hsv颜色空间的口腔检测方法 | |
CN109671084B (zh) | 一种工件形状的测量方法 | |
Tanaka et al. | Removal of adherent waterdrops from images acquired with a stereo camera system | |
Zhang et al. | Dehazing with improved heterogeneous atmosphere light estimation and a nonlinear color attenuation prior model | |
CN111627047B (zh) | 水下鱼类动态视觉序列运动目标检测方法 | |
Yamashita et al. | Removal of adherent noises from image sequences by spatio-temporal image processing | |
Zhang et al. | Intrahour cloud tracking based on optical flow | |
CN102510437A (zh) | 基于rgb分量分布的视频图像背景检测方法 | |
Yamashita et al. | Noises removal from image sequences acquired with moving camera by estimating camera motion from spatio-temporal information | |
CN103996199A (zh) | 一种基于深度信息的运动检测方法 | |
CN111881837A (zh) | 基于阴影提取的视频sar运动目标检测方法 | |
CN111583298B (zh) | 一种基于光流法的短时云图追踪方法 | |
CN114926524B (zh) | 一种用于提高烟幕红外有效遮蔽面积测量精度的方法 | |
CN102034248A (zh) | 单目图像序列的运动分割和3d表达方法 | |
CN115272904A (zh) | 多个单目摄像头下的目标实时跟踪与距离度量系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |