CN117218375B - 基于先验知识与数据驱动的环境能见度预测方法及设备 - Google Patents
基于先验知识与数据驱动的环境能见度预测方法及设备 Download PDFInfo
- Publication number
- CN117218375B CN117218375B CN202311473784.5A CN202311473784A CN117218375B CN 117218375 B CN117218375 B CN 117218375B CN 202311473784 A CN202311473784 A CN 202311473784A CN 117218375 B CN117218375 B CN 117218375B
- Authority
- CN
- China
- Prior art keywords
- visibility
- feature
- features
- historical
- monitoring image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012544 monitoring process Methods 0.000 claims abstract description 117
- 239000013598 vector Substances 0.000 claims abstract description 78
- 238000001514 detection method Methods 0.000 claims abstract description 53
- 230000001133 acceleration Effects 0.000 claims abstract description 34
- 238000012545 processing Methods 0.000 claims abstract description 13
- 230000004927 fusion Effects 0.000 claims abstract description 7
- 238000007499 fusion processing Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 28
- 230000007613 environmental effect Effects 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 15
- 238000013526 transfer learning Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 11
- 230000009467 reduction Effects 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000012216 screening Methods 0.000 claims description 9
- 238000013508 migration Methods 0.000 claims description 7
- 230000005012 migration Effects 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 7
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 claims description 4
- 238000012806 monitoring device Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000014759 maintenance of location Effects 0.000 claims description 3
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 claims description 2
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008033 biological extinction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了基于先验知识与数据驱动的环境能见度预测方法及设备,属于数据预测技术领域,用于解决现有的能见度预测方法中的数据采集过程较为繁琐,能见度预测的局限性较大并且准确性较差,同时难以提高能见度预测的精度与适应性的技术问题。方法包括:对历史能见度监测图像进行多项灰度融合处理,得到统计特征;将统计特征、加速稳健特征以及角点检测特征进行维度特征融合,得到先验知识特征;对历史能见度监测图像进行全连接层特征向量的提取与降维,确定出数据驱动特征;将历史能见度监测图像进行有关时间序列的回归处理,得出能见度预测模型;对实时环境检测图像中的实时特征向量进行能见度预测,得到环境能见度预测信息。
Description
技术领域
本申请涉及数据预测领域,尤其涉及一种基于先验知识与数据驱动的环境能见度预测方法及设备。
背景技术
能见度是指视力正常的人能将目标从背景中识别出来的最大距离。在空气质量监测中,能见度信息是必不可少的。能见度降低时常常给我们的生产和生活带来极大的不便,甚至造成重大的交通事故。因此,建立准确的能见度预测系统可以为公路、水路和航空的调度提供依据,对于提高交通运输的安全具有十分重要的意义。
传统的能见度检测方法是利用大气透射仪和前向散射仪直接测量大气的消光系数,从而得到大气能见度。这种方法适合局部小范围的能见度测量,无法广泛应用于大规模能见度测量。在现有的一些研究中,一般借助气象学和大气散射模型建立能见度预测模型,通过机理分析建立能见度影响因子和能见度的映射关系。但是能见度的影响因素多,内在机理复杂,基于数学映射的能见度预测模型具有局限性。
发明内容
本申请实施例提供了一种基于先验知识与数据驱动的环境能见度预测方法及设备,用于解决如下技术问题:现有的能见度预测方法中的数据采集过程较为繁琐,能见度预测的局限性较大并且准确性较差,同时难以提高能见度预测的精度与适应性。
本申请实施例采用下述技术方案:
一方面,本申请实施例提供了一种基于先验知识与数据驱动的环境能见度预测方法及设备,包括:对历史能见度监测图像进行多项灰度融合处理,得到统计特征;提取所述历史能见度监测图像中的加速稳健特征以及角点检测特征,并将所述统计特征、所述加速稳健特征以及角点检测特征进行维度特征融合,得到先验知识特征;根据预设的迁移学习特征提取模型,对所述历史能见度监测图像进行全连接层特征向量的提取与降维,确定出数据驱动特征;根据所述先验知识特征以及所述数据驱动特征,将所述历史能见度监测图像进行有关时间序列的回归处理;构建并训练得出能见度预测模型;通过训练后的所述能见度预测模型,对实时环境检测图像中的实时特征向量进行能见度预测,得到环境能见度预测信息。
本申请实施例通过采用了加速稳健特征以及角点检测特征提取方法将先验知识特征和数据驱动特征进行了特征级地融合,丰富了能见度预测的特征向量,提高了能见度预测模型的泛化能力。并采用LSTM长短记忆神经网络将能见度预测问题转化为时间序列回归问题,充分考虑了能见度变化的历史信息,提高了实时监测图像中能见度预测的精度,同时还扩大了能见度预测的适用范围。
在一种可行的实施方式中,对历史能见度监测图像进行多项灰度融合处理,得到统计特征,具体包括:对获取的所述历史能见度监测图像进行灰度图像转化,得到灰度能见度监测图像;对所述灰度能见度监测图像进行有关灰度特征的灰度值计算,得到多项灰度特征;其中,所述多项灰度特征包括:灰度方差特征、灰度均值特征、灰度四分位数特征、灰度极大值特征、灰度极小值特征以及灰度极差特征;将所述多项灰度特征中的每一灰度特征进行特征之间相互融合处理,得到统计特征;其中,所述统计特征为12维度特征。
在一种可行的实施方式中,提取所述历史能见度监测图像中的加速稳健特征以及角点检测特征,包括:通过预设的SURF算法,对灰度转化后的历史能见度监测图像进行加速稳健特征点的计算与标识,并提取所述加速稳健特征点;其中,所述加速稳健特征点包括:特征点强度、特征点横坐标以及特征点纵坐标;对所述加速稳健特征点进行显著性筛选,得到显著性特征点;其中,所述显著性特征点为显著性强度最强的10个特征点;将所述显著性特征点进行有关显著性强度排序,生成并提取出所述历史能见度监测图像中的所述加速稳健特征;其中,所述加速稳健特征的特征维度为30维。
在一种可行的实施方式中,提取所述历史能见度监测图像中的加速稳健特征以及角点检测特征,还包括:通过预设的Harris算法,对灰度转化后的历史能见度监测图像进行角点检测特征的计算与标识,并提取角点检测特征点;其中,所述角点检测特征点包括:特征点等级、特征点横坐标以及特征点纵坐标;对所述角点检测特征点进行等级序列的筛选,并确定出高等级特征点;其中,所述高等级特征点为等级序列中等级最高的10个特征点;将所述高等级特征点进行等级排序,生成并提取出所述历史能见度监测图像中的所述角点检测特征;其中,所述角点检测特征的特征维度为30维。
在一种可行的实施方式中,在根据预设的迁移学习特征提取模型,对所述历史能见度监测图像进行全连接层特征向量的提取与降维,确定出数据驱动特征之前,所述方法还包括:通过深度学习的数据驱动算法,对MobileNetV2模型进行预训练,得到训练后的MobileNetV2模型;将所述训练后的MobileNetV2模型中的全连接层、Softmax层以及分类层进行系数替换;通过迁移学习算法,对系数替换后的MobileNetV2模型进行图像特征的归一化处理,得到基于所述MobileNetV2模型下的迁移学习特征提取模型;其中,所述迁移学习特征提取模型的输入为能见度监测图像,输出为所述能见度监测图像的观测值。
在一种可行的实施方式中,根据预设的迁移学习特征提取模型,对所述历史能见度监测图像进行全连接层特征向量的提取与降维,确定出数据驱动特征,具体包括:通过所述迁移学习特征提取模型中的第152层全连接层,对所述历史能见度监测图像进行1×1000矩阵下的特征向量提取,得到全连接层特征向量;通过预设的PCA算法,对所述全连接层特征向量进行降维处理,得到降维特征向量;对所述降维特征向量进行累计贡献率的保留筛选,确定出所述数据驱动特征;其中,所述数据驱动特征为42维的特征向量。
在一种可行的实施方式中,根据所述先验知识特征以及所述数据驱动特征,将所述历史能见度监测图像进行有关时间序列的回归处理;构建并训练得出能见度预测模型,具体包括:对所述历史能见度监测图像进行离散化处理,并基于预设的采样周期,将离散化处理后的历史能见度监测图像进行有关时间序列与滑动窗口的划分,得到离散化监测图像;根据所述先验知识特征以及所述数据驱动特征,对所述离散化监测图像进行维度特征向量的转化,得到所述历史能见度监测图像的能见度监测特征向量;其中,所述能见度监测特征向量的矩阵为1×114;基于所述时间序列以及所述能见度监测特征向量,构建出基于LSTM 层的所述能见度预测模型;其中,所述能见度预测模型的输入为15×114特征矩阵,15为所述时间序列,114为所述能见度监测特征向量;所述能见度预测模型的输出为能见度观测值;所述能见度预测模型包含200个隐含单元的双向 LSTM 层;通过预设的Adam优化算法,对所述能见度预测模型进行迭代优化训练,得到训练后的能见度预测模型;其中,所述能见度预测模型的最大迭代次数为250,梯度阈值为1,初始学习率为0.005。
在一种可行的实施方式中,在通过训练后的所述能见度预测模型,对实时环境检测图像中的实时特征向量进行能见度预测,得到环境能见度预测信息之前,所述方法还包括:通过预设的TensoRT优化器,将训练好的所述能见度预测模型转化为边缘计算设备的推理引擎;并将所述推理引擎部署到Jetson系列设备中;将所述Jetson系列设备与图像监测设备进行通信连接,以进行对实时环境检测图像中的实时特征向量进行能见度预测。
在一种可行的实施方式中,通过训练后的所述能见度预测模型,对实时环境检测图像中的实时特征向量进行能见度预测,得到环境能见度预测信息,具体包括:根据所述历史能见度监测图像中的所述先验知识特征、所述数据驱动特征以及能见度监测特征向量,对所述实时环境检测图像中对应的特征以及特征向量进行实时提取,得到实时环境监测信息;基于预设采样周期下的时间序列,并通过所述能见度预测模型,对所述实时环境监测信息进行能见度预测,得到所述环境能见度预测信息。
另一方面,本申请实施例还提供了基于先验知识与数据驱动的环境能见度预测设备,其特征在于,所述设备包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有能够被所述至少一个处理器执行的指令,以使所述至少一个处理器能够执行上述任一实施例所述的基于先验知识与数据驱动的环境能见度预测方法。
本申请提供了基于先验知识与数据驱动的环境能见度预测方法及设备,与现有技术相比,本申请实施例具有以下有益的技术效果:
本申请实施例通过采用了加速稳健特征以及角点检测特征提取方法将先验知识特征和数据驱动特征进行了特征级地融合,丰富了能见度预测的特征向量,提高了能见度预测模型的泛化能力。并采用LSTM长短记忆神经网络将能见度预测问题转化为时间序列回归问题,充分考虑了能见度变化的历史信息,提高了实时监测图像中能见度预测的精度,同时还扩大了能见度预测的适用范围。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本申请实施例提供的一种基于先验知识与数据驱动的环境能见度预测方法流程图;
图2为本申请实施例提供的一种基于先验知识与数据驱动的环境能见度预测整体示意框图;
图3为本申请实施例提供的一种环境监测图像SURF特征提取效果图;
图4为本申请实施例提供的一种环境监测图像Harris特征提取效果图;
图5为本申请实施例提供的一种时间序列信息分割示意图;
图6为本申请实施例提供的一种基于先验知识与数据驱动的环境能见度预测设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本说明书实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本申请实施例提供了一种基于先验知识与数据驱动的环境能见度预测方法,如图1所示,基于先验知识与数据驱动的环境能见度预测方法具体包括步骤S101-S105:
需要说明的是,传统的能见度检测方法是利用大气透射仪和前向散射仪直接测量大气的消光系数,从而得到大气能见度。这种方法适合局部小范围的能见度测量,无法广泛应用于大规模能见度测量。一些研究人员和学者借助气象学和大气散射模型建立能见度预测模型,通过机理分析建立能见度影响因子和能见度的映射关系。但是能见度的影响因素多,内在机理复杂,基于数学映射的能见度预测模型具有局限性。为了克服上述问题,相关研究人员采用能见度与影响因子(风速、风向、温度、湿度、大气压等)的历史观测数据训练机器学习模型对能见度进行预测,常见的用于能见度预测的机器学习模型包括:支持向量(SVM),BP神经网络,贝叶斯网络,XGBoost,LightGBM等。但是能见度影响因子的测量依赖多种气象观测仪器,数据收集过程较为繁琐。为了提高能见度预测的便利性,研究人员考虑直接基于环境监测图像建立能见度预测模型。例如可以借助先验知识提取图像特征(边缘、色彩、灰度、纹理等)建立能见度预测模型。先验知识特征具有较好的可解释性和显著性特点,在局部环境的能见度预测中具有不错的效果。但是这类特征比较单一,能见度预测模型的精度和适应性有待提高。为了提高模型的泛化能力,研究人员采用不同结构的深度卷积神经网络—DCNN从环境监测图像提取特征,然后通过有监督的学习训练能见度预测模型,相比基于先验知识的能见度预测模型,该方法能显著提高能见度预测的精度。
另外,通过分析现有的能见度预测方法,发现存在一些不够完善的地方。首先基于能见度影响因子的机理模型和机器学习模型依赖多种大气监测数据,数据采集过程繁琐。另外基于图像处理的能见度预测模型未能充分融合基于先验知识的显著特征和基于数据驱动的学习特征,能见度预测模型的泛化能力欠佳。同时,用于能见度预测的图像信息都是基于瞬态或者固定窗口采集的,片段化的能见度图像信息割裂能见度预测在时间序列上的连续性,因此现有模型预测的精度还有待提高。
S101、对历史能见度监测图像进行多项灰度融合处理,得到统计特征。
具体地,对获取的历史能见度监测图像进行灰度图像转化,得到灰度能见度监测图像。
进一步地,对灰度能见度监测图像进行有关灰度特征的灰度值计算,得到多项灰度特征。其中,多项灰度特征包括:灰度方差特征、灰度均值特征、灰度四分位数特征、灰度极大值特征、灰度极小值特征以及灰度极差特征。
进一步地,将多项灰度特征中的每一灰度特征进行特征之间相互融合处理,得到统计特征。其中,统计特征为12维度特征。
在一个实施例中,图2为本申请实施例提供的一种基于先验知识与数据驱动的环境能见度预测整体示意框图,如图2所示,先将原始的能见度监测图像转化为灰度图像。然后从灰度图像中逐一提取图像的灰度方差、灰度均值、灰度四分位数、灰度极大值、灰度极小值、灰度极差。接着将所有的特征融合形成12维度的统计特征。
S102、提取历史能见度监测图像中的加速稳健特征以及角点检测特征。
具体地,通过预设的SURF算法,对灰度转化后的历史能见度监测图像进行加速稳健特征点的计算与标识,并提取加速稳健特征点。其中,加速稳健特征点包括:特征点强度、特征点横坐标以及特征点纵坐标。
进一步地,对加速稳健特征点进行显著性筛选,得到显著性特征点。其中,显著性特征点为显著性强度最强的10个特征点。
进一步地,将显著性特征点进行有关显著性强度排序,生成并提取出历史能见度监测图像中的加速稳健特征。其中,加速稳健特征的特征维度为30维。
同时,通过预设的Harris算法,对灰度转化后的历史能见度监测图像进行角点检测特征的计算与标识,并提取角点检测特征点。其中,角点检测特征点包括:特征点等级、特征点横坐标以及特征点纵坐标。
进一步地,对角点检测特征点进行等级序列的筛选,并确定出高等级特征点。其中,高等级特征点为等级序列中等级最高的10个特征点。
进一步地,将高等级特征点进行等级排序,生成并提取出历史能见度监测图像中的角点检测特征。其中,角点检测特征的特征维度为30维。
进一步地,将上述得到统计特征、加速稳健特征以及角点检测特征进行维度特征融合,最终融合后得到先验知识特征。
在一个实施例中,图3为本申请实施例提供的一种环境监测图像SURF特征提取效果图,如图3以及图2所示,先采用SURF(加速稳健特征)算法从历史能见度监测图像中提取SURF特征点(加速稳健特征点),每个特征点包括(X,Y,Scale)三个特征值,其中X代表特征点的横坐标,Y代表特征点的纵坐标,Scale代表特征点强度。保留显著性最强的10个特征点,将所有特征点的显著性由高到低排序,生成30维的SURF特征。当SURF特征点不足10个时,剩余特征点的特征向量用0填充。
在一个实施例中,图4为本申请实施例提供的一种环境监测图像Harris特征提取效果图,如图4以及图2所示,采用Harris算法从图像中提取Harris(角点检测特征)特征点(角点检测特征点),每个特征点包括(X,Y,Metric)三个特征值,其中X代表特征点的横坐标,Y代表特征点的纵坐标,Metric代表特征点等级。保留等级最高的10个特征点,将所有特征点的等级由高到低排序,生成30维的Harris特征。当Harris特征点不足10个时,剩余特征点的特征向量用0填充。将12维的统计特征、30维的SURF特征和30维的Harris特征进行融合生成72维的先验知识特征。
S103、根据预设的迁移学习特征提取模型,对历史能见度监测图像进行全连接层特征向量的提取与降维,确定出数据驱动特征。
具体地,通过深度学习的数据驱动算法,对MobileNetV2模型进行预训练,得到训练后的MobileNetV2模型。
进一步地,将训练后的MobileNetV2模型中的全连接层、Softmax层以及分类层进行系数替换。
进一步地,通过迁移学习算法,对系数替换后的MobileNetV2模型进行图像特征的归一化处理,得到基于MobileNetV2模型下的迁移学习特征提取模型。其中,迁移学习特征提取模型的输入为能见度监测图像,输出为能见度监测图像的观测值。
进一步地,通过迁移学习特征提取模型中的第152层全连接层,对历史能见度监测图像进行1×1000矩阵下的特征向量提取,得到全连接层特征向量。
进一步地,通过预设的PCA算法,对全连接层特征向量进行降维处理,得到降维特征向量。
进一步地,对降维特征向量进行累计贡献率的保留筛选,确定出数据驱动特征。其中,数据驱动特征为42维的特征向量。
在一个实施例中,如图2所示,通过深度学习的数据驱动算法预训练后的MobileNetV2模型,将该模型最后的全连接层、Softmax(归一化指数函数)层、Classification(分类)层替换成系数为1的全连接层和回归层。然后利用迁移学习对改进后的MobileNetV2模型进行再训练,其中模型的输出入为历史能见度监测图像,图像被归一化成224×224的标准图像,输出为该历史能见度监测图像下的观测值。即使用训练好的MobileNetV2模型对所有的能见度观测图像进行特征提取,从第152层全连接层提取1×1000的特征向量。然后再使用PCA算法对提取的全连接层特征向量进行降维,只保留累计贡献率超过98%的42维特征向量,最终确定出数据驱动特征。
S104、根据先验知识特征以及数据驱动特征,将历史能见度监测图像进行有关时间序列的回归处理。然后构建并训练得出能见度预测模型。
具体地,对历史能见度监测图像进行离散化处理,并基于预设的采样周期,将离散化处理后的历史能见度监测图像进行有关时间序列与滑动窗口的划分,得到离散化监测图像。
进一步地,根据先验知识特征以及数据驱动特征,对离散化监测图像进行维度特征向量的转化,得到历史能见度监测图像的能见度监测特征向量。其中,能见度监测特征向量的矩阵为1×114。
进一步地,基于时间序列以及能见度监测特征向量,构建出基于LSTM 层的能见度预测模型。其中,能见度预测模型的输入为15×114特征矩阵,15为时间序列,114为能见度监测特征向量。能见度预测模型的输出为能见度观测值。能见度预测模型包含200个隐含单元的双向 LSTM 层。
进一步地,通过预设的Adam优化算法,对能见度预测模型进行迭代优化训练,得到训练后的能见度预测模型。其中,能见度预测模型的最大迭代次数为250,梯度阈值为1,初始学习率为0.005。
在一个实施例中,图5为本申请实施例提供的一种时间序列信息分割示意图,如图5所示,将原始的历史能见度监测图像进行离散化处理,采样周期为1分钟。每15分钟作为一个时间序列,每一个时间序列的滑动窗口为2个采样周期。根据上述提出的先验知识特征以及数据驱动特征方法,来提取出每一幅离散化监测图像的特征向量,每幅离散化监测图像被转化为一个1×114的特征向量。基于LSTM能见度预测模型建模。该能见度预测模型的输入层是一个15×114特征矩阵,其中,15代表时间序列的长度,114代表每幅图像提取的特征向量。该能见度预测模型的输出为能见度观测值。该能见度预测模型包含200个隐含单元的双向 LSTM 层。LSTM能见度预测模型的训练采用Adam优化算法对模型进行训练,最大迭代次数为250,梯度阈值为1,初始学习率为0.005,该模型在经过100次训练后学习率降低为初始学习率的0.2倍。该模型训练数据包含1000组能见度观测数据和图像,其中90%的数据用来训练,10%的数据用来测试。
S105、通过训练后的能见度预测模型,对实时环境检测图像中的实时特征向量进行能见度预测,得到环境能见度预测信息。
具体地,通过预设的TensoRT优化器,将训练好的能见度预测模型转化为边缘计算设备的推理引擎。并将推理引擎部署到Jetson系列设备中。将Jetson系列设备与图像监测设备进行通信连接,以进行对实时环境检测图像中的实时特征向量进行能见度预测。
进一步地,根据历史能见度监测图像中的先验知识特征、数据驱动特征以及能见度监测特征向量,对实时环境检测图像中对应的特征以及特征向量进行实时提取,得到实时环境监测信息。
进一步地,基于预设采样周期下的时间序列,并通过能见度预测模型,对实时环境监测信息进行能见度预测,得到环境能见度预测信息。
在一个实时例中,如图2所示,采用TensoRT优化器将训练好的LSTM能见度预测模型转化为边缘计算设备的推理引擎,将生成后的推理引擎部署到Jetson系列设备。然后再定义好图像监测设备与边缘计算设备(Jetson系列设备)的通信接口,即,采样周期设置为1分钟。根据历史能见度监测图像中的先验知识特征、数据驱动特征以及能见度监测特征向量,提取实时检测图像中对应的特征向量以及特征,每15个采样周期作为一个时间序列,再输入到LSTM能见度预测模型中,完成对实时环境监测信息进行能见度预测,最终得到用于实时环境能见度预测的环境能见度预测信息。
另外,本申请实施例还提供了基于先验知识与数据驱动的环境能见度预测设备,如图6所示,基于先验知识与数据驱动的环境能见度预测设备具体包括:
至少一个处理器601。以及,与至少一个处理器601通信连接的存储器602。其中,存储器602存储有能够被至少一个处理器601执行的指令,以使至少一个处理器601能够执行:
对历史能见度监测图像进行多项灰度融合处理,得到统计特征;
提取历史能见度监测图像中的加速稳健特征以及角点检测特征,并将统计特征、加速稳健特征以及角点检测特征进行维度特征融合,得到先验知识特征;
根据预设的迁移学习特征提取模型,对历史能见度监测图像进行全连接层特征向量的提取与降维,确定出数据驱动特征;
根据先验知识特征以及数据驱动特征,将历史能见度监测图像进行有关时间序列的回归处理;构建并训练得出能见度预测模型;
通过训练后的能见度预测模型,对实时环境检测图像中的实时特征向量进行能见度预测,得到环境能见度预测信息。
本申请通过采用了加速稳健特征以及角点检测特征提取方法将先验知识特征和数据驱动特征进行了特征级地融合,丰富了能见度预测的特征向量,提高了能见度预测模型的泛化能力。并采用LSTM长短记忆神经网络将能见度预测问题转化为时间序列回归问题,充分考虑了能见度变化的历史信息,提高了实时监测图像中能见度预测的精度,同时还扩大了能见度预测的适用范围。
本申请中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请的实施例可以有各种更改和变化。凡在本申请实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (8)
1.基于先验知识与数据驱动的环境能见度预测方法,其特征在于,所述方法包括:
对历史能见度监测图像进行多项灰度融合处理,得到统计特征,具体包括:
对获取的所述历史能见度监测图像进行灰度图像转化,得到灰度能见度监测图像;
对所述灰度能见度监测图像进行有关灰度特征的灰度值计算,得到多项灰度特征;其中,所述多项灰度特征包括:灰度方差特征、灰度均值特征、灰度四分位数特征、灰度极大值特征、灰度极小值特征以及灰度极差特征;
将所述多项灰度特征进行融合处理,得到统计特征;其中,所述统计特征为12维度特征;
提取所述历史能见度监测图像中的加速稳健特征以及角点检测特征,并将所述统计特征、所述加速稳健特征以及角点检测特征进行维度特征融合,得到先验知识特征;
根据预设的迁移学习特征提取模型,对所述历史能见度监测图像进行全连接层特征向量的提取与降维,确定出数据驱动特征;其中,所述迁移学习特征提取模型为基于MobileNet模型的特征提取模型;
根据所述先验知识特征以及所述数据驱动特征,将所述历史能见度监测图像进行有关时间序列的回归处理;构建并训练得出能见度预测模型,具体包括:
对所述历史能见度监测图像进行离散化处理,并基于预设的采样周期,得到离散化监测图像;
提取所述离散化监测图像中的先验知识特征以及数据驱动特征,并将提取出的所述先验知识特征以及所述数据驱动特征进行向量转化处理,得到所述历史能见度监测图像的能见度监测特征向量;其中,所述能见度监测特征向量的矩阵为1×114;
基于所述时间序列以及所述能见度监测特征向量,构建出基于LSTM 层的所述能见度预测模型;其中,所述能见度预测模型的输入为15×114特征矩阵,15为所述时间序列,114为所述能见度监测特征向量;所述能见度预测模型的输出为能见度观测值;所述能见度预测模型包含200个隐含单元的双向 LSTM 层;
通过预设的Adam优化算法,对所述能见度预测模型进行迭代优化训练,得到训练后的能见度预测模型;其中,所述能见度预测模型的最大迭代次数为250,梯度阈值为1,初始学习率为0.005;
通过训练后的所述能见度预测模型,对实时环境检测图像中的实时特征向量进行能见度预测,得到环境能见度预测信息;其中,所述实时特征向量为由先验知识特征与数据驱动特征所确定出的。
2.根据权利要求1所述的基于先验知识与数据驱动的环境能见度预测方法,其特征在于,提取所述历史能见度监测图像中的加速稳健特征以及角点检测特征,包括:
通过预设的SURF算法,对灰度转化后的历史能见度监测图像进行加速稳健特征点的计算与标识,并提取所述加速稳健特征点;其中,所述加速稳健特征点包括:特征点强度、特征点横坐标以及特征点纵坐标;
对所述加速稳健特征点进行显著性筛选,得到显著性特征点;其中,所述显著性特征点为显著性强度最强的10个特征点;
将所述显著性特征点进行有关显著性强度排序,生成并提取出所述历史能见度监测图像中的所述加速稳健特征;其中,所述加速稳健特征的特征维度为30维。
3.根据权利要求1所述的基于先验知识与数据驱动的环境能见度预测方法,其特征在于,提取所述历史能见度监测图像中的加速稳健特征以及角点检测特征,还包括:
通过预设的Harris算法,对灰度转化后的历史能见度监测图像进行角点检测特征的计算与标识,并提取角点检测特征点;其中,所述角点检测特征点包括:特征点等级、特征点横坐标以及特征点纵坐标;
对所述角点检测特征点进行等级序列的筛选,并确定出高等级特征点;其中,所述高等级特征点为等级序列中等级最高的10个特征点;
将所述高等级特征点进行等级排序,生成并提取出所述历史能见度监测图像中的所述角点检测特征;其中,所述角点检测特征的特征维度为30维。
4.根据权利要求1所述的基于先验知识与数据驱动的环境能见度预测方法,其特征在于,在根据预设的迁移学习特征提取模型,对所述历史能见度监测图像进行全连接层特征向量的提取与降维,确定出数据驱动特征之前,所述方法还包括:
通过深度学习的数据驱动算法,对MobileNetV2模型进行预训练,得到训练后的MobileNetV2模型;
将所述训练后的MobileNetV2模型中的全连接层、Softmax层以及分类层进行系数替换;
通过迁移学习算法,对系数替换后的MobileNetV2模型进行图像特征的再训练,得到基于所述MobileNetV2模型下的迁移学习特征提取模型;其中,所述迁移学习特征提取模型的输入为能见度监测图像,输出为所述能见度监测图像的观测值。
5.根据权利要求4所述的基于先验知识与数据驱动的环境能见度预测方法,其特征在于,根据预设的迁移学习特征提取模型,对所述历史能见度监测图像进行全连接层特征向量的提取与降维,确定出数据驱动特征,具体包括:
提取所述迁移学习特征提取模型中的第152层全连接层向量,得到所述历史能见度监测图像1×1000矩阵下的特征向量,并作为全连接层特征向量;
通过预设的PCA算法,对所述全连接层特征向量进行降维处理,得到降维特征向量;
对所述降维特征向量进行累计贡献率的保留筛选,确定出所述数据驱动特征;其中,所述数据驱动特征为42维的特征向量。
6.根据权利要求1所述的基于先验知识与数据驱动的环境能见度预测方法,其特征在于,在通过训练后的所述能见度预测模型,对实时环境检测图像中的实时特征向量进行能见度预测,得到环境能见度预测信息之前,所述方法还包括:
通过预设的TensoRT优化器,将训练好的所述能见度预测模型转化为边缘计算设备的推理引擎;并将所述推理引擎部署到Jetson系列设备中;
将所述Jetson系列设备与图像监测设备进行通信连接,以进行对实时环境检测图像中的实时特征向量进行能见度预测。
7.根据权利要求6所述的基于先验知识与数据驱动的环境能见度预测方法,其特征在于,通过训练后的所述能见度预测模型,对实时环境检测图像中的实时特征向量进行能见度预测,得到环境能见度预测信息,具体包括:
提取所述实时环境检测图像中的先验知识特征、数据驱动特征以及能见度监测特征向量,得到实时环境监测信息;其中,所述能见度监测特征向量的矩阵为1×114,且由向量转化后的先验知识特征以及数据驱动特征所组成;
基于预设采样周期下的时间序列,并通过所述能见度预测模型,对所述实时环境监测信息进行能见度预测,得到所述环境能见度预测信息。
8.基于先验知识与数据驱动的环境能见度预测设备,其特征在于,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有能够被所述至少一个处理器执行的指令,以使所述至少一个处理器能够执行根据权利要求1-7任一项所述的基于先验知识与数据驱动的环境能见度预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311473784.5A CN117218375B (zh) | 2023-11-08 | 2023-11-08 | 基于先验知识与数据驱动的环境能见度预测方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311473784.5A CN117218375B (zh) | 2023-11-08 | 2023-11-08 | 基于先验知识与数据驱动的环境能见度预测方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117218375A CN117218375A (zh) | 2023-12-12 |
CN117218375B true CN117218375B (zh) | 2024-02-09 |
Family
ID=89035671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311473784.5A Active CN117218375B (zh) | 2023-11-08 | 2023-11-08 | 基于先验知识与数据驱动的环境能见度预测方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117218375B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875794A (zh) * | 2018-05-25 | 2018-11-23 | 中国人民解放军国防科技大学 | 一种基于迁移学习的图像能见度检测方法 |
CN109741322A (zh) * | 2019-01-08 | 2019-05-10 | 南京蓝绿物联科技有限公司 | 一种基于机器学习的能见度测量方法 |
CN111507233A (zh) * | 2020-04-13 | 2020-08-07 | 吉林大学 | 一种多模态信息融合的智能车路面类型识别方法 |
CN112052822A (zh) * | 2020-09-16 | 2020-12-08 | 西安交通大学 | 基于图像多特征融合的公路能见度检测方法、系统及装置 |
CN113761806A (zh) * | 2021-09-15 | 2021-12-07 | 中国人民解放军国防科技大学 | 一种基于神经网络的大气能见度预测方法 |
WO2022232068A1 (en) * | 2021-04-27 | 2022-11-03 | ARETé ASSOCIATES | Systems and methods for estimating visibility in a scene |
CN116798222A (zh) * | 2023-03-28 | 2023-09-22 | 哈尔滨工业大学 | 高速公路能见度检测与智慧诱导方法、系统及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220172452A1 (en) * | 2020-11-30 | 2022-06-02 | George Mason University | Detecting objects non-visible in color images |
-
2023
- 2023-11-08 CN CN202311473784.5A patent/CN117218375B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875794A (zh) * | 2018-05-25 | 2018-11-23 | 中国人民解放军国防科技大学 | 一种基于迁移学习的图像能见度检测方法 |
CN109741322A (zh) * | 2019-01-08 | 2019-05-10 | 南京蓝绿物联科技有限公司 | 一种基于机器学习的能见度测量方法 |
CN111507233A (zh) * | 2020-04-13 | 2020-08-07 | 吉林大学 | 一种多模态信息融合的智能车路面类型识别方法 |
CN112052822A (zh) * | 2020-09-16 | 2020-12-08 | 西安交通大学 | 基于图像多特征融合的公路能见度检测方法、系统及装置 |
WO2022232068A1 (en) * | 2021-04-27 | 2022-11-03 | ARETé ASSOCIATES | Systems and methods for estimating visibility in a scene |
CN113761806A (zh) * | 2021-09-15 | 2021-12-07 | 中国人民解放军国防科技大学 | 一种基于神经网络的大气能见度预测方法 |
CN116798222A (zh) * | 2023-03-28 | 2023-09-22 | 哈尔滨工业大学 | 高速公路能见度检测与智慧诱导方法、系统及装置 |
Non-Patent Citations (2)
Title |
---|
"A Transfer Learning Method for Meteorological Visibility Estimation Based on Feature Fusion Method";Jiaping Li等;《Applied Sciences》;第11卷(第3期);全文 * |
"基于多方面特征提取和迁移学习的风速预测";梁涛等;《太阳能学报》;第44卷(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117218375A (zh) | 2023-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111815037B (zh) | 一种基于注意力机制的可解释性短临极端降雨预测方法 | |
CN107909206B (zh) | 一种基于深层结构循环神经网络的pm2.5预测方法 | |
CN110021425B (zh) | 一种比较检测器及其构建方法与宫颈癌细胞检测方法 | |
CN111259481B (zh) | 一种整合空间信息的建筑室内光环境设计评价方法及装置 | |
CN112446591A (zh) | 一种用于学生综合能力评价的评价体系及零样本评价方法 | |
CN106779215B (zh) | 一种基于机器学习的电网全局延时态势感知方法 | |
CN112507479B (zh) | 一种基于流形学习和softmax的石油钻机健康状态评估方法 | |
CN113283282B (zh) | 一种基于时域语义特征的弱监督时序动作检测方法 | |
CN112163496A (zh) | 一种基于语义分割的嵌入式终端水库水位预警方法 | |
CN115438726A (zh) | 一种基于数字孪生技术的设备寿命与故障类型预测方法及系统 | |
CN110533007A (zh) | 一种桥梁车载应变影响线特征智能识别与提取方法 | |
CN115017970A (zh) | 一种基于迁移学习的用气行为异常检测方法及系统 | |
CN114048546A (zh) | 一种基于图卷积网络和无监督域自适应的航空发动机剩余使用寿命预测方法 | |
CN117520664A (zh) | 一种基于图神经网络的舆情检测方法及系统 | |
CN114295967A (zh) | 一种基于迁移神经网络的模拟电路故障诊断方法 | |
CN117218375B (zh) | 基于先验知识与数据驱动的环境能见度预测方法及设备 | |
CN117056678A (zh) | 一种基于小样本的机泵设备运行故障诊断方法及装置 | |
CN115497006B (zh) | 基于动态混合策略的城区遥感图像变化深度监测方法及系统 | |
CN116384814A (zh) | 基于机器学习对多因素影响下机场跑道容量的评估方法 | |
CN115758561A (zh) | 一种飞机飞行模拟参数数据的生成方法 | |
CN115579069A (zh) | scRNA-Seq细胞类型注释数据库的构建方法、装置及电子设备 | |
CN115170783A (zh) | 一种使用街景图像的快速公路路面裂缝检测方法 | |
CN112733728A (zh) | 一种能见度边缘计算方法、装置、电子设备及存储介质 | |
CN112560252A (zh) | 一种航空发动机剩余寿命预测方法 | |
CN117274903B (zh) | 基于智能ai芯片的电力巡检智能预警设备及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |