CN116578862A - 基于池化注意力的设施环境多步预测方法 - Google Patents
基于池化注意力的设施环境多步预测方法 Download PDFInfo
- Publication number
- CN116578862A CN116578862A CN202310550634.3A CN202310550634A CN116578862A CN 116578862 A CN116578862 A CN 116578862A CN 202310550634 A CN202310550634 A CN 202310550634A CN 116578862 A CN116578862 A CN 116578862A
- Authority
- CN
- China
- Prior art keywords
- attention
- pooled
- house
- prediction
- state vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000007613 environmental effect Effects 0.000 claims abstract description 32
- 238000013507 mapping Methods 0.000 claims abstract description 23
- 239000011159 matrix material Substances 0.000 claims abstract description 15
- 244000144977 poultry Species 0.000 claims abstract description 10
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 244000144972 livestock Species 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 7
- 230000008859 change Effects 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 14
- 238000000354 decomposition reaction Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 230000007704 transition Effects 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2123/00—Data types
- G06F2123/02—Data types in the time domain, e.g. time-series data
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/70—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Economics (AREA)
- Evolutionary Biology (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Entrepreneurship & Innovation (AREA)
- Development Economics (AREA)
- Agronomy & Crop Science (AREA)
- Animal Husbandry (AREA)
- Marine Sciences & Fisheries (AREA)
- Mining & Mineral Resources (AREA)
- Primary Health Care (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供一种基于池化注意力的设施环境多步预测方法及系统,该方法基于畜禽舍内的环境影响因素数据和舍内环境参量的历史数据进行训练,建立基于池化注意力的预测模型;通过预测模型对开始时刻T1到结束时刻T2获取的若干条环境影响因素数据和舍内环境参量进行编码,获取隐状态向量;使用池化注意力模块对舍内环境参量中的非稳定跃变特征进行提取,获取注意力矩阵;对注意力矩阵和隐状态向量进行特征融合解码,将解码后的输出映射为待预测的舍内环境参量。该方法充分利用禽舍多变量时间序列数据的信息进行建模,从序列不同维度的特征角度实现多步预测,在中长期时间序列预测任务中精度有显著提升。
Description
技术领域
本发明属于设施环境预测领域,更具体地,涉及基于池化注意力的神经网络的设施环境变化多步预测方法及模型。
背景技术
适宜的设施环境是实现设施农业高效生产的必要条件。对设施内的各种环境参数(如温度、湿度)进行预测,并依据预测结果生成调控方案,能够改善传统设施农业调控容易出现误差的问题,有效降低设施调控损耗,提升设施农业种植、养殖的经济效益。
目前,设施环境预测问题的处理方法可以被分为两类:一类是机理模型,此类模型主要是从物理模型的角度对温室设施环境进行建模,需要大量的试验对模型进行完善,建模成本较高,同时模型受温室结构、温室设施等因素影响较大,普适性较差,难以被大范围推广应用;第二类是基于数据驱动的系统辨识模型,此类模型的特点在于挖掘数据间的联系,构建各个影响因素与预测目标的对应关系,实现从历史数据到未来数据的推理,系统辨识模型中包括统计模型与机器学习模型。相比统计模型,以人工神经网络为代表的机器学习模型使用简单且适用场景丰富,在禽舍环境预测中具有较大潜力。
目前,国内外学者研究表明人工神经网络在设施环境预测方面切实可行,已有预测模型多数只能在单步预测或短期预测任务中表现良好,如果推广到中长期预测即多步预测,其误差迅速升高,且预测值会出现较大异常。如何实现高精度的设施的中长期预测,是本领域应用的主要难点。
发明内容
本发明的目的是针对畜禽舍内环境的预测问题,提出一种基于池化注意力的设施环境多步预测方法。该方法通过两阶段注意力编解码器神经网络完成趋势特征和当前状态的挖掘,然后利用挖掘到的特征实现高精度的畜禽舍内环境变化单步预测,使用映射式预测策略完成多步预测任务。
本发明的技术方案是:
一种基于池化注意力的设施环境多步预测方法,该方法基于畜禽舍内的环境影响因素数据和舍内环境参量的历史数据进行训练,建立基于池化注意力的预测模型;通过预测模型对开始时刻T1到结束时刻T2获取的若干条环境影响因素数据和舍内环境参量进行编码,获取隐状态向量;使用池化注意力模块对舍内环境参量中的非稳定跃变特征进行提取,获取注意力矩阵;对注意力矩阵和隐状态向量进行特征融合解码,将解码后的输出映射为待预测的舍内环境参量。
进一步地,该方法具体包括编码步骤、解码步骤和映射步骤:
编码步骤,将开始时刻T1到结束时刻T2的若干条环境影响因素数据Xt和舍内环境参量Yt作为输入序列,t表示时刻,采用堆叠时序分解单元进行编码获取多级稳定特征,拼接后获得输入序列的隐状态向量H;
解码步骤,使用池化注意力模块对舍内环境参量Yt中的非稳定跃变特征进行提取,得到注意力矩阵C并进行多头注意力处理;
对多头注意力处理后的注意力矩阵C与编码得到的隐状态向量H进行特征融合,采用MLP模块和LN模块对融合后的数据进行归一化,得到解码输出D;
映射步骤,采用全连接层对解码输出D进行解析,获得预测结果。
进一步地,堆叠时序分解单元采用m层堆叠的全连接网络模块FCNN,隐状态向量H采用下述公式获取:
H={h0,h1,…,hn-1}=FCNNm(Xt,Yt)
其中:H代表隐状态向量,h0,h1,…,hn-1代表经过编码器加工后的隐状态向量值,包含序列的稳定特征,n表示隐状态向量的长度;FCNN表示编码运算,m表示全连接网络模块的层数,t表示时刻,代表t时刻环境影响因素数据,k1表示环境影响因素的个数,/>代表t时刻舍内环境数据,k2表示舍内环境参量的个数,包括多个点位的未来温度和相对湿度数据。
进一步地,解码步骤中,序列非稳定跃变特征来源于禽舍内的环境调控设备的状态变化以及外界的气候变化,这些变化在产生时,会对目标序列产生影响,导致序列偏离稳定的状态。
进一步地,解码步骤采用下述公式:
其中,MaxPoolAttn()表示最大池化处理Max-Pooling Attention,MaxPoolAttn,MutilHeadAttn()表示多头注意力处理Mutil-Head Attention,MutilHeadAttn,MLP()表示MLP模块处理,LN()表示LN模处理块。
进一步地,映射步骤采用全连接层FC对解码输出D进行解析,实现到由解码输出到预测结果的映射,获取预测结果
其中,t∈(T2,T2+τ),FC()表示全连接层的映射处理,τ表示需要预测的未来时间的步长。
进一步地,畜禽舍内环境影响因素包括室外环境因素和舍内设备运行状态;所述的室外环境因素包括天气预报,所述的舍内设备运行状态包括设备开关状态。
进一步地,基于池化注意力的预测模型对历史数据的训练步骤与预测步骤相同,在训练过程中采用ADAM优化器学习参数,对预测模型的参数进行迭代更新。
进一步地,模型的学习率为0.0001,采用Linear方式进行更新,每100次学习率下降10%;模型的损失采用均方根误差RMSE。
本发明的有益效果:
本发明的方法充分利用设施环境多变量时间序列数据的信息进行建模,从序列不同维度的特征出发,进行映射式预测:
其一,基于设施环境数据的季节性、周期性特征明显,这些特征相对稳定,在任务中为预测数据提供了基准。在编码器部分,设计堆叠时序分解模块,对此类长期稳定性特征进行提取,输入的序列经过具有堆叠结构的多个全连接模块,逐层对序列进行分解、过滤,以提取长期稳定特征;
其二,基于设施环境受环境调控量和气候变化影响,禽舍环境序列中存在不稳定的跃变信息,这部分特征会影响序列中点位和片段预测情况。在解码器部分,设计池化注意力模块筛选较为活跃的注意力部分,对传统的点积注意力进行优化,降低模型复杂度的同时,提升模型对序列跃变信息的感知和提取能力。
本发明的方法能够实现对未来指定时间步长序列的预测,相比于其他多步预测方法在精准度方面有一定的提升,在中长期预测任务中简单有效。
本发明的解码部分设计池化注意力模块,对注意力状态进行筛选,简化了计算流程,降低模型计算时间。
本发明的其它特征和优点将在随后具体实施方式部分予以详细说明。
附图说明
通过结合附图对本发明示例性实施方式进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显,其中,在本发明示例性实施方式中,相同的参考标号通常代表相同部件。
图1示出了本发明基于池化注意力的设施环境多步预测系统结构图。
其中:编码器Encoder、解码器Decoder,映射层FC Layer。
具体实施方式
下面将参照附图更详细地描述本发明的优选实施方式。虽然附图中显示了本发明的优选实施方式,然而应该理解,可以以各种形式实现本发明而不应被这里阐述的实施方式所限制。
本发明提供一种基于池化注意力的设施环境多步预测方法,该方法基于畜禽舍内的环境影响因素数据和舍内环境参量的历史数据进行训练,建立基于池化注意力的预测模型;通过预测模型对开始时刻T1到结束时刻T2获取的若干条环境影响因素数据和舍内环境参量进行编码,获取隐状态向量;使用池化注意力模块对舍内环境参量中的非稳定跃变特征进行提取,获取注意力矩阵;对注意力矩阵和隐状态向量进行特征融合解码,将解码后的输出映射为待预测的舍内环境参量;具体包括编码步骤、解码步骤和映射步骤:
编码步骤,将开始时刻T1到结束时刻T2的若干条环境影响因素数据Xt和舍内环境参量Yt作为输入序列,t表示时刻,采用堆叠时序分解单元进行编码获取多级稳定特征,拼接后获得输入序列的隐状态向量H;堆叠时序分解单元采用m层堆叠的全连接网络模块FCNN,隐状态向量H采用下述公式获取:
H={h0,h1,…,hn-1}=FCNNm(Xt,Yt)
其中:H代表隐状态向量,h0,h1,…,hn-1代表经过编码器加工后的隐状态向量值,包含序列的稳定特征,n表示隐状态向量的长度;FCNN表示编码运算,m表示全连接网络模块的层数,t表示时刻,代表t时刻环境影响因素数据,k1表示环境影响因素的个数,/>代表t时刻舍内环境数据,k2表示舍内环境参量的个数,包括多个点位的未来温度和相对湿度数据。
解码步骤,使用池化注意力模块对舍内环境参量Yt中的非稳定跃变特征进行提取,得到注意力矩阵C并进行多头注意力处理;序列非稳定跃变特征来源于禽舍内的环境调控设备的状态变化以及外界的气候变化,这些变化在产生时,对目标序列产生影响,导致目标序列偏离稳定的状态;
对多头注意力处理后的注意力矩阵C与编码得到的隐状态向量H进行特征融合,采用MLP模块和LN模块对融合后的数据进行归一化,得到解码输出D;
其中,MaxPoolAttn()表示最大池化处理Max-Pooling Attention,MaxPoolAttn,MutilHeadAttn()表示多头注意力处理Mutil-Head Attention,MutilHeadAttn,MLP()表示MLP模块处理,LN()表示LN模处理块。
映射步骤,采用全连接层FC对解码输出D进行解析,实现到由解码输出到预测结果的映射,获取预测结果
其中,t∈(T2,T2+τ),FC()表示全连接层的映射处理,τ表示需要预测的未来时间的步长。
本发明的预测模型,模型总体设计为编解码器结构,由编码器与解码器部分组成:
编码器部分为具有堆叠结构的时序分解模块,该模块通过多个全连接模块的堆叠,实现了对输入序列的长期稳定性趋势特征提取,通过编码器,将此类特征转化到一个隐状态空间,用隐状态向量H表示。
解码器部分由池化注意力模块、多头注意力模块、MLP和LN模块组成。在该部分中,首先采用池化注意力模块实现对序列跃变特征的捕捉,得到注意力矩阵C。接下来通过一个多头注意力模块实现特征融合,MLP和LN模块实现对前面运算的归一化,得到解码器的输出D。
在解码器输出后,使用一个全连接层用于实现编码器输出到预测结果的映射。
模型的使用ADAM优化器学习参数。学习率设置为0.0001,模型迭代1000次,学习率采用Linear方式进行更新,每100次学习率下降10%。损失采用RMSE作为损失函数。
本发明的模型适用于设施环境多步时间序列预测任务。通过对禽舍内环境参数(如温度、湿度等)进行收集、加工与预处理,对记录进行时间对齐后,输入本发明基于池化注意力的设施环境多步预测模型。模型通过具有堆叠结构的时序分解编码器,对数据的长期稳定性特征进行提取,进一步的,在解码器中设计并使用池化注意力模块,对数据的短期跃变特征进行提取,最后通过全连接模块,实现对指定步长预测结果的映射。
具体实施时:
采集南京市溧水区禽舍的数据进行实验,采用本发明的基于池化注意力的设施环境多步预测方法(Pooling-Attention Forecasting),与现有技术的LSTM、DA-RNN、Informer方法对未来24、36和60个时间步的环境变化进行预测,结果如下表所示,
本方法能够实现对未来指定时间步长序列的预测。其中,在24步预测中的RMSE可达0.772,36步预测中的RMSE可达0.898,60步预测中的RMSE可达1.176,相比于其他多步预测方法在精准度方面有一定的提升。特别是中长期时间序列预测任务中,精度有显著提升。可以说明本模型在中长期预测任务中简单有效,为制定合理的小气候调控方案提供了依据。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。
Claims (9)
1.一种基于池化注意力的设施环境多步预测方法,其特征是,该方法基于畜禽舍内的环境影响因素数据和舍内环境参量的历史数据进行训练,建立基于池化注意力的预测模型;通过预测模型对开始时刻T1到结束时刻T2获取的若干条环境影响因素数据和舍内环境参量进行编码,获取隐状态向量;使用池化注意力模块对舍内环境参量中的非稳定跃变特征进行提取,获取注意力矩阵;对注意力矩阵和隐状态向量进行特征融合解码,将解码后的输出映射为待预测的舍内环境参量。
2.根据权利要求1所述的基于池化注意力的设施环境多步预测方法,其特征是该方法具体包括编码步骤、解码步骤和映射步骤:
编码步骤,将开始时刻T1到结束时刻T2的若干条环境影响因素数据Xt和舍内环境参量Yt作为输入序列,t表示时刻,采用堆叠时序分解单元进行编码获取多级稳定特征,拼接后获得输入序列的隐状态向量H;
解码步骤,使用池化注意力模块对舍内环境参量Yt中的非稳定跃变特征进行提取,得到注意力矩阵C并进行多头注意力处理;
对多头注意力处理后的注意力矩阵C与编码得到的隐状态向量H进行特征融合,采用MLP模块和LN模块对融合后的数据进行归一化,得到解码输出D;
映射步骤,采用全连接层对解码输出D进行解析,获得预测结果。
3.根据权利要求2所述的基于池化注意力的设施环境多步预测方法,其特征在于:堆叠时序分解单元采用m层堆叠的全连接网络模块FCNN,隐状态向量H采用下述公式获取:
H={h0,h1,…,hn-1}=FCNNm(Xt,Yt)
其中:H代表隐状态向量,h0,h1,…,hn-1代表经过编码器加工后的隐状态向量值,包含序列的稳定特征,n表示隐状态向量的长度;FCNN表示编码运算,m表示全连接网络模块的层数,t表示时刻,代表t时刻环境影响因素数据,k1表示环境影响因素的个数,/>代表t时刻舍内环境数据,k2表示舍内环境参量的个数,包括多个点位的未来温度和相对湿度数据。
4.根据权利要求2所述的基于池化注意力的设施环境多步预测方法,其特征在于:解码步骤中,序列非稳定跃变特征来源于禽舍内的环境调控设备的状态变化以及外界的气候变化。
5.根据权利要求2所述的基于池化注意力的设施环境多步预测方法,其特征在于解码步骤采用下述公式:
其中,MaxPoolAttn()表示最大池化处理Max-Pooling Attention,MaxPoolAttn,MutilHeadAttn()表示多头注意力处理Mutil-Head Attention,MutilHeadAttn,MLP()表示MLP模块处理,LN()表示LN模处理块。
6.根据权利要求2所述的基于池化注意力的设施环境多步预测方法,其特征在于映射步骤采用全连接层FC对解码输出D进行解析,实现到由解码输出到预测结果的映射,获取预测结果
其中,t∈(T2,T2+τ),FC()表示全连接层的映射处理,τ表示需要预测的未来时间的步长。
7.根据权利要求1所述的基于池化注意力的设施环境多步预测方法,其特征在于:畜禽舍内环境影响因素包括室外环境因素和舍内设备运行状态;所述的室外环境因素包括天气预报,所述的舍内设备运行状态包括设备开关状态。
8.根据权利要求1所述的基于池化注意力的设施环境多步预测方法,其特征在于:基于池化注意力的预测模型对历史数据的训练步骤与预测步骤相同,在训练过程中采用ADAM优化器学习参数,对预测模型的参数进行迭代更新。
9.根据权利要求1所述的基于池化注意力的设施环境多步预测方法,其特征在于:模型的学习率为0.0001,采用Linear方式进行更新,每100次学习率下降10%;模型的损失采用均方根误差RMSE。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310550634.3A CN116578862A (zh) | 2023-05-16 | 2023-05-16 | 基于池化注意力的设施环境多步预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310550634.3A CN116578862A (zh) | 2023-05-16 | 2023-05-16 | 基于池化注意力的设施环境多步预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116578862A true CN116578862A (zh) | 2023-08-11 |
Family
ID=87537306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310550634.3A Pending CN116578862A (zh) | 2023-05-16 | 2023-05-16 | 基于池化注意力的设施环境多步预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116578862A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118036830A (zh) * | 2024-04-11 | 2024-05-14 | 成都信息工程大学 | 多熟栽培模式下花魔芋产量预测方法 |
-
2023
- 2023-05-16 CN CN202310550634.3A patent/CN116578862A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118036830A (zh) * | 2024-04-11 | 2024-05-14 | 成都信息工程大学 | 多熟栽培模式下花魔芋产量预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108448610B (zh) | 一种基于深度学习的短期风功率预测方法 | |
CN110288136B (zh) | 风电功率多步预测模型建立方法 | |
CN116070799B (zh) | 一种基于注意力及深度学习的光伏发电量预测系统及方法 | |
CN112016736B (zh) | 基于门控卷积和注意力机制的光伏发电功率的控制方法 | |
CN116578862A (zh) | 基于池化注意力的设施环境多步预测方法 | |
CN114297907A (zh) | 温室环境空间分布预测方法及装置 | |
CN114118569A (zh) | 基于多模态多任务的Transformer网络的风电功率多步预测方法 | |
CN110619427A (zh) | 基于序列到序列学习模型的交通指数预测方法和装置 | |
CN117540908A (zh) | 基于大数据的农业资源整合方法和系统 | |
CN114676769A (zh) | 一种基于视觉Transformer的小样本昆虫图像识别方法 | |
CN116316573A (zh) | 一种基于非标准贝叶斯算法优化的短期电力负荷预测方法 | |
CN116384576A (zh) | 风速预测方法、装置、系统及存储介质 | |
CN117006654A (zh) | 基于边缘计算的空调负荷控制系统及其方法 | |
CN117349319A (zh) | 一种基于深度强化学习的数据库查询优化方法 | |
CN111612242A (zh) | 一种基于lstm深度学习模型的电机状态参数预测方法 | |
Li et al. | Temporal attention based tcn-bigru model for energy time series forecasting | |
CN114444811A (zh) | 一种基于注意力机制的铝电解混频数据过热度预测方法 | |
CN117852714A (zh) | 基于AFSA优化Transformer-GRU的非恒温数控车间短期温度预测方法 | |
CN114239971A (zh) | 基于Transformer注意力机制的日降水量预测方法 | |
CN113392137A (zh) | 基于双窗口机制的多变量时间序列数据预测模型 | |
CN113344243A (zh) | 基于改进哈里斯鹰算法优化elm的风速预测方法及系统 | |
CN116599036A (zh) | 一种基于TCN和Informer的两阶段非侵入式负荷分解方法 | |
CN115577647B (zh) | 电网故障类型识别方法与智能体构建方法 | |
CN117033923A (zh) | 一种基于可解释性机器学习的犯罪数量预测方法及系统 | |
CN116911419A (zh) | 一种基于趋势相关性特征学习的长时序预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |