CN115034514A - 一种基于元学习的小样本时序预测方法及系统 - Google Patents

一种基于元学习的小样本时序预测方法及系统 Download PDF

Info

Publication number
CN115034514A
CN115034514A CN202210796030.2A CN202210796030A CN115034514A CN 115034514 A CN115034514 A CN 115034514A CN 202210796030 A CN202210796030 A CN 202210796030A CN 115034514 A CN115034514 A CN 115034514A
Authority
CN
China
Prior art keywords
meta
model
task
network
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210796030.2A
Other languages
English (en)
Inventor
彭涛
肖锋
包铁
张雪松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202210796030.2A priority Critical patent/CN115034514A/zh
Publication of CN115034514A publication Critical patent/CN115034514A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Operations Research (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于元学习的小样本时序预测方法及系统,属于时序预测技术领域,所述基于元学习的小样本时序预测方法包括元训练阶段和元预测阶段,所述元训练阶段通过快速跨任务训练泛化可迁移使用的元知识,所述元预测阶段用于针对目标任务微调预测模型,提出利用基于元学习的训练机制通过跨任务训练获得有效且可迁移使用的元知识,提高模型的敏感性,以期模型在目标任务上可以快速收敛,并在预测阶段有好的预测性能,具有有效性、高敏感性、无损模型以及强鲁棒性的优点。

Description

一种基于元学习的小样本时序预测方法及系统
技术领域
本发明涉及时序预测技术领域,具体是涉及一种基于元学习的小样本时序预测方法及系统。
背景技术
时序预测是一项重要的研究课题,在金融、医疗、气象、交通运输、电力调度等民生领域有着极强的应用并发挥着关键的作用。自上个世纪90年代起,基于统计理论的预测方法在时序预测领域占据了主要地位;进入21世纪初,基于传统机器学习理论的时序预测方法开始有不错的表现;再后来,随着深度学习理论的发展和计算机算力的大幅提升,基于深度学习的方法在诸多有挑战的机器学习任务上表现突出,因此,利用深度学习理论解决时序预测问题成为了一个新的研究热点。
然而,在小样本场景下,例如罕见疾病的辅助诊断,电力系统新并入用户的电力预测等,由于训练数据不足,导致基于深度神经网络的模型在训练阶段遭遇严重的过拟合问题并在预测阶段无法发挥其应有的性能,基于深度神经网络的模型在小样本时序预测场景下的应用受到了极大的限制。因此,探究在小样本场景下的时序预测方法,缓解基于深度神经网络模型在小样本场景下的严重过拟合,对于解决相关领域问题有着重要的现实意义和应用价值。
因此,需要提供一种基于元学习的小样本时序预测方法及系统,旨在解决上述问题。
发明内容
针对现有技术存在的不足,本发明实施例的目的在于提供一种基于元学习的小样本时序预测方法及系统,以解决上述背景技术中的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于元学习的小样本时序预测方法,包括元训练阶段和元预测阶段,所述元训练阶段通过快速跨任务训练泛化可迁移使用的元知识,所述元预测阶段用于针对特定目标任务微调预测模型。
作为本发明进一步的方案,所述元训练阶段中定义训练任务集为DT,目标任务为y;θt,θm分别表示任务网络和元网络的模型参数;定义元模型Metamodel={Meta1,Meta2,…},那么元模型对应的参数为
Figure BDA0003731981620000021
元模型Metamodel由三个基于神经网络的模型组成,即
Figure BDA0003731981620000022
作为本发明进一步的方案,所述元训练阶段包括以下步骤:
S1、用随机参数向量θ初始化元模型M-CNN,即θM-CNN←θ;
S2、复制元模型M-CNN的模型参数θM-CNN到任务网络和元网络中,即θt←θM-CNN;θm←θM-CNN
S3、定义
Figure BDA0003731981620000023
是θt的参数化函数,从训练任务集DT中进行批量采样,得到任务集X,单个任务Ti={Si,Qi}∈X,其中,Si和Qi分别代表任务Ti的支持集和查询集;
S4、计算任务网络模型参数θt在任务Ti支持集Si上的损失
Figure BDA0003731981620000024
并更新任务网络参数;
S5、当前迭代步任务网络模型参数θt更新完成后,计算θt在任务集X中每个任务查询集上的损失
Figure BDA0003731981620000025
并求和;
S6、计算LQ的梯度而后更新元网络的参数向量θm
S7、任务网络和元网络从步骤S3开始进入下一次循环,直到整个过程遇到终止条件,元训练阶段结束。
作为本发明进一步的方案,所述S2步骤中的任务网络、元网络和M-CNN有完全一致的网络架构。
作为本发明进一步的方案,所述S4步骤中损失
Figure BDA0003731981620000031
计算公式为:
Figure BDA0003731981620000032
其中,α代表任务网络的学习率,并将任务Ti的查询集Qi并入集合Q中,即,Q←Q∪{Qi},初始时,Q为空集。
作为本发明进一步的方案,所述S5中损失
Figure BDA0003731981620000033
的计算公式为:
Figure BDA0003731981620000034
作为本发明进一步的方案,所述S6步骤中的参数向量θm的计算公式为:
Figure BDA0003731981620000035
作为本发明进一步的方案,所述元预测阶段包括以下步骤:
S8、从元网络中获取元知识ω*,其中,元知识ω*指的是元训练结束后元网络的模型参数θm,因此,θm将被用来赋值给元模型M-CNN;
S9、用目标任务y的支持集输入初始化元模型M-CNN;
S10、对初始化元模型M-CNN进行微调;
S11、用目标任务y的查询集去评估元模型M-CNN的性能。
作为本发明进一步的方案,所述S10中的微调过程为:
Figure BDA0003731981620000041
Figure BDA0003731981620000042
其中,
Figure BDA0003731981620000043
表示M-CNN在目标任务y支持集上的损失函数,
Figure BDA0003731981620000044
是θm的参数化函数。
一种基于元学习的小样本时序预测系统,包括
a)数据预处理:将数据集中的缺失值进行补全,对异常值进行识别与修复,对重复值进行过滤;
b)数据编码:利用编码器模块将时序数据集编码到同一维度;
c)模型训练:设定模型超参数,进行模型训练,直到程序遇到终止条件;
d)结果评价:用每个任务的查询集进行模型测试,计算评价指标RMSE和sMAPE;
e)模型保存:将符合预期的模型进行保存。
综上所述,本发明实施例与现有技术相比具有以下有益效果:
1)在四个不同的预测范围下,即H={10,20,30,40},Metamodel的预测性能一致优于Basemodel,从实验角度和统计学角度都证明了本发明提出的基于元学习的小样本时序预测机制的有效性;
2)在四个不同的预测范围下,即H={10,20,30,40},在不发生模型性能退化的情况下,相比于Basemodel,Metamodel有更小的训迭代次数,这表明通过基于元学习的跨任务训练机制,在提高模型敏感性的同时并没有损害模型的预测性能;
3)通过模型敏感性分析,证明本发明提出的基于元学习的小样本预测机制对于预测范围和数据规模有较强的鲁邦性。
为更清楚地阐述本发明的结构特征和功效,下面结合附图与具体实施例来对本发明进行详细说明。
附图说明
图1为发明实施例的预测方法的流程图。
图2为发明实施例中双向GRU编码器工作图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下结合具体实施例对本发明的具体实现进行详细描述。
在本发明的一个实施例中,参见图1,所述一种基于元学习的小样本时序预测方法及系统,包括元训练阶段和元预测阶段,所述元训练阶段通过快速跨任务训练泛化可迁移使用的元知识,所述元预测阶段用于针对特定目标任务微调预测模型。
所述元训练阶段中定义训练任务集为DT,目标任务为y;θt,θm分别表示任务网络和元网络的模型参数;定义元模型Metamodel={Meta1,Meta2,…},那么元模型对应的参数为
Figure BDA0003731981620000051
元模型Metamodel由三个基于神经网络的模型组成,即
Figure BDA0003731981620000052
为了简化描述符号,后续的整个过程以M-CNN为例进行叙述,其他的元模型有相同的训练过程。
所述元训练阶段具体包括以下步骤:
S1、用随机参数向量θ初始化元模型M-CNN,即θM-CNN←θ;
S2、复制元模型M-CNN的模型参数θM-CNN到任务网络和元网络中,即θt←θM-CNN;θm←θM-CNN,其中,此时的任务网络、元网络和M-CNN有完全一致的网络架构;
S3、定义
Figure BDA0003731981620000065
是θt的参数化函数,从训练任务集DT中进行批量采样,得到任务集X,单个任务Ti={Si,Qi}∈X,其中,Si和Qi分别代表任务Ti的支持集和杳询集;
S4、计算任务网络模型参数θt在任务Ti支持集Si上的损失
Figure BDA0003731981620000061
并更新任务网络参数,并更新任务网络参数,如公式(1)所示,其中,α代表任务网络的学习率,并将任务Ti的查询集Qi并入集合Q中,即,Q←Q∪{Qi},初始时,Q为空集,
Figure BDA0003731981620000062
因为S3步骤中采样得到的是一个任务集,因此对X中的每个任务执行S4步骤的操作,整个S4步骤便是快速跨任务训练在元训练阶段的具体实现,跨任务体现在整个训练任务集本身就来自于14个不同领域时序数据集,而快速则是每个任务每次在任务网络上迭代很少的次数,在本发明实验中设置为5次,即每次循环中,每个任务的查询集仅仅更新任务网络5次;
S5、当前迭代步任务网络模型参数θt更新完成后,计算θt在任务集X中每个任务查询集上的损失
Figure BDA0003731981620000063
并求和,如公式(2)所示:
Figure BDA0003731981620000064
S6、计算LQ的梯度而后更新元网络的参数向量θm,如公式(3)所示,其中β代表元网络的学习率。第6步是整个元训练阶段最核心的部分,也是元网络泛化元知识的具体体现,在S6步骤的操作中,元网络是在多个任务的损失和方向上进行梯度下降,这样做的目的在于,元网络每优化一次,不是去接近单个任务的最优解,而是向多个不同任务最优解的方向同时去靠近,如此训练方式下获得的模型初始化参数,即是本发明所指的对不同任务能提供信息增益的元知识,
Figure BDA0003731981620000071
Figure BDA0003731981620000072
S7、任务网络和元网络从步骤S3开始进入下一次循环,直到整个过程遇到终止条件,元训练阶段结束。
所述元预测阶段包括以下步骤:
S8、从元网络中获取元知识ω*,其中,元知识ω*指的是元训练结束后元网络的模型参数θm,因此,θm将被用来赋值给元模型M-CNN,元学习一般的训练目标如公式(4)所示,
Figure BDA0003731981620000073
S9、用目标任务y的支持集输入初始化元模型M-CNN;
S10、对初始化元模型M-CNN进行微调,微调过程如公式(6)所示,其中,θ*代表模型的最优参数向量,
Figure BDA0003731981620000074
代表目标任务的支持集,
Figure BDA0003731981620000075
表示M-CNN在目标任务y支持集上的损失函数,
Figure BDA0003731981620000076
是θm的参数化函数。
Figure BDA0003731981620000077
Figure BDA0003731981620000078
S11、用目标任务y的查询集去评估元模型M-CNN的性能。
相比于FIRST-ORDER MAML算法直接使用任务网络的学习率α作为微调阶段的学习率,我们在微调阶段引入一个新的学习率Y去精细地控制微调这一过程,这一改变主要基于以下两点:(1)元训练阶段和元测试阶段的学习目标是不一致的;在元训练阶段,模型的主要目标是通过特殊的训练机制获得一组对于任务改变敏感的模型参数;而在元测试阶段,我们期待模型在新任务上通过少量样本能在目标任务快速泛化;显然,我们并不担心元训练阶段的模型是否会发生过拟合问题,因为元训练阶段每个任务的支持集在一轮任务迭代中仅仅更新模型参数5次(任务网络更新频次),而在元测试阶段,目标任务的支持集会被计算多次直到模型收敛;因此,在元测试阶段发生过拟合问题将对模型的预测性能产生显著的影响。相比之下,我们更希望在元测试阶段有一个比α更大的学习率去减少训练次数,避免可能发生的过拟合问题。在参数微调的过程中也证明了在这个阶段更大的学习率对于后续的预测是有益的;(2)引入新的学习率γ是为了保证Metamode与Basemodel的实验可比性;本质上,Metamodel与Basemodel的差异在于模型参数的初始化过程不同,Basemodel的参数初始化是直接由程序的默认设置完成的,而Metamodel的初始化参数是通过元训练阶段学习而来的;因此,如果本发明想证明元训练阶段得到的模型参数给Metamodel带来了有效的信息增益,那么其他过程及实验参数应该保持一致;而如果不引入新的参数,那么Basemodel的学习率应该和α保持一致,这显然是不合理的。基于此,本发明在元测试阶段引入新的学习率γ和Basemodel训练过程中的学习率保持一致。
为进行跨任务训练,双向门控循环单元(Bidirectional GRU networks)作为共享编码器,将不同领域时序数据集的时序记录编码到同一维度。如图(2)所示,每条时序记录由双向GRU编码器编码得到新的表征
Figure BDA0003731981620000081
其中
Figure BDA0003731981620000082
表示双向GRU网络的前向隐状态,见公式(7);
Figure BDA0003731981620000083
表示双向GRU网络的后向隐状态,见公式(8);拼接
Figure BDA0003731981620000091
Figure BDA0003731981620000092
得到每条时序记录的新表征ht
Figure BDA0003731981620000093
Figure BDA0003731981620000094
在使用双向GRU编码的过程中,每条时序记录被分为两个部分,如图(2)中所示,分别是历史时序部分和预测时序部分,需要注意的是,这里仅仅将历史时序部分作为被编码的对象,并未对预测时序进行编码操作。这样做的目的是防止预测信息泄露,因为所使用的编码器为双向GRU网络,如果在此阶段将预测时序部分也进行编码,会导致预测时序中的信息弥散到整个新表征ht中,进而造成严重的信息泄露,无法对后续预测结果进行评估。通过双向GRU网络,不仅可以保证原先时序记录的时间因果顺序,而且每个数据点都是整条历史时序中过去和未来信息在当前时刻的表征,这对于后续的预测任务是非常有益的。在本发明的所有实验中,ht作为所有预测模型的初始输入。
在本发明的一个实施例中,所述一种基于元学习的小样本时序预测系统,包括以下步骤:
a)数据预处理:需要将数据集中的缺失值进行补全,需要对异常值进行识别与修复,需要对重复值进行过滤;
b)数据编码:利用本发明中的编码器模块将时序数据集编码到同一维度,具体操作为将需要编码的时序数据放到指定目录下,将该目录提供给编码器,并设定预测范围,和编码数据输出目录,运行程序,会自动完成编码操作,编码结束后,会提示编码结束;
c)模型训练:设定模型超参数,进行模型训练,直到程序遇到终止条件;
d)结果评价:用每个任务的查询集进行模型测试,计算评价指标RMSE和sMAPE;
e)模型保存:将符合预期的模型进行保存。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于元学习的小样本时序预测方法,其特征在于,包括元训练阶段和元预测阶段,所述元训练阶段通过快速跨任务训练泛化可迁移使用的元知识,所述元预测阶段用于针对目标任务微调预测模型。
2.根据权利要求1所述的基于元学习的小样本时序预测方法,其特征在于,所述元训练阶段中定义训练任务集为DT,目标任务为y;θt,θm分别表示任务网络和元网络的模型参数;定义元模型Metamodel={Meta1,Meta2,…},那么元模型对应的参数为
Figure FDA0003731981610000011
元模型Metamodel由三个基于神经网络的模型组成,即
Figure FDA0003731981610000012
3.根据权利要求2所述的基于元学习的小样本时序预测方法,其特征在于,所述元训练阶段包括以下步骤:
S1、用随机参数向量θ初始化元模型M-CNN,即θM-CNN←θ;
S2、复制元模型M-CNN的模型参数θM-CNM到任务网络和元网络中,即θt←θM-CNN;θm←θM-CNN
S3、定义
Figure FDA0003731981610000014
是θt的参数化函数,从训练任务集DT中进行批量采样,得到任务集X,单个任务Ti={Si,Qi}∈X,其中,Si和Qi分别代表任务Ti的支持集和杳询集;
S4、计算任务网络模型参数θt在任务Ti支持集Si上的损失
Figure FDA0003731981610000013
并更新任务网络参数;
S5、当前迭代步任务网络模型参数θt更新完成后,计算θt在任务集X中每个任务查询集上的损失
Figure FDA0003731981610000021
并求和;
S6、计算LQ的梯度而后更新元网络的参数向量θm
S7、任务网络和元网络从步骤S3开始进入下一次循环,直到整个过程遇到终止条件,元训练阶段结束。
4.根据权利要求3所述的基于元学习的小样本时序预测方法,其特征在于,所述S4步骤中损失
Figure FDA0003731981610000022
计算公式为:
Figure FDA0003731981610000023
其中,α代表任务网络的学习率,并将任务Ti的查询集Qi并入集合Q中,即,Q←Q∪{Qi},初始时,Q为空集。
5.根据权利要求3所述的基于元学习的小样本时序预测方法,其特征在于,所述S5中损失
Figure FDA0003731981610000024
的计算公式为:
Figure FDA0003731981610000025
6.根据权利要求3所述的基于元学习的小样本时序预测方法,其特征在于,所述S6步骤中的参数向量θm的计算公式为:
Figure FDA0003731981610000026
Figure FDA0003731981610000027
7.根据权利要求3所述的基于元学习的小样本时序预测方法,其特征在于,所述元预测阶段包括以下步骤:
S8、从元网络中获取元知识ω*,其中,元知识ω*指的是元训练结束后元网络的模型参数θm,因此,θm将被用来赋值给元模型M-CNN;
S9、用目标任务y的支持集输入初始化元模型M-CNN;
S10、对初始化元模型M-CNN进行微调;
S11、用目标任务y的查询集去评估元模型M-CNN的性能。
8.根据权利要求7所述的基于元学习的小样本时序预测方法,其特征在于,所述S10中的微调过程为:
Figure FDA0003731981610000031
Figure FDA0003731981610000032
其中,
Figure FDA0003731981610000033
表示M-CNN在目标任务y支持集上的损失函数,
Figure FDA0003731981610000034
是θm的参数化函数。
9.一种基于元学习的小样本时序预测系统,其特征在于,包括以下步骤:
a)数据预处理:将数据集中的缺失值进行补全,对异常值进行识别与修复,对重复值进行过滤;
b)数据编码:利用编码器模块将时序数据集编码到同一维度;
c)模型训练:设定模型超参数,进行模型训练,直到程序遇到终止条件;
d)结果评价:用每个任务的查询集进行模型测试,计算评价指标RMSE和sMAPE;
e)模型保存:将符合预期的模型进行保存。
CN202210796030.2A 2022-07-06 2022-07-06 一种基于元学习的小样本时序预测方法及系统 Pending CN115034514A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210796030.2A CN115034514A (zh) 2022-07-06 2022-07-06 一种基于元学习的小样本时序预测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210796030.2A CN115034514A (zh) 2022-07-06 2022-07-06 一种基于元学习的小样本时序预测方法及系统

Publications (1)

Publication Number Publication Date
CN115034514A true CN115034514A (zh) 2022-09-09

Family

ID=83128024

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210796030.2A Pending CN115034514A (zh) 2022-07-06 2022-07-06 一种基于元学习的小样本时序预测方法及系统

Country Status (1)

Country Link
CN (1) CN115034514A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115409124A (zh) * 2022-09-19 2022-11-29 小语智能信息科技(云南)有限公司 基于微调原型网络的小样本敏感信息识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109902862A (zh) * 2019-02-13 2019-06-18 北京航空航天大学 一种融合时间注意力机制的时间序列预测系统
CN109978228A (zh) * 2019-01-31 2019-07-05 中南大学 一种pm2.5浓度预测方法、装置及介质
CN112863549A (zh) * 2021-01-20 2021-05-28 广东工业大学 一种基于元-多任务学习的语音情感识别方法及装置
CN113360848A (zh) * 2021-06-04 2021-09-07 北京工商大学 一种时序数据预测方法及装置
CN113835964A (zh) * 2021-09-26 2021-12-24 湘潭大学 基于小样本学习的云数据中心服务器能耗预测方法
CN114239718A (zh) * 2021-12-15 2022-03-25 杭州电子科技大学 基于多元时序数据分析的高精度长期时间序列预测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109978228A (zh) * 2019-01-31 2019-07-05 中南大学 一种pm2.5浓度预测方法、装置及介质
CN109902862A (zh) * 2019-02-13 2019-06-18 北京航空航天大学 一种融合时间注意力机制的时间序列预测系统
CN112863549A (zh) * 2021-01-20 2021-05-28 广东工业大学 一种基于元-多任务学习的语音情感识别方法及装置
CN113360848A (zh) * 2021-06-04 2021-09-07 北京工商大学 一种时序数据预测方法及装置
CN113835964A (zh) * 2021-09-26 2021-12-24 湘潭大学 基于小样本学习的云数据中心服务器能耗预测方法
CN114239718A (zh) * 2021-12-15 2022-03-25 杭州电子科技大学 基于多元时序数据分析的高精度长期时间序列预测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
桑海峰等: ""基于双向门控循环单元的3D人体运动预测"", 《电子与信息学报》, vol. 41, no. 9, 30 September 2019 (2019-09-30), pages 2256 - 2263 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115409124A (zh) * 2022-09-19 2022-11-29 小语智能信息科技(云南)有限公司 基于微调原型网络的小样本敏感信息识别方法

Similar Documents

Publication Publication Date Title
Park et al. BlinkML: Efficient maximum likelihood estimation with probabilistic guarantees
Guo et al. A fully-pipelined expectation-maximization engine for Gaussian mixture models
CN116502774B (zh) 一种基于时间序列分解和勒让德投影的时间序列预测方法
CN110838364A (zh) 一种基于深度学习混合模型的克罗恩病预测方法及装置
CN113920379B (zh) 一种基于知识辅助的零样本图像分类方法
CN112735541A (zh) 一种基于简单循环单元神经网络的污水处理水质预测方法
CN115034514A (zh) 一种基于元学习的小样本时序预测方法及系统
CN111476272A (zh) 一种基于结构约束对称低秩保留投影的降维方法
Ryoo et al. Token turing machines
CN116150190A (zh) 基于树型qrnn的数据库查询优化处理方法及系统
CN117094451A (zh) 一种耗电量的预测方法、装置及终端
Defazio et al. The Road Less Scheduled
Sood et al. Neunets: An automated synthesis engine for neural network design
CN111612152B (zh) 一种量子计算机的模拟控制方法、系统及相关组件
Huang et al. In-Context Decision Transformer: Reinforcement Learning via Hierarchical Chain-of-Thought
CN117521063A (zh) 基于残差神经网络并结合迁移学习的恶意软件检测方法及装置
CN116737521A (zh) 一种基于自监督对比学习的hpc作业功耗预测方法及系统
CN116628444A (zh) 一种基于改进元学习的水质预警方法
CN115545168A (zh) 基于注意力机制和循环神经网络的动态QoS预测方法及系统
Wu et al. Improved saddle point prediction in stochastic two-player zero-sum games with a deep learning approach
Fang et al. A query-level distributed database tuning system with machine learning
CN113095328A (zh) 一种基尼指数引导的基于自训练的语义分割方法
CN110648183A (zh) 基于灰色关联及qgnn的居民消费价格指数预测方法
CN111931994A (zh) 一种短期负荷及光伏功率预测方法及其系统、设备、介质
CN111523685A (zh) 基于主动学习的降低性能建模开销的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination