CN113344196A - 预测模型的训练方法、装置、计算机设备及存储介质 - Google Patents
预测模型的训练方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113344196A CN113344196A CN202110610089.3A CN202110610089A CN113344196A CN 113344196 A CN113344196 A CN 113344196A CN 202110610089 A CN202110610089 A CN 202110610089A CN 113344196 A CN113344196 A CN 113344196A
- Authority
- CN
- China
- Prior art keywords
- data
- prediction model
- stream data
- online
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 197
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000005070 sampling Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 17
- 238000013145 classification model Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 23
- 230000008859 change Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000001960 triggered effect Effects 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 230000003068 static effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 101100261006 Salmonella typhi topB gene Proteins 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 101150032437 top-3 gene Proteins 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
Abstract
本公开提出一种预测模型的训练方法、装置、计算机设备及存储介质,该方法包括获取当前流数据和线上预测模型;如果当前流数据发生概念漂移,则确定概念漂移的程度值;以及根据概念漂移的程度值,结合当前流数据和目标流数据对线上预测模型进行在线训练,以得到目标预测模型;其中,目标流数据,是从多个历史流数据之中采样得到的。通过本公开能够兼顾预测模型对新知识的学习速度,和避免灾难性遗忘的发生,有效地提升预测模型的预测性能和预测稳定性,使得预测模型能够持续地满足智能场景中的预测需求,提升预测模型的预测效果。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及一种预测模型的训练方法、装置、计算机设备及存储介质。
背景技术
在建设智慧城市的项目中,可能会使用大量的人工智能模型建构各种智能场景,如人流量预测、车流量预测,空气质量预测和监测预警等,这些模型处理的输入数据通常以流的形式产生,而随着数据产生的时间和环境的变化,数据的分布和所反映的信息也会发生变化。这种的分布或携带的信息随着时间的推移而发生变化的现象,被称为概念漂移。而数据的概念漂移,会引起人工智能模型的性能下降,导致静态的人工智能模型无法持续地满足智能场景中的预测需求,从而影响人工智能模型的预测效果。
相关技术中,在参考数据的概念漂移来辅助对预测模型进行训练时,不能够兼顾预测性能和预测稳定性,从而影响预测模型的线上预测效果。
发明内容
本公开旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本公开的目的在于提出一种预测模型的训练方法、装置、计算机设备及存储介质,能够兼顾预测模型对新知识的学习速度,和避免灾难性遗忘的发生,有效地提升预测模型的预测性能和预测稳定性,使得预测模型能够持续地满足智能场景中的预测需求,提升预测模型的预测效果。
为达到上述目的,本公开第一方面实施例提出的预测模型的训练方法,包括:获取当前流数据和线上预测模型;如果所述当前流数据发生概念漂移,则确定概念漂移的程度值;以及根据所述概念漂移的程度值,结合所述当前流数据和目标流数据对所述线上预测模型进行在线训练,以得到目标预测模型;其中,所述目标流数据,是从多个历史流数据之中采样得到的。
本公开第一方面实施例提出的预测模型的训练方法,通过结合概念漂移的程度值来确定线上预测模型训练的训练时机,从而支持在线学习过程中,如果当前流数据的概念漂移程度较大,则实现使得在线训练过程具有较快的模型学习速度,使模型快速掌握产生概念漂移的流数据所表征的新知识,以保证预测模型的线上实时表现;而如果当前流数据的概念漂移程度较小,则使得在线训练过程保持相对较低的学习速率,以防止灾难性遗忘的发生,从而全面地兼顾预测模型对新知识的学习速度,和预测模型的稳定性能,使得预测模型能够持续地满足智能场景中的预测需求,提升预测模型的预测效果。
为达到上述目的,本公开第二方面实施例提出的预测模型的训练装置,包括:获取模块,用于获取当前流数据和线上预测模型;第一确定模块,用于在所述当前流数据发生概念漂移时,确定概念漂移的程度值;以及训练模块,用于根据所述概念漂移的程度值,结合所述当前流数据和目标流数据对所述线上预测模型进行在线训练,以得到目标预测模型;其中,所述目标流数据,是从多个历史流数据之中采样得到的。
本公开第二方面实施例提出的预测模型的训练装置,通过结合概念漂移的程度值来确定线上预测模型训练的训练时机,从而支持在线学习过程中,如果当前流数据的概念漂移程度较大,则实现使得在线训练过程具有较快的模型学习速度,使模型快速掌握产生概念漂移的流数据所表征的新知识,以保证预测模型的线上实时表现;而如果当前流数据的概念漂移程度较小,则使得在线训练过程保持相对较低的学习速率,以防止灾难性遗忘的发生,从而全面地兼顾预测模型对新知识的学习速度,和预测模型的稳定性能,使得预测模型能够持续地满足智能场景中的预测需求,提升预测模型的预测效果。
本公开第三方面实施例提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如本公开第一方面实施例提出的预测模型的训练方法。
本公开第四方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本公开第一方面实施例提出的预测模型的训练方法。
本公开第五方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行如本公开第一方面实施例提出的预测模型的训练方法。
本公开附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本公开的实践了解到。
附图说明
本公开上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本公开一实施例提出的预测模型的训练方法的流程示意图;
图2是本公开一实施例提出的预测模型的训练装置的架构示意图;
图3是本公开另一实施例提出的预测模型的训练方法的流程示意图;
图4是本公开另一实施例提出的预测模型的训练方法的流程示意图;
图5是本公开另一实施例提出的预测模型的训练方法的流程示意图;
图6是本公开另一实施例提出的预测模型的训练装置的架构示意图;
图7是本公开一实施例提出的预测模型的训练装置的结构示意图;
图8是本公开另一实施例提出的预测模型的训练装置的结构示意图;
图9示出了适于用来实现本公开实施方式的示例性计算机设备的框图。
具体实施方式
下面详细描述本公开的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本公开,而不能理解为对本公开的限制。相反,本公开的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
图1是本公开一实施例提出的预测模型的训练方法的流程示意图。
其中,需要说明的是,本实施例的预测模型的训练方法的执行主体为预测模型的训练装置,该装置可以由软件和/或硬件的方式实现,该装置可以配置在电子设备中,电子设备可以包括但不限于终端、服务器端等。
其中,用于对智慧城市场景中进行人流量预测、车流量预测,空气质量预测和监测预警等的人工智能模型,可以被称为预测模型,而人工智能模型可以例如为神经网络模型、机器学习模型等等,对此不做限制。
本公开实施例中,正是为了解决相关技术中在参考数据的概念漂移来辅助对预测模型进行训练时,不能够兼顾预测性能和预测稳定性,从而影响预测模型的线上预测效果的技术问题,提供了一种预测模型的训练方法,能够兼顾预测模型对新知识的学习速度,和避免灾难性遗忘的发生,有效地提升预测模型的预测性能和预测稳定性,使得预测模型能够持续地满足智能场景中的预测需求,提升预测模型的预测效果。
如图1所示,该预测模型的训练方法包括:
S101:获取当前流数据和线上预测模型。
其中,线上环境中用于对智慧城市场景中进行人流量预测、车流量预测,空气质量预测和监测预警等的预测模型,可以被称为线上预测模型,也即是说,该线上预测模型是已部署在场景中并执行相应的预测任务的预测模型。
其中,当前流数据,可以是当前时间点所采集的流数据,该流数据,是指以流的形式产生,而随着数据产生的时间和环境的变化,数据的分布和所反映的信息也会发生变化的数据,该流数据可以被用于作为线上预测模型的输入,以触发其执行相应的预测任务,则本公开实施例中,可以支持动态地采集当前流数据,支持直接根据当前流数据发生概念漂移的程度来对线上预测模型进行在线训练,利用持续获取的当前流数据及对历史流数据采样得到的目标流数据组成新的训练用样本的流数据,以触发进行预测模型在线训练,保证线上预测模型的预测表现能力,以及控制线上预测模型的训练速度。
S102:如果当前流数据发生概念漂移,则确定概念漂移的程度值。
上述在获取当前流数据和线上预测模型之后,可以实时地判断当前流数据是否发生概念漂移,如果当前流数据发生概念漂移,则确定概念漂移的程度值,该概念漂移的程度值指示:当前流数据发生概念漂移的程度情况。
举例而言,可以将当前流数据和多个历史流数据进行比对,获得当前流数据和多个历史流数据之间的变化情况,而后可以对该变化情况进行量化处理,得到概念漂移的程度值,并将概念漂移的程度值与一个设定的概念漂移程度阈值进行比对,根据比对的结果来确定是否触发对预测模型进行在线训练。
也即是说,本公开实施例通过结合概念漂移的程度值来确定线上预测模型训练的训练时机,从而支持在线学习过程中,如果当前流数据的概念漂移程度较大,则实现使得在线训练过程具有较快的模型学习速度,使模型快速掌握产生概念漂移的流数据所表征的新知识,以保证预测模型的线上实时表现;而如果当前流数据的概念漂移程度较小,则使得在线训练过程保持相对较低的学习速率,以防止灾难性遗忘的发生,从而全面地兼顾预测模型对新知识的学习速度,和预测模型的稳定性能。
S103:根据概念漂移的程度值,结合当前流数据和目标流数据对线上预测模型进行在线训练,以得到目标预测模型;其中,目标流数据,是从多个历史流数据之中采样得到的。
上述在确定概念漂移的程度值之后,可以依据概念漂移的程度值自适应地触发结合当前流数据和目标流数据对线上预测模型进行在线训练,以得到目标预测模型。
其中,训练得到的预测模型,可以被称为目标预测模型。
其中,历史流数据可以理解为:与当前流数据对应一个当前时间点,在当前时间点之前,通常随着时间的推移,真实场景之中会源源不断地产生流式的数据,从而当前时间点之间所积累得到的多个流数据,可以被称为历史流数据。
本实施例中,通过结合概念漂移的程度值来确定线上预测模型训练的训练时机,从而支持在线学习过程中,如果当前流数据的概念漂移程度较大,则实现使得在线训练过程具有较快的模型学习速度,使模型快速掌握产生概念漂移的流数据所表征的新知识,以保证预测模型的线上实时表现;而如果当前流数据的概念漂移程度较小,则使得在线训练过程保持相对较低的学习速率,以防止灾难性遗忘的发生,从而全面地兼顾预测模型对新知识的学习速度,和预测模型的稳定性能,使得预测模型能够持续地满足智能场景中的预测需求,提升预测模型的预测效果。
举例说明如下,如图2所示,图2是本公开一实施例提出的预测模型的训练装置的架构示意图。本公开下述实施例的描述可以一并结合图2所示,对此不做限制。其中,
数据池:可以被用于存储全部的历史流数据。
实时数据单元:线上实时流数据输入的单元,该实时数据单元可以接收实时的流数据输入,并将实时的流数据输入到推理服务单元,进行模型推理,同时,也将接收的实时的流数据输入数据漂移监测单元,用以计算实时的流数据是否发生概念漂移。
回放缓存池:用以存储最新的多个历史流数据,该多个历史流数据可以具体是上述数据池之中全部的历史流数据中的部分流数据,在线学习模块可以从回放缓存池采样得到目标流数据,进行预测模型的在线训练。
训练用的样本流数据:可以是从数据池中随机选取的,对初始的预测模型进行离线训练,从而将训练得到的预测模型推送至模型仓库。
模型训练:利用训练用的样本流数,初始的预测模型进行离线训练,从而将训练得到的预测模型推送至模型仓库,而在实际预测场景之中,通过将模型仓库之中最新的预测模型推送至推理服务单元,以进行线上预测,从而推理服务单元提供推理服务时所采用的预测模型,可以被称为线上预测模型。
数据漂移检测数据集:接收当前流数据,并进行缓存,用于确定是否发生概念漂移,以及概念漂移的程度值,并参考概念漂移的程度值辅助进行线上预测模型的在线学习。
概念漂移评估模块:利用数据漂移监测单元的接收的当前流数据,计算当前流数据相对于历史流数据的概念漂移的程度值,用以判断当前流数据的概念漂移的程度值是否大于概念漂移程度阈值。
在线学习模块:数据池的在线数据、回放缓存池、概念漂移的程度值,对预测模型进行在线训练,并将训练得到的预测模型,传输至模型仓库,同时在线学习使用的当前流数据同步至回放缓存池中。
模型仓库:存储离线训练得到的预测模型和在线训练得到的预测模型。
推理服务单元:从模型仓库获取最新的预测模型,利用最新的预测模型,对线上数据进行模型推理,输出预测结果。
图3是本公开另一实施例提出的预测模型的训练方法的流程示意图,针对图3的描述说明,可以一并结合上述图2,包括:
S301:获取当前流数据和线上预测模型。
可以采用上述图2中的模型训练单元,利用数据池中全部的历史流数据,进行离线模型训练,训练得到预测模型,其将作为之后在线训练的模型基础,同时模型训练单元会将预测模型传输至模型仓库之中。
由上述图2中的推理服务单元,从模型仓库获取最新的预测模型,用以作为系统的推理模型。
S302:如果当前流数据发生概念漂移,则确定概念漂移的程度值。
可以由实时数据单元将接收的实时的流数据输入数据漂移监测单元,用以计算实时的流数据是否发生概念漂移,以及如果当前流数据发生概念漂移,则确定概念漂移的程度值。
S303:如果概念漂移的程度值大于或者等于概念漂移程度阈值,则参考设定规则从回放缓存池已存储的历史流数据之中采样得到目标流数据。
例如,可以采用当前流数据和历史流数据进行比对,以进行数据漂移的程度的检测,假设漂移检测的判断门限值设置为Th(该Th则可以被称为概念漂移程度阈值),如果漂移检测输出(漂移检测输出可以具体是概念漂移的程度值大于或者等于概念漂移程度阈值)Th,则参考设定规则从回放缓存池已存储的历史流数据之中采样得到目标流数据。
S304:根据当前流数据和目标流数据对线上预测模型进行在线训练。
可选地,可以根据当前流数据和目标流数据对线上预测模型在线训练第一设定次数,其中,第一设定次数是设定次数范围之中的最大值。
其中,如果当前流数据的概念漂移的程度值大于或者等于概念漂移程度阈值,则可以触发直接对线上预测模型进行在线训练,并训练设定的次数,该设定的次数,可以被称为第一设定次数。
举例而言,若当前流数据的概念漂移的程度值大于或者等于概念漂移程度阈值,则可以直接触发对线上预测模型进行在线训练,训练迭代次数为Inc_Train_Num(该训练迭代次数为Inc_Train_Num,即可以被称为第一设定次数),从而能够有效地保证预测模型能够快速响应流数据的分布发生的变化。
上述的第一设定次数是设定次数范围之中的最大值。
S305:如果概念漂移的程度值小于概念漂移程度阈值,则将当前流数据存储至回放缓存池之中,并确定回放缓存池中已存储流数据的数据量是否满足设定条件。
例如,如果漂移检测输出(漂移检测输出可以具体是概念漂移程度值)小于概念漂移程度阈值Th,则可以将当前流数据存储至回放缓存池之中,并确定回放缓存池中已存储流数据的数据量。
S306:如果数据量不满足设定条件,则持续获取当前流数据,并动态地对数据量进行更新。
而设定条件可以是数据量已达到回放缓存池所能够存储的最大数据量,对此不做限制。
也即是说,如果当前流数据的概念漂移的程度值小于概念漂移程度阈值,则将当前流数据存储至回放缓存池之中,并实时地确定回放缓存池中已存储流数据的数据量,如果数据量未达到回放缓存池所能够存储的最大数据量,则持续获取当前流数据,并动态地对数据量进行更新。
S307:如果数据量满足设定条件,则参考设定规则从回放缓存池已存储的历史流数据之中采样得到目标流数据,并根据目标流数据对线上预测模型进行在线训练。
在实时地确定回放缓存池中已存储流数据的数据量时,如果数据量达到回放缓存池所能够存储的最大数据量,则参考设定规则从回放缓存池已存储的历史流数据之中采样得到目标流数据,并根据目标流数据对线上预测模型进行在线训练。
举例而言,若检测当前流数据的概念漂移的程度值小于概念漂移程度阈值,则在回放缓存池存储满后,从回放缓存池已存储的历史流数据之中采样得到目标流数据,并将目标流数据输入在线学习模块,以对线上预测模型进行在线训练,对线上预测模型进行迭代更新,保证线上预测模型的效果。
可选地,一些实施例中,可以根据目标流数据对线上预测模型在线训练第二设定次数,其中,第二设定次数小于第一设定次数,且第二设定次数,是根据设定次数范围之中的最大值、最小值、概念漂移的程度值,以及概念漂移程度阈值计算得出的。
本公开实施例中,在当前流数据的概念漂移的程度值小于概念漂移程度阈值,由数据量来触发进行的在线训练,考虑到当前流数据的概念漂移程度较小,可适当减少训练的迭代次数Inc_Train_Num,则该种情况下的迭代次数Inc_Train_Num可以被称为第二设定次数,针对第二设定次数的计算方式可以具体参见下述。
举例而言,可以在上述图2中所示的在线学习模块中,利用数据集,对线上预测模型进行在线训练,并重复Inc_Train_Num次,本公开实施例中,还可以引入回放缓存池和增加未知标签的技术特征,以辅助增加线上预测模型的训练稳定性、降低模型重训次数,提升训练效率。
本公开实施例中,还支持将训练用的最新接收的当前流数据,实时地放入回放缓存池之中,将在线训练得到的目标预测模型,放入模型仓库之中,以满足后续的场景需求。
本实施例中,由于是根据概念漂移的程度来触发对线上预测模型进行在线训练,从而使得在线训练的触发机制更为灵活和适用,能够及时地避免由于流数据的概念漂移而导致的模型性能下降,有效地提升预测模型的预测性能和预测稳定性,使得预测模型能够持续地满足智能场景中的预测需求,提升预测模型的预测效果。若当前流数据的概念漂移的程度较大,则可以直接触发对线上预测模型进行在线训练,从而能够有效地保证预测模型能够快速响应流数据的分布发生的变化。若检测当前流数据的概念漂移的程度较小,则在回放缓存池存储满后,从回放缓存池已存储的历史流数据之中采样得到目标流数据,并将目标流数据输入在线学习模块,以对线上预测模型进行在线训练,对线上预测模型进行迭代更新,保证线上预测模型的效果。在当前流数据的概念漂移的程度较小,由数据量来触发进行的在线训练,考虑到当前流数据的概念漂移程度较小,可适当减少训练的迭代次数,从而保证了预测模型训练的稳定性。
举例而言,接收当前流数据进行推理,并根据业务反馈,获取真实结果;
(1)根据当前流数据,计算相对于历史流数据的概念漂移的程度值,并记为Concept_drift_value,并判断当前流数据的概念漂移的程度值是否大于或者等于概念漂移程度阈值,如果当前流数据的概念漂移的程度较大,则转到第(4)步,否则进入第(2)步。
(2)并判断回放缓存池是否达到在线学习的数量要求,达到则进入第(4)步,否则进入第(1)步。
(3)计算在线训练次数Inc_Train_Num,其中,Inc_Train_max和Inc_Train_min分别表示在线训练的最大迭代次数(设定次数范围之中的最大值)和最小迭代次数(设定次数范围之中的最小值)。
(31)如果当前流数据的概念漂移的程度较大,Inc_Train_Num=Inc_Train_max,实现加快学习速度。
(32)如果当前流数据的概念漂移的程度较小,则降低在线训练的学习速度,可采用Inc_Train_Num=(Inc_Train_max-Inc_Train_min)*Concept_drift_value/Th+Inc_Train_Min的方式计算训练迭代次数。
(4)在线训练过程:从回放缓存池中采样,得到目标流数据,将目标流数据与当前流数据混合,对线上预测模型进行在线训练。
(5)重复第(5)步Inc_Train_Num次后,将训练得到的目标预测模型推送入模型仓库。
(6)将本轮接收得到的当前流数据,加入回放缓存池中,并根据先进先出原则,删除最先进入回放缓存池的数据,保证回放缓存池中样本总量不变。
(7)返回第(1)步。
也即是说,本公开实施例中,支持在训练得到目标预测模型之后,将当前流数据存储至回放缓存池之中,并删除回放缓存池之中的第一流数据,其中,第一流数据对应的存储次序,在其它流数据对应的存储次序之前,第一流数据和其它流数据共同构成回放缓存池之中存储的流数据,从而实现在线训练结束后,将最新流数据及时地存储至回放缓存池中,并根据先入先出原则,将最“陈旧”的历史流数据删除,保证回放缓存池样本流数据的总量不变,且保障回放缓存池中样本流数据的特征表征能力。
图4是本公开另一实施例提出的预测模型的训练方法的流程示意图,针对图4的描述说明,可以一并结合上述图2,包括:
S401:根据回放缓存池中已存储流数据的数据量、历史流数据对应的存储时间确定权重。
S402:从回放缓存池已存储的历史流数据之中,基于选取概率采样得到设定数量的历史流数据并作为目标流数据,设定数量和当前流数据的数量之间的比例为预设值。
其中的选取概率可以具体是根据与历史流数据对应的权重设定的,具体可以参见下述描述。
也即是说,本实施例考虑到真实的预测场景之中,可能由于较新的流数据的数据量、数据采样等因素,而导致的较新的流数据和历史流数据的分布偏差较大,从而提供了一种带权回放缓存池策略,以避免线上预测模型抖动,更有利于真实预测场景之中对于线上预测模型的安全性与稳定性。
举例而言,利用线上最新接收的当前流数据与历史流数据相混合以进行线上预测模型的在线训练,能够有效缓解最新接收的当前流数据的分布抖动带来的偏差,从而本公开实施例中,可以使用带权回放缓存池存储历史流数据,并在在线训练过程中,根据已存储的历史流数据的权重随机采样设定数量的历史流数据并作为目标流数据,结合当前流数据来在线训练预测模型。
本公开实施例中,还可以自适应地控制在线学习的训练数据中,较新流数据的数量与历史流数据的数量之间的比例(该比例可以用参数α表示),α的大小决定了针对线上预测模型的在线训练是更倾向于模型效果还是模型的稳定性,从而可以根据实际预测场景的需求自适应设置,对此不做限制。
在线学习样本的数据量:较新流数据的数量=1:α;
其中,α较小时,在线学习将更多的依赖于历史流数据,从而能够获取更好的模型稳定性,而α较大时,在线学习将更多的依赖于较新的流数据,从而能够使得目标预测模型的线上表现性能更佳。
在申请实施例中,可以配置在线学习的训练数据train_set内较新流数据的数量与历史流数据的数量之间的比例为1:9,即α=0.1,在线学习的训练数据的数据量可以取回放缓存池所能够存储的数据量的1/20,对此不做限制。
本公开实施例中根据与历史流数据对应的权重设定选取概率的方式可以举例说明如下:
带权经验回放就是抽取样本时,优先抽取最有价值的样本,但是又不能只抽取最有价值,不然会造成过拟合,应该是价值越高的,抽取到的概率越大,价值最低的,也有一定的概率抽到。
本公开实施例中,在执行在线学习任务时,考虑到较新的流数据对线上预测模型的学习越具有价值,由此,可以配置较新的流数据具有更高的概率被抽取到。
假设回放缓存池可缓存样本的数量大小为N,回放缓存池中的历史流数据依据与其对应的存储时间排序,记为xi,其中i∈[1,N],i越小,表示历史流数据越靠近当前时间点。设历史流数据对应的权重的下降率为γ=(1-1/N),则历史流数据xi被采样的概率(选取概率)为:
εi=Aγi;
其中,A为归一化因子:
由此,本公开实施例的回放缓存池中所存储的历史流数据,最早的历史流数据xN的选取概率约为最新的历史流数据x1的1/θ,其中,e为自然常数,采用此方法设置历史流数据的权重,不会因为回放缓存池所缓存数据量的变化,而使早期的历史流数据被采样的概率降低,同时,该方式使历史流数据的数据量随着时间的增加,被采样的权重逐渐降低,能够有效地适用于存在概念漂移的场景下对回放缓存池中的历史流数据进行带权重采样。
从而本公开实施例中,使用带权回放缓存池存放历史流数据,将从回放缓存池中基于选取概率采样得到的历史流数据与线上实时接收到的少量的较新的流数据进行混合,组成新的在线训练数据集,在保证在线预测模型不断地从新样本中学习新知识的同时,巩固过去已掌握的旧知识,提高了在线预测模型表现及训练稳定性。
图5是本公开另一实施例提出的预测模型的训练方法的流程示意图,针对图5的描述说明,可以一并结合上述图2,包括:
S501:获取与当前流数据对应的标注标签。
S502:获取线上预测模型所支持的至少一种预测标签。
S503:如果标注标签属于至少一种预测标签,则根据概念漂移的程度值,结合当前流数据和目标流数据对线上预测模型进行在线训练。
S504:如果标注标签不属于至少一种预测标签,则根据概念漂移的程度值,结合当前流数据和目标流数据对线上预测模型进行线下的更新训练。
也即是说,本公开实施例还支持在原始的在线预测模型训练时加入若干个标签缓存位置,保证在接收实时的当前流数据时,若与当前流数据对应的标注标签是原始的在线预测模型不支持的标签时,在线预测模型仍然能够继续进行在线训练过程,降低在线预测模型重新训练次数,提高训练效率,从而使得本公开实施例中的预测模型的训练方法,可广泛应用于流数据对应的标签的类型发生变化的分类问题。
举例而言,一并参见图6,图6是本公开另一实施例提出的预测模型的训练装置的架构示意图,针对图5所示实施例的说明可以描述如下:
在分类问题的在线训练过程中,当前流数据对应的标注标签可能是当前的在线预测模型不支持的预测标签,从而本公开实施例中,为了使在线预测模型输出符合较新的流数据的分类个数,且使在线预测模型能够有效满足真实业务场景对线上模型服务的需求,可以在最初训练原始的在线预测模型时,预先在在线预测模型的输出类别中加入若干标签缓存位置(大小为max_label_buffer_size),当标注标签不属于在线预测模型当前所支持的预测标签时,可以直接将标注标签与预留的标签缓存位置相关联,无需修改在线预测模型的输出,使模型可以直接进行在线训练,处理完毕标签缓存位置后,采用回放缓存池中的目标流数据进行在线预测模型的训练,以得到目标预测模型。
利用历史流数据,将label_buffer_size设置为max_label_buffer_size,进行在线预测模型的训练;从回放缓存池中采样得到目标流数据;与接收到当前流数据合并,形成在线训练数据集,对于分类问题需额外处理未知数据标签,步骤如下:
若标注标签不是未知标签(即标注标签属于线上预测模型所支持的至少一种预测标签),则直接在线训练。
若标注标签是未知标签(即标注标签不属于线上预测模型所支持的至少一种预测标签),计算未知标签的个数为unklabel_len,并比较未知标签的个数与标签缓存位置的个数label_buffer_size。
若label_buffer_size<unklabel_len时,即标签缓存位置不足以放入所有的未知标签,直接在线训练。
若label_buffer_size>unklabel_len时,将未知标签unklabel_len进行顺次编码,并更新标签缓存位置大小为label_buffer_size=label_buffer_size-unklabel_len,
利用在线训练数据集在最新的在线预测模型的基础上进行在线训练,更新模型参数,并将之保存为在线预测模型,如果迭代次数满足设定次数,则结束,以得到目标预测模型,如果迭代次数不满足设定次数,则重新训练在线预测模型,label_buffer_size设置为max_label_buffer_size,并进行在线训练。
针对本公开实施例的应用示例可以如下:
假设在线预测模型所执行的预测任务为市域治理事件分类,该在线预测模型可以具体例如事件分类模型,事件分类模型根据传入的事件内容和事件发生地,为事件预测需要派发的部门,按照预测的概率由高到低给出最符合条件的三个部门。事件分布(内容与派发的目标部门)会随时间、环境的改变而发生变化,因此,事件分类模型会实时监控数据的漂移情况,并在漂移发生立即触发在线训练。
本公开实施例中,可以采用文本分类算法,为处理出现的未知标签,在训练事件分类模型时,将提前在事件分类模型输出类别中加入若干标签缓存位置(大小为label_buffer_size),当新标签出现时,新标签可以直接与预留的标签缓存位置相关联,无需修改事件分类模型输出,使事件分类模型可以直接进行在线训练。本事件分类模型在每接收一定量的新样本后,将新样本与从回放缓存池中随机采样的数据相混合,进行在线训练。
事件分类在线学习主要参数如下表1所示:
表1
参数 | 取值 |
回放缓存池大小(N) | 20000 |
数据漂移检测池大小 | 100 |
最新:在线训练数据比(α) | 0.1 |
概念漂移检测算法 | MMD |
概念漂移门限(Th) | 0.01 |
在线训练最大迭代次数(Inc_Train_max) | 5 |
在线训练最小迭代次数(Inc_Train_min) | 1 |
最大未知标签位置数(max_label_buffer_size) | 5 |
通过试验发现,在发生漂移的数据上,相对于定量地利用全量数据对事件分类模型进行重训,原始事件分类模型的top3准确率下降约8.7%,通过提前在原始事件分类模型中加入未知标签缓存,在训练时从缓存池中进行样本抽样,在线学习事件分类模型在漂移数据上的top3准确率比原始事件分类模型提高2.1%。具体在漂移数据上的实验结果如下表2所示:
表2
结果分析:
利用静态事件分类模型,可以对线上数据进行持续的推理,但是事件分类模型会随着时间的推移,性能逐渐下降。
在每接收到1000条数据后,利用最新的全量数据,对事件分类模型进行重新训练:由于较新的流数据的持续引入,其线上性能相对于静态事件分类模型得到显著提升,但是由于事件分类模型训练采用全量数据,单次事件分类模型更新的计算时间较长。
利用在线事件分类模型更新的方式,加入未知标签缓存,可以极大地降低训练时间,同时,事件分类模型性能相对于利用全量数据进行重新训练相当。
在在线事件分类模型更新的基础上,引入带权回放缓存池,由于数据处理工作增加,单次事件分类模型更新时间有所增加;缓存池数据的引入增加了事件分类模型的稳定性,事件分类模型性能相对于在线更新方式得到了一定的提升。
假设在线预测模型所执行的预测任务为停车场流量预测,该在线预测模型可以具体例如停车场流量预测模型,停车场流量预测模型使用前24小时的停车场的流进、流出数据预测未来2个小时流进、流出情况。
本公开实施例可以采用神经网络模型进行时序预测,流量数据颗粒度为每半小时一个数据点,即本车场流量预测模型输入为连续48个时序点,输出为连续4个时序点。在原始车场流量预测模型的基础上,每隔半小时进行一次在线训练,使用最新一个训练样本(即最新的52个数据点,其中前48个点作为车场流量预测模型输入,后4个作为车场流量预测模型输出)与从回放缓存池中随机抽样的127个样本(每个样本均由连续52个时序数据点组成,前48个点作为车场流量预测模型输入,后4个作为车场流量预测模型输出)组成训练集进行在线训练,在训练过程中采用较大学习率和较少训练迭代次数使车场流量预测模型能够快速学习到当前的数据分布情况。
车流量预测模型在线学习主要参数如下表3所示:
表3
参数 | 取值 |
回放缓存池大小(N) | 20000 |
数据漂移检测池大小 | 1000 |
最新:在线训练数据比(α) | 1/64 |
概念漂移检测算法 | ADWin |
概念漂移门限(Th) | 0.002 |
在线训练最大迭代次数(Inc_Train_max) | 5 |
在线训练最小迭代次数(Inc_Train_min) | 1 |
在发生漂移的数据上进行试验发现,在线学习车场流量预测模型较原始车场流量预测模型在RMSE、MAE三项车场流量预测模型评价指标上均有下降。在漂移数据上的具体实验结果如下表4所示:
表4
结果分析:
静态的车场流量预测模型,可以对线上数据进行持续的推理,但是车场流量预测模型会随着时间的推移,性能逐渐下降。
T+3天全量更新:每3天,利用全量数据对车场流量预测模型进行一次重新训练,车场流量预测模型的效果优于静态的车场流量预测模型,但由于网络复杂,历史流数据较多,单次车场流量预测模型更新时间较长,难以满足城市车场流量预测模型的线上服务要求。
T+3天的数据在线训练方式+带权回放缓存池:利用每3天接收到的数据,并结合带权回放缓存池里的部分历史流数据,对车场流量预测模型进行调整。该方法不需人工参与,可自动进行车场流量预测模型的线上更新;由于只用少量较新的流数据对车场流量预测模型进行更新,因此计算时间大幅缩短。
由于线上更新的方法,更多地考虑时间邻近流数据的影响,因此车场流量预测模型效果相对于利用全量数据对车场流量预测模型更新,有一定提升。
学习速度自控制的方法,可根据流数据的概念漂移程度,自适应调整学习速度,在线上流数据存在漂移的情况下,车场流量预测模型性能得到一定提升。
图7是本公开一实施例提出的预测模型的训练装置的结构示意图。
如图7所示,该预测模型的训练装置70包括:
获取模块701,用于获取当前流数据和线上预测模型;
第一确定模块702,用于在当前流数据发生概念漂移时,确定概念漂移的程度值;以及
训练模块703,用于根据概念漂移的程度值,结合当前流数据和目标流数据对线上预测模型进行在线训练,以得到目标预测模型;其中,目标流数据,是从多个历史流数据之中采样得到的。
在本公开的一些实施例中,训练模块703,具体用于:
如果概念漂移的程度值大于或者等于概念漂移程度阈值,则参考设定规则从回放缓存池已存储的历史流数据之中采样得到目标流数据;
根据当前流数据和目标流数据对线上预测模型进行在线训练。
在本公开的一些实施例中,训练模块703,具体用于:
如果概念漂移的程度值小于概念漂移程度阈值,则将当前流数据存储至回放缓存池之中,并确定回放缓存池中已存储流数据的数据量;
如果数据量不满足设定条件,则持续获取当前流数据,并动态地对数据量进行更新;
如果数据量满足设定条件,则参考设定规则从回放缓存池已存储的历史流数据之中采样得到目标流数据,并根据目标流数据对线上预测模型进行在线训练。
在本公开的一些实施例中,训练模块703,具体用于:
根据当前流数据和目标流数据对线上预测模型在线训练第一设定次数,其中,第一设定次数是设定次数范围之中的最大值。
在本公开的一些实施例中,训练模块703,具体用于:
根据目标流数据对线上预测模型在线训练第二设定次数,其中,第二设定次数小于第一设定次数,且第二设定次数,是根据设定次数范围之中的最大值、最小值、概念漂移的程度值,以及概念漂移程度阈值计算得出的。
在本公开的一些实施例中,如图8所示,装置70还包括:
处理模块704,用于在训练得到目标预测模型之后,将当前流数据存储至回放缓存池之中,并删除回放缓存池之中的第一流数据,其中,第一流数据对应的存储次序,在其它流数据对应的存储次序之前,第一流数据和其它流数据共同构成回放缓存池之中存储的流数据。
在本公开的一些实施例中,训练模块703,具体用于:
从回放缓存池已存储的历史流数据之中,基于选取概率采样得到设定数量的历史流数据并作为目标流数据,设定数量和当前流数据的数量之间的比例为预设值。
在本公开的一些实施例中,选取概率由历史流数据的权重确定,如图8所示,装置70还包括:
第二确定模块705,用于根据回放缓存池中已存储流数据的数据量、历史流数据对应的存储时间确定权重。
在本公开的一些实施例中,其中,
获取模块701,还用于在获取当前流数据之后,获取与当前流数据对应的标注标签,并获取线上预测模型所支持的至少一种预测标签;
训练模块703,具体用于:
如果标注标签属于至少一种预测标签,则根据概念漂移的程度值,结合当前流数据和目标流数据对线上预测模型进行在线训练;
如果标注标签不属于至少一种预测标签,则根据概念漂移的程度值,结合当前流数据和目标流数据对线上预测模型进行线下的更新训练。
与上述图1至图6实施例提供的预测模型的训练方法相对应,本公开还提供一种预测模型的训练装置,由于本公开实施例提供的预测模型的训练装置与上述图1至图6实施例提供的预测模型的训练方法相对应,因此在预测模型的训练方法的实施方式也适用于本公开实施例提供的预测模型的训练装置,在本公开实施例中不再详细描述。
本实施例中,通过结合概念漂移的程度值来确定线上预测模型训练的训练时机,从而支持在线学习过程中,如果当前流数据的概念漂移程度较大,则实现使得在线训练过程具有较快的模型学习速度,使模型快速掌握产生概念漂移的流数据所表征的新知识,以保证预测模型的线上实时表现;而如果当前流数据的概念漂移程度较小,则使得在线训练过程保持相对较低的学习速率,以防止灾难性遗忘的发生,从而全面地兼顾预测模型对新知识的学习速度,和预测模型的稳定性能,使得预测模型能够持续地满足智能场景中的预测需求,提升预测模型的预测效果。
为了实现上述实施例,本公开还提出一种计算机设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时,实现如本公开前述实施例提出的预测模型的训练方法。
为了实现上述实施例,本公开还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本公开前述实施例提出的预测模型的训练方法。
为了实现上述实施例,本公开还提出一种计算机程序产品,当计算机程序产品中的指令处理器执行时,执行如本公开前述实施例提出的预测模型的训练方法。
图9示出了适于用来实现本公开实施方式的示例性计算机设备的框图。图9显示的计算机设备12仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture;以下简称:ISA)总线,微通道体系结构(Micro Channel Architecture;以下简称:MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics StandardsAssociation;以下简称:VESA)局域总线以及外围组件互连(Peripheral ComponentInterconnection;以下简称:PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory;以下简称:RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图9未显示,通常称为“硬盘驱动器”)。
尽管图9中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(Compact Disc Read OnlyMemory;以下简称:CD-ROM)、数字多功能只读光盘(Digital Video Disc Read OnlyMemory;以下简称:DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本公开各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本公开所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(Local Area Network;以下简称:LAN),广域网(Wide Area Network;以下简称:WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现前述实施例中提及的预测模型的训练方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
需要说明的是,在本公开的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本公开的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本公开的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本公开的实施例所属技术领域的技术人员所理解。
应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本公开各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本公开的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本公开的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本公开的限制,本领域的普通技术人员在本公开的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (20)
1.一种预测模型的训练方法,其特征在于,所述方法包括:
获取当前流数据和线上预测模型;
如果所述当前流数据发生概念漂移,则确定概念漂移的程度值;以及
根据所述概念漂移的程度值,结合所述当前流数据和目标流数据对所述线上预测模型进行在线训练,以得到目标预测模型;
其中,所述目标流数据,是从多个历史流数据之中采样得到的。
2.如权利要求1所述的方法,其特征在于,所述根据所述概念漂移的程度值,结合所述当前流数据和目标流数据对所述线上预测模型进行在线训练,包括:
如果所述概念漂移的程度值大于或者等于概念漂移程度阈值,则参考设定规则从回放缓存池已存储的历史流数据之中采样得到所述目标流数据;
根据所述当前流数据和所述目标流数据对所述线上预测模型进行在线训练。
3.如权利要求1所述的方法,其特征在于,所述根据所述概念漂移的程度值,结合所述当前流数据和目标流数据对所述线上预测模型进行在线训练,包括:
如果所述概念漂移的程度值小于概念漂移程度阈值,则将所述当前流数据存储至回放缓存池之中,并确定所述回放缓存池中已存储流数据的数据量;
如果所述数据量不满足设定条件,则持续获取所述当前流数据,并动态地对所述数据量进行更新;
如果所述数据量满足所述设定条件,则参考所述设定规则从回放缓存池已存储的历史流数据之中采样得到所述目标流数据,并根据所述目标流数据对所述线上预测模型进行在线训练。
4.如权利要求2所述的方法,其特征在于,所述根据所述当前流数据和所述目标流数据对所述线上预测模型进行在线训练,包括:
根据所述当前流数据和所述目标流数据对所述线上预测模型在线训练第一设定次数,其中,所述第一设定次数是设定次数范围之中的最大值。
5.如权利要求3所述的方法,其特征在于,所述根据所述目标流数据对所述线上预测模型进行在线训练,包括:
根据所述目标流数据对所述线上预测模型在线训练第二设定次数,其中,所述第二设定次数小于所述第一设定次数,且所述第二设定次数,是根据设定次数范围之中的最大值、最小值、所述概念漂移的程度值,以及所述概念漂移程度阈值计算得出的。
6.如权利要求1所述的方法,其特征在于,在训练得到所述目标预测模型之后,包括:
将所述当前流数据存储至回放缓存池之中;
删除所述回放缓存池之中的第一流数据;
其中,所述第一流数据对应的存储次序,在其它流数据对应的存储次序之前,所述第一流数据和所述其它流数据共同构成所述回放缓存池之中存储的流数据。
7.如权利要求2或3所述的方法,其特征在于,所述参考所述设定规则从回放缓存池已存储的历史流数据之中采样得到所述目标流数据,包括:
从回放缓存池已存储的历史流数据之中,基于选取概率采样得到设定数量的历史流数据并作为所述目标流数据,所述设定数量和所述当前流数据的数量之间的比例为预设值。
8.如权利要求7所述的方法,其特征在于,所述选取概率由所述历史流数据的权重确定,所述方法还包括:
根据所述回放缓存池中已存储流数据的数据量、所述历史流数据对应的存储时间确定权重。
9.如权利要求1-8任一项所述的方法,其特征在于,在所述获取当前流数据之后,还包括:
获取与所述当前流数据对应的标注标签;
获取所述线上预测模型所支持的至少一种预测标签;
如果所述标注标签属于所述至少一种预测标签,则根据所述概念漂移的程度值,结合所述当前流数据和目标流数据对所述线上预测模型进行在线训练;
如果所述标注标签不属于所述至少一种预测标签,则根据所述概念漂移的程度值,结合所述当前流数据和目标流数据对所述线上预测模型进行线下的更新训练。
10.一种预测模型的训练装置,其特征在于,所述装置包括:
获取模块,用于获取当前流数据和线上预测模型;
第一确定模块,用于在所述当前流数据发生概念漂移时,确定概念漂移的程度值;以及
训练模块,用于根据所述概念漂移的程度值,结合所述当前流数据和目标流数据对所述线上预测模型进行在线训练,以得到目标预测模型;其中,所述目标流数据,是从多个历史流数据之中采样得到的。
11.如权利要求10所述的装置,其特征在于,所述训练模块,具体用于:
如果所述概念漂移的程度值大于或者等于概念漂移程度阈值,则参考设定规则从回放缓存池已存储的历史流数据之中采样得到所述目标流数据;
根据所述当前流数据和所述目标流数据对所述线上预测模型进行在线训练。
12.如权利要求10所述的装置,其特征在于,所述训练模块,具体用于:
如果所述概念漂移的程度值小于所述概念漂移程度阈值,则将所述当前流数据存储至回放缓存池之中,并确定所述回放缓存池中已存储流数据的数据量;
如果所述数据量不满足设定条件,则持续获取所述当前流数据,并动态地对所述数据量进行更新;
如果所述数据量满足所述设定条件,则参考所述设定规则从回放缓存池已存储的历史流数据之中采样得到所述目标流数据,并根据所述目标流数据对所述线上预测模型进行在线训练。
13.如权利要求11所述的装置,其特征在于,所述训练模块,具体用于:
根据所述当前流数据和所述目标流数据对所述线上预测模型在线训练第一设定次数,其中,所述第一设定次数是设定次数范围之中的最大值。
14.如权利要求12所述的装置,其特征在于,所述训练模块,具体用于:
根据所述目标流数据对所述线上预测模型在线训练第二设定次数,其中,所述第二设定次数小于所述第一设定次数,且所述第二设定次数,是根据设定次数范围之中的最大值、最小值、所述概念漂移的程度值,以及所述概念漂移程度阈值计算得出的。
15.如权利要求10所述的装置,其特征在于,所述装置还包括:
处理模块,用于在训练得到所述目标预测模型之后,将所述当前流数据存储至回放缓存池之中,并删除所述回放缓存池之中的第一流数据,其中,所述第一流数据对应的存储次序,在其它流数据对应的存储次序之前,所述第一流数据和所述其它流数据共同构成所述回放缓存池之中存储的流数据。
16.如权利要求11或12所述的装置,其特征在于,所述训练模块,具体用于:
从回放缓存池已存储的历史流数据之中,基于选取概率采样得到设定数量的历史流数据并作为所述目标流数据,所述设定数量和所述当前流数据的数量之间的比例为预设值。
17.如权利要求16所述的装置,其特征在于,所述选取概率由所述历史流数据的权重确定,所述装置还包括:
第二确定模块,用于根据所述回放缓存池中已存储流数据的数据量、所述历史流数据对应的存储时间确定权重。
18.如权利要求10-17任一项所述的装置,其特征在于,其中,
所述获取模块,还用于在所述获取当前流数据之后,获取与所述当前流数据对应的标注标签,并获取所述线上预测模型所支持的至少一种预测标签;
所述训练模块,具体用于:
如果所述标注标签属于所述至少一种预测标签,则根据所述概念漂移的程度值,结合所述当前流数据和目标流数据对所述线上预测模型进行在线训练;
如果所述标注标签不属于所述至少一种预测标签,则根据所述概念漂移的程度值,结合所述当前流数据和目标流数据对所述线上预测模型进行线下的更新训练。
19.一种计算机设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如权利要求1-9中任一所述的方法。
20.一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求1至9中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110610089.3A CN113344196A (zh) | 2021-06-01 | 2021-06-01 | 预测模型的训练方法、装置、计算机设备及存储介质 |
PCT/CN2022/092573 WO2022252960A1 (zh) | 2021-06-01 | 2022-05-12 | 预测模型的训练方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110610089.3A CN113344196A (zh) | 2021-06-01 | 2021-06-01 | 预测模型的训练方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113344196A true CN113344196A (zh) | 2021-09-03 |
Family
ID=77474334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110610089.3A Pending CN113344196A (zh) | 2021-06-01 | 2021-06-01 | 预测模型的训练方法、装置、计算机设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113344196A (zh) |
WO (1) | WO2022252960A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114422450A (zh) * | 2022-01-21 | 2022-04-29 | 中国人民解放军国防科技大学 | 基于多源网络流量数据的网络流量分析方法和装置 |
WO2022252960A1 (zh) * | 2021-06-01 | 2022-12-08 | 京东城市(北京)数字科技有限公司 | 预测模型的训练方法、装置、计算机设备及存储介质 |
WO2023143243A1 (zh) * | 2022-01-25 | 2023-08-03 | 杭州海康威视数字技术股份有限公司 | 自主学习方法、装置、电子设备及机器可读存储介质 |
WO2024087468A1 (zh) * | 2022-10-25 | 2024-05-02 | 京东城市(北京)数字科技有限公司 | 类别预测模型的训练方法、预测方法、设备和存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116148801B (zh) * | 2023-04-18 | 2023-07-14 | 深圳市佰誉达科技有限公司 | 一种基于毫米波雷达的目标检测方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200034692A1 (en) * | 2018-07-30 | 2020-01-30 | National Chengchi University | Machine learning system and method for coping with potential outliers and perfect learning in concept-drifting environment |
CN111143413A (zh) * | 2019-12-26 | 2020-05-12 | 太原科技大学 | 基于数据流概念漂移的异常检测方法 |
CN112231584A (zh) * | 2020-12-08 | 2021-01-15 | 平安科技(深圳)有限公司 | 基于小样本迁移学习的数据推送方法、装置及计算机设备 |
CN112347416A (zh) * | 2020-10-30 | 2021-02-09 | 交控科技股份有限公司 | 道岔转辙机电流数据的概念漂移检测方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11481665B2 (en) * | 2018-11-09 | 2022-10-25 | Hewlett Packard Enterprise Development Lp | Systems and methods for determining machine learning training approaches based on identified impacts of one or more types of concept drift |
CN113344196A (zh) * | 2021-06-01 | 2021-09-03 | 京东城市(北京)数字科技有限公司 | 预测模型的训练方法、装置、计算机设备及存储介质 |
-
2021
- 2021-06-01 CN CN202110610089.3A patent/CN113344196A/zh active Pending
-
2022
- 2022-05-12 WO PCT/CN2022/092573 patent/WO2022252960A1/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200034692A1 (en) * | 2018-07-30 | 2020-01-30 | National Chengchi University | Machine learning system and method for coping with potential outliers and perfect learning in concept-drifting environment |
CN111143413A (zh) * | 2019-12-26 | 2020-05-12 | 太原科技大学 | 基于数据流概念漂移的异常检测方法 |
CN112347416A (zh) * | 2020-10-30 | 2021-02-09 | 交控科技股份有限公司 | 道岔转辙机电流数据的概念漂移检测方法及装置 |
CN112231584A (zh) * | 2020-12-08 | 2021-01-15 | 平安科技(深圳)有限公司 | 基于小样本迁移学习的数据推送方法、装置及计算机设备 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022252960A1 (zh) * | 2021-06-01 | 2022-12-08 | 京东城市(北京)数字科技有限公司 | 预测模型的训练方法、装置、计算机设备及存储介质 |
CN114422450A (zh) * | 2022-01-21 | 2022-04-29 | 中国人民解放军国防科技大学 | 基于多源网络流量数据的网络流量分析方法和装置 |
CN114422450B (zh) * | 2022-01-21 | 2024-01-19 | 中国人民解放军国防科技大学 | 基于多源网络流量数据的网络流量分析方法和装置 |
WO2023143243A1 (zh) * | 2022-01-25 | 2023-08-03 | 杭州海康威视数字技术股份有限公司 | 自主学习方法、装置、电子设备及机器可读存储介质 |
WO2024087468A1 (zh) * | 2022-10-25 | 2024-05-02 | 京东城市(北京)数字科技有限公司 | 类别预测模型的训练方法、预测方法、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022252960A1 (zh) | 2022-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113344196A (zh) | 预测模型的训练方法、装置、计算机设备及存储介质 | |
US7353214B2 (en) | Outlier determination rule generation device and outlier detection device, and outlier determination rule generation method and outlier detection method thereof | |
CN111767366B (zh) | 问答资源挖掘方法、装置、计算机设备及存储介质 | |
CN110610510A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN109240875B (zh) | 一种卡顿分析方法及系统 | |
US10592613B2 (en) | Dialog flow evaluation | |
US9569551B2 (en) | Dynamic modeling of geospatial words in social media | |
US20230267142A1 (en) | Multimedia content publishing method and apparatus, electronic device, and storage medium | |
AU2021309929B2 (en) | Anomaly detection in network topology | |
EP3852007B1 (en) | Method, apparatus, electronic device, readable storage medium and program for classifying video | |
US11823058B2 (en) | Data valuation using reinforcement learning | |
CN111160959A (zh) | 一种用户点击转化预估方法及装置 | |
WO2024087468A1 (zh) | 类别预测模型的训练方法、预测方法、设备和存储介质 | |
CN111143517B (zh) | 人选标签预测方法、装置、设备和存储介质 | |
CN113826113A (zh) | 用于人工智能的对罕见训练数据计数 | |
CN112788347A (zh) | 基于ai检测或分类结果改变音频或视频压缩 | |
CN112651172B (zh) | 一种降雨峰值类型划分方法、装置、设备和存储介质 | |
CN111784750A (zh) | 视频图像中移动物体追踪方法、装置、设备以及存储介质 | |
CN115880533A (zh) | 基于自适应子集搜索和深度学习的桥梁表观裂缝识别方法 | |
WO2023236240A1 (zh) | 一种基于强化学习的数据筛选方法及其装置 | |
CN114881149A (zh) | 一种模型训练方法及装置、目标检测方法及装置 | |
CN111681267B (zh) | 基于图像识别的轨道防侵入方法 | |
CN111488866B (zh) | 基于深度学习的入侵物识别方法、装置及电子设备 | |
WO2020238101A1 (zh) | 对象检测方法、装置、设备及计算机可读存储介质 | |
CN114245232A (zh) | 一种视频摘要生成方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |