CN113159413A - 业务流程剩余时间预测方法、系统、存储介质及计算设备 - Google Patents
业务流程剩余时间预测方法、系统、存储介质及计算设备 Download PDFInfo
- Publication number
- CN113159413A CN113159413A CN202110416202.4A CN202110416202A CN113159413A CN 113159413 A CN113159413 A CN 113159413A CN 202110416202 A CN202110416202 A CN 202110416202A CN 113159413 A CN113159413 A CN 113159413A
- Authority
- CN
- China
- Prior art keywords
- network model
- neural network
- event
- business process
- remaining time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 162
- 230000008569 process Effects 0.000 title claims abstract description 106
- 238000003062 neural network model Methods 0.000 claims abstract description 116
- 238000012549 training Methods 0.000 claims abstract description 104
- 238000013526 transfer learning Methods 0.000 claims abstract description 49
- 230000000694 effects Effects 0.000 claims abstract description 35
- 238000012360 testing method Methods 0.000 claims abstract description 24
- 239000013598 vector Substances 0.000 claims description 49
- 239000011159 matrix material Substances 0.000 claims description 30
- 230000015654 memory Effects 0.000 claims description 10
- 238000012795 verification Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000001737 promoting effect Effects 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 abstract description 3
- 230000007246 mechanism Effects 0.000 description 27
- 230000002457 bidirectional effect Effects 0.000 description 13
- 238000005065 mining Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000002790 cross-validation Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013508 migration Methods 0.000 description 3
- 230000005012 migration Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000269627 Amphiuma means Species 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- Probability & Statistics with Applications (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种业务流程剩余时间预测方法、系统、存储介质及计算设备,该方法包括:1)获取标准化事件日志;2)根据标准化事件日志构建以不同轨迹前缀长度为基准的数据集,并划分为训练集和测试集;3)将训练集输入到准循环神经网络模型中,进行迭代训练,并对网络模型参数进行调整,在达到设定迭代次数后,获得网络模型参数文件;4)将网络模型参数文件加载到准循环神经网络模型中,通过基于Word2Vec的CBOW模型和迁移学习来提升业务流程剩余时间的预测效果,从而获得业务流程剩余时间预测结果。本发明可实现对业务流程剩余时间进行精准预测,取得了准确的剩余时间,为后续业务流程优化奠定基础。
Description
技术领域
本发明涉及业务流程管理的技术领域,尤其是指一种基于过程挖掘的业务流程剩余时间预测方法、系统、存储介质及计算设备。
背景技术
近年来,预测型流程监控成为了业务流程管理领域中重要的研究方向,其主要是对正在执行的业务流程实例进行预测型分析,进一步准确预测出当前实例在未来的一段时间内可能出现的执行状态,例如某个实例的演变、下一个将要执行的活动、实例剩余时间等。
业务流程剩余时间预测是预测型流程监控一项主要的预测任务,其主要目标是对正在执行的业务流程实例剩余的执行时间进行预测。随着机器学习技术和深度学习技术的广泛使用,研究者将机器学习技术和深度学习技术应用到剩余时间预测任务之中,并取得了较好的预测效果,特别是基于长短期记忆网络(Long Short-Term Memory,LSTM),其在剩余时间预测任务上的准确度超过了机器学习方法和流程模型方法。目前,在现有的研究中,基本上都是通过使用传统LSTM以及GRU循环神经网络训练剩余时间预测模型,虽然LSTM和GRU可以较好地解决序列问题,但是该模型在处理大规模的序列数据时存在着训练速度缓慢的问题,因此如何在提升流程实例剩余时间预测效果的同时,提高流程实例剩余时间预测模型训练的速度,是一项亟需解决的问题。
发明内容
本发明的第一目的在于克服现有技术的缺点与不足,提供了一种基于过程挖掘的业务流程剩余时间预测方法,可实现对业务流程剩余时间进行精准预测,取得了准确的剩余时间,为后续业务流程优化奠定基础。
本发明的第二目的在于提供一种业务流程剩余时间预测系统。
本发明的第三目的在于提供一种存储介质。
本发明的第四目的在于提供一种计算设备。
本发明的第一目的通过下述技术方案实现:业务流程剩余时间预测方法,包括以下步骤:
1)获取标准化事件日志,该标准化事件日志中记载了相关的业务流程,包含事件和事件时间戳;
2)根据步骤1)中获得的标准化事件日志构建以不同轨迹前缀长度为基准的数据集,并将数据集划分为训练集和测试集;
3)将步骤2)中获得的训练集输入到准循环神经网络模型中,进行迭代训练,并对网络模型参数进行调整,在达到设定迭代次数后,获得最终的网络模型参数文件;
4)将步骤3)获得的最终的网络模型参数文件加载到准循环神经网络模型中,通过基于Word2Vec的CBOW模型和迁移学习来提升业务流程剩余时间的预测效果,并获得最优的准循环神经网络模型,最终将测试集输入到最优的准循环神经网络模型中进行验证,获得准确的业务流程剩余时间预测结果。
在步骤1)中,将事件日志中多余的属性删除,只保留事件和事件的时间戳,从而构成标准化事件日志;所有事件日志均通过4TU平台来获取。
在步骤2)中,根据步骤1)获得的标准化事件日志构建以不同轨迹前缀长度为基准的数据集,其具体步骤如下:
2.1)在标准化事件日志中,对轨迹前缀长度的范围进行设定;
2.2)遍历标准化事件日志中的每一条轨迹,并在步骤2.1)设定好的范围内进行截取,得到长度不同的轨迹前缀及其对应的业务流程剩余时间;
2.3)将步骤2.2)得到的所有长度不同轨迹前缀及其对应的业务流程剩余时间作为数据集,并以70%比例当作训练集,余下的30%当作测试集。
在步骤3)中,所述准循环神经网络模型由卷积层和池化层组成,将训练集输入到准循环神经网络模型之后,首先会经过一层卷积层,该卷积层利用数量为m的滤波器对训练集进行卷积运算,目的在于提取输入训练集的特征信息,并得到输出序列X(x1,x2,……,xn),其中xn代表第n个输出序列;然后,输出序列X(x1,x2,……,xn)会再经过一层池化层,池化层作用就是减少卷积层的输出序列X(x1,x2,……,xn)特征数目,得到新的输出序列Z(z1,z2,……,zn),其中zn代表第n个新的输出序列,而该输出序列Z(z1,z2,……,zn)就是业务流程以不同轨迹前缀长度为基准的剩余时间预测结果;其中,预测结果包含预测的业务流程剩余时间和平均绝对误差;最后,根据得到的平均绝对误差结果对网络模型参数进行调整,并再次进行迭代训练,在完成设定的迭代次数后,获得最终的网络模型参数文件。
所述步骤4)包括以下步骤:
式中,t(e)代表事件e的连续执行时间,tmax(StartTime-EndTime)(e,a)和tmin(StartTime-EndTime)(e,a)代表活动a在事件日志中出现的最长与最短执行时间,N的是离散化后事件e执行时间所划分数量;
4.3)根据步骤4.2)得到的事件向量θ<a,t>,利用基于Word2Vec的CBOW模型对事件向量θ<a,t>进行预训练,具体步骤如下:
4.3.1)事件向量θ<a,t>与基于Word2Vec的CBOW模型中输入层的权重矩阵W{1,2,3,……,m}进行点乘运算,得到矩阵向量V{1,2,3,……,k},其中权重矩阵中的m、k代表是第m个和第k个权重矩阵;
4.3.2)将步骤4.3.1)中得到的矩阵向量V{1,2,3,……,k}进行加权求平均操作,并得到矩阵向量P;
4.3.3)将步骤4.3.2)中得到的矩阵向量P与基于Word2Vec的CBOW模型中输出层的权重矩阵Z进行点乘运算,并经过Softmax归一化后,得到预训练事件向量结果Q;
4.3.4)根据步骤4.3.3)得到的事件向量Q,将其输入到已加载网络模型参数文件的准循环神经网络模型中进行迭代训练,再将迭代后的网络模型以迁移学习的方式进行训练,得到最优的准循环神经网络模型;
4.3.5)将测试集输入到步骤4.3.4)得到的最优的准循环神经网络模型中进行验证,从而获得准确的业务流程剩余时间预测结果;
其中,上述Word2vec是一个用来产生词向量的方法,而CBOW模型是Word2vec中一种常用的模型,该模型主要是将事件向量中同一轨迹且经常出现的事件进行相似性向量表示,并通过上下文事件来预测当前事件;上述迁移学习则是将训练好的模型参数迁移到新的模型中来,进一步帮助新模型进行训练,而利用迁移学习的主要目的在于:由于构建的以不同轨迹前缀长度为基准的数据集中,短轨迹前缀的数量要多于长轨迹的数量,倘若不对轨迹前缀进行区分,并输入到准循环神经网络模型中进行训练会造成业务流程剩余时间预测不准确的情况,因此,需要先对数量多的短轨迹前缀进行训练,然后利用迁移学习,将短轨迹前缀训练好的网络模型参数作为长轨迹前缀训练的初始值,从而达到提升业务流程剩余时间预测结果的目的。
本发明的第二目的通过下述技术方案实现:基于过程挖掘的业务流程剩余时间预测系统,包括:
数据预处理模块,用于将事件日志中多余的属性删除,只保留事件和事件的时间戳,从而构成标准化事件日志,该标准化事件日志记载了相关的业务流程;
数据生成模块,用于将数据预处理模块获得的标准化事件日志构建以不同轨迹前缀长度为基准的数据集,并将数据集划分为训练集和测试集;
获取网络参数模块,用于将数据生成模块中获得的训练集输入到准循环神经网络模型中,进行迭代训练,在达到设定迭代次数后,获得最终的网络模型参数文件;
预测结果提升输出模块,用于将获取网络参数模块获得的最终的网络模型参数文件加载到准循环神经网络模型中,通过基于Word2Vec的CBOW模型和迁移学习来提升业务流程剩余时间的预测效果,并获得最优的准循环神经网络模型,最终将测试集输入到最优的准循环神经网络模型中进行验证,从而获得准确的业务流程剩余时间预测结果,并对结果进行输出。
本发明的第三目的通过下述技术方案实现:一种存储介质,存储有程序,所述程序被处理器执行时,实现上述的业务流程剩余时间预测方法。
本发明的第四目的通过下述技术方案实现:一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,所述处理器执行存储器存储的程序时,实现上述的业务流程剩余时间预测方法。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明通过使用迁移学习的方法加强了不同长度轨迹前缀内在关联性,并且克服了长轨迹前缀数量少的问题,从而获得了准确的业务流程剩余时间预测结果。
2、本发明通过使用基于Word2Vec的CBOW模型,充分的反映出事件向量的语义信息,从而提高了剩余时间预测模型的性能。
3、本发明相较于传统剩余时间预测方法,在预测准确性上得到了明显的提升,从而为必要的人工干预提供更有利的决策依据。
4、本发明在训练时间上优于传统的预测方法,从而一定程度上缩短了程序的执行时间。
5、本发明方法在预测型流程监控任务中具有广泛的使用空间,操作简单、适应性强,在业务流程剩余时间预测方面有广阔前景。
附图说明
图1为本发明方法逻辑流程图。
图2为准循环神经网络模型结构图。
图3为网络模型参数文件示意图。
图4为基于Word2vec的CBOW模型结构图。
图5为基于Word2vec的CBOW模型预训练事件向量结果图。
图6为效果对比图。
图7为基于Word2vec的CBOW模型效果分析图。
图8为训练时间性能对比分析图;
图9为本发明系统框架图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
如图1所示,本实施例公开了一种基于过程挖掘的业务流程剩余时间预测方法,首先获取标准化事件日志,利用得到的事件日志构建以不同轨迹前缀长度为基准的数据集,并将数据集划分为训练集和测试集。其次,将训练集输入到准循环神经网络模型中进行迭代训练。为了提升业务流程剩余时间预测结果,利用Word2Vec的CBOW模型对数据集进行预训练,得到事件向量,并将事件向量输入到准循环神经网络模型中,得到最优的准循环神经网络模型。最后,利用迁移学习对最优的准循环神经网络模型进行训练,并通过测试集进行验证。最后得到准确的业务流程剩余时间预测结果。其包括以下步骤:
1)通过4TU平台获取事件日志,将事件日志中多余的属性删除,只保留事件和事件的时间戳,从而构成标准化事件日志,在此标准化事件日志中记载了相关的业务流程;其中选取了5个事件日志,分别是BPIC_2012_A/W/O:某财政机构贷款申请审批日志、Helpdesk:某票务管理系统后台日志、Hospital_Billing:某医院EPR系统中出院结算流程日志。所有事件日志均可通过4TU平台来获取。选取的5个公开事件日志详细信息如表1所示。
表1事件日志基本信息统计
数据集 | 轨迹数量 | 事件数量 | 活动数量 | 轨迹最大长度 | 轨迹最小长度 |
BPIC_2012_A | 13087 | 73022 | 10 | 10 | 3 |
BPIC_2012_O | 5015 | 41728 | 7 | 39 | 4 |
BPIC_2012_W | 9658 | 147450 | 6 | 153 | 1 |
Helpdesk | 3804 | 13710 | 9 | 14 | 1 |
Hospital_Billing | 100000 | 451359 | 18 | 217 | 1 |
2)根据步骤1)中获得的标准化事件日志构建以不同轨迹前缀长度为基准的数据集,并将数据集划分为训练集和测试集,其具体步骤如下:
2.1)在标准化事件日志中,对轨迹前缀长度的范围进行设定;
2.2)遍历标准化事件日志中的每一条轨迹,并在步骤2.1)设定好的范围内进行截取,得到长度不同的轨迹前缀及其对应的业务流程剩余时间;
2.3)将步骤2.2)得到的所有长度不同轨迹前缀及其对应的业务流程剩余时间作为数据集,并以70%比例当作训练集,余下的30%当作测试集。
3)将步骤2)中获得的训练集输入到准循环神经网络模型(模型结构见图2所示)中,依照设定好的训练次数进行迭代训练,并对网络模型参数进行调整,在完成迭代训练之后,获得最终的网络模型参数文件,具体情况如下:
所述准循环神经网络模型由卷积层和池化层组成,将训练集输入到准循环神经网络模型之后,首先会经过一层卷积层,该卷积层利用数量为m的滤波器对训练集进行卷积运算,目的在于提取输入训练集的特征信息,并得到输出序列X(x1,x2,……,xn),其中xn代表第n个输出序列;然后,输出序列X(x1,x2,……,xn)会再经过一层池化层,池化层作用就是减少卷积层的输出序列X(x1,x2,……,xn)特征数目,得到新的输出序列Z(z1,z2,……,zn),其中zn代表第n个新的输出序列,而该输出序列Z(z1,z2,……,zn)就是业务流程以不同轨迹前缀长度为基准的剩余时间预测结果。其中,预测结果包含预测的业务流程剩余时间和平均绝对误差;
根据得到的平均绝对误差结果对网络模型参数进行调整,并再次进行迭代训练,在完成设定的迭代次数后获得最终的网络模型参数文件,见图3所示。在参数文件中包含迭代次数(epoch)、训练起始位置(startPos)、学习率(learnRate)、平均绝对误差值(MAE)。
4)将步骤3)获得的最终的网络模型参数文件加载到准循环神经网络模型中,通过基于Word2Vec的CBOW模型(模型结构见图4所示)和迁移学习来提升业务流程剩余时间的预测效果,并获得最优的准循环神经网络模型,最终将测试集输入到最优的准循环神经网络模型中进行验证,获得准确的业务流程剩余时间预测结果,包括以下步骤:
式中,t(e)代表事件e的连续执行时间,tmax(StartTime-EndTime)(e,a)和tmin(StartTime-EndTime)(e,a)代表活动a在事件日志中出现的最长与最短执行时间,N的是离散化后事件e执行时间所划分数量;
4.3)根据步骤4.2)得到的事件向量θ<a,t>,利用基于Word2Vec的CBOW模型对事件向量θ<a,t>进行预训练,具体步骤如下:
4.3.1)事件向量θ<a,t>与基于Word2Vec的CBOW模型中输入层的权重矩阵W{1,2,3,……,m}进行点乘运算,得到矩阵向量V{1,2,3,……,k},其中权重矩阵中的m、k代表是第m个和第k个权重矩阵;
4.3.2)将步骤4.3.1)中得到的矩阵向量V{1,2,3,……,k}进行加权求平均操作,并得到矩阵向量P;
4.3.3)将步骤4.3.2)中得到的矩阵向量P与基于Word2Vec的CBOW模型中输出层的权重矩阵Z进行点乘运算,并对运算后的结果进行Softmax归一化,得到预训练事件向量结果Q,见图5所示;其中,图5第一行数字55代表有55个事件,3代表每一个事件都会由三个不同的浮点数进行表示;
4.3.4)根据步骤4.3.3)得到的事件向量Q,将其输入到已加载网络模型参数文件的准循环神经网络模型中进行迭代训练,再将迭代后的网络模型以迁移学习的方式进行训练,得到最优的准循环神经网络模型;
4.3.5)将测试集输入到步骤4.3.4)得到的最优的准循环神经网络模型中进行验证,从而获得准确的业务流程剩余时间预测结果。
其中,上述Word2vec是一个用来产生词向量的方法,而CBOW模型是Word2vec中一种常用的模型,该模型主要是将事件向量中同一轨迹且经常出现的事件进行相似性向量表示,并通过上下文事件来预测当前事件;上述迁移学习则是将训练好的模型参数迁移到新的模型中来,进一步帮助新模型进行训练,而利用迁移学习的主要目的在于:由于构建的以不同轨迹前缀长度为基准的数据集中,短轨迹前缀的数量要多于长轨迹的数量,倘若不对轨迹前缀进行区分,并输入到准循环神经网络模型中进行训练会造成业务流程剩余时间预测不准确的情况,因此,需要先对数量多的短轨迹前缀进行训练,然后利用迁移学习,将短轨迹前缀训练好的网络模型参数作为长轨迹前缀训练的初始值,从而达到提升业务流程剩余时间预测结果的目的。
下面为了进一步验证本实施例上述基于过程挖掘的业务流程剩余时间预测方法在业务流程预测任务上的有效性与优越性,将与其它神经网络模型进行比较,具体情况如下:
实验使用平均绝对误差(Mean Absolute Error,MAE)作为每一个神经网络模型的评价指标,同时采用5折交叉验证的方式对业务流程剩余时间神经网络模型进行有效地评估,具体过程如下:
a、使用平均绝对误差(Mean Absolute Error,MAE)作为每一个神经网络模型的评价指标:其主要通过计算业务流程每一个轨迹前缀的剩余时间真实值和预测值之间差值的绝对值来评判剩余时间预测的准确度。倘若MAE值较低,则说明预测的剩余时间较为准确。
式中,σ(k)代表的是轨迹前缀,f(σ(k))是轨迹前缀的剩余时间真实值,RemainTime(σ,k)是轨迹前缀的剩余时间预测值。
b、采用5折交叉验证的方式对业务流程剩余时间神经网络模型进行有效地评估,即将构建好的数据集随机划分为5等份,每一次选择4份数据作为训练集,1份作为测试集,并重复5次实验,最后把5次交叉验证MAE值的平均值作为最终评估结果。
为了得到业务流程剩余时间预测任务中最优神经网络模型,因此将长短期记忆网络(Long Short-Term Memory,LSTM)以及门控循环单元(Gated Recurrent Unit,GRU)作为对比方法。将要对比的神经网络模型具体如下:
a、GRU(门控循环单元神经网络模型)
b、LSTM(长短期记忆神经网络模型)
c、QRNN(准循环神经网络模型)
d、Bi-GRU(含有双向机制门控循环单元神经网络模型)
e、Bi-LSTM(含有双向机制长短期记忆神经网络模型)
f、Bi-QRNN(含有双向机制准循环神经网络模型)
g、Att-Bi-GRU(含有双向机制、注意力机制门控循环单元神经网络模型)
h、Att-Bi-LSTM(含有双向机制、注意力机制长短期记忆神经网络模型)
i、Att-Bi-QRNN(含有双向机制、注意力机制准循环神经网络模型)
j、Trans-Att-Bi-GRU(含有双向机制、注意力机制、迁移学习门控循环单元神经网络模型)
k、Trans-Att-Bi-LSTM(含有双向机制、注意力机制、迁移学习长短期记忆神经网络模型)
l、Trans-Att-Bi-QRNN(含有双向机制、注意力机制、迁移学习准循环神经网络模型)
对不同神经网络模型进行基本调参,调整参数如下:
a、输入事件向量的维度:{3,5,7,10}
b、神经元隐向量的维度:{3,5,7,10}
c、学习率:{0.01,0.1}
d、迭代次数:150
e、优化算法:Adam
经过调参之后,表2展示了本方法与对比方法在5个不同数据集上的MAE值并且得到以下三个结论:
表2不同方法的对比实验结果
方法 | BPIC_2012_A | BPIC_2012_O | BPIC_2012_W | Helpdesk | Hospital_Billing |
TS-set | 7.505 | 7.392 | 8.429 | 6.283 | 51.456 |
TS-multiset | 7.488 | 7.203 | 8.691 | 6.167 | 51.507 |
TS-sequence | 7.488 | 9.612 | 8.619 | 6.192 | 51.504 |
SPN | 8.880 | 6.385 | 8.516 | 6.337 | 78.018 |
LSTM | 3.588 | 7.993 | 8.021 | 3.542 | 42.050 |
Bi-LSTM | 4.600 | 8.407 | 7.221 | 2.952 | 41.515 |
Att-Bi-LSTM | 3.895 | 7.324 | 6.153 | 2.677 | 36.691 |
Trans-Att-Bi-LSTM | 3.489 | 5.858 | 5.826 | 3.357 | 33.201 |
GRU | 4.888 | 7.394 | 7.753 | 3.425 | 47.400 |
Bi-GRU | 4.461 | 8.144 | 7.334 | 3.222 | 37.157 |
Att-Bi-GRU | 3.512 | 7.306 | 6.338 | 3.303 | 33.201 |
Trans-Att-Bi-GRU | 3.438 | 5.863 | 5.821 | 3.299 | 32.187 |
QRNN | 3.543 | 6.779 | 7.516 | 3.199 | 36.611 |
Bi-QRNN | 3.992 | 6.757 | 7.128 | 2.884 | 35.248 |
Att-Bi-QRNN | 3.200 | 6.276 | 6.007 | 2.626 | 33.101 |
Trans-Att-Bi-QRNN | 2.373 | 5.158 | 5.275 | 2.423 | 31.436 |
由表2可以看出,利用深度学习方法进行剩余时间预测的效果要比基于变迁系统和随机Petri网方法的效果好,进一步印证了深度学习方法在剩余时间预测任务上的优势。而产生此现象的关键原因在于循环神经网络具备较强的序列建模能力以及鲁棒性较强,可以很好地处理高噪声、海量的事件日志,进而可以获得良好地预测效果。
对比QRNN、LSTM和GRU三种循环神经网络(QRNN vs LSTM vs GRU、Bi-QRNN vs Bi-LSTM vs Bi-GRU、Att-Bi-QRNN vs Att-Bi-LSTM vs Att-Bi-GRU、Trans-Att-Bi-QRNN vsTrans-Att-Bi-LSTM vs Trans-Att-Bi-GRU),QRNN在整体上的预测效果要优于LSTM以及GRU,因此可以认为QRNN比LSTM、GRU更加适合业务流程剩余时间预测任务。
以QRNN作为基础神经网络模型,引入迁移学习、双向机制、注意力机制以及基于Word2Vec的CBOW模型后,在5个不同的数据集中都获得了较好的预测效果。相较于以LSTM和GRU为神经单元的基于迁移学习的循环神经网络预测方法,本发明方法的MAE值平均下降了14%,从而证明了本发明方法的优越性。
为了验证基于过程挖掘的业务流程剩余时间预测方法中使用的准循环神经网络模型在业务流程剩余时间预测任务上的优越性,在去除基于迁移学习剩余时间预测模型和基于Word2Vec的CBOW模型的前提下,对各个神经网络模型在业务流程剩余时间预测任务上的效果进行对比,具体步骤如下:
a、移除迁移学习和基于Word2Vec的CBOW模型,使用传统的方式为全部的轨迹前缀构建统一的训练模型;
b、在训练的过程当中分别移除双向机制和注意力机制,并以QRNN、LSTM以及GRU为基准作为循环神经网络的具体实现;
表3展示了各个神经网络模型效果对比的方法。并根据图6中的(a)、(b)、(c)、(d)、(e)全部方法在5个数据集中的MAE值得到以下四个结论:
表3效果对比方法
方法 | 是否有双向机制 | 是否有注意力机制 | 模型训练方式 |
LSTM | 否 | 否 | 统一 |
Bi-LSTM | 是 | 否 | 统一 |
Att-Bi-LSTM | 是 | 是 | 统一 |
Trans-Att-Bi-LSTM | 是 | 是 | 迁移学习 |
GRU | 否 | 否 | 统一 |
Bi-GRU | 是 | 否 | 统一 |
Att-Bi-GRU | 是 | 是 | 统一 |
Trans-Att-Bi-GRU | 是 | 是 | 迁移学习 |
QRNN | 否 | 否 | 统一 |
Bi-QRNN | 是 | 否 | 统一 |
Att-Bi-QRNN | 是 | 是 | 统一 |
Trans-Att-Bi-QRNN | 是 | 是 | 迁移学习 |
在不含有注意力机制、双向机制以及迁移学习情况下,QRNN相较于LSTM以及GRU在5个数据集中都取得了较低的MAE值;
在引入双向机制后,Bi-QRNN相较于Bi-LSTM以及Bi-GRU在5个数据集中取得了较好地MAE值,同时相比于QRNN,Bi-QRNN在4个数据集中取得了更低地MAE值;
在引入注意力机制之后,Att-Bi-QRNN的预测效果还是略优于Att-Bi-LSTM、Att-Bi-GRU以及Bi-QRNN;
在引入迁移学习后,Trans-Att-Bi-QRNN在5个数据集上的预测效果要优于Att-Bi-QRNN,并且MAE值也低于Trans-Att-Bi-LSTM以及Trans-Att-Bi-GRU。
由此,可以总结得到引入双向机制、注意力机制以及迁移学习都可提高业务流程剩余时间的精确度。此外,QRNN在业务流程剩余时间预测任务上要比传统的LSTM以及GRU更加的适合,这就说明将QRNN应用于剩余时间预测是一项有益的尝试。
为了验证基于Word2vec的CBOW模型对业务流程剩余时间预测效果的影响,本发明将基于Word2Vec的CBOW模型得到的事件向量(表示为Trans-Att-Bi-QRNN-Vector)以及传统One-Hot编码(表示为Trans-Att-Bi-QRNN-NoVector)得到的向量作为准循环神经网络模型的输入,进而测试基于Word2vec的CBOW模型对剩余时间预测效果的影响。图7展示了两种不同方法的MAE值,由图7可以看出,Trans-Att-Bi-QRNN-Vector在5个数据集上的MAE值要比Trans-Att-Bi-QRNN-NoVector的MAE值低3%,因此可以认为基于Word2vec的CBOW模型对提升业务流程剩余时间预测效果有重要的作用。
为了进一步验证基于过程挖掘的业务流程剩余时间预测方法中使用的准循环神经网络模型在时间性能上的优势,在同参数的情况下将准循环神经网络的训练时间与其它神经网络模型训练时间进行对比,测试的方法如下:
a、无基于Word2Vec的CBOW模型和迁移学习,并在特定的轨迹前缀下对各个神经网络模型的训练时间进行测试。
b、有基于Word2Vec的CBOW模型,无迁移学习,并在特定的轨迹前缀下对各个神经网络模型的训练时间进行测试。
c、有基于Word2Vec的CBOW模型和迁移学习,并在不同长度的轨迹前缀下对各个神经网络模型的训练时间进行测试。
在实验过程中,各个神经网络模型在不同方法下采用了相同的参数设置,实验结果如图8中(a)、(b)、(c)、(d)、(e)所示。
由图8中(a)可以发现,数据集BPIC_2012_A在不使用基于Word2Vec的CBOW模型和迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约9%~15%;在使用基于Word2Vec的CBOW模型和不使用迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约11%~19%;在使用基于Word2Vec的CBOW模型和迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约14%~22%。
由图8中(b)可以发现,数据集BPIC_2012_O在不使用基于Word2Vec的CBOW模型和迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约22%~30%;在使用基于Word2Vec的CBOW模型和不使用迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约22%~37%;在使用在使用基于Word2Vec的CBOW模型和迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约14%~22%。
由图8中(c)可以发现,数据集BPIC_2012_W在不使用基于Word2Vec的CBOW模型和迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约18%~32%;在使用基于Word2Vec的CBOW模型和不使用迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约35%~45%;在使用基于Word2Vec的CBOW模型和迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约8%~28%。
由图8中(d)可以发现,数据集Helpdesk在不使用基于Word2Vec的CBOW模型和迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约15%~21%;在使用基于Word2Vec的CBOW模型和不使用迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约12%~19%;在使用基于Word2Vec的CBOW模型和迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约12%~20%。
由图8中(e)可以发现,数据集Hospital_Billing在不使用基于Word2Vec的CBOW模型和迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约20%~30%;在使用基于Word2Vec的CBOW模型和不使用迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约13%~26%;在使用基于Word2Vec的CBOW模型和迁移学习的情况下,以QRNN为基准的神经网络模型训练时间要比以LSTM为基准和以GRU为基准的神经网络模型训练时间快了约12%~24%。
实施例2
本实施例公开了一种基于过程挖掘的业务流程剩余时间预测系统,如图9所示,包括数据预处理模块、数据生成模块、获取网络参数模块和预测结果提升输出模块。
数据预处理模块,用于将事件日志中多余的属性删除,只保留事件和事件的时间戳,从而构成标准化事件日志,该标准化事件日志记载了相关的业务流程;
数据生成模块,用于将数据预处理模块获得的标准化事件日志构建以不同轨迹前缀长度为基准的数据集,并将数据集划分为训练集和测试集;
获取网络参数模块,用于将数据生成模块中获得的训练集输入到准循环神经网络模型中,进行迭代训练,在达到设定迭代次数后,获得最终的网络模型参数文件;
预测结果提升输出模块,用于将获取网络参数模块获得的最终的网络模型参数文件加载到准循环神经网络模型中,通过基于Word2Vec的CBOW模型和迁移学习来提升业务流程剩余时间的预测效果,并获得最优的准循环神经网络模型,最终将测试集输入到最优的准循环神经网络模型中进行验证,从而获得准确的业务流程剩余时间预测结果,并对结果进行输出。
实施例3
本实施例公开了一种存储介质,存储有程序,所述程序被处理器执行时,实现实施例1所述的业务流程剩余时间预测方法。
本实施例中的存储介质可以是磁盘、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、U盘、移动硬盘等介质。
实施例4
本实施例公开了一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,所述处理器执行存储器存储的程序时,实现实施例1所述的业务流程剩余时间预测方法。
本实施例中所述的计算设备可以是台式电脑、笔记本电脑、智能手机、PDA手持终端、平板电脑、可编程逻辑控制器(PLC,Programmable Logic Controller)、或其它具有处理器功能的终端设备。
综上所述,在采用以上方案后,本发明为业务流程剩余时间预测任务提供了新的方式,在提升剩余时间预测效果的同时,获得了准确的业务流程剩余时间预测结果,具有实际推广价值,值得推广。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (8)
1.业务流程剩余时间预测方法,其特征在于,包括以下步骤:
1)获取标准化事件日志,该标准化事件日志中记载了相关的业务流程,包含事件和事件时间戳;
2)根据步骤1)中获得的标准化事件日志构建以不同轨迹前缀长度为基准的数据集,并将数据集划分为训练集和测试集;
3)将步骤2)中获得的训练集输入到准循环神经网络模型中,进行迭代训练,并对网络模型参数进行调整,在达到设定迭代次数后,获得最终的网络模型参数文件;
4)将步骤3)获得的最终的网络模型参数文件加载到准循环神经网络模型中,通过基于Word2Vec的CBOW模型和迁移学习来提升业务流程剩余时间的预测效果,并获得最优的准循环神经网络模型,最终将测试集输入到最优的准循环神经网络模型中进行验证,获得准确的业务流程剩余时间预测结果。
2.根据权利要求1所述的业务流程剩余时间预测方法,其特征在于,在步骤1)中,将事件日志中多余的属性删除,只保留事件和事件的时间戳,从而构成标准化事件日志;所有事件日志均通过4TU平台来获取。
3.根据权利要求1所述的业务流程剩余时间预测方法,其特征在于,在步骤2)中,根据步骤1)获得的标准化事件日志构建以不同轨迹前缀长度为基准的数据集,其具体步骤如下:
2.1)在标准化事件日志中,对轨迹前缀长度的范围进行设定;
2.2)遍历标准化事件日志中的每一条轨迹,并在步骤2.1)设定好的范围内进行截取,得到长度不同的轨迹前缀及其对应的业务流程剩余时间;
2.3)将步骤2.2)得到的所有长度不同轨迹前缀及其对应的业务流程剩余时间作为数据集,并以70%比例当作训练集,余下的30%当作测试集。
4.根据权利要求1所述的业务流程剩余时间预测方法,其特征在于,在步骤3)中,所述准循环神经网络模型由卷积层和池化层组成,将训练集输入到准循环神经网络模型之后,首先会经过一层卷积层,该卷积层利用数量为m的滤波器对训练集进行卷积运算,目的在于提取输入训练集的特征信息,并得到输出序列X(x1,x2,……,xn),其中xn代表第n个输出序列;然后,输出序列X(x1,x2,……,xn)会再经过一层池化层,池化层作用就是减少卷积层的输出序列X(x1,x2,……,xn)特征数目,得到新的输出序列Z(z1,z2,……,zn),其中zn代表第n个新的输出序列,而该输出序列Z(z1,z2,……,zn)就是业务流程以不同轨迹前缀长度为基准的剩余时间预测结果;其中,预测结果包含预测的业务流程剩余时间和平均绝对误差;最后,根据得到的平均绝对误差结果对网络模型参数进行调整,并再次进行迭代训练,在完成设定的迭代次数后,获得最终的网络模型参数文件。
5.根据权利要求1所述的业务流程剩余时间预测方法,其特征在于,所述步骤4)包括以下步骤:
式中,t(e)代表事件e的连续执行时间,tmax(StartTime-EndTime)(e,a)和tmin(StartTime-EndTime)(e,a)代表活动a在事件日志中出现的最长与最短执行时间,N的是离散化后事件e执行时间所划分数量;
4.3)根据步骤4.2)得到的事件向量θ<a,t>,利用基于Word2Vec的CBOW模型对事件向量θ<a,t>进行预训练,具体步骤如下:
4.3.1)事件向量θ<a,t>与基于Word2Vec的CBOW模型中输入层的权重矩阵W{1,2,3,……,m}进行点乘运算,得到矩阵向量V{1,2,3,……,k},其中权重矩阵中的m、k代表是第m个和第k个权重矩阵;
4.3.2)将步骤4.3.1)中得到的矩阵向量V{1,2,3,……,k}进行加权求平均操作,并得到矩阵向量P;
4.3.3)将步骤4.3.2)中得到的矩阵向量P与基于Word2Vec的CBOW模型中输出层的权重矩阵Z进行点乘运算,并经过Softmax归一化后,得到预训练事件向量结果Q;
4.3.4)根据步骤4.3.3)得到的事件向量Q,将其输入到已加载网络模型参数文件的准循环神经网络模型中进行迭代训练,再将迭代后的网络模型以迁移学习的方式进行训练,得到最优的准循环神经网络模型;
4.3.5)将测试集输入到步骤4.3.4)得到的最优的准循环神经网络模型中进行验证,从而获得准确的业务流程剩余时间预测结果;
其中,上述Word2vec是一个用来产生词向量的方法,而CBOW模型是Word2vec中一种常用的模型,该模型主要是将事件向量中同一轨迹且经常出现的事件进行相似性向量表示,并通过上下文事件来预测当前事件;上述迁移学习则是将训练好的模型参数迁移到新的模型中来,进一步帮助新模型进行训练,而利用迁移学习的主要目的在于:由于构建的以不同轨迹前缀长度为基准的数据集中,短轨迹前缀的数量要多于长轨迹的数量,倘若不对轨迹前缀进行区分,并输入到准循环神经网络模型中进行训练会造成业务流程剩余时间预测不准确的情况,因此,需要先对数量多的短轨迹前缀进行训练,然后利用迁移学习,将短轨迹前缀训练好的网络模型参数作为长轨迹前缀训练的初始值,从而达到提升业务流程剩余时间预测结果的目的。
6.业务流程剩余时间预测系统,其特征在于,包括:
数据预处理模块,用于将事件日志中多余的属性删除,只保留事件和事件的时间戳,从而构成标准化事件日志,该标准化事件日志记载了相关的业务流程;
数据生成模块,用于将数据预处理模块获得的标准化事件日志构建以不同轨迹前缀长度为基准的数据集,并将数据集划分为训练集和测试集;
获取网络参数模块,用于将数据生成模块中获得的训练集输入到准循环神经网络模型中,进行迭代训练,在达到设定迭代次数后,获得最终的网络模型参数文件;
预测结果提升输出模块,用于将获取网络参数模块获得的最终的网络模型参数文件加载到准循环神经网络模型中,通过基于Word2Vec的CBOW模型和迁移学习来提升业务流程剩余时间的预测效果,并获得最优的准循环神经网络模型,最终将测试集输入到最优的准循环神经网络模型中进行验证,从而获得准确的业务流程剩余时间预测结果,并对结果进行输出。
7.一种存储介质,存储有程序,其特征在于,所述程序被处理器执行时,实现权利要求1至5中任一项所述的业务流程剩余时间预测方法。
8.一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器存储的程序时,实现权利要求1至5中任一项所述的业务流程剩余时间预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110416202.4A CN113159413A (zh) | 2021-04-19 | 2021-04-19 | 业务流程剩余时间预测方法、系统、存储介质及计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110416202.4A CN113159413A (zh) | 2021-04-19 | 2021-04-19 | 业务流程剩余时间预测方法、系统、存储介质及计算设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113159413A true CN113159413A (zh) | 2021-07-23 |
Family
ID=76868334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110416202.4A Pending CN113159413A (zh) | 2021-04-19 | 2021-04-19 | 业务流程剩余时间预测方法、系统、存储介质及计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113159413A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114035468A (zh) * | 2021-11-08 | 2022-02-11 | 山东理工大学 | 基于XGBoost算法的风机检修流程预测性监控方法与系统 |
CN114358445A (zh) * | 2022-03-21 | 2022-04-15 | 山东建筑大学 | 一种业务流程剩余时间预测模型推荐方法及系统 |
CN114819154A (zh) * | 2022-05-05 | 2022-07-29 | 华侨大学 | 一种事件日志简化方法、装置、设备和存储介质 |
CN115049060A (zh) * | 2022-07-14 | 2022-09-13 | 南京理工大学 | 基于深度学习的业务过程任务执行时知识推荐方法 |
CN115238583A (zh) * | 2022-07-27 | 2022-10-25 | 山东理工大学 | 一种支持增量日志的业务流程剩余时间预测方法与系统 |
CN115373360A (zh) * | 2022-10-20 | 2022-11-22 | 山东芯合机器人科技有限公司 | 一种基于工业机器人加工过程质量监控系统 |
CN116822920A (zh) * | 2023-05-23 | 2023-09-29 | 北京杰成合力科技有限公司 | 一种基于循环神经网络的流程预测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111178623A (zh) * | 2019-12-26 | 2020-05-19 | 杭州电子科技大学 | 一种基于多层机器学习的业务流程剩余时间预测方法 |
CN111191897A (zh) * | 2019-12-23 | 2020-05-22 | 浙江传媒学院 | 基于双向gru神经网络的业务流程在线合规性预测方法及系统 |
CN111860785A (zh) * | 2020-07-24 | 2020-10-30 | 中山大学 | 基于注意力机制循环神经网络的时间序列预测方法及系统 |
-
2021
- 2021-04-19 CN CN202110416202.4A patent/CN113159413A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111191897A (zh) * | 2019-12-23 | 2020-05-22 | 浙江传媒学院 | 基于双向gru神经网络的业务流程在线合规性预测方法及系统 |
CN111178623A (zh) * | 2019-12-26 | 2020-05-19 | 杭州电子科技大学 | 一种基于多层机器学习的业务流程剩余时间预测方法 |
CN111860785A (zh) * | 2020-07-24 | 2020-10-30 | 中山大学 | 基于注意力机制循环神经网络的时间序列预测方法及系统 |
Non-Patent Citations (3)
Title |
---|
MICROSTRONG: "深入浅出word2vec原理解析", 《知乎》 * |
刘彤等: "基于深度迁移学习的业务流程实例剩余执行时间预测方法", 《数据分析与知识发现》 * |
王栋: "基于LSTM模型的命名实体识别研究及应用", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114035468A (zh) * | 2021-11-08 | 2022-02-11 | 山东理工大学 | 基于XGBoost算法的风机检修流程预测性监控方法与系统 |
CN114035468B (zh) * | 2021-11-08 | 2024-05-28 | 山东理工大学 | 基于XGBoost算法的风机检修流程预测性监控方法与系统 |
CN114358445A (zh) * | 2022-03-21 | 2022-04-15 | 山东建筑大学 | 一种业务流程剩余时间预测模型推荐方法及系统 |
CN114819154A (zh) * | 2022-05-05 | 2022-07-29 | 华侨大学 | 一种事件日志简化方法、装置、设备和存储介质 |
CN115049060A (zh) * | 2022-07-14 | 2022-09-13 | 南京理工大学 | 基于深度学习的业务过程任务执行时知识推荐方法 |
CN115049060B (zh) * | 2022-07-14 | 2024-05-10 | 南京理工大学 | 基于深度学习的业务过程任务执行时知识推荐方法 |
CN115238583A (zh) * | 2022-07-27 | 2022-10-25 | 山东理工大学 | 一种支持增量日志的业务流程剩余时间预测方法与系统 |
CN115238583B (zh) * | 2022-07-27 | 2024-02-13 | 山东理工大学 | 一种支持增量日志的业务流程剩余时间预测方法与系统 |
CN115373360A (zh) * | 2022-10-20 | 2022-11-22 | 山东芯合机器人科技有限公司 | 一种基于工业机器人加工过程质量监控系统 |
CN116822920A (zh) * | 2023-05-23 | 2023-09-29 | 北京杰成合力科技有限公司 | 一种基于循环神经网络的流程预测方法 |
CN116822920B (zh) * | 2023-05-23 | 2024-03-29 | 北京杰成合力科技有限公司 | 一种基于循环神经网络的流程预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113159413A (zh) | 业务流程剩余时间预测方法、系统、存储介质及计算设备 | |
CN111970163B (zh) | 一种基于注意力机制的lstm模型的网络流量预测方法 | |
CN110674636B (zh) | 一种用电行为分析方法 | |
CN113449919B (zh) | 一种基于特征和趋势感知的用电量预测方法及系统 | |
CN112925909B (zh) | 一种考虑局部不变性约束的图卷积文献分类方法及系统 | |
CN113342597B (zh) | 一种基于高斯混合隐马尔可夫模型的系统故障预测方法 | |
CN112363896A (zh) | 日志异常检测系统 | |
CN114328048A (zh) | 一种磁盘故障预测方法及装置 | |
CN115640510A (zh) | 一种电力时间序列数据特征提取方法、系统、设备和介质 | |
CN113761193A (zh) | 日志分类方法、装置、计算机设备和存储介质 | |
CN116542701A (zh) | 一种基于cnn-lstm组合模型的碳价预测方法及系统 | |
CN116347504A (zh) | 基于emd-mwoa-lstm的通信基站流量预测方法 | |
CN116257601A (zh) | 一种基于深度学习的违法词库构建方法及系统 | |
CN115328866A (zh) | 一种基于日志采样的流程实例下一事件预测方法与系统 | |
CN111737319B (zh) | 用户集群的预测方法、装置、计算机设备和存储介质 | |
CN114363004A (zh) | 风险评估方法、装置、计算机设备和存储介质 | |
Huang et al. | Multi-project Regression based Approach for Software Defect Number Prediction. | |
CN111931994A (zh) | 一种短期负荷及光伏功率预测方法及其系统、设备、介质 | |
CN113254428A (zh) | 一种基于决策树的缺失数据填充方法及系统 | |
CN111079842A (zh) | 一种时间序列结构体数据的模拟发生方法 | |
CN117172085B (zh) | 一种pccp断丝预测方法、装置、计算机设备及介质 | |
Zhou et al. | LGBM-CBFS: a heuristic feature sampling method based on tree ensembles | |
US20230195842A1 (en) | Automated feature engineering for predictive modeling using deep reinforcement learning | |
CN117454668B (zh) | 零部件失效概率的预测方法、装置、设备和介质 | |
CN117520631A (zh) | 一种基于大数据z+平台的z+作业优化方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211222 Address after: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.) Applicant after: Shenzhen Jiecheng Software Co.,Ltd. Address before: 266 Xincun West Road, Zhangdian District, Zibo City, Shandong Province Applicant before: Shandong University of Technology |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210723 |