CN115828863A - 混沌工程试验场景下应急预案自动生成方法 - Google Patents

混沌工程试验场景下应急预案自动生成方法 Download PDF

Info

Publication number
CN115828863A
CN115828863A CN202211512184.0A CN202211512184A CN115828863A CN 115828863 A CN115828863 A CN 115828863A CN 202211512184 A CN202211512184 A CN 202211512184A CN 115828863 A CN115828863 A CN 115828863A
Authority
CN
China
Prior art keywords
text
model
fault
data
structured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211512184.0A
Other languages
English (en)
Inventor
阮峰
张文鹏
耿宜龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Zhengfeng Information Technology Co ltd
Original Assignee
Nanjing Zhengfeng Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Zhengfeng Information Technology Co ltd filed Critical Nanjing Zhengfeng Information Technology Co ltd
Priority to CN202211512184.0A priority Critical patent/CN115828863A/zh
Publication of CN115828863A publication Critical patent/CN115828863A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

本发明公开了一种混沌工程试验场景下应急预案自动生成方法,包括如下步骤:步骤1:对故障语料库进行数据清洗与筛选等预处理任务;步骤2:利用经过步骤1预处理得到的结构化文本数据构建应急预警故障知识图谱;步骤3:使用基于深度学习的Seq2Seq‑Att‑Beam Search语义分析模型将自然语言转化为结构化条件数据;步骤4:将步骤3生成的结构化条件数据与故障问题通过文本嵌入的方式输入到以CTG模型为主干的文本生成模型,用于模型训练;步骤5:利用步骤4训练好的文本生成模型,输入故障问题,输出混沌工程场景应急预警方案。本发明可提高预警准确性,降低人力物力等成本。

Description

混沌工程试验场景下应急预案自动生成方法
技术领域
本发明属于应急预警技术领域,更具体地说,涉及一种混沌工程试验场景下应急预案自动生成方法。
背景技术
随着深度学习技术的演进,深度学习得到越来越广泛的关注和更多垂直行业的场景应用。语义分析模型以及文本生成模型则是基于深度学习技术,通过对语料数据集的训练实现应急预警方法的要求。混沌工程(Chaos Engineering)是通过主动向系统中引入软件或硬件的异常状态(扰动),制造故障场景并根据系统在各种压力下的行为表现确定优化策略的一种系统稳定性保障手段。
目前应急预警技术存在智能化水平不高,性能较低。
发明内容
本发明提出一种混沌工程试验场景下应急预案自动生成方法,可提高预警准确性,降低人力物力等成本。
为了解决上述技术问题至少之一,根据本发明的一方面,提供了一种混沌工程试验场景下应急预案自动生成方法,包括如下步骤:
步骤1:对故障语料库进行数据清洗与筛选等预处理任务;
步骤2:利用经过步骤1预处理得到的结构化文本数据构建应急预警故障知识图谱;
步骤3:使用基于深度学习的Seq2Seq-Att-Beam Search语义分析模型将自然语言转化为结构化条件数据;
步骤4:将步骤3生成的结构化条件数据与故障问题通过文本嵌入的方式输入到以CTG模型为主干的文本生成模型,用于模型训练;
步骤5:利用步骤4训练好的文本生成模型,输入故障问题,输出混沌工程场景应急预警方案。
为优化上述技术方案,采取的具体措施还包括:
进一步地,关于对故障语料库进行数据清洗与筛选等预处理任务:
对于原始故障语料库数据为带有图表,插图等的word格式文档,首先需要将文档里的文字内容和表格信息提取出来,进行格式转换为纯文本数据。待转换完毕,则需要对数据进行清洗与筛选从而转化为结构化数据。本发明采用正则表达式(Regular Expression,RE)筛选与命名体识别(Named Entity Recognition,NER)技术相结合的方式,将数据集中的故障名、故障启动条件以及故障处置要求等提取出来,并存储为结构化数据集。
进一步地,关于在数据预处理的基础上,利用得到的结构化文本数据构建应急预警故障知识图谱:
对于经过预处理后的结构化故障文本数据,本专利在此基础上构建应急预警故障知识图谱。它可以更加直观的展示各故障链路之间的关系,链路之间的节点与属性等,待系统中出现某一故障问题时,方便查询故障在知识图谱中所关联的各个节点与链路关系。
进一步地,关于使用基于深度学习的Seq2Seq-Att-Beam Search语义分析模型将自然语言转化为结构化条件数据:
本专利采用的是基于深度学习的以编码器-解码器(Encoder-Decoder)为架构的序列到序列(Sequence-to-Sequence,Seq2Seq)模型,并结合了注意力机制与集束搜索解码机制。模型的基本原理是两个循环神经网络(Recurrent Neural Network,RNN),并且针对文本题目可能会出现长度过长的问题,本专利使用Chinese-XLNET预训练模型,使得模型可输入超过1000个字符。在Seq2seq模型中,通常要求输入端及输出端序列是等长的,但在实际的工作中,诸多应用场景的输入和输出序列长度并不等量齐观,比如语义分析的两端序列就是不同的,而Seq2seq模型解决了序列长度不相等问题。Seq2seq模型是一个端到端的有序模型,它的模型结构中包含了Encoder和Decoder及其作为连接彼此之间桥梁的中间语义向量c。对于本专利所需的语义解析任务,即给定输入文本序列X=[x1,x2,...,xm],生成一个被编码成结构化条件数据的序列Y=[y1,y2,...,yn]。基于Seq2Seq框架的语义分析模型的训练目标是在给定输入文本序列X的条件下,使得生成序列Y的概率最大,即p(y1,y2,...,yn|x1,x2,...,xn)最大。
首先,编码器使用一个RNN神经网络fenc(·)来编码输入文本序列X,将RNN神经网络在时刻m的隐藏层输出值hm作为输入序列的特征向量c,如下公式(1)和公式(2):
Figure BDA0003969693960000021
c=hm (2)
其中,fenc(·)是RNN神经网络,其参数为θenc
Figure BDA0003969693960000022
为t时刻输入的词向量。
解码器使用另一个RNN神经网络fdec(·)、特征向量c和一个前馈神经网络g(·)来依次生成目标结构化条件数据序列Y。解码器首先用特征向量c来初始化神经网络fdec(·),然后使用t-1时刻的输出值yt-1来生成t时刻的输出yt。令st表示网络fdec(·)的隐藏层输出,ot∈(0,1)|v|为词汇表中所有词的后验概率,实现公式如下(3)(4)(5)(6):
s0=c (3)
st=fdec(st-1,eyt-1,θdec) (4)
ot=g(st,θ0) (5)
yt=argmax(ot) (6)
其中,fdec(·)是解码循环神经网络,g(·)是前馈神经网络,其激活函数为Softmax函数。θdec和θ0分别为fdec(·)和g(·)中的参数,ey-1为yt-1的词向量。y0和yn一般是代表开始的特殊符号<sos>和代表结束的特殊符号<eos>。特征向量c除了用来初始化神经网络fdec(·),还可以参与到序列Y所有时刻的运算过程中。
而本专利为了提高模型收敛速度以及减少搜索所占用的空间和时间复杂度,采用注意力(Attention)编码机制和集束搜索(Beam search)解码算法。具体地,解码器应当在输出的不同时间步都对编码器的每个状态(对应输入序列的每个时间步)给予不同的权重,于是在每个输出时刻,都可以通过这些不同的权重对编码器的隐藏层信息进行加权,从而得到一个随着时间步变化的上下文信息,该上下文信息相当于模型在当前时间步进行输出时,关注不同的输入而得到了不同的信息。将这些上下文信息作为对应时间步的输入之一,增强解码器输出时的判断能力。这些权重采取随机初始化的方式,在Seq2Seq模型训练时不停调整,以获取更丰富的信息。Beam search是一种动态规划算法,它只用于Seq2Seq模型的预测时:在当前时间步进行输出时,不再选择概率最高的结果进行输出,而是保留概率最高的K个;而在下一个时间步进行输出时,在计算概率时不再单纯计算输出某个元素的概率,而是计算从第1个时间步到当前时间步的所有输出形成的输出序列的联合概率,从而可以根据联合概率对当前时间步的输出进行排序。同样地,再次保留概率最高的K个作为当前时间步的输出给予下一个时间步使用。使用Beam search机制,一方面可以降低单个时间步预测出错时所带来的误差,因此可能在下一个时间步正确的输出会获得更高的概率;另一方面,在每个时间步都计算整体的输出序列的概率而不是单个时间步的输出元素的概率,更好地考虑了序列元素之间的相关性。
经过语义分析后,比如给模型输入中文“上市公司最少的5个行业是什么?”,输出则是结构化条件数据“select?result where{{select?n1(count(?n2)as?subresult)where{zg:SinaFinance rdfs:?n1.?n1 rdfs:?n2.}group by?n1}?n1 sct:hasChineseLabel?result.}order by desc(?subresult)limit 1”。
进一步地,关于将生成的结构化条件数据与故障问题通过文本嵌入的方式输入到以CTG模型为主干的文本生成模型,用于模型训练:
本专利针对传统文本生成任务内容风格、关键信息的缺失等问题,使用可控制的文本生成(ControlableTextGeneration,CTG)策略,在传统文本生成的基础上,增加对生成结果属性、关键信息的增强控制,使得生成的文本更加符合预期。首先,使用自监督的训练方式,采用中文预训练模型(Chinese Pretrained Models,CPM),在固定所有参数的基础上,训练下游的文本生成模型,以自注意力的方式来控制生成文本的内容。然后,给定问题文本p和控制文本c,也就是生成的结构化条件数据,模型生成和p保持通顺,内容上则包含c的文本t,可组成一段完整的文本x=[p,t],可用如下公式表达,其中,p=x1:d-1,t=xd:j
Figure BDA0003969693960000041
将问题文本x1:d-1和控制文本xd:j进行编码,得到它们提取的特征h1:d-1和hd:l,通过自注意交互,得到对应的新的特征h′1:d-1,再继续预测下一个词。
采用的自注意力模式机制,得到问题文本和控制文本的Q、K和V:
Figure BDA0003969693960000044
其中,Q是问题文本产生,控制文本只用于K和V。然后将它们的K和V分别拼接起来,再经过自注意力:
K′=[Kc,K],V′=[Vc,V] (9)
OP=softmax(W)V′ (10)
在得到OP之前,
Figure BDA0003969693960000042
是注意力矩阵的权重。针对控制文本c的关注程度,可以设置一些偏置项τ达到控制阈值的目的。最后将结果传入解码器进行解码操作,即可得到生成的文本。
考虑两个文本样本x=[p,q],y=[p′,q′],通过互为控制文本来生成质量更高的文本,将p′作为问题文本,q作为控制文本输入,生成的新文本Z的目的是在和p′保持流畅的同时,且尽可能保留控制条件的信息,也就是q的内容。其对应的损失函数如下:
Figure BDA0003969693960000043
依靠中文预训练模型CPM,以文本为控制变量的可控文本生成模型,能够更加全面地从多个角度控制文本生成内容,所生成的内容能够很好地贴合控制文本的属性、主题以及关键信息,这是生成预警信息的关键,且能够保持文本整体的流畅。
进一步地,关于利用训练好的文本生成模型,输入故障问题,输出混沌工程场景应急预警方案:
待文本生成模型训练完毕后,每当混沌工程系统中出现故障异常状况,将故障输入模型,模型会根据训练的内容生成故障对应的应急处理预案,达到预期的效果。
示例:Zookeeper服务故障,定时任务不执行,影响内外网文件同步及开标业务不能定时开标。经过语义分析后,生成结构化条件数据——SELECT?result where{?n1 sct:hasLabel“Zookeeper”.?n1 sct:“定时任务故障”?result.}。将问题与条件数据做拼接,组合成——Zookeeper服务故障,定时任务不执行,影响内外网文件同步及开标业务不能定时开标<sep>SELECT?result where{?n1 sct:hasLabel“Zookeeper”.?n1 sct:“定时任务故障”?result.}。输入文本生成模型中,得到生成预案结果——检查Zookeeper,停止服务故障,重启、验证检查正常。
根据本发明的另一方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明的混沌工程试验场景下应急预案自动生成方法中的步骤。
根据本发明的又一方面,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现本发明的混沌工程试验场景下应急预案自动生成方法中的步骤。
相比于现有技术,本发明至少具有如下有益效果:
本发明使用语义分析技术挖掘文本数据中的信息,将自然语言更准确的转化为结构化条件数据;
本发明模型可以弥补传统文本生成任务内容风格、关键信息的缺失等问题;
本发明的技术方案,弥补了现有技术中对于混沌工程场景下应急预警业务的不足。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍,显而易见地,下面描述中的附图仅仅涉及本发明的一些实施例,而非对本发明的限制。
图1示出了本发明方法流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。
除非另作定义,此处使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。
实施例1:
本实施例的混沌工程试验场景下应急预案自动生成方法,如图1所示,包括如下步骤:
步骤1:对故障语料库进行数据清洗与筛选等预处理任务;
步骤2:利用经过步骤1预处理得到的结构化文本数据构建应急预警故障知识图谱;
步骤3:使用基于深度学习的Seq2Seq-Att-Beam Search语义分析模型将自然语言转化为结构化条件数据;
步骤4:将步骤3生成的结构化条件数据与故障问题通过文本嵌入的方式输入到以CTG模型为主干的文本生成模型,用于模型训练;
步骤5:利用步骤4训练好的文本生成模型,输入故障问题,输出混沌工程场景应急预警方案。
为优化上述技术方案,采取的具体措施还包括:
进一步地,关于对故障语料库进行数据清洗与筛选等预处理任务:
对于原始故障语料库数据为带有图表,插图等的word格式文档,首先需要将文档里的文字内容和表格信息提取出来,进行格式转换为纯文本数据。待转换完毕,则需要对数据进行清洗与筛选从而转化为结构化数据。本专利采用正则表达式(Regular Expression,RE)筛选与命名体识别(Named Entity Recognition,NER)技术相结合的方式,将数据集中的故障名、故障启动条件以及故障处置要求等提取出来,并存储为结构化数据集。
进一步地,关于在数据预处理的基础上,利用得到的结构化文本数据构建应急预警故障知识图谱:
对于经过预处理后的结构化故障文本数据,本专利在此基础上构建应急预警故障知识图谱。它可以更加直观的展示各故障链路之间的关系,链路之间的节点与属性等,待系统中出现某一故障问题时,方便查询故障在知识图谱中所关联的各个节点与链路关系。
进一步地,关于使用基于深度学习的Seq2Seq-Att-Beam Search语义分析模型将自然语言转化为结构化条件数据:
本专利采用的是基于深度学习的以编码器-解码器(Encoder-Decoder)为架构的序列到序列(Sequence-to-Sequence,Seq2Seq)模型,并结合了注意力机制与集束搜索解码机制。模型的基本原理是两个循环神经网络(Recurrent Neural Network,RNN),并且针对文本题目可能会出现长度过长的问题,本专利使用Chinese-XLNET预训练模型,使得模型可输入超过1000个字符。在Seq2seq模型中,通常要求输入端及输出端序列是等长的,但在实际的工作中,诸多应用场景的输入和输出序列长度并不等量齐观,比如语义分析的两端序列就是不同的,而Seq2seq模型解决了序列长度不相等问题。Seq2seq模型是一个端到端的有序模型,它的模型结构中包含了Encoder和Decoder及其作为连接彼此之间桥梁的中间语义向量c。对于本专利所需的语义解析任务,即给定输入文本序列X=[x1,x2,...,xm],生成一个被编码成结构化条件数据的序列Y=[y1,y2,...,yn]。基于Seq2Seq框架的语义分析模型的训练目标是在给定输入文本序列X的条件下,使得生成序列Y的概率最大,即p(y1,y2,...,yn|x1,x2,...,xn)最大。
首先,编码器使用一个RNN神经网络fenc(·)来编码输入文本序列X,将RNN神经网络在时刻m的隐藏层输出值hm作为输入序列的特征向量c,如下公式(1)和公式(2):
Figure BDA0003969693960000071
c=hm (2)
其中,fenc(·)是RNN神经网络,其参数为θenc
Figure BDA0003969693960000072
为t时刻输入的词向量。
解码器使用另一个RNN神经网络fdec(·)、特征向量c和一个前馈神经网络g(·)来依次生成目标结构化条件数据序列Y。解码器首先用特征向量c来初始化神经网络fdec(·),然后使用t-1时刻的输出值yt-1来生成t时刻的输出yt。令st表示网络fdec(·)的隐藏层输出,ot∈(0,1)|v|为词汇表中所有词的后验概率,实现公式如下(3)(4)(5)(6):
s0=c (3)
Figure BDA0003969693960000073
ot=g(st,θ0) (5)
yt=argmax(ot)(6)
其中,fdec(·)是解码循环神经网络,g(·)是前馈神经网络,其激活函数为Softmax函数。θdec和θ0分别为fdec(·)和g(·)中的参数,ey-1为yt-1的词向量。y0和yn一般是代表开始的特殊符号<sos>和代表结束的特殊符号<eos>。特征向量c除了用来初始化神经网络fdec(·),还可以参与到序列Y所有时刻的运算过程中。
而本专利为了提高模型收敛速度以及减少搜索所占用的空间和时间复杂度,采用注意力(Attention)编码机制和集束搜索(Beam search)解码算法。具体地,解码器应当在输出的不同时间步都对编码器的每个状态(对应输入序列的每个时间步)给予不同的权重,于是在每个输出时刻,都可以通过这些不同的权重对编码器的隐藏层信息进行加权,从而得到一个随着时间步变化的上下文信息,该上下文信息相当于模型在当前时间步进行输出时,关注不同的输入而得到了不同的信息。将这些上下文信息作为对应时间步的输入之一,增强解码器输出时的判断能力。这些权重采取随机初始化的方式,在Seq2Seq模型训练时不停调整,以获取更丰富的信息。Beam search是一种动态规划算法,它只用于Seq2Seq模型的预测时:在当前时间步进行输出时,不再选择概率最高的结果进行输出,而是保留概率最高的K个;而在下一个时间步进行输出时,在计算概率时不再单纯计算输出某个元素的概率,而是计算从第1个时间步到当前时间步的所有输出形成的输出序列的联合概率,从而可以根据联合概率对当前时间步的输出进行排序。同样地,再次保留概率最高的K个作为当前时间步的输出给予下一个时间步使用。使用Beam search机制,一方面可以降低单个时间步预测出错时所带来的误差,因此可能在下一个时间步正确的输出会获得更高的概率;另一方面,在每个时间步都计算整体的输出序列的概率而不是单个时间步的输出元素的概率,更好地考虑了序列元素之间的相关性。
经过语义分析后,比如给模型输入中文“上市公司最少的5个行业是什么?”,输出则是结构化条件数据“select?result where{{select?n1(count(?n2)as?subresult)where{zg:SinaFinance rdfs:?n1.?n1 rdfs:?n2.}group by?n1}?n1 sct:hasChineseLabel?result.}order by desc(?subresult)limit 1”。
进一步地,关于将生成的结构化条件数据与故障问题通过文本嵌入的方式输入到以CTG模型为主干的文本生成模型,用于模型训练:
本专利针对传统文本生成任务内容风格、关键信息的缺失等问题,使用可控制的文本生成(ControlableTextGeneration,CTG)策略,在传统文本生成的基础上,增加对生成结果属性、关键信息的增强控制,使得生成的文本更加符合预期。首先,使用自监督的训练方式,采用中文预训练模型(Chinese Pretrained Models,CPM),在固定所有参数的基础上,训练下游的文本生成模型,以自注意力的方式来控制生成文本的内容。然后,给定问题文本p和控制文本c,也就是生成的结构化条件数据,模型生成和p保持通顺,内容上则包含c的文本t,可组成一段完整的文本x=[p,t],可用如下公式表达,其中,p=x1:d-1,t=xd:j
Figure BDA0003969693960000081
将问题文本x1:d-1和控制文本xd:j进行编码,得到它们提取的特征h1:d-1和hd:l,通过自注意交互,得到对应的新的特征h′1:d-1,再继续预测下一个词。
采用的自注意力模式机制,得到问题文本和控制文本的Q、K和V:
Figure BDA0003969693960000082
其中,Q是问题文本产生,控制文本只用于K和V。然后将它们的K和V分别拼接起来,再经过自注意力:
K′=[Kc,K],V′=[Vc,V] (9)
OP=softmax(W)V′ (10)
在得到OP之前,
Figure BDA0003969693960000083
是注意力矩阵的权重。针对控制文本c的关注程度,可以设置一些偏置项τ达到控制阈值的目的。最后将结果传入解码器进行解码操作,即可得到生成的文本。
考虑两个文本样本x=[p,q],y=[p′,q′],通过互为控制文本来生成质量更高的文本,将p′作为问题文本,q作为控制文本输入,生成的新文本z的目的是在和p′保持流畅的同时,且尽可能保留控制条件的信息,也就是q的内容。其对应的损失函数如下:
Figure BDA0003969693960000091
依靠中文预训练模型CPM,以文本为控制变量的可控文本生成模型,能够更加全面地从多个角度控制文本生成内容,所生成的内容能够很好地贴合控制文本的属性、主题以及关键信息,这是生成预警信息的关键,且能够保持文本整体的流畅。
进一步地,关于利用训练好的文本生成模型,输入故障问题,输出混沌工程场景应急预警方案:
待文本生成模型训练完毕后,每当混沌工程系统中出现故障异常状况,将故障输入模型,模型会根据训练的内容生成故障对应的应急处理预案,达到预期的效果。
示例:Zookeeper服务故障,定时任务不执行,影响内外网文件同步及开标业务不能定时开标。经过语义分析后,生成结构化条件数据——SELECT?result where{?n1 sct:hasLabel“Zookeeper”.?n1 sct:“定时任务故障”?result.}。将问题与条件数据做拼接,组合成——Zookeeper服务故障,定时任务不执行,影响内外网文件同步及开标业务不能定时开标<sep>SELECT?result where{?n1 sct:hasLabel“Zookeeper”.?n1 sct:“定时任务故障”?result.}。输入文本生成模型中,得到生成预案结果——检查Zookeeper,停止服务故障,重启、验证检查正常。
本发明的思想为:首先,对故障语料库进行数据清洗与筛选等预处理任务;然后,利用经过预处理得到的结构化文本数据构建应急预警故障知识图谱;之后,使用基于深度学习的Seq2Seq-Att-Beam Search语义分析模型将自然语言转化为结构化条件数据;再之后,将生成的结构化条件数据与故障问题通过文本嵌入的方式输入到以CTG模型为主干的文本生成模型,用于模型训练;最后,利用训练好的文本生成模型,输入故障问题,输出混沌工程场景应急预警方案。
实施例2:
本实施例的计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现实施例1的混沌工程试验场景下应急预案自动生成方法中的步骤。
本实施例的计算机可读存储介质可以是终端的内部存储单元,例如终端的硬盘或内存;本实施例的计算机可读存储介质也可以是所述终端的外部存储设备,例如终端上配备的插接式硬盘,智能存储卡,安全数字卡,闪存卡等;进一步地,计算机可读存储介质还可以既包括终端的内部存储单元也包括外部存储设备。
本实施例的计算机可读存储介质用于存储计算机程序以及终端所需的其他程序和数据,计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
实施例3:
本实施例的计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现实施例1的混沌工程试验场景下应急预案自动生成方法中的步骤。
本实施例中,处理器可以是中央处理单元,还可以是其他通用处理器、数字信号处理器、专用集成电路、现成可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等;存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据,存储器的一部分还可以包括非易失性随机存取存储器,例如,存储器还可以存储设备类型的信息。
本领域内的技术人员应明白,实施例公开的内容可提供为方法、系统、或计算机程序产品。因此,本方案可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本方案可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本方案是参照根据本方案实施例的方法、和计算机程序产品的流程图和/或方框图来描述的,应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合;可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
本发明所述实例仅仅是对本发明的优选实施方式进行描述,并非对本发明构思和范围进行限定,在不脱离本发明设计思想的前提下,本领域工程技术人员对本发明的技术方案作出的各种变形和改进,均应落入本发明的保护范围。

Claims (6)

1.一种混沌工程试验场景下应急预案自动生成方法,其特征在于,包括如下步骤:
步骤1:对故障语料库进行数据清洗与筛选等预处理任务;
步骤2:利用经过步骤1预处理得到的结构化文本数据构建应急预警故障知识图谱;
步骤3:使用基于深度学习的Seq2Seq-Att-Beam Search语义分析模型将自然语言转化为结构化条件数据;
步骤4:将步骤3生成的结构化条件数据与故障问题通过文本嵌入的方式输入到以CTG模型为主干的文本生成模型,用于模型训练;
步骤5:利用步骤4训练好的文本生成模型,输入故障问题,输出混沌工程场景应急预警方案。
2.根据权利要求1所述的方法,其特征在于,步骤1具体如下:将文档里的文字内容和表格信息提取出来,转换为纯文本数据;待转换完毕,则需要对数据进行清洗与筛选从而转化为结构化数据;采用正则表达式筛选与命名体识别技术相结合的方式,将数据集中的故障名、故障启动条件以及故障处置要求等提取出来,并存储为结构化数据集。
3.根据权利要求1所述的方法,其特征在于,步骤3具体如下:
给定输入文本序列X=[x1,x2,...,xm],生成一个被编码成结构化条件数据的序列Y=[y1,y2,...,yn];基于Seq2Seq框架的语义分析模型的训练目标是在给定输入文本序列X的条件下,使得生成序列Y的概率最大,即p(y1,y2,...,yn|x1,x2,...,xn)最大;
首先,编码器使用一个RNN神经网络fenc(-)来编码输入文本序列X,将RNN神经网络在时刻m的隐藏层输出值hm作为输入序列的特征向量c,如下公式(1)和公式(2):
Figure FDA0003969693950000011
c=hm (2)
其中,fenc(·)是RNN神经网络,其参数为θenc
Figure FDA0003969693950000012
为t时刻输入的词向量;
解码器使用另一个RNN神经网络fdec(·)、特征向量c和一个前馈神经网络g(·)来依次生成目标结构化条件数据序列Y;解码器首先用特征向量c来初始化神经网络fdec(·),然后使用t-1时刻的输出值yt-1来生成t时刻的输出yt;令st表示网络fdec(·)的隐藏层输出,ot∈(0,1)|v|为词汇表中所有词的后验概率,实现公式如下(3)(4)(5)(6):
s0=c (3)
Figure FDA0003969693950000013
ot=g(st,θ0) (5)
yt=argmax(ot) (6)
其中,fdec(·)是解码循环神经网络,g(·)是前馈神经网络,其激活函数为Softmax函数;θdec和θ0分别为fdec(·)和g(·)中的参数,ey-1为yt-1的词向量;y0和yn一般是代表开始的特殊符号<sos>和代表结束的特殊符号<eos>;特征向量c除了用来初始化神经网络fdec(·),还可以参与到序列Y所有时刻的运算过程中。
4.根据权利要求1所述的方法,其特征在于,步骤4具体为:
首先,使用自监督的训练方式,采用预训练模型,在固定所有参数的基础上,训练下游的文本生成模型,以自注意力的方式来控制生成文本的内容;
然后,给定问题文本p和控制文本c,也就是生成的结构化条件数据,模型生成和p保持通顺,内容上则包含c的文本t,可组成一段完整的文本x=[p,t],用如下公式表达,其中,p=x1:d-1,t=xd:j
Figure FDA0003969693950000021
将问题文本x1:d-1和控制文本xd:j进行编码,得到它们提取的特征h1:d-1和hd:l,通过自注意交互,得到对应的新的特征h′1:d-1,再继续预测下一个词’;
采用的自注意力模式机制,得到问题文本和控制文本的Q、K和V:
Figure FDA0003969693950000022
其中,Q是问题文本产生,控制文本只用于K和V。然后将它们的K和V分别拼接起来,再经过自注意力:
K′=[Kc,K],V′=[Vc,V] (9)
OP=softmax(W)V′ (10)
在得到OP之前,
Figure FDA0003969693950000023
是注意力矩阵的权重;针对控制文本c的关注程度,设置偏置项τ达到控制阈值的目的;最后将结果传入解码器进行解码操作,即可得到生成的文本。
考虑两个文本样本x=[p,q],y=[p′,q′],通过互为控制文本来生成质量更高的文本,将p′作为问题文本,q作为控制文本输入,生成的新文本Z的目的是在和p′保持流畅的同时,且尽可能保留控制条件的信息,也就是q的内容;其对应的损失函数如下:
Figure FDA0003969693950000024
依靠预训练模型,以文本为控制变量的可控文本生成模型。
5.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:该程序被处理器执行时实现如权利要求1~4中任一项所述的混沌工程试验场景下应急预案自动生成方法中的步骤。
6.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~4中任一项所述的混沌工程试验场景下应急预案自动生成方法中的步骤。
CN202211512184.0A 2022-11-29 2022-11-29 混沌工程试验场景下应急预案自动生成方法 Pending CN115828863A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211512184.0A CN115828863A (zh) 2022-11-29 2022-11-29 混沌工程试验场景下应急预案自动生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211512184.0A CN115828863A (zh) 2022-11-29 2022-11-29 混沌工程试验场景下应急预案自动生成方法

Publications (1)

Publication Number Publication Date
CN115828863A true CN115828863A (zh) 2023-03-21

Family

ID=85532700

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211512184.0A Pending CN115828863A (zh) 2022-11-29 2022-11-29 混沌工程试验场景下应急预案自动生成方法

Country Status (1)

Country Link
CN (1) CN115828863A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116757460A (zh) * 2023-08-23 2023-09-15 南京争锋信息科技有限公司 基于深度学习的应急指挥调度平台构建方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116757460A (zh) * 2023-08-23 2023-09-15 南京争锋信息科技有限公司 基于深度学习的应急指挥调度平台构建方法及系统
CN116757460B (zh) * 2023-08-23 2024-01-09 南京争锋信息科技有限公司 基于深度学习的应急指挥调度平台构建方法及系统

Similar Documents

Publication Publication Date Title
CN109871529B (zh) 语言处理方法和设备
AU2020244577B2 (en) Slot filling with contextual information
US11663483B2 (en) Latent space and text-based generative adversarial networks (LATEXT-GANs) for text generation
CN111460833B (zh) 文本生成方法、装置和设备
Sojasingarayar Seq2seq ai chatbot with attention mechanism
CN112183061B (zh) 一种多意图口语理解方法、电子设备和存储介质
CN114860915A (zh) 一种模型提示学习方法、装置、电子设备及存储介质
WO2023231513A1 (zh) 对话内容的生成方法及装置、存储介质、终端
CN115828863A (zh) 混沌工程试验场景下应急预案自动生成方法
CN114048301B (zh) 一种基于满意度的用户模拟方法及系统
CN115994223A (zh) 序列化多标签分类方法、装置、设备和介质
Zhang et al. ET5: A novel end-to-end framework for conversational machine reading comprehension
CN116227603A (zh) 一种事件推理任务的处理方法、设备及介质
CN112364659A (zh) 一种无监督的语义表示自动识别方法及装置
CN116702765A (zh) 一种事件抽取方法、装置及电子设备
CN110909174A (zh) 一种基于知识图谱的简单问答中实体链接的改进方法
CN112966527B (zh) 一种基于自然语言推理的关系抽取模型的生成方法
KR102589074B1 (ko) 챗봇 운영 방법 및 장치
CN112434143B (zh) 基于gru单元隐藏状态约束的对话方法、存储介质及系统
CN114626529A (zh) 一种自然语言推理微调方法、系统、装置及存储介质
CN113010635B (zh) 一种文本纠错方法及装置
CN112287641B (zh) 一种同义句生成方法、系统、终端及存储介质
CN113312448B (zh) 一种诗歌生成方法、系统及可读存储介质
CN115114930A (zh) 一种基于序列到森林的非连续实体识别方法
CN114329005A (zh) 信息处理方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination