CN113962219A - 面向电力变压器知识检索和问答的语义匹配方法及系统 - Google Patents
面向电力变压器知识检索和问答的语义匹配方法及系统 Download PDFInfo
- Publication number
- CN113962219A CN113962219A CN202111192363.6A CN202111192363A CN113962219A CN 113962219 A CN113962219 A CN 113962219A CN 202111192363 A CN202111192363 A CN 202111192363A CN 113962219 A CN113962219 A CN 113962219A
- Authority
- CN
- China
- Prior art keywords
- transformer
- layer
- question
- input
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了面向电力变压器知识检索和问答的语义匹配方法及系统,属于电力变压器设备技术领域。现有的语义匹配方法,很难准确识别基层运检人员检索/问答语义,影响基层运检人员的运检效率。本发明的面向电力变压器知识检索和问答的语义匹配方法,通过构建基于小样本变压器问句模板的语料增强模型,并结合变压器知识图谱以及近义词库,实现变压器语料文本的增强以及数据增强;然后利用变压器语料数据以及人工神经网络技术,训练形成一体化识别模型;再通过一体化识别模型在语料基础上实现对用户查询意图和槽位的联合识别,进而能准确识别用户检索/问答语义,有效提高用户的运检效率。
Description
技术领域
本发明涉及面向电力变压器知识检索和问答的语义匹配方法及系统,属于电力变压器设备技术领域。
背景技术
在设备运检中存在大量的知识,如设备检修标准、导则、设备故障案例等,这些知识主要服务电力基层实际业务,从基层巡视、消缺、试验、检修等基础作业的角度出发,这些电力知识是基层运检人员在业务执行中频繁出现、重点关心的,目前对这些共性知识的应用形式以关键字检索为主,基于知识的搜索和问答等知识应用尚处于探索阶段。
进一步,电力企业围绕着变压器设备构建了垂直性的知识图谱,图谱包含了变压器相关的各类知识点,包括变压器台账、变压器故障、检测标准等,比如#1主变就是一个实体知识,该实体有各种属性值,比如电压等级,同时也有一些关系,比如所属电站,该关系指向一个变电站。
电力公司基层运检人员在开展日常的设备运维巡检工作时,需要对上述知识点进行灵活的检索,检索的形式包括检索引擎及问答机器人,但在进行检索/问答的过程中面临着以下挑战,包括:
1)查询形式不规范,存在口语化、简称、缩写等特点
一线员工在使用搜索和问答机器人时,输入的形式呈现出口语化、存在大量简称、近似名称的特点,比如查询某变电站1号变压器,输入形式包括了某变电站1号变、某站1号主变压器、某电站1#变、某变电站1号变等以及“图们220kV变电站”简称“图们站”等简称。
2)存在大量的近似问法
比如,查询某个变压器的生产厂家的情况存在很多近似性的问法,比如“某变电站1号变压器生产厂家”、“某变电站1号变压器是哪里生产的?”、“哪家厂子生产的某变电站1号变?”、“哪个厂子制造的某变电站1号变”等。
3)变压器问答语料较少
电力变压器问答属于很细分的垂直性领域,该领域公开的语料数据较少,属于小样本数据空间。
由于存在上述诸多问题,导致现有的面向电力变压器知识检索和问答的语义匹配方法,很难准确识别基层运检人员检索/问答语义,影响基层运检人员的运检效率。
发明内容
针对现有技术的缺陷,本发明的目的在于提供一种基于小样本变压器问句模板的语料增强模型,并结合变压器知识图谱以及近义词库,实现变压器语料文本的增强以及数据增强;利用变压器语料数据以及人工神经网络技术,训练形成一体化识别模型;再通过一体化识别模型在语料基础上实现对用户查询意图和槽位的联合识别,进而能准确识别用户检索/问答语义,有效提高用户的运检效率的面向电力变压器知识检索和问答的语义匹配方法以及系统。
为实现上述目的,本发明的技术方案为:
一种面向电力变压器知识检索和问答的语义匹配方法,
第一步,构建基于变压器的知识图谱KG;
第二步,根据第一步中的知识图谱KG以及近义词库,并利用小样本变压器问句模板,建立语料增强模型,快速构建变压器语料数据;
第三步,针对第二步中的变压器语料数据,利用人工神经网络技术,训练形成一体化识别模型;
所述一体化识别模型,利用双向长短期记忆网络BILSTM以及注意力机制Attention,对变压器问答意图进行判断,根据问答意图对输入语句的槽位进行有效识别;
并将识别出的槽位信息与第一步中的知识图谱KG的变压器进行链接,形成有效识别系统;
第四步,利用第三步中的一体化识别模型,对用户输入的检索或/和问答语句的语义进行有效匹配。
本发明经过不断探索以及试验,构建基于小样本变压器问句模板的语料增强模型,并结合变压器知识图谱以及近义词库,实现变压器语料文本的增强以及数据增强;然后利用变压器语料数据以及人工神经网络技术,训练形成一体化识别模型;再通过一体化识别模型在语料基础上实现对用户查询意图和槽位的联合识别,进而能准确识别用户检索/问答语义,有效提高用户的运检效率,特别适合应用在电力变压器知识检索和问答上。
作为优选技术措施:
所述第一步中的知识图谱为基于图的数据结构,采用三元组RDF的形式描述变压器的属性值、变压器与变压器的关系,其包括若干节点(Point)和边(Edge);
所述节点,用于表示某一变压器的各种属性值;
所述边,用于表示变压器与变压器之间的关系;
所述属性值包括变压器台账、变压器故障、检测标准。
作为优选技术措施:
所述第二步中的小样本变压器问句模板为基于槽位的问句模板,用于表达用户输入的语义,其包括用户输入的语句及对该语句的语义标注构成;
语料增强模型的构建方法如下:
利用深度学习方法,训练问答相关数据,进行小样本数据增强,并通过大量的专业性增强数据集合通用性的词库,增加小样本中的语料数据数量。
作为优选技术措施:
所述第三步中的注意力机制Attention,通过快速扫描用户输入的检索或/和问答语句的语义,获得需要重点关注的目标区域,即注意力焦点;
然后对注意力焦点投入更多的注意力资源,以获得更多所需要关注的目标的细节信息,并抑制其它无用信息;
基于注意力机制,可以提升基于RNN(长短期神经网络LSTM或GRU)的Encoder+Decoder模型的效果。
一体化识别模型,包括问题输入层、语义分析匹配层、查询检索层、答案显示层;
其前一层的输出作为后一层的输入;
所述问题输入层,用于接收用户输入,并对用户输入的语句进行分词,提取语句词汇;
针对用户输入呈现出模糊性、口语化、简写、同一问题存在各种近义表述、多次交互输入的问题;利用中文分词器jieba对输入语句进行切分,切词的策略是最长词汇策略,并去除掉停用词和无意义的词汇;
用户输入呈现出模糊性、口语化、简写、同一问题存在各种近义表述、多次交互输入等问题;例如,用户要查询“长春站1号主变生产厂家是哪里?”,该问题也可能输入为“长春220KV变电站1号主变压器生产厂家是哪家”、“哪家厂子制造的长春站1号变”等近义问句;
本发明基于中文分词器jieba对输入语句进行切分,切词策略是最长词汇策略,并去除掉停用词和无意义的词汇,比如“哪家厂子制造的长春站1号变”这句话中,需要去除“的”等无意义的词汇;
所述语义分析匹配层,用于对问题输入层传递的语句进行语义分析;
利用双向长短期记忆网络BILSTM以及注意力机制Attention,对输入语句语义的分析匹配;其具体包括以下步骤:
S1,对分词器形成的词汇用向量表示,并基于预训练模型BERT计算每个词汇的词向量;
S2,通过双向长短期记忆网络BILSTM以及注意力机制Attention对S1中词向量的特征进行编码;
S3,将S2中编码后的词向量输入到语义意图分类器与语义槽位分类器中,通过变压器链接操作,输出查询的标准变压器名称或/和属性名称或/和关系名称信息;
查询检索层,用于根据意图识别与槽位提取层传递的概念、变压器、属性,构建查询子图;并将查询转换为搜索引擎(Elasticsearch,ES)查询语句,返回潜在的三元组或者答案Q/A;
以上面的“长春站1号主变是哪家厂子制造的”这个列子为例,经过意图识别模型和槽位识别模型识别后;基于“长春220KV变电站–1号主变压器–生产厂家”先根据“长春220kV变电站–1号主变压器”按照如下ES查询语句,可获得1号主变压器的详细信息;
答案显示层,用于根据答案的不同进行不同的展示,答案的类型分为集合类型查询、变压器类型查询、变压器属性查询三类。
作为优选技术措施:
所述语义分析匹配层包括词向量层、双向长短期神经网络BILSTM编码层、注意力层、意图与槽位联合识别层;
词向量层为基于预训练模型BERT表示词汇的向量,用于将文字转换成能计算的词向量模型;
通过词向量模型,将每个单词从一维空间转换为嵌入数字的具有连续向量的多维空间;
优选的,利用预训练模型BERT对用户输入的词汇进行计算,计算词汇的向量表示,计算出的词向量的维度是204;
双向长短期记忆网络BILSTM编码层由方向不同的两层长短期神经网络LSTM的叠加而成;
每层的长短期神经网络LSTM包括一组具有链状结构的人工神经网络单元;
注意力层,用于确定用户输入的关键特征,即计算出局部特征向量;
意图和槽位联合识别层,用于对基于注意力算出的词向量特征进行解码,对其进行分类,其包括意图分类模型与槽位分类模型;
采用的每层长短期神经网络LSTM网络单元的数量是300个。
作为优选技术措施:
长短期神经网络LSTM包括至少一个元胞状态组件、遗忘门、记忆门、输出门,通过元胞状态组件、遗忘门、记忆门、输出门的交互,实现对序列数据的长距离信息处理;
所述元胞状态组件为数据链,用于承载信息,并使得信息能不改变的传输;
所述遗忘门通过遗忘因子ft决定从元胞状态中遗忘或舍弃掉的信息;
遗忘因子ft的计算公式如下所示:
ft=σ(Wf·[ht-1,xt]+bf)
在上式中,W是权重矩阵,通过后续的模型训练计算而来,σ是一个激活函数,即ogistic函数,用于隐层神经元输出,取值范围为(0,1),它将一个实数映射到(0,1)的区间,用来做二分类;
遗忘因子以ht-1和xt作为输入,通过σ神经网络进行计算,输出一个0-1之间的数字,1表示“完全保留该信息”,0表示“完全丢弃该信息”;
元胞状态Ct-1中的每一个元素,都会经过遗忘门进行判断,从而确定要保留和遗忘Ct-1的哪个部分;例如,在自然语言模型中,想要通过一个词来预测下一个词,单元模块Ct-1中包含的某个属性在下一个模块单元不需要,就可以将这个属性数据通过遗忘门丢弃;
记忆门,用于决定将把哪些新信息存储到元胞状态中;
记忆门计算方法如下:
首先,利用一个σ神经网络层决定需要更新哪些信息,用it进行表示;
it的计算公式如下:
it=σ(Wi·[ht-1,xt]+bi)
其中的Wi是权重矩阵,是通过后续的数据训练可以计算出来的;
其次,在函数tanh层创造了一个新的候选值,函数tanh是双曲函数中的一个;
tanh()为双曲正切,函数过原点,产生的值的值域为(-1,1);
其中,Wc是权重矩阵,通过训练可以得到,bc是线性偏移量。
最后,在旧的细胞状态Ct-1基础之上对其值进行更新,得到新的Ct的值;
Ct的计算公式如下:
输出门,用于基于目前的元胞状态,加入一些过滤,输出想要输出的信息;
输出门的计算公式如下:
首先建立一个σ神经网络层的门,来决定将输出元胞的哪些部分,输出的信息用ot表示,ot的计算公式如下:
ot=σ(Wo·[ht-1,xt]+bo)
其中,Wo是权重矩阵,通过后续的训练计算出来,bo是线性偏移量。
然后将元胞状态通过函数tanh激活处理之后,与ot相乘,然后输出想输出的部分ht,ht的计算公式如下:
ht=ot×tanh(Ct)
经过双向长短期记忆网络BILSTM编码层编码后,实现对输入语句的全量特征的编码,输出全局特征向量;
全局特征量包括当前词汇的文本值、词性、前1-50个词汇的文本值、词性、位置、后面50个词汇的文本值、词性、位置特征;
然后将全局特征向量输入后,后续的注意力层进行局部关键特征提取。
作为优选技术措施:
注意力层的局部特征向量为Ct,其计算方法如下:
eij=va Ttanh(waCt-1+uahj);
其中,T为双向长短期记忆网络BILSTM层输出的向量序列个数,atj为注意力层给所有的特征向量赋予的权重,eij是输入和输出的关联能量,va是全局的特征向量,ct-1是注意力模型的上一时刻状态向量,hj为双向长短期记忆网络BILSTM层输出的特征向量序列,ua为上一时刻特征向量的权值,wa为注意力机制上一时刻的权值。
例如,查询语句“长春站1号主变生产厂家是哪里?”,“长春220KV变电站1号主变压器生产厂家是哪家”、“哪家厂子制造的长春站1号变”,尽管分词后的词汇不相同,但是三个句子的关键点都是“生产厂家”、“变压器”,这个关键点就是所谓的“注意力”,注意力层的作用在于形成局部特征向量。
作为优选技术措施:
意图和槽位联合识别层的两个分类模型基于Softmax分类器生成;
所述Softmax分类器的计算公式如下:
其中zi为第i个节点的输出值,C为输出节点的个数,即分类的类别个数;
意图分类模型,基于softmax分类器实现,用于确定用户意图的分类,其包括包括槽位分类模块、实体链接模块;
槽位分类模块,用于表达自然语言语句的基本语义位置;
槽位是NLP里面的一个基本概念,本发明基于槽位的思路,设计了基于槽位的问句模板,以表达用户输入的语义;比如“哪里的生产厂家制造的#1主变?”这个语句可以提取的槽位包括【生产厂家】、【制造】、【设备类型】这几个槽位;本发明通过对双向长短期记忆网络BILSTM网络层的输出,基于Softmax分类器完成输入数据到输出分类的拟合;
实体链接模块,用于经过槽位分类模型,找出用户输入中存在的槽位,提取出槽位的信息,并通过文本相似度模型完成槽位信息与图谱库中变压器名称的对齐,即变压器链接,
比如将“长春站”对齐到“长春220kV变电站”,“1号变”对齐到“1号主变压器”;本发明采用了基于余弦相似度的文本相似度模型解决变压器链接问题;
文本相似度模型为基于余弦相似度的文本相似度模型;
余弦相似度,即余弦距离,利用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量;余弦值越接近1,就表明夹角越接近0度,表明两个向量越相似,即"余弦相似性";
其向量夹角的余弦相似度计算公式如下:
其中,A、B分别短文本的句向量;
A、B分别为n维向量,Ai是A向量的第i个值,Bi是B向量的第i个值;
余弦相似度值的取值范围为[0,1],值越大相似度越高。
本发明基于语言模型BERT表示A与B两个短文本句子的句向量,向量的维度n为202维,通过计算A与B两个短文本的句向量的余弦相似度判断二者的相似化程度。
作为优选技术措施:
所述答案显示层,针对不同的分类,采用不同的显示策略;
1)集合类型,其类型数据包括数字及集合;
针对用户提问的是哪个集合类型的查询;
比如“赤头青220kV变电站有哪些变压器”,则需要返回集合的数量及具体的集合数;
2)变压器类型,其值为某个具体的变压器,显示变压器的详细属性;
比如输入“赤头青220kV变电站#1主变生产厂家是哪里?”,则出来的是具体的变压器“达乌尔黄鼠有限责任公司”,并显示变压器的详细信息;
3)变压器属性值类型,其值为具体的某个变压器的名称或者变压器的属性值;
比如用户提问“赤头青220kV变电站#1主变电压等级”,则返回的值是#1主变这个变压器的电压等级属性的值。
作为优选技术措施:
一种面向电力变压器知识检索和问答的语义匹配系统,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述的一种面向电力变压器知识检索和问答的语义匹配方法。
本发明基于小样本变压器问句模板的语料增强方法,能快速构建变压器语料数据,并针对语料数据应用人工神经网络技术,对用户输入语句进行语义意图和语义槽位的联合识别,实体进行链接。
本发明方案详尽,切实可行,便于应用,易于实现,具有重要的工程实践意义,能准确识别基层运检人员检索/问答语义,有效提高基层运检人员的检索/问答效率以及运检效率。
与现有技术相比,本发明具有以下有益效果:
本发明经过不断探索以及试验,构建基于小样本变压器问句模板的语料增强模型,并结合变压器知识图谱以及近义词库,实现变压器语料文本的增强以及数据增强;然后利用变压器语料数据以及人工神经网络技术,训练形成一体化识别模型;再通过一体化识别模型在语料基础上实现对用户查询意图和槽位的联合识别,进而能准确识别用户检索/问答语义,有效提高用户的运检效率,特别适合应用在电力变压器知识检索和问答上。
进一步,本发明方案详尽,切实可行,便于应用,易于实现,具有重要的工程实践意义,有效提高基层运检人员的检索/问答效率以及运检效率。
附图说明
图1为本发明用户输入的语义解析匹配过程示图;
图2为本发明长短期神经网络LSTM网络单元结构示图;
图3为本发明长短期神经网络LSTM结构示图;
图4为本发明元胞状态结构示图;
图5为本发明记忆门结构示图;
图6为本发明输出门结构示图;
图7为本发明按照ES查询语句,获得1号主变压器信息的流程示图;
图8为本发明按照ES查询语句,获得生产厂家信息的流程示图;
图9为本发明模型交互过程示图;
图10为本发明门组件结构示图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解,在下文对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文所使用的术语只是为了描述具体的实施例的目的,不是旨在限制本发明。本文所使用的术语“或/和”包括一个或多个相关的所列项目的任意的和所有的组合。
一种面向电力变压器知识检索和问答的语义匹配方法,
第一步,构建基于变压器的知识图谱KG;
第二步,根据第一步中的知识图谱KG以及近义词库,并利用小样本变压器问句模板,建立语料增强模型,快速构建变压器语料数据;
第三步,针对第二步中的变压器语料数据,利用人工神经网络技术,训练形成一体化识别模型;
所述一体化识别模型,利用双向长短期记忆网络BILSTM以及注意力机制Attention,对变压器问答意图进行判断,根据问答意图对输入语句的槽位进行有效识别;
并将识别出的槽位信息与第一步中的知识图谱KG的变压器进行链接,形成有效识别系统;
第四步,利用第三步中的一体化识别模型,对用户输入的检索或/和问答语句的语义进行有效匹配。
本发明经过不断探索以及试验,构建基于小样本变压器问句模板的语料增强模型,并结合变压器知识图谱以及近义词库,实现变压器语料文本的增强以及数据增强;然后利用变压器语料数据以及人工神经网络技术,训练形成一体化识别模型;再通过一体化识别模型在语料基础上实现对用户查询意图和槽位的联合识别,进而能准确识别用户检索/问答语义,有效提高用户的运检效率,特别适合应用在电力变压器知识检索和问答上。
本发明的一种最佳实施例:
本发明基于变压器知识图谱KG、近义词库,提出了一种基于小样本变压器问句模板的语料增强方法,快速构建变压器语料数据,并针对语料数据应用人工神经网络技术,训练形成基于双向长短期记忆网络BILSTM+Attention注意力机制的变压器问答意图和槽位一体化识别模型,对用户输入语句进行语义意图和语义槽位的联合识别,判断用户查询意图,识别语句槽位,提取槽位信息,将抽取完毕的槽位信息与图谱库中的实体进行链接,从而实现对用户输入的检索/问答语句的语义匹配。
本发明电力变压器小样本领域语料增强的一种具体实施例:
针对电力变压器小样本领域语料数据不足的问题,本发明提出了一种基于知识图谱KG+语义模板的语料快速增强机制,基于槽位的思路,设计了基于槽位的问句模板,以表达用户输入的语义。
问句模板由用户输入的语句及对该语句的语义标注构成,比如问句模板“哪家厂子【/C生产厂家】制造【/R关系】的#1主变【/C变压器】”、“#1主变【/设备类型】的电压【属性,名称为“电压等级”】是多少”,其中的“【】”部分就是语义标注部分,分为三类:
概念,以字母C开头,紧跟具体的概念名称。
属性,以字母P开头,紧跟具体的属性名称。
关系,以字母R开头,紧跟具体的关系名称。
通过这样的标注结构可以将用户的问句模板进行语义结构表达,而语义标注部分所对应的词汇的位置就是槽位,即意义槽,槽位里面可填充不同的词汇。
比如“哪家厂子【/C生产厂家】制造【/R关系】的#1主变【/C设备类型】”可以泛化为以下几种:
哪里的生产厂家制造的#1主变?
#1主变是哪里制造的?
#1主变是由哪家厂家生产的?
本发明结合知识图谱KG,用知识图谱KG的数据填充问句模板,生成了大量的训练语句,构成了训练集,完成训练集准备。支持用户输入问答意图、意图的关键词槽,完成相关的训练模板配置。
根据配置的训练模板,动态生成大量的语料数据。基于生成的训练语料,可以快速开展双向长短期记忆网络BILSTM模型+注意力模型的训练。
如图1所示,本发明构建一体化识别模型的一种具体实施例:
一体化识别模型,用于对用户输入语句的语义进行解析匹配,其模型从上而下可以分为四层,上层的输出作为下层的输入,分为问题输入层、语义分析匹配层、查询检索层、答案显示层。
1》问题输入层
问题输入层定位于接收来自系统界面的用户输入,并对用户输入的语句进行分词,提取语句词汇。用户输入呈现出模糊性、口语化、简写、同一问题存在各种近义表述、多次交互输入等问题。例如,用户要查询“长春站1号主变生产厂家是哪里?”,该问题也可能输入为“长春220kV变电站1号主变压器生产厂家是哪家”、“哪家厂子制造的长春站1号变”等近义问句。
本发明基于jieba中文分词器对输入语句进行切分,切词策略是最长词汇策略,并去除掉停用词和无意义的词汇,比如“哪家厂子制造的长春站1号变”这句话中,需要去除“的”等无意义的词汇。
2》语义分析匹配层
语义分析匹配层定位于对问题输入层传递的语句进行语义分析。在这一层本发明提出了基于双向长短期记忆网络BILSTM+注意力的意图和槽位一体化识别模型实现了对输入语句语义的分析匹配。首先对分词器形成的词汇进行向量表示,基于预训练模型计算每个词汇的词向量,并通过双向长短期记忆网络BILSTM+注意力层对向量的特征进行编码,将编码后的向量送入到语义意图分类器与语义槽位分类器,通过实体链接操作,输出查询的标准实体名称/属性名称/关系名称等信息。整个处理过程从上到下进行可进一步细分为词向量层、双向长短期神经网络LSTM编码层、注意力层、意图与槽位联合识别层。其中:
词向量层,基于预训练模型BERT表示词汇的向量,从而将文字转换成可计算的数学模型。通过词向量模型,可以将每个单词从一维空间转换为连续向量空间的数学嵌入。本文基于预训练模型BERT对用户输入的词汇进行计算,计算词汇的向量表示,计算出的词向量的维度是204。
双向长短期神经网络LSTM编码层:定位于对词向量的特征进行提取,编码形成新的向量。双向长短期神经网络LSTM是方向不同的两层长短期记忆网络的叠加。每层的长短期神经网络LSTM包含了一组具有链状结构的长短期神经网络LSTM人工神经网络单元,本发明采用的每层长短期神经网络LSTM网络单元的数量是300个,如图2所示。
其中,长短期神经网络LSTM作为RNN网络的一个典型结构,包括了一个元胞状态组件、遗忘门、记忆门、输出门,通过他们的交互实现对序列数据的长距离信息处理。整个模型的结构如图3所示。
其中各组件说明如下:
元胞状态,有点像是传送带,它直接穿过整个链,同时只有一些较小的线性交互。上面承载的信息可以很容易地流过而不改变,如图4所示。
遗忘门,长短期神经网络LSTM通过遗忘因子ft决定从元胞状态中遗忘/舍弃掉哪些信息,遗忘因子ft的计算公式如下公式所示,其中的W是权重矩阵,通过后续的模型训练可以计算出来。
ft=σ(Wf·[ht-1,xt]+bf)
在上式中,σ是一个激活函数,也叫Logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。
遗忘因子以ht-1和xt作为输入,通过σ神经网络进行计算,输出一个0-1之间的数字,1表示“完全保留该信息”,0表示“完全丢弃该信息”,元胞状态Ct-1中的每一个元素,都会经过遗忘门进行判断,从而确定要保留和遗忘Ct-1的哪个部分。
例如,在自然语言模型中,想要通过一个词来预测下一个词,单元模块Ct-1中包含的某个属性在下一个模块单元不需要,就可以将这个属性数据通过遗忘门丢弃。
记忆门,这一步是决定将把哪些新信息存储到元胞状态中,记忆门的结构如图5所示。
记忆门的计算分为三步:
首先,利用一个σ神经网络层决定需要更新哪些信息,用it进行表示。it的公式定义如下,其中的W是权重矩阵,是通过后续的数据训练可以计算出来的。
it=σ(Wi·[ht-1,xt]+bi)
其次,在一个tanh层创造了一个新的候选值,tanh是双曲函数中的一个,tanh()为双曲正切,函数过原点,产生的值的值域为(-1,1)。tanh层产生的值可能被加入到元胞状态中,新的值用进行表示,输入是ht-1和xt,计算公式如下:
最后,在旧的细胞状态Ct-1基础之上对其值进行更新,得到新的Ct的值,Ct的计算公式如下:
输出门,基于目前的元胞状态,加入一些过滤,输出想要输出的信息,输出门的结构如图6所示。
首先建立一个σ神经网络层的门,来决定将输出元胞的哪些部分,输出的信息用ot表示,ot的计算公式如下所示,其中的W是权重矩阵,是通过后续的训练可计算出来的。
ot=σ(Wo·[ht-1,xt]+bo)
然后将元胞状态通过tanh激活函数处理之后,与ot相乘,这样就可以输出想输出的部分ht,ht的计算公式如下所示:
ht=ot×tanh(Ct)。
经过双向长短期记忆网络BILSTM编码层编码后,实现对输入语句的全量特征的编码,输出全局特征向量,全局特征量包括了当前词汇的文本值、词性、前1-50个词汇的文本值、词性、位置、后面50个词汇的文本值、词性、位置等特征,将全局特征向量输入后后续的注意力层进行局部关键特征提取。
注意力层,该层的定位是确定用户输入的关键特征。
例如,查询语句“长春站1号主变生产厂家是哪里?”,“长春220kV变电站1号主变压器生产厂家是哪家”、“哪家厂子制造的长春站1号变”,尽管分词后的词汇不相同,但是三个句子的关键点都是“生产厂家”、“变压器”,这个关键点就是所谓的“注意力”,注意力层的作用在于形成局部特征向量。
定义X1,X2,…,XT为双向长短期记忆网络BILSTM层输出的向量序列,atj为注意力层给所有的特征向量赋予的权重,计算公式如下:
在上式中,eij是输入和输出的关联能量,其定义如下所示:
eij=va Ttanh(waCt-1+uahj)
其中,va是全局的特征向量,ct-1是注意力模型的上一时刻状态向量,hi为双向长短期记忆网络BILSTM层输出的特征向量序列,ua为上一时刻特征向量的权值,wa为注意力机制上一时刻的权值。
经过注意力层处理后,输出的最后状态为Ct,其计算公式如下:
意图和槽位联合识别层,该层的定位是基于注意力层算出的特征向量进行解码,对其进行分类,包含了两个分类模型,意图分类模型与槽位分类模型。这两个分类模型都是基于Softmax分类器进行的。
其中zi为第i个节点的输出值,C为输出节点的个数,即分类的类别个数。
意图分类模型,基于softmax分类器实现,用于确定用户意图的分类。
槽位分类模型,槽位是NLP里面的一个基本概念,用于表达自然语言语句的基本语义位置,本发明基于槽位的思路,设计了基于槽位的问句模板,以表达用户输入的语义。
比如“哪里的生产厂家制造的#1主变?”这个语句可以提取的槽位包括【生产厂家】、【制造】、【设备类型】这几个槽位。本发明通过对双向长短期记忆网络BILSTM网络层的输出,基于Softmax分类器完成输入数据到输出分类的拟合。
实体链接,经过槽位分类模型,可以找出用户输入中存在的槽位,提取出槽位的信息,并通过文本相似度模型完成槽位信息与图谱库中实体名称的对齐,这个过程称为实体链接,比如将“长春站”对齐到“长春220kV变电站”,“1号变”对齐到“1号主变压器”。本发明采用了基于余弦相似度的文本相似度模型解决实体链接问题。
余弦相似度,也称为余弦距离,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量。余弦值越接近1,就表明夹角越接近0度,也就是两个向量越相似,这就叫"余弦相似性"。
假定A和B是两个n维向量,Ai是A向量的第i个值,Bi是B向量的第i个值,则A与B的夹角的余弦计算公式如下式所示。
在上式中余弦相似度值的取值范围为[0,1],值越大相似度越高。本发明基于语言模型BERT表示A与B两个短文本句子的句向量,向量的维度n为202维,通过计算A与B两个短文本的句向量的余弦相似度判断二者的相似化程度。
3》查询检索层
查询检索层根据意图识别与槽位提取层传递的概念、实体、属性,构建查询子图,将查询转换为搜索引擎(Elasticsearch,ES)查询语句,返回潜在的三元组或者Q/A答案。
以上面的“长春站1号主变是哪家厂子制造的”这个列子为例,经过意图识别模型和槽位识别模型识别后。基于“长春220kV变电站–1号主变压器–生产厂家”先根据“长春220kV变电站–1号主变压器”按照ES查询语句,可获得1号主变压器的详细信息,如图7所示。
然后基于“1号主变压器–生产厂家”,按照ES查询语句,获得1号主变压器的生产厂家,如图8所示。
4》答案显示层
该层定位为根据答案的不同进行不同的展示,答案的类型可以分为集合类型查询、实体类型查询、实体属性查询三类。示例语句如下表1所示:
表1
针对不同的分类,采用不同的显示策略。
1)集合类型,该类型数据包括数字及集合。针对用户提问的是个集合类型的查询,比如“赤头青220kV变电站有哪些变压器”,则需要返回集合的数量及具体的集合数。
2)实体类型,值为某个具体的实体,显示实体的详细属性。比如输入“赤头青220kV变电站#1主变生产厂家是哪里?”,则出来的是具体的实体“达乌尔黄鼠有限责任公司”,并显示实体的详细信息。
3)实体属性值类型,值为具体的某个实体的名称或者实体的属性值,比如用户提问“赤头青220kV变电站#1主变电压等级”,则返回的值是#1主变这个实体的电压等级属性的值。
综上,本发明提出了一种基于小样本变压器问句模板的语料增强模型,基于小样本问句模板,结合变压器知识图谱,结合近义词库,自动实现大量的变压器语料文本,实现小样本空间下的数据增强,为通过深度学习训练生成意图识别模型和槽位识别模型提供训练语料。
进一步,本发明提出了一种基于双向长短期记忆网络BILSTM+注意力模型的意图和槽位一体化识别模型,基于该模型,可以在语料基础上快速实现对用户查询意图和槽位的联合识别。
如图9所示,应用本发明的一种具体实施例:
下面以“长春站1号主变是哪家厂子生产的?”这句话为例说明上述几个模型的交互过程。
第一步:首先对用户输入的语句进行分词,提取里面的关键词:长春站、1号主变、生产、厂子。
第二步:将提出来的关键词输入到意图识别模型和槽位识别模型中。识别意图的分类和槽位信息。
比如用户输入的语句“长春站1号主变是哪家厂子制造的”,其中包含了三个槽位和一个关系槽位,三个概念槽位分别是“变电站”、“变压器”、“生产厂家”,关系槽位是“生产”。
其中槽位的值如下表2所示。
表2
序号 | 槽位类型 | 槽位名称 | 具体槽位值 |
1 | 概念 | 变电站 | 长春站 |
2 | 概念 | 变压器 | 1号主变 |
3 | 概念 | 生产厂家 | 厂子 |
4 | 关系 | 生产 | 制造 |
将槽位值输入到实体链接模型中,输出与具体的词相对应的概念下的实体名称或者属性名称。实体链接是将槽位提取的值与知识库中已有实体的名称进行余弦相似度判断,比如上面“长春站1号主变是哪家厂子制造的”这个例子,里面的“长春站”在库中对应的实体名称是“长春220kV变电站”,“1号主变”在库里对应的实体名称是“1号主变压器”。
第三步:根据提取的槽位信息,生成ES查询脚本,执行ES查询脚本,获取查询结果,查询结果类型为实体类型,调用实体类型界面进行展示。
本发明提出的基于小样本变压器问句模板的语料增强方法,能快速构建变压器语料数据,并针对语料数据应用人工神经网络技术,对用户输入语句进行语义意图和语义槽位的联合识别,实体进行链接,该方法具有物理意义明晰、实际操作简便、易于操作等优点,具有重要的工程实践意义。
应用本发明方法的一种装置实施例:
一种计算机设备,其包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现上述的一种面向电力变压器知识检索和问答的语义匹配方法。
本发明涉及的专业术语解释:
LSTM,Long Short Term Memory networks
长短期记忆网络,一种特殊的神经网络,能够学习到长期依赖关系。
门组件
一种选择性让信息通过的方法,门组件由一个Sigmoid神经网络层和一个元素级相乘操作组成。通过Sigmoid神经网络输出0-1之间的值,每个值表示对应的部分信息是否应该通过。0值表示不允许信息通过,1值表示让所有信息通过,如图10所示。
BILSTM Bi-directional Long Short-Term Memory
双向长短期神经网络LSTM,是由前向长短期神经网络LSTM与后向长短期神经网络LSTM组合而成,两者在自然语言处理任务中都常被用来建模上下文信息。
注意力机制
注意力机制,该机制模仿了生物观察行为的内部过程,即一种将内部经验和外部感觉对齐从而增加部分区域的观察精细度的机制。例如人的视觉在处理一张图片时,会通过快速扫描全局图像,获得需要重点关注的目标区域,也就是注意力焦点。然后对这一区域投入更多的注意力资源,以获得更多所需要关注的目标的细节信息,并抑制其它无用信息,基于注意力机制,可以提升基于RNN(LSTM或GRU)的Encoder+Decoder模型的效果。
语义意图search intent
用户输入信息真正的检索目标,比如输入“大姚篮球”,用的检索目标是并不是“大姚”与“篮球”这两个词汇,二者这两个词组合起来表达的意图目标“篮球运动员姚明”,语义意图根据信息交互形式的不同可以分为检索意图和问答意图。
槽位
可以理解为实体已明确定义的属性,例如打车场景中的,出发地点槽,目的地槽,出发时间槽中的属性分别是“出发地点”、“目的地”和“出发时间”等。
语义匹配
在语义上衡量本文相似度,将用户的短语词汇与知识点的名称、属性匹配的过程。
jieba中文分词器
一种开源的分词软件,可以对句子、段落进行切词,将语句转换为词语序列。
词向量,Word embedding
自然语言处理(NLP)中的一组语言建模和特征学习技术的统称,其中来自词汇表的单词或短语被映射到实数的向量。
BERT,Bidirectional Encoder Representations from Transformers
指Google提出的语言模型,可以提供词向量计算、阅读理解、分类等任务。
实体链接
指将自由文本中已识别的实体对象(例如:人名、地名、机构名等),无歧义的正确的指向知识库中目标实体的过程。比如将“大姚”指向“姚明”。
知识图谱,Knowledge graph
简称知识图谱KG,本质上是语义网络,是一种基于图的数据结构,由节点(Point)和边(Edge)组成。在知识图谱里,每个节点表示现实世界中存在的“实体”,每条边为实体与实体之间的“关系”。存储知识图谱数据的数据库简称为图谱库。
全文搜索引擎
目前广泛应用的主流搜索引擎。它的工作原理是计算机索引程序通过扫描文章中的每一个词,对每一个词建立一个索引,指明该词在文章中出现的次数和位置,当用户查询时,检索程序根据事先建立的索引进行查找,将结果反馈给用户的检索方式,常用组件包括Elastic search(可简称ES)。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。
Claims (10)
1.一种面向电力变压器知识检索和问答的语义匹配方法,其特征在于,
第一步,构建基于变压器的知识图谱KG;
第二步,根据第一步中的知识图谱KG以及近义词库,并利用小样本变压器问句模板,建立语料增强模型,快速构建变压器语料数据;
第三步,针对第二步中的变压器语料数据,利用人工神经网络技术,训练形成一体化识别模型;
所述一体化识别模型,利用双向长短期记忆网络BILSTM以及注意力机制Attention,对变压器问答意图进行判断,根据问答意图对输入语句的槽位进行有效识别;
并将识别出的槽位信息与第一步中的知识图谱KG的变压器进行链接,形成有效识别系统;
第四步,利用第三步中的一体化识别模型,对用户输入的检索或/和问答语句的语义进行有效匹配。
2.如权利要求1所述的一种面向电力变压器知识检索和问答的语义匹配方法,其特征在于,
所述第一步中的知识图谱为基于图的数据结构,采用三元组RDF的形式描述变压器的属性值、变压器与变压器的关系,其包括若干节点和边;
所述节点,用于表示某一变压器的各种属性值;
所述边,用于表示变压器与变压器之间的关系;
所述属性值包括变压器台账、变压器故障、检测标准。
3.如权利要求1所述的一种面向电力变压器知识检索和问答的语义匹配方法,其特征在于,
所述第二步中的小样本变压器问句模板为基于槽位的问句模板,用于表达用户输入的语义,其包括用户输入的语句及对该语句的语义标注构成;
语料增强模型的构建方法如下:
利用深度学习方法,训练问答相关数据,进行小样本数据增强,并通过专业性增强数据集合通用性的词库,增加小样本中的语料数据数量。
4.如权利要求1所述的一种面向电力变压器知识检索和问答的语义匹配方法,其特征在于,
所述第三步中的注意力机制Attention,通过快速扫描用户输入的检索或/和问答语句的语义,获得需要重点关注的目标区域,即注意力焦点;
然后对注意力焦点投入更多的注意力资源,以获得更多所需要关注的目标的细节信息,并抑制其它无用信息;
一体化识别模型,包括问题输入层、语义分析匹配层、查询检索层、答案显示层;
其前一层的输出作为后一层的输入;
所述问题输入层,用于接收用户输入,并对用户输入的语句进行分词,提取语句词汇;
针对用户输入呈现出模糊性、口语化、简写、同一问题存在各种近义表述、多次交互输入的问题;利用中文分词器jieba对输入语句进行切分,切词的策略是最长词汇策略,并去除掉停用词和无意义的词汇;
所述语义分析匹配层,用于对问题输入层传递的语句进行语义分析;
利用双向长短期记忆网络BILSTM以及注意力机制Attention,对输入语句语义的分析匹配;其具体包括以下步骤:
S1,对分词器形成的词汇用向量表示,并基于预训练模型BERT计算每个词汇的词向量;
S2,通过双向长短期记忆网络BILSTM以及注意力机制Attention对S1中词向量的特征进行编码;
S3,将S2中编码后的词向量输入到语义意图分类器与语义槽位分类器中,通过变压器链接操作,输出查询的标准变压器名称或/和属性名称或/和关系名称信息;
查询检索层,用于根据意图识别与槽位提取层传递的概念、变压器、属性,构建查询子图;并将查询转换为搜索引擎查询语句,返回潜在的三元组或者答案Q/A;
答案显示层,用于根据答案的不同进行不同的展示,答案的类型分为集合类型查询、变压器类型查询、变压器属性查询三类。
5.如权利要求4所述的一种面向电力变压器知识检索和问答的语义匹配方法,其特征在于,
所述语义分析匹配层包括词向量层、双向长短期神经网络BILSTM编码层、注意力层、意图与槽位联合识别层;
词向量层为基于预训练模型BERT表示词汇的向量,用于将文字转换成能计算的词向量模型;
通过词向量模型,将每个单词从一维空间转换为嵌入数字的具有连续向量的多维空间;
双向长短期记忆网络BILSTM编码层由方向不同的两层长短期神经网络LSTM的叠加而成;
每层的长短期神经网络LSTM包括一组具有链状结构的人工神经网络单元;
注意力层,用于确定用户输入的关键特征,即计算出局部特征向量;
意图和槽位联合识别层,用于对基于注意力算出的词向量特征进行解码,对其进行分类,其包括意图分类模型与槽位分类模型。
6.如权利要求5所述的一种面向电力变压器知识检索和问答的语义匹配方法,其特征在于,
长短期神经网络LSTM包括至少一个元胞状态组件、遗忘门、记忆门、输出门,通过元胞状态组件、遗忘门、记忆门、输出门的交互,实现对序列数据的长距离信息处理;
所述元胞状态组件为数据链,用于承载信息,并使得信息能不改变的传输;
所述遗忘门通过遗忘因子ft决定从元胞状态中遗忘或舍弃掉的信息;
遗忘因子ft的计算公式如下所示:
ft=σ(Wf·[ht-1,xt]+bf)
在上式中,W是权重矩阵,通过后续的模型训练计算而来,σ是一个激活函数,即ogistic函数,用于隐层神经元输出,取值范围为(0,1),它将一个实数映射到(0,1)的区间,用来做二分类;
遗忘因子以ht-1和xt作为输入,通过σ神经网络进行计算,输出一个0-1之间的数字,1表示“完全保留该信息”,0表示“完全丢弃该信息”;
元胞状态Ct-1中的每一个元素,都会经过遗忘门进行判断,从而确定要保留和遗忘Ct-1的哪个部分;
记忆门,用于决定将把哪些新信息存储到元胞状态中;
记忆门计算方法如下:
首先,利用一个σ神经网络层决定需要更新哪些信息,用it进行表示;
it的计算公式如下:
it=σ(Wi·[ht-1,xt]+bi)
其中的Wi是权重矩阵,是通过后续的数据训练可以计算出来的;
其次,在函数tanh层创造了一个新的候选值,函数tanh是双曲函数中的一个;
tanh()为双曲正切,函数过原点,产生的值的值域为(-1,1);
其中,Wc是权重矩阵,通过训练可以得到,bc是线性偏移量;
最后,在旧的细胞状态Ct-1基础之上对其值进行更新,得到新的Ct的值;
Ct的计算公式如下:
输出门,用于基于目前的元胞状态,加入一些过滤,输出想要输出的信息;
输出门的计算公式如下:
首先建立一个σ神经网络层的门,来决定将输出元胞的哪些部分,输出的信息用ot表示,ot的计算公式如下:
ot=σ(Wo·[ht-1,xt]+bo)
其中,Wo是权重矩阵,通过后续的训练计算出来,bo是线性偏移量;
然后将元胞状态通过函数tanh激活处理之后,与ot相乘,然后输出想输出的部分ht,ht的计算公式如下:
ht=ot×tanh(Ct)
经过双向长短期记忆网络BILSTM编码层编码后,实现对输入语句的全量特征的编码,输出全局特征向量;
全局特征量包括当前词汇的文本值、词性、前1-50个词汇的文本值、词性、位置、后面50个词汇的文本值、词性、位置特征;
然后将全局特征向量输入后,后续的注意力层进行局部关键特征提取。
8.如权利要求5所述的一种面向电力变压器知识检索和问答的语义匹配方法,其特征在于,
意图和槽位联合识别层的两个分类模型基于Softmax分类器生成;
所述Softmax分类器的计算公式如下:
其中zi为第i个节点的输出值,C为输出节点的个数,即分类的类别个数;
意图分类模型,基于softmax分类器实现,用于确定用户意图的分类,其包括包括槽位分类模块、实体链接模块;
槽位分类模块,用于表达自然语言语句的基本语义位置;
实体链接模块,用于经过槽位分类模型,找出用户输入中存在的槽位,提取出槽位的信息,并通过文本相似度模型完成槽位信息与图谱库中变压器名称的对齐,即变压器链接,
文本相似度模型为基于余弦相似度的文本相似度模型;
余弦相似度,即余弦距离,利用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量;余弦值越接近1,就表明夹角越接近0度,表明两个向量越相似;
其向量夹角的余弦相似度值计算公式如下:
其中,A、B分别短文本的句向量;
A、B分别为n维向量,Ai是A向量的第i个值,Bi是B向量的第i个值;
余弦相似度值的取值范围为[0,1],值越大相似度越高。
9.如权利要求5-8任一所述的一种面向电力变压器知识检索和问答的语义匹配方法,其特征在于,
所述答案显示层,针对不同的分类,采用不同的显示策略;
1)集合类型,其类型数据包括数字及集合;
针对用户提问的是哪个集合类型的查询;
2)变压器类型,其值为某个具体的变压器,显示变压器的详细属性;
3)变压器属性值类型,其值为具体的某个变压器的名称或者变压器的属性值。
10.一种面向电力变压器知识检索和问答的语义匹配系统,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-9任一所述的一种面向电力变压器知识检索和问答的语义匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111192363.6A CN113962219A (zh) | 2021-10-13 | 2021-10-13 | 面向电力变压器知识检索和问答的语义匹配方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111192363.6A CN113962219A (zh) | 2021-10-13 | 2021-10-13 | 面向电力变压器知识检索和问答的语义匹配方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113962219A true CN113962219A (zh) | 2022-01-21 |
Family
ID=79463659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111192363.6A Pending CN113962219A (zh) | 2021-10-13 | 2021-10-13 | 面向电力变压器知识检索和问答的语义匹配方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113962219A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114724078A (zh) * | 2022-03-28 | 2022-07-08 | 西南交通大学 | 基于目标检测网络与知识推理的人员行为意图识别方法 |
CN115617947A (zh) * | 2022-10-17 | 2023-01-17 | 桂林电子科技大学 | 基于预训练模型与提示学习的可解释电力设备查询方法 |
CN116303981A (zh) * | 2023-05-23 | 2023-06-23 | 山东森普信息技术有限公司 | 一种农业社区知识问答方法、装置及存储介质 |
CN116662582A (zh) * | 2023-08-01 | 2023-08-29 | 成都信通信息技术有限公司 | 基于自然语言的特定领域业务知识检索方法及检索装置 |
CN116911289A (zh) * | 2023-09-13 | 2023-10-20 | 中电科大数据研究院有限公司 | 政务领域大模型可信文本生成方法、装置及存储介质 |
CN116992862A (zh) * | 2023-09-26 | 2023-11-03 | 中科航迈数控软件(深圳)有限公司 | 数控机床异常辅助处理方法、装置、设备及介质 |
CN117194616A (zh) * | 2023-11-06 | 2023-12-08 | 湖南四方天箭信息科技有限公司 | 一种垂域知识图谱的知识查询方法、装置、计算机设备和存储介质 |
-
2021
- 2021-10-13 CN CN202111192363.6A patent/CN113962219A/zh active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114724078A (zh) * | 2022-03-28 | 2022-07-08 | 西南交通大学 | 基于目标检测网络与知识推理的人员行为意图识别方法 |
CN115617947A (zh) * | 2022-10-17 | 2023-01-17 | 桂林电子科技大学 | 基于预训练模型与提示学习的可解释电力设备查询方法 |
CN115617947B (zh) * | 2022-10-17 | 2023-08-18 | 桂林电子科技大学 | 基于预训练模型与提示学习的可解释电力设备查询方法 |
CN116303981A (zh) * | 2023-05-23 | 2023-06-23 | 山东森普信息技术有限公司 | 一种农业社区知识问答方法、装置及存储介质 |
CN116662582A (zh) * | 2023-08-01 | 2023-08-29 | 成都信通信息技术有限公司 | 基于自然语言的特定领域业务知识检索方法及检索装置 |
CN116662582B (zh) * | 2023-08-01 | 2023-10-10 | 成都信通信息技术有限公司 | 基于自然语言的特定领域业务知识检索方法及检索装置 |
CN116911289A (zh) * | 2023-09-13 | 2023-10-20 | 中电科大数据研究院有限公司 | 政务领域大模型可信文本生成方法、装置及存储介质 |
CN116911289B (zh) * | 2023-09-13 | 2024-01-02 | 中电科大数据研究院有限公司 | 政务领域大模型可信文本生成方法、装置及存储介质 |
CN116992862A (zh) * | 2023-09-26 | 2023-11-03 | 中科航迈数控软件(深圳)有限公司 | 数控机床异常辅助处理方法、装置、设备及介质 |
CN116992862B (zh) * | 2023-09-26 | 2024-02-20 | 中科航迈数控软件(深圳)有限公司 | 数控机床异常辅助处理方法、装置、设备及介质 |
CN117194616A (zh) * | 2023-11-06 | 2023-12-08 | 湖南四方天箭信息科技有限公司 | 一种垂域知识图谱的知识查询方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113962219A (zh) | 面向电力变压器知识检索和问答的语义匹配方法及系统 | |
CN106407333B (zh) | 基于人工智能的口语查询识别方法及装置 | |
CN111639171B (zh) | 一种知识图谱问答方法及装置 | |
CN112115238B (zh) | 一种基于bert和知识库的问答方法和系统 | |
CN111931506B (zh) | 一种基于图信息增强的实体关系抽取方法 | |
CN111026842A (zh) | 自然语言处理方法、自然语言处理装置及智能问答系统 | |
CN111046670B (zh) | 基于毒品案件法律文书的实体及关系联合抽取方法 | |
CN111858896B (zh) | 一种基于深度学习的知识库问答方法 | |
CN113919366A (zh) | 一种面向电力变压器知识问答的语义匹配方法和装置 | |
CN113806563A (zh) | 面向多源异构建筑人文史料的建筑师知识图谱构建方法 | |
CN112328800A (zh) | 自动生成编程规范问题答案的系统及方法 | |
CN115357719B (zh) | 基于改进bert模型的电力审计文本分类方法及装置 | |
CN111666376B (zh) | 一种基于段落边界扫描预测与词移距离聚类匹配的答案生成方法及装置 | |
CN116127095A (zh) | 一种序列模型与知识图谱结合的问答方法 | |
CN110287298A (zh) | 一种基于问句主题的自动问答答案选择方法 | |
CN114818717A (zh) | 融合词汇和句法信息的中文命名实体识别方法及系统 | |
CN113705238A (zh) | 基于bert和方面特征定位模型的方面级情感分析方法及模型 | |
CN115840812A (zh) | 一种根据政策文本智能匹配企业的方法及系统 | |
CN117332789A (zh) | 一种面向对话场景的语义分析方法及系统 | |
CN113377844A (zh) | 面向大型关系型数据库的对话式数据模糊检索方法及装置 | |
CN111104492B (zh) | 一种基于层次化Attention机制的民航领域自动问答方法 | |
CN112084312A (zh) | 一种基于知识图构建的智能客服系统 | |
CN116561274A (zh) | 一种基于数字人技术与自然语言大模型的知识问答方法 | |
CN116680407A (zh) | 一种知识图谱的构建方法及装置 | |
CN116340530A (zh) | 基于机械知识图谱的智能设计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |