CN112445899B - 一种基于神经网络的知识库问答中的属性匹配方法 - Google Patents

一种基于神经网络的知识库问答中的属性匹配方法 Download PDF

Info

Publication number
CN112445899B
CN112445899B CN201910808206.XA CN201910808206A CN112445899B CN 112445899 B CN112445899 B CN 112445899B CN 201910808206 A CN201910808206 A CN 201910808206A CN 112445899 B CN112445899 B CN 112445899B
Authority
CN
China
Prior art keywords
question
attribute
similarity
word
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910808206.XA
Other languages
English (en)
Other versions
CN112445899A (zh
Inventor
张玲玲
程龚
瞿裕忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201910808206.XA priority Critical patent/CN112445899B/zh
Publication of CN112445899A publication Critical patent/CN112445899A/zh
Application granted granted Critical
Publication of CN112445899B publication Critical patent/CN112445899B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

一种基于神经网络的知识库问答中的属性匹配方法,包含以下步骤:替换问句中的实体并根据实体生成候选属性,将其分词送入神经网络中的词嵌入层;利用双向LSTM学习上下问语义表示;根据问句和属性的词向量表示计算得到词义相似度矩阵,同理根据语义表示得到语义相似度矩阵;分别从问句方向和属性方向取两个相似度矩阵的最大值得到四个向量后,通过全联接层得到问句和属性的相似度;选择最高相似度及其对应的属性,若该相似度大于阈值,则加入属性,并替换问句中的文本进行下一轮属性匹配。本发明结合考虑问句和属性的上下文语义表示和词义表示来计算最终的相似度,提高了属性匹配的准确性;可以定位到问句中对应的谓词文本,迭代的处理多跳问题。

Description

一种基于神经网络的知识库问答中的属性匹配方法
技术领域
本发明属于计算机技术领域,涉及知识库问答中的属性匹配技术,为一种基于神经网络模型的知识库问答中属性匹配方法。
技术背景
随着信息社会的飞速发展,每天都有海量数据的产生,人们如何从大量数据中获得所需信息称为一个难题。知识库问答应运而生,将大量数据表示成实体之间用属性作为桥梁的三元关系组,从而构建成知识图谱,建立基于知识图谱的问答系统来支持用户交互,让用户获得准确简洁的答案。知识库问答系统的主要工作是对进行问句理解,做实体的识别与链接,问句中谓词与知识库中属性的匹配。
属性匹配的作用是确定问句问的是实体所连接的哪个属性。属性匹配需要解决问句中谓词与知识库属性之间的语义鸿沟,比如问句“嘉手纳基地的负责人”需要将问句中的谓词映射上知识库中“嘉手纳基地”实体所连接的属性“指挥官”。现在的问题不仅仅是上述的单属性简单问题,如何处理复杂多跳问题的多属性匹配更难,比如“嘉手纳基地的负责人怎么样”需要先后映射上知识库中的属性指挥官和简介才能获得最终的答案。
现有的属性匹配方法主要可以分为两大类,传统方法和基于神经网络的方法。传统方法可以分为以下几种,通过问句与知识库中属性的词距离做映射,中国专利申请CN109522394A《知识库问答装置及建立方法》,采用预定义的句向量编码器得到向量,从而计算距离得到最相近的属性;利用一些同义词表和常识知识库(如《知网》)等做映射;利用规则或者模板匹配,比如“在哪里”映射“地点”属性;中国专利申请CN109670024A《逻辑表达式确定方法、装置、设备和介质》,综合利用了规则模板及词表信息完成了属性匹配。传统方法易解释,可以得到知识库属性和问题谓词的对应位置,可以通过替换问题中已识别的实体和属性进行下一个属性识别直至无法识别新的属性,从而处理多跳问题;但是这类方法需要利用大量外部信息,人工构造模板,领域迁移受到了限制。因此,基于神经网络模型的属性匹配方法近几年被提出,一些模型仅能处理限定个数的属性匹配,中国专利申请CN109408627A《一种融合卷积神经网络和循环神经网络的问答方法及系统》,将卷积网络和循环网络相结合,但只能处理单属性匹配;公开号为CN109271506A的《一种基于深度学习的电力通信领域知识图谱问答系统的构建方法》,提出了多重卷积神经网络MCCNNs,限定处理两跳之内的属性匹配。另外还有一些模型虽然可以处理多跳问题的属性匹配,但它们往往需要比较准确的语法结构信息,这类模型目前大多用于英文领域,且效果较差,更无法落地于有着分词问题和更为复杂的语法结构的中文属性匹配中。因此,如何利用神经网络模型处理多跳问题中的属性匹配仍然是一个问题。
发明内容
本发明要解决的问题是:如何利用神经网络模型处理多跳问题中的属性匹配,针对属性匹配问题提出一种基于神经网络模型的解决方案,旨在进一步提升属性匹配的精准度以及处理多跳问题中的属性匹配。
本发明的技术方案为:一种基于神经网络的知识库问答中的属性匹配方法,基于神经网络模型,首先替换问句中的实体并根据实体生成候选属性,将问句和候选属性分词送入神经网络中的词嵌入层,利用双向LSTM学习上下问语义表示;根据问句和候选属性的词向量表示计算得到词义相似度矩阵,同理根据语义表示得到语义相似度矩阵;分别从问句方向和属性方向取两个相似度矩阵的最大值得到四个向量后,通过全联接层得到问句和候选属性的相似度;选择最高相似度及其对应的候选属性,若该相似度大于阈值,则加入该候选属性,并替换问句中的文本进行下一轮属性匹配。
进一步的,本发明具体包括以下步骤:
步骤一:根据识别的问句中的实体查询知识库生成其候选属性,并将问句中对应实体的文本用一个标签替代,然后将问句分词,同时将候选属性分词,送入词嵌入层,得到问句词向量和候选属性词向量;
步骤二:将问句的词向量和候选属性的词向量分别通过一个双向的LSTM网络学习上下文信息得到对应的语义向量;
步骤三:计算步骤一问句和候选属性中的各个词分别对应的词向量的余弦相似度得到词义相似度矩阵;同时计算步骤二问句和候选属性各个词融入上下文信息后的语义向量的余弦相似度得到语义相似度矩阵;
步骤四:利用步骤三中的词义相似度矩阵,对候选属性的每个词取问句方向上的最大相似度值,从而得到候选属性对应的最大词义相似度向量,同理得到问句对应的最大词义相似度向量;对语义相似度矩阵同理可得候选属性对应的最大语义相似度向量和问句对应的最大语义相似度向量;
步骤五:将步骤四得到的四个向量分别送入四个线性层,得到属性词义相似度、问句词义相似度、属性语义相似度和问句语义相似度四个值,将这四个相似度拼接成向量通过神经网络的最后一层线性层,即输出层,得到问句和属性的相似度;
步骤六:得到问句和所有候选属性的相似度后,选择最高相似度的属性,如果该相似度超过设定阈值,将该候选属性加入结果中;根据候选属性对应的最大词义相似度向量和最大语义相似度向量来确定候选属性中的词和问句词的对应关系,从而确定问句中谓词的位置;然后将目前实体和该候选属性组成查询得到结果实体,将问句中目前实体和候选属性所在的文本替换成结果实体,并转到步骤一,继续属性匹配;否则结束,返回已经映射上的属性结果。
本发明的有益效果是:(1)通过双向LSTM考虑问句和属性的上下文信息,获得各自的语义向量;结合考虑问句和属性的上下文语义表示和词义表示来计算最终的相似度,提高了属性匹配的准确性。(2)在找到最大相似度的属性的同时通过网络内部信息可以定位到问句中对应的谓词,可以通过迭代的替换处理多跳问题。
附图说明
图1是本发明的整体处理流程及实例图。
图2是本发明的神经网络模型示意图。
具体实施方式
本发明提出一种神经网络模型在匹配上知识库中属性的同时定位问题中的谓词,将目前问题中实体和谓词替换为其组装成查询后得到的实体,进行迭代的属性匹配,直至属性匹配度低于一个阈值,包含以下步骤:
步骤一:根据已识别的实体查询知识库生成其候选属性,并将问句中对应实体的文本用一个标签替代,然后将问句分词,同时将候选属性分词,这里可以采用结巴分词,得到问句输入Q=[q1,q2,…,qn]以及候选属性输入P=[p1,p2,…,pm],qn指问句分词后的第n个词,pm指属性分词后第m个词,将它们送入词嵌入层,得到问句Q对应词向量LRQ={lrq1,lrq2,…,lrqn,},lrqt对应第t个问句词的词义表示向量,候选属性P对应词向量LRP={lrp1,lrp2,..,lrpm},lrpt对应第t个属性词的词义表示向量。其中,词嵌入层采取预训练的词向量表,如百度百科用word2vec预训练的词向量表,也可以将百度百科换成维基百科,也可以把word2vec换成glove。若某个词不在表中,采取高斯分布随机化向量,若词的个数不够,则利用预定义的填充向量进行填充。
步骤二:将问句的分词向量和属性的分词向量分别通过一个双向的LSTM网络学习上下文信息得到对应的语义向量SRQ和SRP,问句语义向量SRQ={srq1,srq2,…,srqn},候选属性语义向量SRP={srp1,srp2,…,srpm},n表示问句分词个数,m表示属性分词个数,srqn和srpm分别为两个方向LSTM的输出表示的拼接。
步骤三:计算步骤一问句和属性中的各个词分别对应的词向量的余弦相似度得到词义相似度矩阵LSM;同时计算步骤二问句和属性各个词融入上下文信息后的语义向量的余弦相似度得到语义相似度矩阵SSM。词义相似度矩阵LSM=[lsmij]n*m,语义相似度矩阵SSM=[ssmij]n*m,其中lsmij=lrqi⊙lrpj,ssmij=srqi⊙srpj,lrqi表示问句词向量的元素,lrpj表示候选属性词向量的元素,srqi表示问句语义向量的元素,srpj表示候选属性语义向量的元素,1≤i≤n,1≤j≤m,“⊙”表示计算方式为余弦相似度。
步骤四:利用步骤三中的词义相似度矩阵对属性的每个词取问句方向上的最大相似度值从而得到属性对应的最大词义相似度向量,同理可以得到问句对应的最大词义相似度向量;对语义相似度矩阵同理可得属性对应的最大语义相似度向量和问句对应的最大语义相似度向量。从而得到四个最大相似度向量:问句对应的词义相似度最大值向量ylq,属性对应的词义相似度最大值向量ylp,问句对应的语义相似度最大值向量ylp,属性对应的语义相似度最大值向量ysp
ylq=[ylq1,ylq2,…,ylqi,…,ylqn],ylp=[ylp1,ylp2,…,ylpj,…,ylpm],
ysq=[ysq1,ysq2,…,ysqi,…,ysqn],ysp=[ysp1,ysp2,…,yspj,…,yspm],
其中,ylqi表示第i个属性词在问句方向上挑出的最大相似度,即max1≤k≤mlsmki,其他同理。
步骤五:将步骤四得到的四个向量分别送入四个线性层,得到属性词义相似度、问句词义相似度、属性语义相似度和问句语义相似度四个值,即zlq=wlq*ylq+blq,zlp=wlp*ylp+blp,zsq=wsq*ysq+bsq,zsp=wsp*ysp+bsp;然后将其拼接成向量z=[zlq,zlp,zsq,zsp],通过最后一步的线性层,即神经网络的输出层得到问句和属性的相似度sim(Q,P)=w*z+b。
步骤六:得到问句和所有候选属性的相似度后,选择最高相似度的属性。如果该相似度超过设定阈值,将该属性加入结果中;根据属性对应的最大词义相似度向量和最大语义相似度向量来确定属性中的词和问句词的对应关系,从而确定问句中属性的位置;然后将目前实体和该属性组成查询得到结果实体,将问句中目前实体和属性所在的文本替换成结果实体,并转到步骤一,继续属性匹配。否则结束,返回已经映射上的属性结果。
下面结合实施例及附图对本发明作进一步详细的描述,以令本领域技术人员参照说明书文字能够据以实施。
本发明的实施先根据识别好的实体生成候选属性,并将实体对应的问句中的文本替换成标签,然后将候选属性和问句送入神经网络模型中得到相似度,选出最高相似度及其对应的属性和问句中的位置,如果该相似度大于阈值,则将属性加入属性结果列表中,根据当前的实体和属性构成查询得到结果,如果该结果是个实体则重复之前的步骤继续映射属性。如图1实例所示,“嘉手纳基地的负责人怎么样”实体为嘉手纳基地,将嘉手纳基地替换成标签<e>,问句变成“<e>的负责人怎么样”,同时生成嘉手纳基地的候选属性“指挥官、占地面积、驻军数量”等,然后问句和每个属性通过神经网络模型计算相似度,得出相似度最高的是指挥官,且该相似度大于阈值,则查询知识库中嘉手纳基地的指挥官得到“阿西莫将军”实体,将问句中“<e>的负责人”替换成“阿西莫将军”,构成问句“阿西莫将军怎么样”,继续之前的步骤映射上属性“简介”,查询知识库阿西莫将军的简介得到的文本不是实体,所以结束,返回指挥官和简介两个属性。
接下来具体介绍一下属性匹配的神经网络模型,如图2所示:
根据已识别的实体查询知识库生成其候选属性,并将问句中对应实体的文本用一个标签替代,然后将问句分词,同时将候选属性分词,分词工具采用结巴分词,分别得到问句输入Q=[q1,q2,…,qn]以及属性输入P=[p1,p2,…,pm]。
接下来,通过词嵌入层将问句中的词和属性中的词根据预训练词向量表转成各自的词义表示向量,如问句Q对应词向量LRQ={lrq1,lrq2,…,lrqn,},候选属性P对应词向量LRP={lrp1,lrp2,..,lrpm}。
将问句和属性的词义表示向量LRQ和LRP分别通过双向LSTM,得到对应的上下文语义表示向量SRQ和SRP,SRQ={srq1,srq2,…,srqn},SRP={srp1,srp2,…,srpm}。LSTM(longshort-term memory)是长短期记忆网络,是一种特殊的时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件,它是为了解决RNN的长依赖问题而提出的。本次发明使用的LSTM包含输入门、输出门、遗忘门。其中细胞状态的更新使用到了输入门和遗忘门的信息,其实现如下:
it=σ(Wxixt+Whiht-1+Wcict-1+bi),(输入门)
ft=σ(Wxfxt+Whfht-1+Wcfct-1+bf),(遗忘门)
ct=ft⊙ct-1+it⊙tanh(Wxcxt+Whcht-1+bc),(细胞状态)
ot=σ(Wxoxt+Whoht-1+Wcoct+bo),(输出门)
ht=ot⊙tanh(ct),(输出)
其中,σ指sigmoid函数,⊙是元素点积操作,W是权重矩阵,b是偏置系数。
在本发明中,我们使用了两个双向LSTM模型,输入xt分别为问句词义表示向量和候选属性词义表述向量,一个LSTM计算从左到右的第t个词表示相似的,另一个LSTM计算从右到左的第t个词表示/>我们将前者称为前向LSTM,后者称为后向LSTM,最终的第t个词的上下文表示由两者连接而成,即/>对应得到问句和候选属性对应的上下文语义表示向量SRQ和SRP。
接下来,对问句Q和候选属性P的词义表示向量和上下文语义表示向量分别计算词义相似度矩阵LSM和语义相似度矩阵SSM:
LSM=[lsmij]n*m
SSM=[ssmij]n*m
通过余弦相似度计算两个词的相似度:
lsmij=lrqi⊙lrpj
ssmij=srqi⊙srpj
对两个相似度矩阵从垂直方向和水平方向即问句方向和属性方向分别计算最大值,从而得到属性和问句对应的词义最大值向量和语义最大值向量ylq,ylp,ysq,ysp
ylq=[ylq1,ylq2,…,ylqn]
ylp=[ylp1,ylp2,…,ylpm]
ysq=[ysq1,ysq2,…,ysqn]
ysp=[ysp1,ysp2,…,yspm]。
将以上四个向量分别送入四个线性层得到四个相似度值:
zlq=wlq*ylq+blq
zlp=wlp*ylp+blp
zsq=wsq*ysq+bsq
zsp=wsp*ysp+bsp
将四个相似度值组成向量z=[zlq,zlp,zsq,zsp],将向量z送入最终的线性层得到最终相似度:sim(Q,P)=w*z+b。
在上述基础上,本发明的神经网络训练的时候通过最小化合页损失(hinge loss)函数:
loss=max{0,1-sim(Q,P+)+S(Q,P-)}
设置的批大小为32,并且选择了学习率为0.001的Adam优化器。
预测的时候取最大相似度的属性,根据中间属性对应的词义最大相似度和语义最大相似度向量确定问句中对应的谓词文本。
本发明通过双向LSTM考虑问句和属性的上下文信息,获得各自的语义向量;结合考虑问句和属性的上下文语义表示和词义表示来计算最终的相似度,提高了属性匹配的准确性。而且本发明的模型可以在找到最大相似度的属性的同时通过网络内部信息定位到问句中对应的谓词,从而迭代的替换处理多跳问题。

Claims (6)

1.一种基于神经网络的知识库问答中的属性匹配方法,其特征是基于神经网络模型,首先替换问句中的实体并根据实体生成候选属性,将问句和候选属性分词送入神经网络中的词嵌入层,利用双向LSTM学习上下文语义表示;根据问句和候选属性的词向量表示计算得到词义相似度矩阵,同理根据语义表示得到语义相似度矩阵;分别从问句方向和属性方向取两个相似度矩阵的最大值得到四个向量后,通过全联接层得到问句和候选属性的相似度;选择最高相似度及其对应的候选属性,若该相似度大于阈值,则加入该候选属性,并替换问句中的文本进行下一轮属性匹配;
具体包括以下步骤:
步骤一:根据识别的问句中的实体查询知识库生成其候选属性,并将问句中对应实体的文本用一个标签替代,然后将问句分词,同时将候选属性分词,送入词嵌入层,得到问句词向量和候选属性词向量;
步骤二:将问句的词向量和候选属性的词向量分别通过一个双向的LSTM网络学习上下文信息得到对应的语义向量;
步骤三:计算步骤一问句和候选属性中的各个词分别对应的词向量的余弦相似度得到词义相似度矩阵;同时计算步骤二问句和候选属性各个词融入上下文信息后的语义向量的余弦相似度得到语义相似度矩阵;
步骤四:利用步骤三中的词义相似度矩阵,对候选属性的每个词取问句方向上的最大相似度值,从而得到候选属性对应的最大词义相似度向量,同理得到问句对应的最大词义相似度向量;对语义相似度矩阵同理可得候选属性对应的最大语义相似度向量和问句对应的最大语义相似度向量;
步骤五:将步骤四得到的四个向量分别送入四个线性层,得到属性词义相似度、问句词义相似度、属性语义相似度和问句语义相似度四个值,将这四个相似度拼接成向量通过神经网络的最后一层线性层,即输出层,得到问句和属性的相似度;
步骤六:得到问句和所有候选属性的相似度后,选择最高相似度的属性,如果该相似度超过设定阈值,将该候选属性加入结果中;根据候选属性对应的最大词义相似度向量和最大语义相似度向量来确定候选属性中的词和问句词的对应关系,从而确定问句中谓词的位置;然后将目前实体和该候选属性组成查询得到结果实体,将问句中目前实体和候选属性所在的文本替换成结果实体,并转到步骤一,继续属性匹配;否则结束,返回已经映射上的属性结果。
2.根据权利要求1所述的一种基于神经网络的知识库问答中的属性匹配方法,其特征是步骤一中,分词方式利用结巴分词,得到问句Q=[q1,q2,…,qn]以及候选属性P=[p1,p2,…,pm],qn指问句分词后的第n个词,pm指属性分词后第m个词,词嵌入层采取预训练的词向量表,采取的百度百科预训练的词向量表,若某个词不在表中,采取高斯分布随机化向量,若词的个数不够,则利用预定义的填充向量进行填充,得到问句Q对应词向量LRQ={lrq1,lrq2,…,lrqn,},lrqn对应第n个问句词的词义表示向量,候选属性P对应词向量LRP={lrp1,lrp2,..,lrpm},lrpm对应第m个属性词的词义表示向量。
3.根据权利要求1所述的一种基于神经网络的知识库问答中的属性匹配方法,其特征是所述步骤二的语义向量是用的每个时序前向LSTM层的隐向量和后向LSTM层隐向量的拼接,得到问句和候选属性对应的上下文语义表示向量SRQ和SRP,问句语义向量SRQ={srq1,srq2,…,srqn},候选属性语义向量SRP={srp1,srp2,…,srpm},n表示问句分词个数,m表示属性分词个数,srqn和srpm分别为两个方向LSTM的输出表示的拼接。
4.根据权利要求1所述的一种基于神经网络的知识库问答中的属性匹配方法,其特征是所述步骤三具体为:对问句Q和候选属性P的词义表示向量和上下文语义表示向量分别计算词义相似度矩阵LSM和语义相似度矩阵SSM:LSM=[lsmij]n*m,SSM=[ssmij]n*m,其中lsmij=lrqi⊙lrpj,ssmij=srqi⊙srpj,n表示问句分词个数,m表示属性分词个数,lrqi表示问句词向量的元素,lrpj表示候选属性词向量的元素,srqi表示问句语义向量的元素,srpj表示候选属性语义向量的元素,1≤i≤n,1≤j≤m,“⊙”表示计算方式为余弦相似度。
5.根据权利要求1所述的一种基于神经网络的知识库问答中的属性匹配方法,其特征是所述步骤四具体为:对两个相似度矩阵从垂直方向和水平方向,即问句方向和候选属性方向分别计算最大值,得到问句对应的词义相似度最大值向量ylq,属性对应的词义相似度最大值向量ylp,问句对应的语义相似度最大值向量ylp,属性对应的语义相似度最大值向量ysp
ylq=[ylq1,ylq2,…,ylqi,…,ylqn],ylp=[ylp1,ylp2,…,ylpj,…,ylpm],
ysq=[ysq1,ysq2,…,ysqi,…,ysqn],ysp=[ysp1,ysp2,…,yspj,…,yspm],
其中,ylqi表示第i个属性词在问句方向上挑出的最大相似度,其他同理。
6.根据权利要求1所述的一种基于神经网络的知识库问答中的属性匹配方法,其特征是所述步骤五具体为:将步骤四得到的四个最大值向量分别送入四个线性层得到四个相似度值:zlq=wlq*ylq+blq,zlp=wlp*ylp+blp,zsq=wsq*ysq+bsq,zsp=wsp*ysp+bsp;然后将四个相似度值组成向量z=[zlq,zlp,zsq,zsp],将向量z送入神经网络最终的线性层得到最终相似度:sim(Q,P)=w*z+b。
CN201910808206.XA 2019-08-29 2019-08-29 一种基于神经网络的知识库问答中的属性匹配方法 Active CN112445899B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910808206.XA CN112445899B (zh) 2019-08-29 2019-08-29 一种基于神经网络的知识库问答中的属性匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910808206.XA CN112445899B (zh) 2019-08-29 2019-08-29 一种基于神经网络的知识库问答中的属性匹配方法

Publications (2)

Publication Number Publication Date
CN112445899A CN112445899A (zh) 2021-03-05
CN112445899B true CN112445899B (zh) 2024-05-03

Family

ID=74742185

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910808206.XA Active CN112445899B (zh) 2019-08-29 2019-08-29 一种基于神经网络的知识库问答中的属性匹配方法

Country Status (1)

Country Link
CN (1) CN112445899B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113254620B (zh) * 2021-06-21 2022-08-30 中国平安人寿保险股份有限公司 基于图神经网络的应答方法、装置、设备及存储介质
CN113609274B (zh) * 2021-08-16 2024-02-09 平安银行股份有限公司 智能问答方法、装置、电子设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106502994A (zh) * 2016-11-29 2017-03-15 上海智臻智能网络科技股份有限公司 一种文本的关键词提取的方法和装置
CN106844741A (zh) * 2017-02-13 2017-06-13 哈尔滨工业大学 一种面向特定领域的问题解答方法
CN108090174A (zh) * 2017-12-14 2018-05-29 北京邮电大学 一种基于系统功能语法的机器人应答方法及装置
CN108509519A (zh) * 2018-03-09 2018-09-07 北京邮电大学 基于深度学习的通用知识图谱增强问答交互系统及方法
CN108804521A (zh) * 2018-04-27 2018-11-13 南京柯基数据科技有限公司 一种基于知识图谱的问答方法及农业百科问答系统
US10146751B1 (en) * 2014-12-31 2018-12-04 Guangsheng Zhang Methods for information extraction, search, and structured representation of text data
CN109145083A (zh) * 2017-06-27 2019-01-04 华东师范大学 一种基于深度学习的候选答案选取方法
CN109376222A (zh) * 2018-09-27 2019-02-22 国信优易数据有限公司 问答匹配度计算方法、问答自动匹配方法及装置
CN109408627A (zh) * 2018-11-15 2019-03-01 众安信息技术服务有限公司 一种融合卷积神经网络和循环神经网络的问答方法及系统
CN109948143A (zh) * 2019-01-25 2019-06-28 网经科技(苏州)有限公司 社区问答系统的答案抽取方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7502785B2 (en) * 2006-03-30 2009-03-10 Microsoft Corporation Extracting semantic attributes
US11288297B2 (en) * 2017-11-29 2022-03-29 Oracle International Corporation Explicit semantic analysis-based large-scale classification

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10146751B1 (en) * 2014-12-31 2018-12-04 Guangsheng Zhang Methods for information extraction, search, and structured representation of text data
CN106502994A (zh) * 2016-11-29 2017-03-15 上海智臻智能网络科技股份有限公司 一种文本的关键词提取的方法和装置
CN106844741A (zh) * 2017-02-13 2017-06-13 哈尔滨工业大学 一种面向特定领域的问题解答方法
CN109145083A (zh) * 2017-06-27 2019-01-04 华东师范大学 一种基于深度学习的候选答案选取方法
CN108090174A (zh) * 2017-12-14 2018-05-29 北京邮电大学 一种基于系统功能语法的机器人应答方法及装置
CN108509519A (zh) * 2018-03-09 2018-09-07 北京邮电大学 基于深度学习的通用知识图谱增强问答交互系统及方法
CN108804521A (zh) * 2018-04-27 2018-11-13 南京柯基数据科技有限公司 一种基于知识图谱的问答方法及农业百科问答系统
CN109376222A (zh) * 2018-09-27 2019-02-22 国信优易数据有限公司 问答匹配度计算方法、问答自动匹配方法及装置
CN109408627A (zh) * 2018-11-15 2019-03-01 众安信息技术服务有限公司 一种融合卷积神经网络和循环神经网络的问答方法及系统
CN109948143A (zh) * 2019-01-25 2019-06-28 网经科技(苏州)有限公司 社区问答系统的答案抽取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Expanded Semantic Graph Representation for Matching Related Information of Interest across Free Text Documents;James R. Johnson等;《IEEE》;第60-66页 *
基于多角度注意力机制的单一事实知识库问答方法;罗达等;《 计算机科学》;第215-221页 *

Also Published As

Publication number Publication date
CN112445899A (zh) 2021-03-05

Similar Documents

Publication Publication Date Title
CN108734276B (zh) 一种基于对抗生成网络的模仿学习对话生成方法
WO2020238985A1 (zh) 模型训练方法、对话生成方法、装置、设备及存储介质
WO2020232877A1 (zh) 一种问题答案选取方法、装置、计算机设备及存储介质
CN110188167A (zh) 一种融入外部知识的端到端对话方法及系统
CN106649514A (zh) 用于受人启发的简单问答(hisqa)的系统和方法
CN108921657B (zh) 一种基于知识增强记忆网络的序列推荐方法
CN108038492A (zh) 一种基于深度学习的感性词向量及情感分类方法
CN112287089B (zh) 用于自动问答系统的分类模型训练、自动问答方法及装置
CN109032375A (zh) 候选文本排序方法、装置、设备及存储介质
CN113344053B (zh) 一种基于试题异构图表征与学习者嵌入的知识追踪方法
CN105808590A (zh) 搜索引擎实现方法、搜索方法以及装置
WO2024016695A1 (zh) 基于多视图学习的教学知识图谱构建及检索方法及系统
CN112445899B (zh) 一种基于神经网络的知识库问答中的属性匹配方法
JP7488871B2 (ja) 対話推薦方法、装置、電子機器、記憶媒体ならびにコンピュータプログラム
CN113535918B (zh) 预训练对偶注意力神经网络语义推断对话检索方法及系统、检索设备、存储介质
CN111930894A (zh) 长文本匹配方法及装置、存储介质、电子设备
CN112307168A (zh) 基于人工智能的问诊会话处理方法、装置和计算机设备
CN111897944A (zh) 基于语义空间共享的知识图谱问答系统
CN108959388A (zh) 信息生成方法及装置
CN113239209A (zh) 基于RankNet-transformer的知识图谱个性化学习路径推荐方法
CN115204156A (zh) 关键词提取方法及装置
CN110008411B (zh) 一种基于用户签到稀疏矩阵的深度学习兴趣点推荐方法
CN108388944A (zh) Lstm神经网络芯片及其使用方法
CN117112765A (zh) 基于大数据模型和知识图谱融合的领域机器人问答系统
CN115545960B (zh) 一种电子信息数据交互系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant