CN107544960B - 一种基于变量绑定和关系激活的自动问答方法 - Google Patents
一种基于变量绑定和关系激活的自动问答方法 Download PDFInfo
- Publication number
- CN107544960B CN107544960B CN201710755961.7A CN201710755961A CN107544960B CN 107544960 B CN107544960 B CN 107544960B CN 201710755961 A CN201710755961 A CN 201710755961A CN 107544960 B CN107544960 B CN 107544960B
- Authority
- CN
- China
- Prior art keywords
- entity
- text
- relationship
- representing
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 230000004913 activation Effects 0.000 title claims abstract description 42
- 230000009471 action Effects 0.000 claims abstract description 92
- 238000013507 mapping Methods 0.000 claims abstract description 17
- 230000003213 activating effect Effects 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 64
- 238000010586 diagram Methods 0.000 claims description 28
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 230000000306 recurrent effect Effects 0.000 claims description 10
- 238000003062 neural network model Methods 0.000 claims description 8
- 230000002441 reversible effect Effects 0.000 claims description 5
- 210000004556 brain Anatomy 0.000 abstract description 6
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 20
- 238000012549 training Methods 0.000 description 18
- 239000000463 material Substances 0.000 description 14
- 101150117133 Slc29a2 gene Proteins 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 230000007787 long-term memory Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 101150054870 Slc29a1 gene Proteins 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明属于自然语言处理领域,具体涉及一种基于变量绑定和关系激活的自动问答方法。旨在解决现有技术难以模拟人脑精确推理出结果的问题。本发明的方法包括对文本和问句进行编码,得到文本的语义信息和问句的查询语句,识别文本中的实体,并对实体进行映射和跟踪,利用第一动作网络理解语义信息,确定实体在逻辑规则中的位置,利用第二动作网络激活实体关系,将实体关系写入逻辑规则,得到意象图式,利用查询语句对意象图式进行检索,根据检索结果生成答案词。本发明将实体位置和实体关系写入逻辑规则之后形成意象图式,能够作为先验知识存在,无需依赖大量的数据,即可产生与人脑类似的变量和关系序列,产生正确答案。
Description
技术领域
本发明属于自然语言处理领域,具体涉及一种基于变量绑定和关系激活的自动问答方法。
背景技术
自动问答是自然语言处理中重要的组成部分,其表现形式通常为通过阅读文本,理解文本所包含的叙述段落,并针对段落内容给出的问句进行回答,自动问答需要能够精确理解文本中的概念和关系,并进行推理的能力。目前已有的自动问答方法是通过使用已有的命名实体识别、语义角色标注、句法分析工具得到句义表示,将句义表示代入逻辑规则,对段落中所有句子进行编码并直接存放,使用注意力机制进行多轮选择,生成答案词的连续表示,通过理解段落中的句子,并对段落进行记忆,选择有用的信息,对矩阵形式的外置记忆单元进行读写和寻址,从而完成对推理问题的问答。
使用外置记忆单元和注意力机制的模型框架在自动问答时能够取得较好的效果,但是使用该模型框架对推理规则的理解所依赖的数据量过大,缺乏对概念范畴和对立关系(例如南、北)的先验知识,即使数据充分,也难以获得完全精确和类人的结果,当样本数量较少时,该模型框架在解决归纳演绎、位置推理等场景时存在很大的困难。以下述问题为例:
1.The red square is below the blue square.
2.The red square is to the left of the pink rectangle.
问题1:Is the blue square below the pink rectangle?
问题2:Is the pink rectangle above the blue square?
使用现有技术的自动问答方法,对于问题1和问题2的回答均为no,现有的自动问答方法难以理解上、下、左、右之间的关系特性,只能从统计共现的角度建立文本和问题到答案词的映射,在数据量充足时,可以得到高于90%的正确率,但是仍然不能模拟人类精确推理的结果。另外,现有技术中采用的模型是基于端对端的训练,获得的结果不具有足够的可解释性。
因此,如何提出一种解决上述问题的方案是本领域技术人员目前需要解决的问题。
发明内容
为了解决现有技术中的上述问题,即为了解决现有技术对数据量依赖过大而且缺乏对概念范畴和对立关系的先验知识,导致难以模拟人脑精确推理结果的问题,本发明提供了一种基于变量绑定和关系激活的自动问答方法,包括:
通过词向量和编码模型对文本进行编码,得到所述文本的语义信息;
识别所述文本的语义信息中的实体,对所述实体进行映射和跟踪;
通过第一动作网络理解所述语义信息和问句,确定所述实体在逻辑规则中的位置,得到所述问句对应的查询语句;
通过第二动作网络激活实体关系,并将所述实体关系写入所述逻辑规则,得到意象图式;
利用所述查询语句对所述意象图式进行检索,得到检索结果,根据所述检索结果生成答案词。
在上述方法的优选技术方案中,所述“通过词向量和编码模型对文本进行编码”,其方法为:
将所述文本使用可训练的映射矩阵进行词向量表示,其中所述词向量作为所述文本的词粒度的编码,计算所述词向量ei(t)的具体公式为:
使用编码模型将所述词向量拼接为句子向量,所述句子向量表示所述文本的语义信息,计算所述句子向量st的具体公式为:
st=concat(e1(t),e2(t),...en(t)),
其中,concat表示字符串连接函数。
在上述方法的优选技术方案中,所述编码模型为循环神经网络模型。
在上述方法的优选技术方案中,所述“对所述实体进行映射和跟踪”,其方法为:
使用命名空间为所述实体分配固定编号;
当所述文本中出现相同的实体时,所述命名空间为所述相同的实体映射相同的编号。
在上述方法的优选技术方案中,所述“通过第一动作网络理解所述语义信息和问句”之前,该方法还包括:
使用全连接的感知机将所述句子向量进一步编码为隐层表示,其中,计算隐层语义ht的具体公式为:
ht=σ(Whidst),
在上述方法的优选技术方案中,所述“确定所述实体在逻辑规则中的位置”,其方法为:
其中,softmax表示激活函数,Wbind表示变量绑定的动作网络参数,其中,dim(a)表示可行动作的个数,d表示词向量的维度,表示实数构成的矩阵,ht表示隐层语义,τ表示softmax激活函数中的温度常数。
在上述方法的优选技术方案中,所述“通过第二动作网络激活实体关系”,其方法为:
其中,softmax表示激活函数,Wactiv表示关系激活的动作网络参数,ht表示隐层语义,τ表示softmax激活函数中的温度常数。
在上述方法的优选技术方案中,所述第一动作网络与所述第二动作网络均为神经网络模型,其中,所述第一动作网络与所述第二动作网络的权重参数不同。
在上述方法的优选技术方案中,所述意象图式由三元组进行表示,所述三元组包含第一、第二以及第三参数,所述实体作为第一或者第三参数,所述实体关系作为第二参数。
在上述方法的优选技术方案中,所述意象图式包括部分-整体图示、始源-路径-终点图示以及链接图示。
在上述方法的优选技术方案中,所述“利用所述查询语句对所述意象图式进行检索,得到检索结果”,其方法为:
所述查询语句包括第一实体和实体关系,将所述查询语句输入所述意象图式进行检索,所述意象图式根据所述第一实体和所述实体关系生成第二实体,得到检索结果。
在上述方法的优选技术方案中,所述“根据所述检索结果生成答案词”,其方法为:
根据所述命名空间对所述检索结果进行反查询,得到所述检索结果对应的文本字符串,所述文本字符串作为答案词。
本发明提供了一种基于变量绑定和关系激活的自动问答方法,包括利用词向量和编码模型对文本进行编码,得到文本的语义信息;识别文本的语义信息中的实体,对实体进行映射和跟踪;利用第一动作网络理解语义信息和问句,确定实体在逻辑规则中的位置,得到问句对应的查询语句;利用第二动作网络激活实体关系,并将实体关系写入逻辑规则,得到意象图式;利用查询语句对意象图式进行检索,得到检索结果,根据检索结果生成答案词。
本发明通过动作网络识别文本中的实体,并且激活实体间的关系,将实体位置和实体关系写入逻辑规则进而形成意象图式,从而能够把空间结构映射到概念结构中,对感性经验进行压缩性描述,根据问句生成的查询语句对意象图式进行检索,能够根据当前的逻辑规则中的实体和实体关系,自动推导出和意象图式中已存在的其他实体之间的关系,并且作为长期记忆的先验知识存在,无需进行训练,从而不需要依赖大量的数据,即可产生与人脑类似的变量和关系序列,产生正确的答案。
附图说明
图1为本发明一种实施例的基于变量绑定和关系激活的自动问答方法的流程示意图;
图2为本发明一种实施例的句子编码的流程示意图;
图3为本发明一种实施例的基于变量绑定和关系激活的自动问答方法的框架示意图;
图4为本发明一种实施例的检索生成、答案词生成以及反馈信号的示意图。
具体实施方式
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
如图1所示,为本发明一种实施例的基于变量绑定和关系激活的自动问答方法的流程示意图,包括:
步骤S1:通过词向量和编码模型对文本进行编码,得到文本的语义信息;
如图2所示,为本发明一种实施例的句子编码的流程示意图,根据给定的文本材料中的一系列句子,如图2中给出的“The garden is west of the bedroom”,将句子中出现的所有单词进行词向量映射,生成文本材料的词向量表示,文本的词向量表示作为文本的词粒度的编码,进而将文本材料转变为系统能够识别的形式;编码模型能够将每个句子中的词粒度编码融合为句子的编码,使用向量拼接的方法,将词向量拼接为句子向量,将文本中所有的句子向量整合为文本材料的语义信息。
步骤S2:识别文本的语义信息中的实体,对实体进行映射和跟踪;
如图3所示,为本发明一种实施例的基于变量绑定和关系激活的自动问答方法的框架示意图,为了能够实现自动问答的功能,除了需要系统能够理解文本材料的语义信息之外,还需要系统能够识别文本中的实体,通过理解文本中的实体,机器才能够了解实体间的关系,进而根据问句中的一个实体和实体的关系求解另一个实体,或者根据两个实体求解两个实体间的关系。通过实体识别方法识别文本句子中的所有实体,并且利用命名空间为文本中出现过的实体进行编号,每一个实体都具有唯一的编号,不仅方便后期的查询检索,并且当相同的实体在后续的文本中再次出现时,命名空间能够为该实体分配相同的编号,从而保证系统能够准确地对实体进行映射和跟踪。
步骤S3:通过第一动作网络理解语义信息和问句,确定实体在逻辑规则中的位置,得到问句对应的查询语句;
得到文本材料的语义信息,只是将文本材料转化为系统能够识别的形式,还需要利用第一动作网络理解语义信息,才能够让系统理解本文材料的语义信息,进而做出后续的问答。在具体应用中,以逻辑规则为三元组为例,在第一动作网络理解语义信息之后,输出一个所有可行动作的分布,假设句子中存在两个实体X和Y,表示实体关系的三元组为(Ent1,R,Ent2),可行动作集合为{0,1},其中,0代表“Ent1=X,Ent2=Y”,而1代表“Ent1=Y,Ent2=X”,可行动作集合中0和1的含义是可以根据用户自己定义的,例如,假设两个实体X和Y分别为书和桌子,命名空间将书编号为1,将桌子编号为2,则可行动作集合中0代表的是三元组为(1,R,2),而可行动作集合中1代表的是三元组为(2,R,1),三元组中R代表实体间的关系。
此外,第一动作网络可以理解问句,并对问句进行编码,生成问句对应的查询语句。
步骤S4:通过第二动作网络激活实体关系,并将实体关系写入逻辑规则,得到意象图式;
在实际应用中,实体关系都是对现实世界的抽象,实体关系可以包括从属关系、方位关系以及大小关系等等。第二动作网络能够根据动作决策计算出需要激活的实体关系。例如,用X指代书,Y指代桌子,Z指代地面,在已知(X,R,Y)and(Y,R,Z)的情况下,推导出(X,R,Z)but(Z,notR,X)的结果,第二动作网络可以根据关系激活的动作决策激活符合现实世界认知的实体关系,如上述实例中,在已知书在桌子上方,并且桌子在地面上方的情况下,推出:书在地面上方,但是地面不在桌子上方。上述实例中,“在上方”就是一种实体关系。
在对所有的文本材料进行步骤S1-S4的操作后,能够形成完整的逻辑规则,并将得到的完整的逻辑规则作为意象图式。实际应用中,逻辑规则对应于认知心理学中的意象图式,因此可以作为长期记忆中的先验知识存在,无需训练,在阅读完整个文本材料后,形成的逻辑规则构成意象图式。
步骤S5:利用查询语句对意象图式进行检索,得到检索结果,根据检索结果生成答案词。
如图4所示,为本发明一种实施例的检索生成、答案词生成以及反馈信号的示意图,通过第一动作网络对问句进行编码后,得到查询语句,其中,查询语句中包括第一实体和实体关系,查询语句的检索目标是第二实体。第二动作网络决定查询语句中各项成分的值,具体公式如公式(1)和公式(2)所示:
公式(1)表示计算查询语句中各项成分的概率分布,公式(2)表示计算查询语句ri的概率值。
其中,softmax表示激活函数,Wretrieve表示连接到输出层的神经网络参数,σ表示sigmoid激活函数,Whid-qqi表示对问句进行语义编码的神经网络参数,τ表示softmax激活函数中的温度常数,ri表示在动作空间中所选取的动作,qi表示隐层向量。
对于一个时间长度为T的完整问答流程,产生的关系激活序列集合为a1...T,变量绑定序列集合为b1...T,句子向量集合为s1...T;对于N个问句,产生的查询语句集合为retr1...N,隐层向量集合为q1...N,则根据动作网络的输出所产生的完整决策序列的概率如公式(3)所示:
其中,bt表示t时刻的变量绑定的决策,at表示t时刻的关系激活的决策,st表示t时刻的句子向量,ri表示第i个问题的查询语句,qi表示第i个问题的隐层向量。
通过上述方法得到检索结果后,即得到第二实体后,与命名空间中对应的文本字符串进行比较,如果与检索结果相同,则获得正奖励信号,并且将其作为答案词,如果与检索结果不同,则获得零奖励,并降低该文本字符串作为答案词的概率。
本发明通过动作网络识别文本中的实体,并且激活实体间的关系,将实体位置和实体关系写入逻辑规则进而形成意象图式,从而能够把空间结构映射到概念结构中,对感性经验进行压缩性描述,根据问句生成的查询语句对意象图式进行检索,能够根据当前的逻辑规则中的实体和实体关系,自动推导出和意象图式中已存在的其他实体之间的关系,并且作为长期记忆的先验知识存在,无需进行训练,从而不需要依赖大量的数据,即可产生与人脑类似的变量和关系序列,产生正确的答案。
作为一种优选的实施例,“利用词向量和编码模型对文本进行编码”,其方法为:
将文本使用可训练的映射矩阵进行词向量表示,其中词向量作为文本的词粒度的编码,计算词向量ei(t)的方法如公式(4)所示:
其中,|V|表示总词表大小,d表示词向量的维度,A表示映射矩阵,xi,t表示t时刻的文本,表示实数构成的矩阵;
使用编码模型将词向量拼接为句子向量,句子向量表示文本的语义信息,计算句子向量st的方法如公式(5)所示:
st=concat(e1(t),e2(t),...en(t)) (5)
其中,concat表示字符串连接函数。
作为一种优选的实施例,编码模型为循环神经网络模型。
对于时刻t输入的包含n个单词的句子{x1(t),x2(t),...xn(t)},通过公式(4)将单词转变为词向量,词向量作为词粒度的编码,其中A的参数在训练开始前进行随机初始化。在得到词粒度的编码后,通过编码模型将每个句子的所有词粒度编码融合为句子的编码。公式(5)将n个d维词向量顺序拼接成一个n*d维的向量,以表示整个句子的语义。其中,编码模型可以是循环神经网络,循环神经网络是一种对序列数据建模的神经网络,具体表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再是无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出,还包括上一时刻隐藏层的输出。除了可以是循环神经网络模型以外,编码模型还可以是长短期记忆单元,还可以在编码模型中加入句子粒度或者词粒度的顺序和位置信息,提高编码的效率。
作为一种优选的实施例,“对实体进行映射和跟踪”,其方法为:
使用命名空间为实体分配固定编号;
当文本中出现相同的实体时,命名空间为相同的实体映射相同的编号。
命名空间能够用来组织和重用文本材料中的实体,为每个实体分配唯一的编号。在实际应用中,命名空间的结构可以是字典结构,也可以是由键值对为节点组成的数据结构,例如线性表等。其中,字典结构的命名空间是查询速度最快的。在为每个实体分配了编号后,后期同样可以通过命名空间来对实体进行查询。在命名空间得到实体后,可以根据实体对应的编号进行反查询。
作为一种优选的实施例,“利用第一动作网络理解语义信息和问句”之前,该方法还包括:
使用全连接的感知机将句子向量进一步编码为隐层表示,其中,计算隐层语义ht的方法如公式(6)所示:
ht=σ(Whidst) (6)
在实际应用中,通过词向量拼接成的句子向量维度较大且较为稀疏,将得到的句子向量进行进一步的隐层表示,能够提炼出更加简洁和高效的句子的语义信息,也更好地表达文本材料所想表达的意思。
作为一种优选的实施例,“确定实体在逻辑规则中的位置”,其方法为:
其中,softmax表示激活函数,Wbind表示变量绑定的动作网络参数,其中,dim(a)表示可行动作的个数,d表示词向量的维度,表示实数构成的矩阵,ht表示隐层语义,τ表示softmax激活函数中的温度常数。
在实际应用中,使用全连接的感知机理解隐层语义后,通过第一动作网络做出的决策可以输出可行动作的分布,确定每个实体在逻辑规则中的位置,具体地,以逻辑规则为三元组为例,三元组是最常见的用来表示实体之间关系的方法,多个实体间的关系则可以由多个三元组来表示,除了可以用三元组表示逻辑规则以外,还可以用图的顶点和边来表示逻辑规则,这里不做限定。在确定每个实体在逻辑规则中的位置后,将其赋值到三元组两端之一,具体将实体赋值到三元组两端的哪一端,可以通过公式(7)计算得到。
具体地,公式(7)中τ表示softmax激活函数中的温度常数,用来控制可行动作分布的集中程度,该参数能够用于控制动作决策分布的锐度:在具体应用中,对参数的训练过程中,如果动作决策概率分布较为平滑,本发明的方法则会以相近的概率执行各个动作,也就是做各种尝试,通过奖励信号判断哪些动作能够更有效的体现实体的位置关系;如果训练过程中,动作决策分布不平滑,分布在某几个动作的概率较大,那么生成的动作序列就会集中在这几个概率较大的动作上,并在概率较大的动作上寻找最优的动作。
作为一种优选的实施例,“利用第二动作网络激活实体关系”,其方法为:
其中,softmax表示激活函数,Wactiv表示关系激活的动作网络参数,ht表示隐层语义,τ表示softmax激活函数中的温度常数。
以逻辑规则为三元组为例,通过公式(8)计算得到实体关系后,将其写入三元组中,综合第一动作网络确定实体在三元组中的位置以及第二动作网络得到的实体关系,可以得到完整的三元组。由第一动作网络和第二动作网络的输出共同决定的三元组的概率计算如公式(9)所示:
在时间长度为T的完整问答流程中,通过阅读所有的文本材料,对文本材料中的每一句话通过上述的方法建立三元组,得到三元组列表。获取当前时刻的动作决策得到的三元组,将当前时刻得到的三元组插入已存在的三元组列表中并删除与之矛盾的部分。此外,根据当前时刻得到的三元组中的实体所满足的关系,可以自动推导出当前时刻得到的三元组中的实体与三元组列表中已存在的其他实体间的关系。具体地,以当前时刻生成的三元组为(X,A,Y)为例,其中,X、Y代表两个不同的实体,A代表满足始源-路径-终点图示的关系。将(X,A,Y)插入已存在的三元组列表,根据始源-路径-终点图示中的实体关系(X,A,Y)<=>(Y,B,X),将(Y,B,X)也存入三元组列表;将如果已存在的三元组列表中存在三元组(Y,A,Z),根据始源-路径-终点图示中的实体关系(X,A,Y)and(Y,A,Z)=>(X,A,Z),将三元组(X,A,Z)存入三元组列表,根据始源-路径-终点图示中的实体关系(X,A,Y)<=>(Y,B,X),将三元组(Z,B,X)也存入三元组列表。
作为一种优选的实施例,第一动作网络与第二动作网络均为神经网络模型,其中,第一动作网络与第二动作网络的权重参数不同。
作为一种优选的实施例,意象图式由三元组进行表示,三元组包含第一、第二以及第三参数,实体作为第一或者第三参数,实体关系作为第二参数。
第一动作网络和第二动作网络均为神经网络模型,但是采用不同的权重参数,其中,第一动作网络决定实体在逻辑规则中的位置,第二动作网络决定实体之间的关系。三元组是指形如(x,y,z)的集合,在实际应用中,三元组主要是用来存储稀疏矩阵的一种压缩形式,为了解决大型的稀疏矩阵用常规的分配方法在计算机中存储造成大量内存的浪费。
作为一种优选的实施例,意象图式包括部分-整体图示、始源-路径-终点图示以及链接图示。
以下均以三元组为例对意象图式进行解释说明。
部分-整体图示是三元组中存在一个既不对称也不传递的关系R,被激活时,只在已有的三元组列表中插入一项(X,R,Y);
始源-路径-终点图示是存在多组对立的关系,每组中两个关系A,B满足:
(X,A,Y)<=>(Y,B,X);
(X,A,Y)and(Y,A,Z)=>(X,A,Z)
不同组{A,B}和{C,D}之间满足:(X,A,Y)and(Y,C,Z)=>(X,AC,Z)and(Z,DB,X),并假设第二级关系AC与DB互不影响。
链接图式假设存在两个不同的关系A,B和一个代表等价的关系E,满足:
(X,A,Y)and(Z,A,Y)=>(X,E,Y)and(Y,E,X);
(X,E,Y)and(Y,B,Z)=>(X,B,Z)。
上述三种意象图式可以作为长期记忆中的先验知识存在,无需训练,在每个时间片段上,通过上述意象图式均可以推导产生新的三元组。
作为一种优选的实施例,“利用查询语句对意象图式进行检索,得到检索结果”,其方法为:
查询语句包括第一实体和实体关系,将查询语句输入意象图式进行检索,意象图式根据第一实体和实体关系生成第二实体,得到检索结果。
作为一种优选的实施例,“根据检索结果生成答案词”,其方法为:
根据命名空间对检索结果进行反查询,得到检索结果对应的文本字符串,文本字符串作为答案词。
生成的查询语句中包括实体Ent1和关系R的值,将查询语句输入意象图式中得到检索结果,检索结果为实体Ent2,通过命名空间对Ent2进行反查询,得到实体Ent2的编号对应的文本字符串,将文本字符串与检索结果进行比较,如果相同,则获得正的奖励,否则获得零奖励,并且利用策略梯度方法更新网络参数,训练模型,其中,策略梯度方法是一种强化学习训练方法,网络参数包括所有词的词向量、所有编码模型以及动作网络的连接权值等。
令h时刻获得的奖励信号为rh,则可以通过算法优化目标函数提高模型给出答案的正确率,具体如公式(10)所示:
其中,L(θ)表示当前神经网络参数θ在训练数据上获得的总代价函数,E表示对当前参数生成的所有动作序列取期望,γ表示衰减因子,取值为0-1之间的实数,rh表示h时刻获得的奖励信号值,H表示动作序列总长度。
根据强化学习理论,L(θ)的梯度表示如公式(11)所示:
其中,Ea~π表示期望,πθ表示根据网络参数θ计算得到选择执行ah的动作概率,ah表示h时刻所执行的动作。
通过上述公式可以进行权值更新,使得网络行为收敛到能够产生与人脑类似的变量和关系序列,即意象图式,产生正确的答案。
为了准确评估本发明方法在问答任务中的推理性能,本发明选择了Facebook发布的bAbI-20推理问答数据集中,与人类基本意象图式最相关的8个子任务,编号分别为qa1、qa6、qa9、qa12、qa16、qa17、qa18、qa19进行训练测试,以测试集的错误率作为评价标准。其中qa1的场景为:多个人物分别移动位置,对某个人物的最终位置进行提问;qa6与qa1类似,但加入了拿起、放下物品的动作,并将问句改为回答是或否;qa9在qa1、qa6的基础上加入了否定性叙述;qa12与qa1的场景类似,但叙事文本中的一句话可能涉及多个人物;qa16是一个关于物种颜色的归纳推理问题;qa17是关于物体方位(上、下、左、右)的空间推理问题;qa18是物体大小关系的推理问题。qa19是涉及物体方位(东、西、南、北)的路径规划问题。
所选取的8个子任务中,qa17、qa18、qa19均与始源-路径-终点图式有关,而qa1、qa6、qa9、qa12与部分-整体图式相关。由于始源-路径-终点图式中的对立关系和传递性往往对相对简单的推理场景没有影响,因此,部分-整体图式可以看作是始源-路径-终点图式的简化情况。而qa16作为归纳推理问题,与概念的形成、概念边界划分密切相关,需要使用链接图式解决。
每个任务都有两个数据集,分别包含1k和10k条样本。现有方法大多需要10k数据才能在qa16、qa17、qa18、qa19四个较难的问题上取得相对高的准确率,如果只有1k条样本,则无法解决上述问题。
本发明的实验采用以下对比方法:
对比方法一:门控的图变换网络模型GGTNN,该模型将图的节点和边的修改表示成为连续可导的操作,并用通过端对端的强监督训练,学习将叙述段落中提供的信息表达为连接图的形式;
对比方法二:记忆网络模型MemN2N,该模型对每一句话融入时间信息并编码,通过注意力机制进行多轮寻址和融合,形成答案的表示;
对比方法三:实体追踪网络模型EntNet,该模型是一种改进的循环神经网络,拥有一个较大的隐层存储,并对不同的实体采用不同点门控参数,以跟踪围绕每个实体产生的环境变化;
对比方法四:动态记忆网络模型DMN+,该模型用循环神经网络的隐层状态代表每个句子的编码,在融合过程中也使用循环神经网络,并将注意力机制得到的权重信号用作循环神经网络的门控;
对比方法五:可微分神经计算机DNC,该模型使用采用参数化的外置存储单元,可以实现数据的存储、擦写和连接,并通过数据训练对各个指针的操作,完整的网络是端对端可微分的。
如表1所示,为本发明实验中采用的参数设置表,
表1参数设置表
n | d | τ | γ | lr | bs | s |
15 | 20 | 1~20 | 1 | 1e-4 | 32 | 200 |
表1中,n为所有训练数据中的最大句子长度,d为词向量、句子和问题的隐层表示的维度,τ是softmax激活函数的温度常数,由于该参数较为重要,各子任务采用从{1,10,20}集合中进行搜索,取最佳结果的方式。γ为奖励信号衰减因子,lr是采用RMSProp方法更新参数的学习率,bs是进行批量梯度计算时每批样本的数量,s为每一个(叙述,问句)对进行的采样数目,即每条数据仿真s轮,产生s个样本。
如表2所示,为本发明与对比方法的对比结果表,
表2实验结果对比表
在表1参数设置的基础上,本发明的一个实施例在所有任务上80轮内收敛,收敛结果以及在1k和10k的数据集上与对比方法的最佳结果的对比,如表2所示。
实验表明,本发明方法能够在大多数任务上用较少数据量达到显著优于其他方法并接近100%的结果,而其他模型往往只有在大数据量的设定下才能取得较好的效果。对比方法一在小数据上也有较好表现,但该方法在构造过程中使用强监督方式,每一步对图的操作通过模仿而获得;本发明方法对查询语句的形式做了一定程度的假设后,只使用答案对/错进行监督即可得到相近的结果。
此外,为验证本发明对少量数据的高效使用,还以qa6为例,比较不同训练样本数量(均少于1000)对测试结果的影响。结果如表3所示。随着样本数量的增加,本发明的方法迅速获得对语义的更优的理解,建立起从句子语义到意象图式的映射。当样本数超过400时,已经能够获得非常理想的结果。这充分说明了使用强化学习的优势:基于已知样本进行多次试错,可以在很大程度上弥补数据量的欠缺。
表3不同训练样本数下的测试错误率
训练样本数 | 测试错误率(%) |
50 | 15.3 |
100 | 15.0 |
200 | 9.0 |
400 | 0.1 |
1000 | 0 |
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
Claims (11)
1.一种基于变量绑定和关系激活的自动问答方法,其特征在于,包括:
通过词向量和编码模型对文本进行编码,得到所述文本的语义信息;
识别所述文本的语义信息中的实体,对所述实体进行映射和跟踪;
通过第一动作网络理解所述语义信息和问句,确定所述实体在逻辑规则中的位置,得到所述问句对应的查询语句;
通过第二动作网络激活实体关系,并将所述实体关系写入所述逻辑规则,得到意象图式;
利用所述查询语句对所述意象图式进行检索,得到检索结果,根据所述检索结果生成答案词,
所述通过词向量和编码模型对文本进行编码,其方法为:
将所述文本使用可训练的映射矩阵进行词向量表示,其中所述词向量作为所述文本的词粒度的编码,计算所述词向量ei(t)的具体公式为:
使用编码模型将所述词向量拼接为句子向量,所述句子向量表示所述文本的语义信息,计算所述句子向量st的具体公式为:
st=concat(e1(t),e2(t),...en(t)),
其中,concat表示字符串连接函数。
2.根据权利要求1所述的基于变量绑定和关系激活的自动问答方法,其特征在于,所述编码模型为循环神经网络模型。
3.根据权利要求2所述的基于变量绑定和关系激活的自动问答方法,其特征在于,所述对所述实体进行映射和跟踪,其方法为:
使用命名空间为所述实体分配固定编号;
当所述文本中出现相同的实体时,所述命名空间为所述相同的实体映射相同的编号。
7.根据权利要求6所述的基于变量绑定和关系激活的自动问答方法,其特征在于,所述第一动作网络与所述第二动作网络均为神经网络模型,其中,所述第一动作网络与所述第二动作网络的权重参数不同。
8.根据权利要求7所述的基于变量绑定和关系激活的自动问答方法,其特征在于,所述意象图式由三元组进行表示,所述三元组包含第一、第二以及第三参数,所述实体作为第一或者第三参数,所述实体关系作为第二参数。
9.根据权利要求8所述的基于变量绑定和关系激活的自动问答方法,其特征在于,所述意象图式包括部分-整体图示、始源-路径-终点图示以及链接图示。
10.根据权利要求3-9任一项所述的基于变量绑定和关系激活的自动问答方法,其特征在于,所述利用所述查询语句对所述意象图式进行检索,得到检索结果,其方法为:
所述查询语句包括第一实体和实体关系,将所述查询语句输入所述意象图式进行检索,所述意象图式根据所述第一实体和所述实体关系生成第二实体,得到检索结果。
11.根据权利要求10所述的基于变量绑定和关系激活的自动问答方法,其特征在于,所述根据所述检索结果生成答案词,其方法为:
根据所述命名空间对所述检索结果进行反查询,得到所述检索结果对应的文本字符串,所述文本字符串作为答案词。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710755961.7A CN107544960B (zh) | 2017-08-29 | 2017-08-29 | 一种基于变量绑定和关系激活的自动问答方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710755961.7A CN107544960B (zh) | 2017-08-29 | 2017-08-29 | 一种基于变量绑定和关系激活的自动问答方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107544960A CN107544960A (zh) | 2018-01-05 |
CN107544960B true CN107544960B (zh) | 2020-01-14 |
Family
ID=60957558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710755961.7A Active CN107544960B (zh) | 2017-08-29 | 2017-08-29 | 一种基于变量绑定和关系激活的自动问答方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107544960B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304381B (zh) * | 2018-01-25 | 2021-09-21 | 北京百度网讯科技有限公司 | 基于人工智能的实体建边方法、装置、设备及存储介质 |
CN108563779B (zh) * | 2018-04-25 | 2022-03-08 | 北京计算机技术及应用研究所 | 一种基于神经网络的无模板自然语言文本答案生成方法 |
CN109065154B (zh) * | 2018-07-27 | 2021-04-30 | 清华大学 | 一种决策结果确定方法、装置、设备及可读存储介质 |
CN109271635B (zh) * | 2018-09-18 | 2023-02-07 | 中山大学 | 一种嵌入外部词典信息的词向量改进方法 |
CN109271459B (zh) * | 2018-09-18 | 2021-12-21 | 四川长虹电器股份有限公司 | 基于Lucene和文法网络的聊天机器人及其实现方法 |
CN110008480B (zh) * | 2018-12-05 | 2020-12-11 | 中国科学院自动化研究所 | 基于原型记忆的小数据词表示学习方法与系统及相关设备 |
CN109726903B (zh) * | 2018-12-19 | 2020-10-16 | 中国电子科技集团公司信息科学研究院 | 基于注意力机制的分布式多智能体协同决策方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8442940B1 (en) * | 2008-11-18 | 2013-05-14 | Semantic Research, Inc. | Systems and methods for pairing of a semantic network and a natural language processing information extraction system |
CN103250149A (zh) * | 2010-12-07 | 2013-08-14 | Sk电信有限公司 | 用于从数学语句提取语义距离并且按照语义距离对数学语句分类的方法、用于该方法的装置和计算机可读记录介质 |
CN105138507A (zh) * | 2015-08-06 | 2015-12-09 | 电子科技大学 | 一种基于模式自学习的中文开放式关系抽取方法 |
CN106528609A (zh) * | 2016-09-28 | 2017-03-22 | 厦门理工学院 | 一种向量约束嵌入转换的知识图谱推理方法 |
CN106919655A (zh) * | 2017-01-24 | 2017-07-04 | 网易(杭州)网络有限公司 | 一种答案提供方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6584470B2 (en) * | 2001-03-01 | 2003-06-24 | Intelliseek, Inc. | Multi-layered semiotic mechanism for answering natural language questions using document retrieval combined with information extraction |
-
2017
- 2017-08-29 CN CN201710755961.7A patent/CN107544960B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8442940B1 (en) * | 2008-11-18 | 2013-05-14 | Semantic Research, Inc. | Systems and methods for pairing of a semantic network and a natural language processing information extraction system |
CN103250149A (zh) * | 2010-12-07 | 2013-08-14 | Sk电信有限公司 | 用于从数学语句提取语义距离并且按照语义距离对数学语句分类的方法、用于该方法的装置和计算机可读记录介质 |
CN105138507A (zh) * | 2015-08-06 | 2015-12-09 | 电子科技大学 | 一种基于模式自学习的中文开放式关系抽取方法 |
CN106528609A (zh) * | 2016-09-28 | 2017-03-22 | 厦门理工学院 | 一种向量约束嵌入转换的知识图谱推理方法 |
CN106919655A (zh) * | 2017-01-24 | 2017-07-04 | 网易(杭州)网络有限公司 | 一种答案提供方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107544960A (zh) | 2018-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107544960B (zh) | 一种基于变量绑定和关系激活的自动问答方法 | |
CN109299284B (zh) | 一种基于结构信息与文本描述的知识图谱表示学习方法 | |
CN109816032B (zh) | 基于生成式对抗网络的无偏映射零样本分类方法和装置 | |
CN104866578B (zh) | 一种不完整物联网数据混合填充方法 | |
CN113344053B (zh) | 一种基于试题异构图表征与学习者嵌入的知识追踪方法 | |
CN112800203B (zh) | 一种融合文本和知识表征的问答匹配方法及系统 | |
CN111126552B (zh) | 一种智能学习内容推送方法及系统 | |
CN107451230A (zh) | 一种问答方法以及问答系统 | |
CN112506945B (zh) | 基于知识图谱的自适应导学方法及系统 | |
CN109522561B (zh) | 一种问句复述识别方法、装置、设备及可读存储介质 | |
CN113360670B (zh) | 一种基于事实上下文的知识图谱补全方法及系统 | |
CN111782826A (zh) | 知识图谱的信息处理方法、装置、设备及存储介质 | |
CN113591988B (zh) | 知识认知结构分析方法、系统、计算机设备、介质、终端 | |
CN114021722A (zh) | 一种融合认知刻画的注意力知识追踪方法 | |
CN116882450B (zh) | 问答模型的编辑方法、装置、电子设备和存储介质 | |
CN116956116A (zh) | 文本的处理方法和装置、存储介质及电子设备 | |
CN118261163B (zh) | 基于transformer结构的智能评价报告生成方法及系统 | |
CN115114974A (zh) | 一种模型蒸馏方法、装置、计算机设备和存储介质 | |
CN117473041A (zh) | 一种基于认知策略的编程知识追踪方法 | |
CN114329181A (zh) | 一种题目推荐方法、装置及电子设备 | |
CN114971066A (zh) | 融合遗忘因素和学习能力的知识追踪方法及系统 | |
CN112256869B (zh) | 一种基于题意文本的同知识点试题分组系统和方法 | |
CN116644380A (zh) | 一种面向计算机编程试题的多模态特征融合知识追踪方法 | |
CN115358477B (zh) | 一种作战想定随机生成系统及其应用 | |
CN112907004B (zh) | 学习规划方法、装置及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |