CN110516697B - 基于证据图聚合与推理的声明验证方法及系统 - Google Patents

基于证据图聚合与推理的声明验证方法及系统 Download PDF

Info

Publication number
CN110516697B
CN110516697B CN201910637076.8A CN201910637076A CN110516697B CN 110516697 B CN110516697 B CN 110516697B CN 201910637076 A CN201910637076 A CN 201910637076A CN 110516697 B CN110516697 B CN 110516697B
Authority
CN
China
Prior art keywords
evidence
graph
statement
evidences
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910637076.8A
Other languages
English (en)
Other versions
CN110516697A (zh
Inventor
刘知远
周界
韩旭
杨成
孙茂松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201910637076.8A priority Critical patent/CN110516697B/zh
Publication of CN110516697A publication Critical patent/CN110516697A/zh
Application granted granted Critical
Publication of CN110516697B publication Critical patent/CN110516697B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本发明实施例提供一种基于证据图聚合与推理的声明验证方法及系统,所述方法包括:基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示;将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示;基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示;基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证。本发明实施例对证据和声明学习到更好的语义表示的同时提供了证据间聚合和推理的机制,能够更好地综合利用多条证据信息,提高了模型了准确率。

Description

基于证据图聚合与推理的声明验证方法及系统
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于证据图聚合与推理的声明验证方法及系统。
背景技术
随着社会的飞速发展,当今已经进入了信息爆炸时代。伴随着互联网的发展和大数据技术的发展,互联网上每天由用户产生的数据以及用户的浏览行为产生的数据量已经非常庞大。在互联网上,用户每天都会自发产生海量文本内容,其中不乏对于某些事件的论断、对于某个事实的陈述以及对于某些观点的陈述。在海量的数据中,虚假信息、错误论断以及谣言等内容也会随着网络的传播而逐渐扩散,造成了不可估量的负面影响。
现有的错误信息识别方法大部分依赖于譬如关键词匹配的规则过滤或者人工识别,随着数据量的不断增大,自动识别系统的构建逐渐引起了人们的重视。为了检验自动识别系统的效果与准确性,事实验证任务被研究者们提出。给定一个声明(或论断),事实验证任务要求构建的自动识别系统从大规模的知识库(如Wikipedia)中抽取相关的文本作为证据,并通过这些证据判断这些证据是否能够支持或者否定这条声明,如果没有充足的信息作出判断,系统还应该给出无法判断的结果。如果系统给出了支持或者否定的判断,还应该提供出筛选出的证据,给出对该次判断的相关解释。
现有的事实验证系统大多采用了三个组件的流水线结构。这三个组件包括文档抽取组件、句子筛选组件以及声明验证组件。给出一个声明,文档抽取组件试图从维基百科中筛选出与该声明相关的文章列表,句子筛选组件能够从筛选出的文章中挑选出与这条声明相关的句子作为证据,声明验证组件使用这些证据对这条声明的真实性进行判断。
现有技术存在验证准确度不高及无法综合利用多条证据进行合理推断的技术问题。
发明内容
本发明实施例提供一种基于证据图聚合与推理的声明验证方法及系统,用以解决现有技术中证据与声明验证准确度不高及无法综合利用多条证据进行合理推断的缺陷,以提高声明验证任务准确度的效果。
本发明实施例提供一种基于证据图聚合与推理的声明验证方法,包括:
获取声明和基于所述声明抽取得到的证据集,基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示;
将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示;
基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示;
基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证;其中,所述前馈神经网络模型基于标记的样本证据表示和标记的样本声明训练获得。
进一步地,所述获取声明和基于所述声明抽取得到的证据集,基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示的步骤,进一步包括:
基于标注好的证据和声明对BERT预训练模型进行参数微调;
基于微调后的BERT模型为各证据与声明生成相应的向量表示。
进一步地,所述将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示的步骤,进一步包括:
基于每个证据的向量表示构建证据图并赋初始值;
基于图注意力网络进行节点间的信息传递。
进一步地,所述基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示的步骤,进一步包括:基于注意力聚合器、最大值聚合器或平均值聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示。
进一步地,构建证据图并赋初始值的步骤,进一步包括:
将所述有证据表示抽象成图上的节点,每条证据对应一个点,构建一个全连接的证据图,即每个证据节点都有边直接连向其他证据节点。
进一步地,基于图注意力网络进行节点间的信息传递的步骤,进一步包括:
对于全连接的证据图,在每一次传递过程中,每个证据节点会根据自身的信息,基于注意力机制对邻居证据节点信息进行选择,并根据邻居证据节点内容的重要程度对邻居证据节点的信息进行整合。
本发明实施例提供一种基于证据图聚合与推理的声明验证系统,包括:
获取模块,用于获取声明和基于所述声明抽取得到的证据集,基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示;
构建模块,用于将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示;
聚合模块,用于基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示;
验证模块,用于基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证;其中,所述前馈神经网络模型基于标记的样本证据表示和标记的样本声明训练获得。
进一步地,获取模块,进一步用于:
基于标注好的证据和声明对BERT预训练模型进行参数微调;
基于微调后的BERT模型为各证据与声明生成相应的向量表示。
本发明实施例提供的基于证据图聚合与推理的声明验证方法及系统,与现有技术相比,在对证据和声明学习到更好的语义表示的同时提供了证据间聚合和推理的机制,能够更好地综合利用多条证据信息,提高了模型的准确率,具有良好的实用性与现实意义。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于证据图聚合与推理的声明验证方法实施例流程图;
图2为本发明基于证据图聚合与推理的声明验证系统实施例结构图;
图3为本发明一种电子设备实施例结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为解决现有技术中的至少一个技术问题,本发明实施例提供一种基于证据图聚合与推理的声明验证方法。如图1所示,所述基于证据图聚合与推理的声明验证方法整体上包括以下步骤。
步骤S1,获取声明和基于所述声明抽取得到的证据集,基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示。
其中,首先需要获取待验证的声明,所述声明也可以称为论断,其表现形式是阐述某一客观事实的语句。
语言表征模型是一个单纯的、统一的、抽象的形式系统,语言客观事实经过语言模型的描述,比较适合于电子计算机进行自动处理,因而语言模型对于自然语言的信息处理具有重大的意义。基于现有技术中的语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示。
步骤S2,将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示。
其中,将步骤S1中得到的证据向量表示抽象成证据图上的节点,每条证据向量对应一个点,构建一个全连接的证据图,即每个证据节点都有边直接连向其他证据节点。基于使用上一步的得到的证据的向量表示作为节点的初始值。其中,图神经网络方法为现有技术,其基本思想为基于图中节点的局部邻居信息对节点进行节点嵌入 (Embedding,又称为节点表示)的学习。直观来讲,就是通过神经网络来聚合每个节点及其周围节点的信息。
步骤S3,基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示。
需要说明的是,本发明实施例中基于现有技术中的聚合器进行所有证据的高层次表示进行聚合。所述聚合器能够为以下任一一种:注意力聚合器、最大值聚合器以及平均值聚合器。
步骤S4,基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证;其中,所述前馈神经网络模型基于标记的样本证据表示和标记的样本声明训练获得。
其中,将聚合后的证据表示和所述待验证的声明输入前馈神经网络模型,输出获得聚合后的证据表示对于所述待验证的声明真实性的预测结果(即支持、否定和没有足够信息三类),选取预测概率最大的一类作为最终结果。。
本发明实施例提供一种基于证据图聚合与推理的声明验证方法,所述方法包括:获取声明和基于所述声明抽取得到的证据集,基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示;将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示;基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示;基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证。与现有技术相比,在对证据和声明学习到更好的语义表示的同时提供了证据间聚合和推理的机制,能够更好地综合利用多条证据信息,提高了模型了准确率,具有良好的实用性与现实意义。
在本发明上述实施例的基础上,提供一种基于证据图聚合与推理的声明验证方法,所述获取声明和基于所述声明抽取得到的证据集,基于BERT模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示的步骤,进一步包括:
基于标注好的证据和声明对BERT预训练模型进行参数微调;
基于微调后的BERT模型为各证据与声明生成相应的向量表示。
需要说明的是,本发明实施例采用BERT模型作为语言表征模型,进一步基于标注好的证据声明对,在BERT预训练模型的基础上进行微调。具体来说,本发明实施例将证据放在前面,声明放在后面送进BERT模型,使用声明的标签作为分类的结果。本发明实施例使用这样的数据训练BERT模型直到得到最好的验证集上的实验结果,将模型参数保留供下一步使用。其中,需要说明的是,BERT模型是截止目前最新的语言表征模型,通过预训练和精调可以提升11项 NLP(自然语言处理Natural Language Processing)任务的结果。它具体使用的是双向Transformer模型,相对于rnn模型而言更加高效、能捕捉更长距离的依赖。与之前的预训练模型相比,它捕捉到的是真正意义上的双向上下文(bidirectional context)信息。
其中,使用微调后得到的BERT模型,为声明和抽取得到的证据进行向量表示的学习。对于抽取得到的每一条证据来说,将证据放在前面,声明放在后面,使用BERT作为句子的编码器得到对应的向量表示;对于声明来说,直接将其送进BERT对其进行编码,得到对应的向量表示。形式化来说,对于一条声明c和N条证据{e1,e2,…,eN},学习得到其语义表示,这一语义表示是从BERT模型的[CLS]标签中得到的,也就是说有:
ei=BERT(ei,c)
c=BERT(c)。
本发明实施例与现有技术相比,在对证据和声明学习到更好的语义表示的同时提供了证据间聚合和推理的机制,能够更好地综合利用多条证据信息,提高了模型了准确率,具有良好的实用性与现实意义。
在本发明任一上述实施例的基础上,提供一种基于证据图聚合与推理的声明验证方法,其特征在于,所述将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示的步骤,进一步包括:
基于每个证据的向量表示构建证据图并赋初始值;
基于图注意力网络进行节点间的信息传递。
需要说明的是,将所有上面得到的证据表示抽象成图上的节点,每条证据对应一个点,构建一个全连接的证据图,即每个证据节点都有边直接连向其他证据节点。本发明实施例使用上一步的得到的证据的向量表示作为节点的初始值,本发明实施例使用hi t表示节点i在第 t层的节点表示,于是有:hi 0=ei
其中,在上述证据图的基础上,本发明实施例使用图注意力网络进行证据间的信息聚合与传递。具体来说在每一次传递过程中,每个节点都会根据自身的信息,使用注意力机制对邻居信息进行选择,并根据邻居节点内容的重要程度对邻居节点的信息进行整合。对于节点 i来说,首先模型会根据节点i的内容和其邻居节点集合Ni中的节点 j的内容学习到一个注意力参数pij:
Figure GDA0002216611420000081
之后本发明实施例将节点i和其所有邻居的注意力参数使用一个softmax函数进行归一化得到最终的注意力权重,注意力权重的和为1。
Figure GDA0002216611420000091
之后本发明实施例根据注意力权重对邻居节点的信息进行聚合,得到第t次消息传递过程中当前节点i的表示:
Figure GDA0002216611420000092
为了让信息能够在证据图中进行充分的聚合与推理,本发明实施例允许证据在图中进行T次信息传递,本发明实施例将T次传递后的证据表示{h1 T,h2 T,...hN T}作为最终的表示进行下一阶段的聚合。
在本发明实施例的基础上,提供基于证据图聚合与推理的声明验证方法,所述基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示的步骤,进一步包括:基于注意力聚合器、最大值聚合器或平均值聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示。
在本发明实施例中,推荐三种聚合器来进行证据的最终的聚合,分别是注意力聚合器、最大值聚合器以及平均值聚合器。具体来说每一种聚合器的技术细节如下。
注意力聚合器。使用声明的向量表示c与注意力机制对最终学习得到的证据表示进行聚合,聚合的方式如下公式所示:
Figure GDA0002216611420000093
Figure GDA0002216611420000094
Figure GDA0002216611420000095
最大值聚合器。使用逐元素的最大值聚合器进行聚合,聚合的方式如下公式所示:
Figure GDA0002216611420000101
平均值聚合器。使用逐元素的平均值聚合器进行聚合,聚合的方式如下公式所示:
Figure GDA0002216611420000102
在本发明任一上述实施例的基础上,提供一种基于证据图聚合与推理的声明验证方法,构建证据图并赋初始值的步骤,进一步包括:将所述有证据表示抽象成图上的节点,每条证据对应一个点,构建一个全连接的证据图,即每个证据节点都有边直接连向其他证据节点。
本发明实施例提供一种基于证据图聚合与推理的声明验证方法及系统,提供一种基于证据图聚合与推理的声明验证方法,包括:获取声明和基于所述声明抽取得到的证据集,基于BERT模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示;将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示;基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示;基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证。与现有技术相比,在对证据和声明学习到更好的语义表示的同时提供了证据间聚合和推理的机制,能够更好地综合利用多条证据信息,提高了模型了准确率,具有良好的实用性与现实意义。
在本发明任一上述实施例的基础上,提供一种基于证据图聚合与推理的声明验证方法,基于图注意力网络进行节点间的信息传递的步骤,进一步包括:对于全连接的证据图,在每一次传递过程中,每个证据节点会根据自身的信息,基于注意力机制对邻居证据节点信息进行选择,并根据邻居证据节点内容的重要程度对邻居证据节点的信息进行整合。
需要说明的是,在上述证据图的基础上,使用图注意力网络进行证据间的信息聚合与传递。具体来说在每一次传递过程中,每个节点都会根据自身的信息,使用注意力机制对邻居信息进行选择,并根据邻居节点内容的重要程度对邻居节点的信息进行整合。对于节点i来说,首先模型会根据节点i的内容和其邻居节点集合Ni中的节点j的内容学习到一个注意力参数pij:
Figure GDA0002216611420000111
之后本发明实施例根据注意力权重对邻居节点的信息进行聚合,得到第t次消息传递过程中当前节点i的表示:
Figure GDA0002216611420000112
为了让信息能够在证据图中进行充分的聚合与推理,本发明实施例允许证据在图中进行T次信息传递,本发明实施例将T次传递后的证据表示{h1 T,h2 T,...hN T}作为最终的表示进行下一阶段的聚合。
本发明实施例提供一种基于证据图聚合与推理的声明验证方法及系统,提供一种基于证据图聚合与推理的声明验证方法,包括:获取声明和基于所述声明抽取得到的证据集,基于BERT模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示;将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示;基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示;基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证。与现有技术相比,在对证据和声明学习到更好的语义表示的同时提供了证据间聚合和推理的机制,能够更好地综合利用多条证据信息,提高了模型了准确率,具有良好的实用性与现实意义。
在本发明任一上述实施例的基础上,提供一种基于证据图聚合与推理的声明验证系统,如图2所示,所述系统包括。
获取模块21,用于获取声明和基于所述声明抽取得到的证据集,基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示。
其中,获取模块21首先需要获取待验证的声明,所述声明也可以称为论断,其表现形式是阐述某一客观事实的语句。
语言表征模型是一个单纯的、统一的、抽象的形式系统,语言客观事实经过语言模型的描述,比较适合于电子计算机进行自动处理,因而语言模型对于自然语言的信息处理具有重大的意义。获取模块21 基于现有技术中的语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示。
构建模块22,用于将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示。
其中,构建模块22将获取模块21得到的证据向量表示抽象成证据图上的节点,每条证据向量对应一个点,构建一个全连接的证据图,即每个证据节点都有边直接连向其他证据节点。构建模块22基于使用上一步的得到的证据的向量表示作为节点的初始值。其中,图神经网络方法为现有技术,其基本思想为基于图中节点的局部邻居信息对节点进行节点嵌入(Embedding,又称为节点表示)的学习。直观来讲,就是通过神经网络来聚合每个节点及其周围节点的信息。
聚合模块23,用于基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示。
需要说明的是,本发明实施例中聚合模块23基于现有技术中的聚合器进行所有证据的高层次表示进行聚合。所述聚合器能够为以下任一一种:注意力聚合器、最大值聚合器以及平均值聚合器。
验证模块24,用于基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证;其中,所述前馈神经网络模型基于标记的样本证据表示和标记的样本声明训练获得。
其中,验证模块24将聚合后的证据表示和所述待验证的声明输入前馈神经网络模型,输出获得聚合后的证据表示对于所述待验证的声明真实性的预测结果(即支持、否定和没有足够信息三类),选取预测概率最大的一类作为最终结果。
本发明实施例提供一种基于证据图聚合与推理的声明验证系统,所述系统包括:获取模块,用于获取声明和基于所述声明抽取得到的证据集,基于BERT模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示;构建模块,用于将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示;聚合模块,用于基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示;验证模块,用于基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证。
在本发明任一上述实施例的基础上,提供一种基于证据图聚合与推理的声明验证系统,获取模块,进一步用于:基于标注好的证据和声明对BERT预训练模型进行参数微调;基于微调后的BERT模型为各证据与声明生成相应的向量表示。
需要说明的是,本发明实施例采用BERT模型作为语言表征模型,进一步基于标注好的证据声明对,在BERT预训练模型的基础上进行微调。具体来说,本发明实施例将证据放在前面,声明放在后面送进BERT模型,使用声明的标签作为分类的结果。本发明实施例使用这样的数据训练BERT模型直到得到最好的验证集上的实验结果,将模型参数保留供下一步使用。其中,需要说明的是,BERT模型是截止目前最新的语言表征模型,通过预训练和精调可以提升11项 NLP(自然语言处理Natural Language Processing)任务的结果。它具体使用的是双向Transformer模型,相对于rnn模型而言更加高效、能捕捉更长距离的依赖。与之前的预训练模型相比,它捕捉到的是真正意义上的双向上下文(bidirectional context)信息。
图3示例了一种电子设备的实体结构示意图,该电子设备可以包括:处理器(processor)310、通信接口(Communications Interface)320、存储器(memory)330和通信总线340,其中,处理器310,通信接口 320,存储器330通过通信总线340完成相互间的通信。处理器310 可以调用存储器330中的逻辑指令,以执行如下方法:获取声明和基于所述声明抽取得到的证据集,基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示;将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示;基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示;基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证;其中,所述前馈神经网络模型基于标记的样本证据表示和标记的样本声明训练获得。
此外,上述的存储器330中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read- Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的传输方法,例如包括:获取声明和基于所述声明抽取得到的证据集,基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示;将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示;基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示;基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证;其中,所述前馈神经网络模型基于标记的样本证据表示和标记的样本声明训练获得。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于证据图聚合与推理的声明验证方法,其特征在于,包括:
获取声明和基于所述声明抽取得到的证据集,基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示;
将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示;
基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示;
基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证;其中,所述前馈神经网络模型基于标记的样本证据表示和标记的样本声明训练获得。
2.根据权利要求1所述的基于证据图聚合与推理的声明验证方法,其特征在于,所述获取声明和基于所述声明抽取得到的证据集,基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示的步骤,进一步包括:
基于标注好的证据和声明对BERT预训练模型进行参数微调;
基于微调后的BERT模型为各证据与声明生成相应的向量表示。
3.根据权利要求1所述的基于证据图聚合与推理的声明验证方法,其特征在于,所述将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示的步骤,进一步包括:
基于每个证据的向量表示构建证据图并赋初始值;
基于图注意力网络进行节点间的信息传递。
4.根据权利要求1所述的基于证据图聚合与推理的声明验证方法,其特征在于,所述基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示的步骤,进一步包括:基于注意力聚合器、最大值聚合器或平均值聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示。
5.根据权利要求3所述的基于证据图聚合与推理的声明验证方法,其特征在于,构建证据图并赋初始值的步骤,进一步包括:
将所述有证据表示抽象成图上的节点,每条证据对应一个点,构建一个全连接的证据图,即每个证据节点都有边直接连向其他证据节点。
6.根据权利要求5所述的基于证据图聚合与推理的声明验证方法,其特征在于,基于图注意力网络进行节点间的信息传递的步骤,进一步包括:
对于全连接的证据图,在每一次传递过程中,每个证据节点会根据自身的信息,基于注意力机制对邻居证据节点信息进行选择,并根据邻居证据节点内容的重要程度对邻居证据节点的信息进行整合。
7.一种基于证据图聚合与推理的声明验证系统,其特征在于,包括:
获取模块,用于获取声明和基于所述声明抽取得到的证据集,基于语言表征模型对所述声明和所述证据集中的各证据进行建模,学习获得所述声明和各证据对应的向量表示;
构建模块,用于将每个证据的向量表示抽象成图上的节点,构建一个全联通的证据图;基于图神经网络方法进行证据间的消息传递,学习获得所有证据的高层次表示;
聚合模块,用于基于聚合器将所有证据的高层次表示进行聚合,获得聚合后的证据表示;
验证模块,用于基于前馈神经网络模型和聚合后的证据表示,对所述声明进行验证;其中,所述前馈神经网络模型基于标记的样本证据表示和标记的样本声明训练获得。
8.根据权利要求7所述的基于证据图聚合与推理的声明验证系统,其特征在于,获取模块,进一步用于:
基于标注好的证据和声明对BERT预训练模型进行参数微调;
基于微调后的BERT模型为各证据与声明生成相应的向量表示。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任一项所述基于证据图聚合与推理的声明验证方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至6任一项所述基于证据图聚合与推理的声明验证方法的步骤。
CN201910637076.8A 2019-07-15 2019-07-15 基于证据图聚合与推理的声明验证方法及系统 Active CN110516697B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910637076.8A CN110516697B (zh) 2019-07-15 2019-07-15 基于证据图聚合与推理的声明验证方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910637076.8A CN110516697B (zh) 2019-07-15 2019-07-15 基于证据图聚合与推理的声明验证方法及系统

Publications (2)

Publication Number Publication Date
CN110516697A CN110516697A (zh) 2019-11-29
CN110516697B true CN110516697B (zh) 2021-08-31

Family

ID=68623173

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910637076.8A Active CN110516697B (zh) 2019-07-15 2019-07-15 基于证据图聚合与推理的声明验证方法及系统

Country Status (1)

Country Link
CN (1) CN110516697B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111241412B (zh) * 2020-04-24 2020-08-07 支付宝(杭州)信息技术有限公司 一种确定用于信息推荐的图谱的方法、系统、及装置
CN112765961A (zh) * 2021-01-13 2021-05-07 中国人民解放军国防科技大学 一种基于实体图神经网络推理的事实验证方法及其系统
CN112801059B (zh) * 2021-04-07 2021-07-20 广东众聚人工智能科技有限公司 图卷积网络系统和基于图卷积网络系统的3d物体检测方法
CN113312920B (zh) * 2021-06-18 2024-02-02 中国人民解放军国防科技大学 基于图对比学习的验证方法、系统、设备和存储介质
CN114065741B (zh) * 2021-11-16 2023-08-11 北京有竹居网络技术有限公司 用于验证表述的真实性的方法、设备、装置和介质
CN116383239B (zh) * 2023-06-06 2023-08-15 中国人民解放军国防科技大学 一种基于混合证据的事实验证方法、系统及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218288A (zh) * 2011-12-08 2013-07-24 Sap股份公司 信息验证
CN103502929A (zh) * 2011-03-04 2014-01-08 法克缇菲特拉华州公司 用于事实认证的方法和装置
CN107169043A (zh) * 2017-04-24 2017-09-15 成都准星云学科技有限公司 一种基于标准答案的知识点自动提取方法及系统
CN107578281A (zh) * 2017-08-31 2018-01-12 湖南大学 电子商务环境下用户优惠券行为预测方法及模型构建方法
CN107967261A (zh) * 2017-11-17 2018-04-27 康成投资(中国)有限公司 智能客服中交互式问句语义理解方法
CN109829056A (zh) * 2018-11-09 2019-05-31 广东外语外贸大学 谓词解释模板驱动的事实溯因推理方法
CN109885671A (zh) * 2019-02-28 2019-06-14 重庆邮电大学 基于多任务学习的问答方法
CN109947912A (zh) * 2019-01-25 2019-06-28 四川大学 一种基于段落内部推理和联合问题答案匹配的模型方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103502929A (zh) * 2011-03-04 2014-01-08 法克缇菲特拉华州公司 用于事实认证的方法和装置
CN103218288A (zh) * 2011-12-08 2013-07-24 Sap股份公司 信息验证
CN107169043A (zh) * 2017-04-24 2017-09-15 成都准星云学科技有限公司 一种基于标准答案的知识点自动提取方法及系统
CN107578281A (zh) * 2017-08-31 2018-01-12 湖南大学 电子商务环境下用户优惠券行为预测方法及模型构建方法
CN107967261A (zh) * 2017-11-17 2018-04-27 康成投资(中国)有限公司 智能客服中交互式问句语义理解方法
CN109829056A (zh) * 2018-11-09 2019-05-31 广东外语外贸大学 谓词解释模板驱动的事实溯因推理方法
CN109947912A (zh) * 2019-01-25 2019-06-28 四川大学 一种基于段落内部推理和联合问题答案匹配的模型方法
CN109885671A (zh) * 2019-02-28 2019-06-14 重庆邮电大学 基于多任务学习的问答方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GRAPH ATTENTION NETWORKS;Petar Velickovic 等;《arXiv》;20180204;1-12 *
中文社交媒体谣言统计语义分析;刘知远 等;《中国科学》;20151231;第45卷(第12期);1536-1546 *
社交媒体平台谣言的早期自动检测;刘知远 等;《全球传媒学刊》;20181231;第5卷(第4期);65-80 *

Also Published As

Publication number Publication date
CN110516697A (zh) 2019-11-29

Similar Documents

Publication Publication Date Title
CN110516697B (zh) 基于证据图聚合与推理的声明验证方法及系统
CN105426356B (zh) 一种目标信息识别方法和装置
JP6224811B1 (ja) ルールセットを選択可能な推論エンジンを有するプログラム、装置及び方法
CN112231562A (zh) 一种网络谣言识别方法及系统
CN109271514B (zh) 短文本分类模型的生成方法、分类方法、装置及存储介质
US11669687B1 (en) Systems and methods for natural language processing (NLP) model robustness determination
CN111027292B (zh) 一种限定采样文本序列生成方法及其系统
CN114330966A (zh) 一种风险预测方法、装置、设备以及可读存储介质
CN107861945A (zh) 金融数据分析方法、应用服务器及计算机可读存储介质
CN114048729A (zh) 医学文献评价方法、电子设备、存储介质和程序产品
Antonio et al. Sentiment analysis for covid-19 in Indonesia on Twitter with TF-IDF featured extraction and stochastic gradient descent
CN113722439B (zh) 基于对抗性类别对齐网络的跨领域情感分类方法及系统
Tolciu et al. Analysis of patterns and similarities in service tickets using natural language processing
CN113821587A (zh) 文本相关性确定方法、模型训练方法、装置及存储介质
CN112492606A (zh) 垃圾短信的分类识别方法、装置、计算机设备及存储介质
CN111340150A (zh) 用于对第一分类模型进行训练的方法及装置
CN114842247B (zh) 基于特征累加的图卷积网络半监督节点分类方法
CN113094504A (zh) 基于自动机器学习的自适应文本分类方法及装置
CN109922444A (zh) 一种垃圾短信识别方法及装置
Jain et al. Review on analysis of classifiers for fake news detection
CN113673680A (zh) 通过对抗网络自动生成验证性质的模型验证方法和系统
CN112861601A (zh) 生成对抗样本的方法及相关设备
CN117436457B (zh) 反讽识别方法、装置、计算设备及存储介质
CN116629388B (zh) 差分隐私联邦学习训练方法、装置和计算机可读存储介质
US20240119234A1 (en) Systems and methods for sentiment extraction in natural laguage processing based on graph-based models, and indicators for trading platforms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant