CN116227499A - 文本关系识别方法、装置及计算机可读存储介质 - Google Patents

文本关系识别方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN116227499A
CN116227499A CN202310118892.4A CN202310118892A CN116227499A CN 116227499 A CN116227499 A CN 116227499A CN 202310118892 A CN202310118892 A CN 202310118892A CN 116227499 A CN116227499 A CN 116227499A
Authority
CN
China
Prior art keywords
representation
text
attention
matrix
hidden
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310118892.4A
Other languages
English (en)
Inventor
徐睿峰
孙洋
梁斌
鲍建竹
杨敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN202310118892.4A priority Critical patent/CN116227499A/zh
Publication of CN116227499A publication Critical patent/CN116227499A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2216/00Indexing scheme relating to additional aspects of information retrieval not explicitly covered by G06F16/00 and subgroups
    • G06F2216/03Data mining

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)
  • Character Discrimination (AREA)

Abstract

本申请公开了一种文本关系识别方法、装置及计算机可读存储介质。该方法包括:获取待处理文本,待处理文本至少包括第一文本和第二文本;利用识别模型获取第一文本和第二文本之间的隐藏矩阵表示和注意力矩阵表示;基于隐藏矩阵表示获取第一文本对应的第一句法依赖图表示,基于隐藏矩阵表示获取第二文本对应的第二句法依赖图表示;基于第一句法依赖图表示和第二句法依赖图表示得到第一文本和第二文本之间的相互依赖图表示;利用隐藏矩阵表示、注意力矩阵表示和相互依赖图表示确定第一文本和第二文本的辩论关系。通过上述方式,本申请能够提高文本关系识别的准确度,算法更具鲁棒性。

Description

文本关系识别方法、装置及计算机可读存储介质
技术领域
本申请涉及自然语言处理领域,特别是涉及文本关系识别方法、装置及计算机可读存储介质。
背景技术
论辩挖掘旨在从非结构化的文本中提取论点并判断其类型与逻辑关系的研究领域,最终目的是将非结构化的文本数据转化为可供计算机处理的结构化数据。论辩挖掘任务一般可包括:从输入文本中提取带有论辩性的文本片段或句子,称为论辩部件;对提取的论点部件进行分类,一般可将这些单元分为“主张”和“前提”;识别论辩部件之间是否存在逻辑关系;对存在的逻辑关系进行分类,通常分为支持关系和反对关系。
发明内容
本申请主要提供一种文本关系识别方法、装置及计算机可读存储介质,解决了现有技术中文本之间关系识别不准确的问题。
为解决上述技术问题,本申请第一方面提供了一种文本关系识别方法,包括:获取待处理文本,所述待处理文本至少包括第一文本和第二文本;利用识别模型获取所述第一文本和所述第二文本之间的隐藏矩阵表示和注意力矩阵表示;基于所述隐藏矩阵表示获取所述第一文本对应的第一句法依赖图表示,基于所述隐藏矩阵表示获取所述第二文本对应的第二句法依赖图表示;基于所述第一句法依赖图表示和所述第二句法依赖图表示得到所述第一文本和所述第二文本之间的相互依赖图表示;利用所述隐藏矩阵表示、所述注意力矩阵表示和所述相互依赖图表示确定所述第一文本和所述第二文本的辩论关系。
为解决上述技术问题,本申请第二方面提供了文本关系识别装置,装置包括相互耦接的处理器和存储器;所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序以实现上述第一方面提供的文本关系识别方法。
为解决上述技术问题,本申请第三方面提供了一种计算机可读存储介质,计算机可读存储介质存储有程序数据,所述程序数据被处理器执行时,实现上述第一方面提供的文本关系识别方法。
本申请的有益效果是:区别于现有技术的情况,本申请利用识别模型获取第一文本和第二文本之间的隐藏矩阵表示和注意力矩阵表示;基于隐藏矩阵表示获取第一文本对应的第一句法依赖图表示,基于隐藏矩阵表示获取第二文本对应的第二句法依赖图表示;基于第一句法依赖图表示和第二句法依赖图表示得到第一文本和第二文本之间的相互依赖图表示;利用隐藏矩阵表示、注意力矩阵表示和相互依赖图表示确定第一文本和第二文本的辩论关系,本申请能够更好地识别文本内部的语义和句法结构信息,以便更好地推断文本对之间的关系,提高文本关系识别的准确度,算法更具鲁棒性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请文本关系识别方法一实施例的流程示意框图;
图2是本申请步骤S12一实施例的流程示意框图;
图3是本申请步骤S22一实施例的流程示意框图;
图4是本申请步骤S13一实施例的流程示意框图;
图5是本申请步骤S14一实施例的流程示意框图;
图6是本申请步骤S15一实施例的流程示意框图;
图7是本申请注意力矩阵表示一实施例的结构示意框图;
图8是本申请步骤S52一实施例的流程示意框图;
图9是本申请步骤S53一实施例的流程示意框图;
图10是本申请步骤S54一实施例的流程示意框图;
图11是本申请步骤S55一实施例的流程示意框图;
图12是本申请步骤S56一实施例的流程示意框图;
图13是本申请人机交互界面一实施例示意图;
图14是本申请文本关系识别装置一实施例的结构示意框图;
图15是本申请计算机可读存储介质一实施例的结构示意框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请中的术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解是,本文所描述的实施例可以与其他实施例结合。
现有的文本关系预测工作通过引入外部知识对论辩部件对之间的细粒度语义相关特征(如词)进行建模,仅关注论辩部件对之间的语义级相似性,忽略了论辩部件对的复杂互动,不能有效地对论辩关系进行深入推理。
一个论证文本的内部结构包含几个论辩部件(Argumentation Component,AC),论辩部件由前提文本和主张文本组成,主张是一个有争议的陈述,前提是支持或反对主张的理由。论辩部件之间可能存在有向的论辩关系,该关系表述一个论辩部件对另一个论辩部件的支持或反对。本申请提出一种文本关系识别方法,用于确定文本之间的论辩关系为支持或反对,具体方案请参见后文。
请参阅图1,图1是本申请文本关系识别方法一实施例的流程示意框图。需注意的是,若有实质上相同的结果,本实施例并不以图1所示的流程顺序为限。本实施例包括以下步骤:
步骤S11:获取待处理文本,待处理文本至少包括第一文本和第二文本。
其中,待处理文本可以是论辩部件对(P,Q),第一文本表示为P=(p1,p2,…,pm),第二文本表示为Q=(q1,q2,…,qn),分别由m和n个词组成。第一文本为论辩部件中的主张文本或前提文本中的一者,第二文本为论辩部件中的主张文本或前提文本中的另一者。
下文以论辩部件对(P,Q)为例解释该文本关系识别方法。
步骤S12:利用识别模型获取第一文本和第二文本之间的隐藏矩阵表示和注意力矩阵表示。
其中,识别模型可以是预训练的语言表征模型(BERT),该语言表征模型由12个Transformer块堆叠而成。
BERT是一种以自注意力机制为核心的预训练语言模型(Pre-trained LanguageModel,PLM)。具体来说,当给定文本序列X={x1,x2,…,xn},之后,Bert模型会使用Embedding映射函数Emb(X)将其映射为:
Figure BDA0004079418110000041
其中,映射将对每一个字符进行转换,得到其对应向量,向量维度为demb,其中每一个Transformer块包含一个自注意力层和一个前馈神经网络层。
隐藏矩阵表示定义为
Figure BDA0004079418110000051
Figure BDA0004079418110000052
Figure BDA0004079418110000053
是P的隐藏状态/>
Figure BDA0004079418110000054
和Q的隐藏状态/>
Figure BDA0004079418110000055
的拼接,其中,/>
Figure BDA0004079418110000056
Figure BDA0004079418110000057
类似地式,论辩部件对(P,Q)在BERT的12层中的注意力矩阵表示
Figure BDA0004079418110000058
其中/>
Figure BDA0004079418110000059
是原始注意力矩阵的沿着头部维度的平均值,以及/>
Figure BDA00040794181100000510
这里,/>
Figure BDA00040794181100000511
其中/>
Figure BDA00040794181100000512
Figure BDA00040794181100000513
分别代表论辩部件P和Q的注意力矩阵。
请参阅图2,步骤S12具体可包括:
步骤S21:将第一文本和第二文本输入至识别模型,探测第一文本和第二文本在识别模型中对应的隐藏向量和注意力向量。
其中,可利用词级探测方法、论辩部件级探测方法、论辩部件对级探测方法探测第一文本和第二文本的隐藏向量和注意力向量。
具体来说,词级探测方法的探测单位是单个词,此方法把每个词的隐藏向量hi,j和注意力向量ei,j作为词级探测知识;论辩部件级探测方法是为了捕捉隐藏状态中所包含的重要信息;论辩部件对级探测方法通过使用论辩部件对作为探测单位来捕捉论辩部件对之间的互动和对齐。
步骤S22:利用隐藏向量和注意力向量确定隐藏矩阵表示和注意力矩阵表示。
其中,根据选用的探测方法为词级探测方法、论辩部件级探测方法以及论辩部件对级探测方法中的至少一种,隐藏向量和注意力向量可以是隐藏向量和注意力向量包括词级别、论辩部件级别、论辩部件对级别中的至少一种。
请参阅图3,本实施例以论辩部件对级探测方法得到的隐藏向量和注意力向量为例,举例说明隐藏矩阵表示和注意力矩阵表示的确定方法。步骤S22具体可包括以下步骤:
步骤S221:对隐藏向量进行池化操作,得到池化后的隐藏矩阵表示,对注意力向量进行池化操作,得到池化后的注意力矩阵表示。
以第一文本P为例,首先在论辩部件对的第i层的向量
Figure BDA0004079418110000061
进行平均池化操作获得论辩部件对的隐藏向量表示/>
Figure BDA0004079418110000062
此外,通过平均池化计算第i层中论辩部件对(P,Q)的注意力向量表示/>
Figure BDA0004079418110000063
类似地,论辩部件级探测方法对识别模型的第i层单词隐藏向量
Figure BDA0004079418110000064
进行平均运算得到论辩部件P隐藏向量表示/>
Figure BDA0004079418110000065
通过对第i层的注意力向量/>
Figure BDA0004079418110000066
表示进行平均池化计算,得到第i层的注意力向量表示/>
Figure BDA0004079418110000067
类似地,计算出论辩部件Q在第i层的隐藏向量表示/>
Figure BDA0004079418110000068
以及注意力向量表示/>
Figure BDA0004079418110000069
步骤S222:基于第一归一化注意力权重和隐藏向量表示得到隐藏矩阵表示。
归一化注意力权重根据以下方法得到:计算论辩部件对(P,Q)在第i层的隐藏表征
Figure BDA00040794181100000610
的权重/>
Figure BDA00040794181100000611
如下:
Figure BDA00040794181100000612
其中Wa和aα是可学习的参数。之后,通过softmax函数对注意力权重权重
Figure BDA00040794181100000613
进行归一化处理,得到第一归一化注意力权重/>
Figure BDA00040794181100000614
以使得这些权重在不同的层之间容易比较。
以第一归一化注意力权重为系数,将第j个词在所有层中的隐藏向量表示
Figure BDA00040794181100000615
融合得到探测表征hj,可表示为下式:/>
Figure BDA00040794181100000616
i表示预训练语言模型的第i层。最终得到隐藏矩阵表示H,隐藏矩阵表示H包括:第一文本对应的第一隐藏矩阵表示
Figure BDA00040794181100000617
第二文本对应的第二隐藏矩阵表示
Figure BDA00040794181100000618
以类似的方式,可以利用词级探测方法和论辩部件级探测方法计算出词级表征
Figure BDA0004079418110000071
和论辩部件级表征/>
Figure BDA0004079418110000072
以及探测出论辩部件级探测方法中的注意权重/>
Figure BDA0004079418110000073
和αi,j,从而按照公式(1)和公式(2)的方式类似地获得隐藏矩阵表示H。
步骤S223:基于第二归一化注意力权重和注意力向量表示得到注意力矩阵表示。
类似地,根据下式确定注意力表征
Figure BDA0004079418110000074
的权重/>
Figure BDA0004079418110000075
Figure BDA0004079418110000076
然后对注意力权重权重/>
Figure BDA0004079418110000077
归一化,得到第二归一化注意力权重
Figure BDA0004079418110000078
以第一归一化注意力权重为系数,将第j个词在所有层中的注意力向量
Figure BDA0004079418110000079
融合得到注意力表征ej,可表示为下式:
Figure BDA00040794181100000710
最终得到探测注意力矩阵表示E={e1,…,em+n},其中ej∈Rm+n
步骤S13:基于隐藏矩阵表示获取第一文本对应的第一句法依赖图表示,基于隐藏矩阵表示获取第二文本对应的第二句法依赖图表示。
其中,依赖图表示了一个文本内部的依赖关系,第一句法依赖图中的节点则表示了第一文本内部的依赖关系,第二句法依赖图中的节点则表示了第二文本内部的依赖关系。
请参阅图4,第一句法依赖图表示具体可根据以下步骤得到:
步骤S31:对第一文本进行句法依赖解析,得到第一依赖树。
为了建立每个论辩部件内部的句法结构,首先对第一文本P使用句法依赖解析工具,例如,可利用Spacy工具解析出第一文本句法的依赖树。
步骤S32:构建第一初始依赖图,并利用隐藏矩阵表示作为第一初始依赖图相应的第一节点表示。
本步骤以第一文本的隐藏矩阵表示HP作为第一初始依赖图对应的第一节点表示。
步骤S33:利用第一依赖树对应的邻接矩阵对第一节点表示进行更新,得到第一句法依赖图表示的第二节点表示。
邻接矩阵根据构建第一依赖树得来,具体来说是一个离散邻接矩阵,可表示为D∈Rm×m,是一个二进制矩阵,其中,Di,j=1表示在第一依赖树中第i个词与第j个词相连。
具体来说,本步骤可将第一初始依赖图对应的的第一节点表示HP和邻接矩阵D输入图注意网络(GAT)更新每个词节点的表示,并通过聚合邻居信息来建立论辩部件P中的内在结构,以获得第一句法依赖图表示
Figure BDA0004079418110000081
对应的第二节点表示/>
Figure BDA0004079418110000082
第二句法依赖图表示具体可根据以下步骤1)~3)得到:
34)对第二文本进行句法依赖解析,得到第二依赖树。
35)构建第二初始依赖图,并利用隐藏矩阵表示作为第二初始依赖图相应的第三节点表示。
36)利用第二依赖树对应的邻接矩阵对第三节点表示进行更新,得到第二句法依赖图表示的第四节点表示。
其中,步骤34)~36)与步骤S31~步骤S33情况类似,更新得到的第二句法依赖图表示
Figure BDA0004079418110000083
和对应的第四节点表示为:/>
Figure BDA0004079418110000084
Figure BDA0004079418110000085
具体过程不再赘述。
步骤S14:基于第一句法依赖图表示和第二句法依赖图表示得到第一文本和第二文本之间的相互依赖图表示。
为了有效地对齐文本内部的句法结构信息,本步骤构建了一个第一文本和第二本文的互图,在细粒度级对文本对进行对齐。
请参阅图X,步骤S14具体可包括:
步骤S41:利用第二节点表示、第四节点表示、第一文本对应的第一权重矩阵和第二文本对应的第二权重矩阵确定重要性得分。
本步骤具体采用了一个带有点积的互注意力机制attβ学习第二句法依赖图表示
Figure BDA0004079418110000086
中的每个第四节点表示j对第一句法依赖图表示/>
Figure BDA0004079418110000087
中的每个第二节点表示/>
Figure BDA0004079418110000088
的重要性得分βu,j,可表示为下式:
Figure BDA0004079418110000091
其中,WP和WQ是权重矩阵。
步骤S42:利用重要性得分获取第一文本对应的第五节点表示,第五节点表示基于第四节点表示得到。
本步骤可利用softmax归一化函数沿着第二句法依赖图表示
Figure BDA0004079418110000092
中的所有第四节点表示对βi,j进行归一化处理,得到归一化得分/>
Figure BDA0004079418110000093
接下来,第五节点表示
Figure BDA0004079418110000094
可通过归一化得分/>
Figure BDA0004079418110000095
在第四节点表示ZQ上的加权和获得。第五节点表示具体可根据下式计算得到:/>
Figure BDA0004079418110000096
步骤S43:根据第五节点表示得到第一文本对应的第一相互依赖图表示。
第一相互关系依赖图表示第一文本和第二文本之间的依赖关系。
利用公式(10)、(11)中的对齐函数和平均池化操作即可计算得到第一句法依赖图表示
Figure BDA0004079418110000097
对应的的第一相互依赖图表示/>
Figure BDA0004079418110000098
/>
步骤S44:利用重要性得分获取第二文本对应的第六节点表示,第六节点表示基于第二节点表示得到。
步骤S45:根据第六节点表示得到第二文本对应的第二相互依赖图表示。
类似地,步骤S44~S45可利用步骤S42~S43的方法处理得到第二句法依赖图表示
Figure BDA0004079418110000099
对应的第二相互依赖图表示/>
Figure BDA00040794181100000910
步骤S15:利用隐藏矩阵表示、注意力矩阵表示和相互依赖图表示确定第一文本和第二文本的辩论关系。
辩论关系包括“支持”和“反对”两种,本步骤用于确定第一文本和第二文本的辩论关系为“支持”或“反对”。
请参阅图6,步骤S15具体可包括:
步骤S51:基于注意力矩阵表示确定第一子注意力矩阵表示、第二子注意力矩阵表示、第三子注意力矩阵表示、第四子注意力矩阵表示。
其中,第一子注意力矩阵表示为第一文本内的邻接矩阵,用于表示第一文本内部词与词之间的注意力分数,第二子注意力矩阵表示为第二文本内的邻接矩阵,用于表示第一文本内部词与词之间的注意力分数,第三子注意力矩阵表示为第一文本和第二文本之间的邻接矩阵,第四子注意力矩阵表示为第二文本和第一文本之间的邻接矩阵,第三子注意力矩阵表示和第四子注意力矩阵表示均用于表示第一文本内部词和第二文本内部词之间的注意力分数。
具体来说,请参阅图7,注意力矩阵表示E可按照第一文本和第二文本的跨度被分解为第一子注意力矩阵表示EPP∈Rm×m、第二子注意力矩阵表示EQQ∈Rn×n、第三子注意力矩阵表示EPQ∈Rm×n以及第四子注意力矩阵表示EQP∈Rn×m。本文中,第一文本P的跨度是(0,m),第二文本Q的跨度是(m+1,m+n)。
步骤S52:利用第一子注意力矩阵表示和第一隐藏矩阵表示确定第一文本对应的第一探测内图表示。
其中,第一隐藏矩阵表示HP作为第一探测内图表示
Figure BDA0004079418110000101
的节点表示。
请参阅图8,步骤S52具体可包括以下步骤:
步骤S521:对第一子注意力矩阵表示进行规范化处理。
论辩部件内部的邻接矩阵EPP被设定为初始加权边,以形成论辩部件内部的语义结构。本步骤通过softmax归一化函数将第一子注意力矩阵表示EPP进行规范化处理,具体可表示为下式:
Figure BDA0004079418110000102
其中,
Figure BDA0004079418110000103
为规范化处理后的第一子注意力矩阵表示。
步骤S522:利用规范化处理后的第一子注意力矩阵表示对第一隐藏矩阵表示进行节点更新,得到第三隐藏矩阵表示。
本步骤将规范化处理后的第一子注意力矩阵表示
Figure BDA0004079418110000104
与第一隐藏矩阵表示HP相乘的结果对第一隐藏矩阵表示进行节点更新,以得到第三隐藏矩阵表示。
其中,更新的节点表示
Figure BDA0004079418110000105
可以通过以下公式得到:/>
Figure BDA0004079418110000111
其中,
Figure BDA0004079418110000112
是/>
Figure BDA0004079418110000113
中的第i行。
步骤S523:利用第三隐藏矩阵表示作为第一探测内图表示的节点表示。
步骤S53:利用第二子注意力矩阵表示和第二隐藏矩阵表示确定第二文本对应的第二探测内图表示。
其中,第二隐藏矩阵表示作为第二探测内图表示的节点表示。
请参阅图9,步骤S53具体可包括以下步骤:
步骤S531:对第二子注意力矩阵表示进行规范化处理。
步骤S532:利用规范化处理后的第二子注意力矩阵表示对第二隐藏矩阵表示进行节点更新,得到第四隐藏矩阵表示。
步骤S533:利用第四隐藏矩阵表示作为第二探测内图表示的节点表示。
类似地,步骤S531~S533可根据前一实施例的步骤S521~S523的方法处理得到第二探测内图表示的节点表示
Figure BDA0004079418110000114
此处不再赘述。
步骤S54:利用第三子注意力矩阵表示确定第一文本对应的第一探测间图表示。
请参阅图10,步骤S54具体可包括以下步骤:
步骤S541:对第三子注意力矩阵表示进行规范化处理。
可选地,给定第一探测内图
Figure BDA0004079418110000115
作为查询,第二探测内图/>
Figure BDA0004079418110000116
作为值,对第三子注意力矩阵表示进行规范化处理,具体可表示为下式:
Figure BDA0004079418110000117
其中,
Figure BDA0004079418110000118
为规范化处理后的第三子注意力矩阵表示。
步骤S542:利用规范化处理后的第三子注意力矩阵表示对第四隐藏矩阵表示得到第一探测间图表示对应的第一目标节点表示。
第一目标节点表示
Figure BDA0004079418110000119
可根据下式计算:
Figure BDA00040794181100001110
其中,
Figure BDA00040794181100001111
是/>
Figure BDA00040794181100001112
中的第i行,SQ为第四隐藏矩阵表示。
步骤S55:利用第四子注意力矩阵表示确定第二文本对应的第二探测间图表示。
请参阅图11,步骤S55具体可包括以下步骤:
步骤S551:对第四子注意力矩阵表示进行规范化处理。
类似于步骤S541,将论第二探测内图
Figure BDA0004079418110000121
作为查询,第一探测内图/>
Figure BDA0004079418110000122
作为值,对第四子注意力矩阵表示进行规范化处理,得到规范化处理后的第四子注意力矩阵表示
Figure BDA0004079418110000123
此处不再赘述。
步骤S552:利用规范化处理后的第四子注意力矩阵表示对第三隐藏矩阵表示处理得到第二探测间图表示对应的第二目标节点表示。
类似于步骤S542,第二目标节点表示
Figure BDA0004079418110000124
可根据下式计算:
Figure BDA0004079418110000125
其中,
Figure BDA0004079418110000126
是/>
Figure BDA0004079418110000127
中的第j行,SP为第三隐藏矩阵表示。
步骤S56:利用第一探测间图表示、第二探测间图表示和相互依赖图表示确定第一文本和第二文本的辩论关系。
请参阅图12,步骤S56具体可包括以下步骤:
步骤S561:利用第四隐藏矩阵表示和第一目标节点表示进行节点间细粒度对齐,得到第一对齐节点表示。
本步骤应用对齐函数来进行细粒度节点间对齐,并计算第一探测内图
Figure BDA0004079418110000128
的第一对齐节点表示/>
Figure BDA0004079418110000129
的,其中/>
Figure BDA00040794181100001210
可根据下式计算:
Figure BDA00040794181100001211
其中,Wv是一个权重矩阵,⊙表示矩阵元素相乘,
Figure BDA00040794181100001212
Figure BDA00040794181100001213
表示将/>
Figure BDA00040794181100001214
拼接起来。
步骤S562:对第一对齐节点表示进行池化操作,将池化操作后的第一对齐节点表示作为第一探测间-内图表示。
第一探测间-内图表示结合了前述第一探测内图和第一探测间图的信息,其包含第一文本本身的信息和第一文本的结构信息。
对第一对齐节点表示VP应用平均池化得到第一探测间-内图表示
Figure BDA0004079418110000131
Figure BDA0004079418110000132
步骤S563:利用第三隐藏矩阵表示和第二目标节点表示进行节点间细粒度对齐,得到第二对齐节点表示。
类似于步骤S561,本步骤可以计算得到第二对齐节点表示
Figure BDA0004079418110000133
此处不再赘述其具体计算方式。
步骤S564:对第二对齐节点表示进行池化操作,将池化操作后的第二对齐节点表示作为第二探测间图表示。
对第二对齐节点表示VQ应用平均池化得到第二探测间-内图表示
Figure BDA0004079418110000134
Figure BDA0004079418110000135
步骤S564:将第一相互依赖图表示和第一探测间-内图表示拼接起来,得到第一综合特定关系图,将第二相互依赖图表示和第二探测间-内图表示拼接起来,得到第二综合特定关系图,根据第一综合特定关系图和第二综合特定关系图确定辩论关系。
第一综合特定关系图rP可表示为:
Figure BDA0004079418110000136
第二综合特定关系图rQ可表示为/>
Figure BDA0004079418110000137
可选地,应用双仿射模块捕捉论辩部件对(P,Q)的双向属性,并应用一个softmax函数来产生辩论关系概率p(y):
p(y)=softmax(δ(rP,rQ)) 公式(13)
其中,
Figure BDA0004079418110000138
Wδ是可学习权重。
请参阅图13,用户在设备的人机交互界面输入的待处理文本为一论辩部件对A,第一文本为部件一所示的文本,第二文本为部件二所示的前提文本,通过上述实施例处理后,界面输出两者的辩论关系为反对。
在此之前,对识别模型进行训练,利用带有标签的论辩文本作为训练语料,并人工对论辩部件对给出标签。预测(P,Q)的论辩关系类型:
p(y(P,Q)|rP,rQ)=softmax(δ(rP,rQ))
其中y(P,Q)是论辩部件对真实关系标签,
Figure BDA0004079418110000141
Wδ是可学习权重。
将预测结果与真实标签进行比对,最小化以下目标函数,据此更新模型参数θ:
Figure BDA0004079418110000142
其中D表示训练数据集,θ表示所有可训练参数,||θ||2表示θ的L2正则化,λ是预设系数。
区别于现有技术,本申请可利用三种探测方法从BERT的隐藏状态和注意离矩阵中探测知识。探测到的隐藏状态和注意力矩阵被使用构建文本内图和间图,以推理论辩部件对之间的关系。此外,本申请还提出相互依赖图,通过句法依赖解析和注意力机制获得文本的句法结构信息。最后,本申请使用一个双仿射模块来结合内图、间图和相互依赖图,以提高识别算法的性能,提高文本关系识别的准确度。
请参阅图14,图14是本申请文本关系识别装置一实施例的结构示意框图。该文本关系识别装置200包括相互耦接的处理器210和存储器220,存储器220中存储有计算机程序,处理器210用于执行计算机程序以实现上述各实施例所述的文本关系识别方法。
关于处理执行的各步骤的描述请参照上述本申请文本关系识别方法实施例的各步骤的描述,在此不再赘述。
存储器220可用于存储程序数据以及模块,处理器210通过运行存储在存储器220的程序数据以及模块,从而执行各种功能应用以及数据处理。存储器220可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如文本识别功能、数据处理功能等)等;存储数据区可存储根据文本关系识别装置200的使用所创建的数据(比如文本数据、模型参数数据、注意力矩阵、隐藏状态矩阵等)等。此外,存储器220可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器220还可以包括存储器控制器,以提供处理器210对存储器220的访问。
在本申请的各实施例中,所揭露的方法、装置,可以通过其它的方式实现。例如,以上所描述的文本关系识别装置200的各实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中。
参阅图15,图15为本申请计算机可读存储介质一实施例的结构示意框图,计算机可读存储介质300存储有程序数据310,程序数据310被执行时实现如上述文本关系识别方法各实施例的步骤。
关于处理执行的各步骤的描述请参照上述本申请文本关系识别方法实施例的各步骤的描述,在此不再赘述。
计算机可读存储介质300可以是U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (10)

1.一种文本关系识别方法,其特征在于,所述方法包括:
获取待处理文本,所述待处理文本至少包括第一文本和第二文本;
利用识别模型获取所述第一文本和所述第二文本之间的隐藏矩阵表示和注意力矩阵表示;
基于所述隐藏矩阵表示获取所述第一文本对应的第一句法依赖图表示,基于所述隐藏矩阵表示获取所述第二文本对应的第二句法依赖图表示;
基于所述第一句法依赖图表示和所述第二句法依赖图表示得到所述第一文本和所述第二文本之间的相互依赖图表示;
利用所述隐藏矩阵表示、所述注意力矩阵表示和所述相互依赖图表示确定所述第一文本和所述第二文本的辩论关系。
2.根据权利要求1所述的方法,其特征在于,所述利用识别模型获取所述第一文本和所述第二文本之间的隐藏矩阵表示和注意力矩阵表示,包括:
将所述第一文本和所述第二文本输入至所述识别模型,探测所述第一文本和所述第二文本在所述识别模型中对应的隐藏向量和注意力向量;
利用所述隐藏向量和所述注意力向量确定所述隐藏矩阵表示和所述注意力矩阵表示;其中,所述隐藏向量和所述注意力向量包括词级别、论辩部件级别、论辩部件对级别中至少一种。
3.根据权利要求2所述的方法,其特征在于,所述利用所述隐藏向量和所述注意力向量确定所述隐藏矩阵表示和所述注意力矩阵表示,包括:
对所述隐藏向量进行池化操作,得到池化后的隐藏向量表示;
对所述注意力向量进行池化操作,得到池化后的注意力向量表示;
基于第一归一化注意力权重和所述隐藏向量表示得到所述隐藏矩阵表示;
基于第二归一化注意力权重和所述注意力向量表示得到所述注意力矩阵表示。
4.根据权利要求1所述的方法,其特征在于,所述基于所述隐藏矩阵表示获取所述第一文本对应的第一句法依赖图表示,包括:
对所述第一文本进行句法依赖解析,得到第一依赖树;
构建第一初始依赖图,并利用所述隐藏矩阵表示作为所述第一初始依赖图相应的第一节点表示;
利用所述第一依赖树对应的邻接矩阵对所述第一节点表示进行更新,得到所述第一句法依赖图表示的第二节点表示;
所述基于所述隐藏矩阵表示获取所述第二文本对应的第二句法依赖图表示,包括:
对所述第二文本进行句法依赖解析,得到第二依赖树;
构建第二初始依赖图,并利用所述隐藏矩阵表示作为所述第二初始依赖图相应的第三节点表示;
利用所述第二依赖树对应的邻接矩阵对所述第三节点表示进行更新,得到所述第二句法依赖图表示的第四节点表示。
5.根据权利要求1所述的方法,其特征在于,所述隐藏矩阵表示包括第一隐藏矩阵表示和第二隐藏矩阵表示,所述第一隐藏矩阵表示对应所述第一文本,所述第二隐藏矩阵表示对应所述第二文本,所述利用所述隐藏矩阵表示、所述注意力矩阵表示和所述相互依赖图表示确定所述第一文本和所述第二文本的辩论关系,包括:
基于所述注意力矩阵表示确定第一子注意力矩阵表示、第二子注意力矩阵表示、第三子注意力矩阵表示、第四子注意力矩阵表示;其中,所述第一子注意力矩阵表示为所述第一文本内的邻接矩阵;所述第二子注意力矩阵表示为所述第二文本内的邻接矩阵;所述第三子注意力矩阵表示为所述第一文本和所述第二文本之间的邻接矩阵;所述第四子注意力矩阵表示为所述第二文本和所述第一文本之间的邻接矩阵;
利用所述第一子注意力矩阵表示和所述第一隐藏矩阵表示确定所述第一文本对应的第一探测内图表示;其中,所述第一隐藏矩阵表示作为所述第一探测内图表示的节点表示;
利用所述第二子注意力矩阵表示和所述第二隐藏矩阵表示确定所述第二文本对应的第二探测内图表示;其中,所述第二隐藏矩阵表示作为所述第二探测内图表示的节点表示;
利用所述第三子注意力矩阵表示确定所述第一文本对应的第一探测间图表示;
利用所述第四子注意力矩阵表示确定所述第二文本对应的第二探测间图表示;
利用所述第一探测间图表示、所述第二探测间图表示和所述相互依赖图表示确定所述第一文本和所述第二文本的辩论关系。
6.根据权利要求5所述的方法,其特征在于,所述利用所述第一子注意力矩阵表示和所述第一隐藏矩阵表示确定所述第一文本对应的第一探测内图表示,包括:
对所述第一子注意力矩阵表示进行规范化处理;
利用规范化处理后的所述第一子注意力矩阵表示对所述第一隐藏矩阵表示进行节点更新,得到第三隐藏矩阵表示;
利用所述第三隐藏矩阵表示作为所述第一探测内图表示的节点表示;
所述利用所述第二子注意力矩阵表示和所述第二隐藏矩阵表示确定所述第二文本对应的第二探测内图表示,包括:
对所述第二子注意力矩阵表示进行规范化处理;
利用规范化处理后的所述第二子注意力矩阵表示对所述第二隐藏矩阵表示进行节点更新,得到第四隐藏矩阵表示;
利用所述第四隐藏矩阵表示作为所述第二探测内图表示的节点表示。
7.根据权利要求6所述的方法,其特征在于,所述利用所述第三子注意力矩阵表示确定所述第一文本对应的第一探测间图表示,包括:
对所述第三子注意力矩阵表示进行规范化处理;
利用规范化处理后的所述第三子注意力矩阵表示对所述第四隐藏矩阵表示处理得到所述第一探测间图表示对应的第一目标节点表示;
所述利用所述第四子注意力矩阵表示确定所述第二文本对应的第二探测间图表示,包括:
对所述第四子注意力矩阵表示进行规范化处理;
利用规范化处理后的所述第四子注意力矩阵表示对所述第三隐藏矩阵表示处理得到所述第二探测间图表示对应的第二目标节点表示。
8.根据权利要求7所述的方法,其特征在于,所述利用所述第一探测间图表示、所述第二探测间图表示和所述相互依赖图表示确定所述第一文本和所述第二文本的辩论关系,包括:
利用所述第四隐藏矩阵表示和所述第一目标节点表示进行节点间细粒度对齐,得到第一对齐节点表示;
对所述第一对齐节点表示进行池化操作,将池化操作后的所述第一对齐节点表示作为第一探测间-内图表示;
利用所述第三隐藏矩阵表示和所述第二目标节点表示进行节点间细粒度对齐,得到第二对齐节点表示;
对所述第二对齐节点表示进行池化操作,将池化操作后的所述第二对齐节点表示作为第二探测间-内图表示;
将所述第一相互依赖图表示和所述第一探测间-内图表示拼接起来,得到第一综合特定关系图,将所述第二相互依赖图表示和所述第二探测间-内图表示拼接起来,得到第二综合特定关系图,根据所述第一综合特定关系图和所述第二综合特定关系图确定所述辩论关系。
9.一种文本关系识别装置,其特征在于,所述装置包括相互耦接的处理器和存储器;所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序以实现如权利要求1-8中任一项所述方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有程序数据,所述程序数据被处理器执行时实现如权利要求1-8中任一项所述方法的步骤。
CN202310118892.4A 2023-01-31 2023-01-31 文本关系识别方法、装置及计算机可读存储介质 Pending CN116227499A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310118892.4A CN116227499A (zh) 2023-01-31 2023-01-31 文本关系识别方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310118892.4A CN116227499A (zh) 2023-01-31 2023-01-31 文本关系识别方法、装置及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN116227499A true CN116227499A (zh) 2023-06-06

Family

ID=86590540

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310118892.4A Pending CN116227499A (zh) 2023-01-31 2023-01-31 文本关系识别方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN116227499A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117077656A (zh) * 2023-09-22 2023-11-17 腾讯科技(深圳)有限公司 论证关系挖掘方法、装置、介质及电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117077656A (zh) * 2023-09-22 2023-11-17 腾讯科技(深圳)有限公司 论证关系挖掘方法、装置、介质及电子设备
CN117077656B (zh) * 2023-09-22 2024-01-02 腾讯科技(深圳)有限公司 论证关系挖掘方法、装置、介质及电子设备

Similar Documents

Publication Publication Date Title
CN107562792B (zh) 一种基于深度学习的问答匹配方法
CN111611810B (zh) 一种多音字读音消歧装置及方法
US20210056127A1 (en) Method for multi-modal retrieval and clustering using deep cca and active pairwise queries
US11669740B2 (en) Graph-based labeling rule augmentation for weakly supervised training of machine-learning-based named entity recognition
CN112131352A (zh) 一种网页文本类不良信息的检测方法与检测系统
JP2017058877A (ja) 学習装置、音声検出装置、学習方法およびプログラム
CN111274790A (zh) 基于句法依存图的篇章级事件嵌入方法及装置
CN111461301A (zh) 序列化数据处理方法和装置、文本处理方法和装置
Vimali et al. A text based sentiment analysis model using bi-directional lstm networks
JP7005045B2 (ja) ナイーブベイズ分類器に対する限界攻撃方法
CN116402630B (zh) 一种基于表征学习的财务风险预测方法及系统
CN111291565A (zh) 一种用于命名实体识别的方法与装置
CN116227499A (zh) 文本关系识别方法、装置及计算机可读存储介质
JP5441937B2 (ja) 言語モデル学習装置、言語モデル学習方法、言語解析装置、及びプログラム
CN117610562B (zh) 一种结合组合范畴语法和多任务学习的关系抽取方法
CN114021573B (zh) 一种自然语言处理方法、装置、设备及可读存储介质
CN108875024B (zh) 文本分类方法、系统、可读存储介质及电子设备
CN111581365B (zh) 一种谓词抽取方法
CN116932763A (zh) 利用标签信息的层次多标签专业技术文档分类方法和系统
US20230376828A1 (en) Systems and methods for product retrieval
Divya et al. Automation of Short Answer Grading Techniques: Comparative Study using Deep Learning Techniques
CN116049349A (zh) 基于多层次注意力和层次类别特征的小样本意图识别方法
CN114021572B (zh) 一种自然语言处理方法、装置、设备及可读存储介质
CN116151258A (zh) 文本消岐方法、电子设备、存储介质
JP2016197289A (ja) パラメタ学習装置、類似度算出装置、方法、及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination