CN117131868A - 一种基于“表格-图”两阶段的面向文档级别实体关系联合抽取方法及装置 - Google Patents

一种基于“表格-图”两阶段的面向文档级别实体关系联合抽取方法及装置 Download PDF

Info

Publication number
CN117131868A
CN117131868A CN202310824434.2A CN202310824434A CN117131868A CN 117131868 A CN117131868 A CN 117131868A CN 202310824434 A CN202310824434 A CN 202310824434A CN 117131868 A CN117131868 A CN 117131868A
Authority
CN
China
Prior art keywords
score
extraction
relation
decoding
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310824434.2A
Other languages
English (en)
Inventor
邹磊
张若禹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN202310824434.2A priority Critical patent/CN117131868A/zh
Publication of CN117131868A publication Critical patent/CN117131868A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/259Fusion by voting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种基于“表格‑图”两阶段的面向文档级别实体关系联合抽取方法及装置。该方法包括编码阶段和解码阶段;所述编码阶段包括:对待处理文本进行分词后,输入训练完成的序列标注模型,进行指代抽取;将指代输入训练完成的“表格‑图”两阶段模型,预测得到共指分数和关系分数;所述解码阶段包括:利用共指分数和关系分数,使用层次聚类方法进行共指消解解码;对于层次聚类方法得到的实体簇,使用众数投票方法进行关系抽取解码。本发明在编码和解码两方面的针对性设计可以有效缓解共指消解和关系抽取这两个子任务之间的错误累积问题,并促进不同子任务之间的语义交换,从而改善信息抽取表现。

Description

一种基于“表格-图”两阶段的面向文档级别实体关系联合抽 取方法及装置
技术领域
本发明涉及自然语言处理领域,具体为一种使用神经网络模型在文档级别的长文本中联合抽取实体和关系的方法及装置。
背景技术
目前,随着互联网时代信息的爆炸性增长,出现了海量的文本数据。如何从这些大量的原始文本数据中,自动提取出有价值的结构化数据,是数据分析和信息抽取的重要课题。而其中,如何从长文本中高质量的抽取信息,也相较于短文本的设置更贴近现实场景,也更具挑战。
在文档级别的长文本中,实体往往存在多个指代,因此,端到端的实体关系联合抽取往往可以分为三个子技术:指代抽取,即从文本中识别实体对应的文本;共指消解,即对于抽取的指代建立共指关系,形成实体集合;关系抽取,对于实体集合中的实体对,判断他们之间存在的关系。之前的技术方案主要以神经网络和预训练语言模型作为基础的特征提取器,并按照上述划分,以流水线的形式分别训练并预测各个子任务,抽取实体和关系。为了共用不同子任务之间的有益信息,也有技术方案提出使用多任务模型联合建模,在各个子任务之间共用基础特征提取器(Markus Eberts and Adrian Ulges.2021.An end-to-end model for entity-level relation extraction using multi-instancelearning.In Proceedings of the 16th Conference of the European Chapter of theAssociation for Computational Linguistics:Main Volume,pages3650–3660,Online.Association for Computational Linguistics.)。但是,上述方案仍然不能克服流水线模式的错误累积(error propagation)问题,在解码过程中,之前子任务的错误会引发后续的级联错误,从而极大程度上影响模型的精度。
发明内容
为了克服现有的技术方案中的错误累积问题,本发明提供一种面向文档级别实体关系联合抽取的“表格-图”两阶段生成方法及装置,可以在长文本中有效地抽取包括实体和关系在内的结构化信息。
本发明采用的技术方案如下:
一种基于“表格-图”两阶段的面向文档级别实体关系联合抽取方法,包括编码阶段和解码阶段;
所述编码阶段包括:
对待处理文本进行分词后,输入训练完成的序列标注模型,进行指代抽取;
将指代输入训练完成的“表格-图”两阶段模型,预测得到共指分数和关系分数;
所述解码阶段包括:
利用共指分数和关系分数,使用层次聚类方法进行共指消解解码;
对于层次聚类方法得到的实体簇,使用众数投票方法进行关系抽取解码。
进一步地,所述序列标注模型用于指代抽取子任务,按照BIO的标注格式进行训练,以预测文本的BIO类别。
进一步地,所述“表格-图”两阶段模型用于共指消解子任务和关系抽取子任务,将指代看作结点,所述共指消解子任务在指代对之间预测指代是否指向相同实体,即0/1分数;所述关系抽取子任务在指代对之间预测指代对应的实体之间的关系,即多分类任务。
进一步地,所述“表格-图”两阶段模型包括:
在表格阶段,首先使用BERT模型对原始文本进行特征提取,得到指代对应的表示,然后使用双仿射变换对每一个指代对预测共指分数和关系分数:
在图阶段,将共指分数和关系分数作为以指代为结点的动态图上的边权重,构建对应的共指边和关系边;针对指代之间的语法结构,再静态构造语法边;对于得到的三种边和指代的原始表示,使用关系图神经网络R-GCN编码结点表示;
利用关系图神经网络R-GCN得到的结点表示,再次使用双仿射变换预测最终的共指分数和关系分数。
进一步地,所述层次聚类方法在计算不同簇之间的距离时,考虑两部分:一部分是在编码阶段最终预测的共指分数,一部分是以关系分数计算得到的惩罚项;将该两部分的加权和作为簇间距离。
进一步地,使用指代的关系向量之间的汉明距离作为所述惩罚项。
进一步地,所述使用众数投票方法进行关系抽取解码,包括:给定目标实体对,检查实体对之间所有的指代对的关系预测结果,并将投票超过半数的关系作为实体对之间的预测关系。
一种基于“表格-图”两阶段的面向文档级别实体关系联合抽取系统,包括编码模块和解码模块;
所述编码模块对待处理文本进行分词后,输入训练完成的序列标注模型,进行指代抽取,并将指代输入训练完成的“表格-图”两阶段模型,预测得到共指分数和关系分数;
所述解码阶段利用共指分数和关系分数,使用层次聚类方法进行共指消解解码,并对于层次聚类方法得到的实体簇,使用众数投票方法进行关系抽取解码。
本发明的有益效果如下:
本发明在编码和解码两方面的针对性设计(“表格-图”两阶段模型和层次聚类方法)可以有效缓解共指消解和关系抽取这两个子任务之间的错误累积问题,并促进不同子任务之间的语义交换,从而改善信息抽取表现。
附图说明
图1是本发明的任务说明图,文档级别关系抽取需要从长文本中抽取指代、实体和关系。
图2是本发明的编码部分流程图,主要展示“表格-图”模型的编码流程。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面通过具体实施例和附图,对本发明做进一步详细说明。
本发明方法主要可以分编码和解码两阶段。编码阶段的主要步骤包括:
(1)使用分词器(tokenizer)对文本进行分词,转化为字典中的字符;
(2)单独针对指代抽取子任务构建序列标注模型,并按照B(begin,开始),I(inside,内部),O(outside,非实体)的标注格式训练序列标注模型。序列标注模型使用BERT作为特征提取器,使用线性层预测字符的序列类别(即BIO序列)。其中,指代表示指代具体的实体概念的连续文本段;根据BIO序列可以得到指代,例如从每个B标签位置开始,将形如(B-I-…-I)-O部分作为解码得到的连续文本段,即为指代。
(3)共同建模共指消解子任务和关系抽取子任务:将指代看作结点,共指消解子任务需要在指代对之间预测它们是否指向相同实体,即0/1分数;在指代级别考虑关系抽取,则关系抽取子任务可以看作在指代对之间预测它们对应的实体之间的关系,即多分类任务。所以,在这个统一建模下,可以使用相同的“表格-图”两阶段模型编码这两个任务的嵌入表示。
(4)在表格阶段,针对两个子任务都预测0/1分数。首先使用BERT模型对原始文本进行特征提取,得到指代对应的表示。再使用双仿射变换对每一个指代对(mi,mj)预测共指分数和关系分数。
共指分数的计算公式:
关系分数的计算公式:
其中,表示指代对(mi,mj)的共指分数,/>表示指代对(mi,mj)的关系分数,/>表示指代mi的原始特征,/>表示指代mj的原始特征,WCOREF,1,wCOREF,2,bCOREF,WRE,1,wRE,2,bRE是可训练参数,T表示转置操作,⊕表示向量拼接操作。最后使用softmax函数对分数作归一化。
将得到的n*n个共指分数作为共指表格,将得到的n*n个关系分数作为关系表格。其中表格是指n*n的矩阵,可以看作以指代作为结点的图所对应的邻接矩阵。
(5)在图阶段,将第(4)步得到的共指(coreference)分数和关系(relation)分数作为以指代作为结点的动态图上的边权重,构建对应的共指边和关系边。此外,针对指代之间的语法结构,再静态地(在指代确定后即固定不变)构造语法(syntax)边。具体规则为:如果两个指代出现在同一个句子中,则它们间的边权为1,否则为0。对于得到的三种边和指代的原始表示,使用关系图神经网络(relational graph convolutional network,R-GCN)编码结点表示。
(6)最后,利用关系图神经网络R-GCN得到的结点表示,替换计算公式中的z,再次使用双仿射变换预测最终的共指分数和关系分数,完成编码。
在解码阶段,主要步骤包括:
(1)指代抽取:将序列标注模型输出的BIO序列,还原成预测的指代。
(2)共指消解:利用编码阶段预测的共指分数和关系分数,使用层次聚类方法(hierarchical agglomerative clustering,HAC)进行共指消解解码。
在计算不同簇(cluster)之间的距离时,考虑两部分:一部分是在编码阶段最终预测的共指分数,一部分是以关系分数计算得到的惩罚项。考虑到在训练过程中,指向相同实体的指代对之间有着相同的关系标签,因此使用指代的关系向量之间的汉明距离作为额外惩罚项,计算如下:
其中,|Cx|表示当前簇x的节点数目,|Cy|表示当前簇y的节点数目,σ表示sigmoid函数,ri表示指代i的关系向量,rj表示指代j的关系向量。
指代(节点)的关系向量构造如下:若预测得到的指代mi和mj之间存在关系r,则否则为0。记指代对(mi,mj)的关系向量/>则指代mi的关系向量/> 其中n为指代数量,nr为关系种类。
最后使用这两部分的加权和作为簇间距离。
(3)关系抽取:使用众数投票(majority voting)机制进行关系抽取解码。给定目标实体对,检查实体对之间所有的指代对的关系预测结果,并将投票超过半数的关系作为实体对之间的预测关系。
该方法的应用有两个步骤:第一步是使用已标注的文本数据集训练编码模型,并在验证集上调整解码超参数;第二步是使用训练得到的编码模型和解码算法来识别目标文本中的实体和关系。第一步与第二步不需要连续进行,可单独进行第一步得到预训练模型之后,再在新的文本上进行第二步识别。
本发明可以应用于任意类型的关系和实体抽取。下面提供一个具体实施例。该实施例为一种面向文档级别实体关系联合抽取的“表格-图”两阶段生成方法,以百科文本中的信息抽取为例,希望在文本数据中自动抽取实体和实体间的关系,如图1所示。
训练阶段的主要步骤如下:
(1)首先需要构建训练模型所需的训练数据。训练数据需要标注指代的起止范围、共指关系,和实体之间的关系。
(2)对训练数据中的文本数据进行分词。本实施例使用与BERT模型对应的分词器实现分词。
(3)训练指代抽取子模块。对应的模型为BERT作为特征提取器,通过一层线性层输出BIO类别。
(4)使用训练数据标注的指代、共指和关系,构造标签,训练共指消解子模块和关系抽取子模块,即“表格-图”两阶段模型;
(5)最后,模型可以输出所有指代对之间共指消解的0/1分数,和每个类别的关系分数。
测试阶段的主要步骤如下:
(1)对文本数据分词;
(2)使用训练的指代抽取子模块预测文本的BIO类别,并解码成指代范围;
(3)将预测的指代输入“表格-图”两阶段模型,预测得到共指分数和关系分数;
(4)使用层次聚类方法进行共指消解解码;
(5)对于解码得到的实体簇,使用众数投票方法进行关系抽取解码。
在维基百科文本构造的DocRED数据集上,使用3053篇文档进行训练,1000篇文档进行测试,取得的结果如表1所示。
表1
指代抽取F1(%) 共指消解F1(%) 关系抽取F1(%)
之前最优方案 93.35 84.96 40.62
本专利方案 93.84 86.37 44.97
本实例的实验结果表明了本专利的方法是能带来有效的效果提升,与现在普遍使用的模型相比,能够更好地联合提取实体和关系。
本发明的另一实施例提供一种基于“表格-图”两阶段的面向文档级别实体关系联合抽取系统,包括编码模块和解码模块:
所述编码模块对待处理文本进行分词后,输入训练完成的序列标注模型,进行指代抽取,并将指代输入训练完成的“表格-图”两阶段模型,预测得到共指分数和关系分数;
所述解码阶段利用共指分数和关系分数,使用层次聚类方法进行共指消解解码,并对于层次聚类方法得到的实体簇,使用众数投票方法进行关系抽取解码。
其中各模块的具体实施过程参见前文对本发明方法的描述。
本发明的另一实施例提供一种计算机设备(计算机、服务器、智能手机等),其包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行本发明方法中各步骤的指令。
本发明的另一实施例提供一种计算机可读存储介质(如ROM/RAM、磁盘、光盘),所述计算机可读存储介质存储计算机程序,所述计算机程序被计算机执行时,实现本发明方法的各个步骤。
以上公开的本发明的具体实施例,其目的在于帮助理解本发明的内容并据以实施,本领域的普通技术人员可以理解,在不脱离本发明的精神和范围内,各种替换、变化和修改都是可能的。本发明不应局限于本说明书的实施例所公开的内容,本发明的保护范围以权利要求书界定的范围为准。

Claims (10)

1.一种基于“表格-图”两阶段的面向文档级别实体关系联合抽取方法,其特征在于,包括编码阶段和解码阶段;
所述编码阶段包括:
对待处理文本进行分词后,输入训练完成的序列标注模型,进行指代抽取;
将指代输入训练完成的“表格-图”两阶段模型,预测得到共指分数和关系分数;
所述解码阶段包括:
利用共指分数和关系分数,使用层次聚类方法进行共指消解解码;
对于层次聚类方法得到的实体簇,使用众数投票方法进行关系抽取解码。
2.根据权利要求1所述的方法,其特征在于,所述序列标注模型用于指代抽取子任务,按照BIO的标注格式进行训练,以预测文本的BIO类别。
3.根据权利要求1所述的方法,其特征在于,所述“表格-图”两阶段模型用于共指消解子任务和关系抽取子任务,将指代看作结点,所述共指消解子任务在指代对之间预测指代是否指向相同实体,即0/1分数;所述关系抽取子任务在指代对之间预测指代对应的实体之间的关系,即多分类任务。
4.根据权利要求1所述的方法,其特征在于,所述“表格-图”两阶段模型包括:
在表格阶段,首先使用BERT模型对原始文本进行特征提取,得到指代对应的表示,然后使用双仿射变换对每一个指代对预测共指分数和关系分数:
在图阶段,将共指分数和关系分数作为以指代为结点的动态图上的边权重,构建对应的共指边和关系边;针对指代之间的语法结构,再静态构造语法边;对于得到的三种边和指代的原始表示,使用关系图神经网络R-GCN编码结点表示;
利用关系图神经网络R-GCN得到的结点表示,再次使用双仿射变换预测最终的共指分数和关系分数。
5.根据权利要求1所述的方法,其特征在于,所述层次聚类方法在计算不同簇之间的距离时,考虑两部分:一部分是在编码阶段最终预测的共指分数,一部分是以关系分数计算得到的惩罚项;将该两部分的加权和作为簇间距离。
6.根据权利要求5所述的方法,其特征在于,使用指代的关系向量之间的汉明距离作为所述惩罚项。
7.根据权利要求1所述的方法,其特征在于,所述使用众数投票方法进行关系抽取解码,包括:给定目标实体对,检查实体对之间所有的指代对的关系预测结果,并将投票超过半数的关系作为实体对之间的预测关系。
8.一种基于“表格-图”两阶段的面向文档级别实体关系联合抽取系统,其特征在于,包括编码模块和解码模块:
所述编码模块对待处理文本进行分词后,输入训练完成的序列标注模型,进行指代抽取,并将指代输入训练完成的“表格-图”两阶段模型,预测得到共指分数和关系分数;
所述解码阶段利用共指分数和关系分数,使用层次聚类方法进行共指消解解码,并对于层次聚类方法得到的实体簇,使用众数投票方法进行关系抽取解码。
9.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行权利要求1~7中任一项所述方法的指令。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储计算机程序,所述计算机程序被计算机执行时,实现权利要求1~7中任一项所述的方法。
CN202310824434.2A 2023-07-06 2023-07-06 一种基于“表格-图”两阶段的面向文档级别实体关系联合抽取方法及装置 Pending CN117131868A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310824434.2A CN117131868A (zh) 2023-07-06 2023-07-06 一种基于“表格-图”两阶段的面向文档级别实体关系联合抽取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310824434.2A CN117131868A (zh) 2023-07-06 2023-07-06 一种基于“表格-图”两阶段的面向文档级别实体关系联合抽取方法及装置

Publications (1)

Publication Number Publication Date
CN117131868A true CN117131868A (zh) 2023-11-28

Family

ID=88860645

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310824434.2A Pending CN117131868A (zh) 2023-07-06 2023-07-06 一种基于“表格-图”两阶段的面向文档级别实体关系联合抽取方法及装置

Country Status (1)

Country Link
CN (1) CN117131868A (zh)

Similar Documents

Publication Publication Date Title
CN112818676A (zh) 一种医学实体关系联合抽取方法
CN108733647B (zh) 一种基于高斯分布的词向量生成方法
Zhang et al. Aspect-based sentiment analysis for user reviews
US11003950B2 (en) System and method to identify entity of data
CN112883193A (zh) 一种文本分类模型的训练方法、装置、设备以及可读介质
CN107391565B (zh) 一种基于主题模型的跨语言层次分类体系匹配方法
CN112101031B (zh) 一种实体识别方法、终端设备及存储介质
CN111158641B (zh) 基于语义分析和文本挖掘的事务类功能点自动识别方法
CN116304748B (zh) 一种文本相似度计算方法、系统、设备及介质
CN112883153B (zh) 基于信息增强bert的关系分类方法及装置
CN115759119B (zh) 一种金融文本情感分析方法、系统、介质和设备
CN115329088B (zh) 图神经网络事件检测模型的鲁棒性分析方法
CN112101042A (zh) 文本情绪识别方法、装置、终端设备和存储介质
CN114936277A (zh) 相似问题匹配方法和户相似问题匹配系统
CN111597811B (zh) 一种基于图神经网络算法的金融篇章级多关联事件抽取方法
CN114417872A (zh) 一种合同文本命名实体识别方法及系统
CN114936290A (zh) 数据处理方法及装置、存储介质及电子设备
Wu et al. AI for online customer service: Intent recognition and slot filling based on deep learning technology
CN115238026A (zh) 一种基于深度学习的医疗文本主题分割方法和装置
CN114022737A (zh) 对训练数据集进行更新的方法和设备
Lyu et al. Deep learning for textual entailment recognition
CN116680407A (zh) 一种知识图谱的构建方法及装置
Che et al. Deep learning in lexical analysis and parsing
CN115952794A (zh) 融合双语敏感词典和异构图的汉泰跨语言敏感信息识别方法
CN115130475A (zh) 一种可扩展的通用端到端命名实体识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination