CN115186820A - 事件共指消解方法、装置、终端及计算机可读存储介质 - Google Patents

事件共指消解方法、装置、终端及计算机可读存储介质 Download PDF

Info

Publication number
CN115186820A
CN115186820A CN202211088370.6A CN202211088370A CN115186820A CN 115186820 A CN115186820 A CN 115186820A CN 202211088370 A CN202211088370 A CN 202211088370A CN 115186820 A CN115186820 A CN 115186820A
Authority
CN
China
Prior art keywords
event
training
target
candidate
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211088370.6A
Other languages
English (en)
Other versions
CN115186820B (zh
Inventor
杨海钦
叶俊鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Digital Economy Academy IDEA
Original Assignee
International Digital Economy Academy IDEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Digital Economy Academy IDEA filed Critical International Digital Economy Academy IDEA
Priority to CN202211088370.6A priority Critical patent/CN115186820B/zh
Publication of CN115186820A publication Critical patent/CN115186820A/zh
Application granted granted Critical
Publication of CN115186820B publication Critical patent/CN115186820B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明所提供的事件共指消解方法、装置、终端及计算机可读存储介质,所述事件共指消解方法包括:将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。本发明通过使用预先训练的粗筛模型进行检索,将原来的存量事件库缩小为候选事件池,降低了推理时的计算量,再通过预先训练的精筛模型,减少了上游模型误差的传播,提升了推理效果。

Description

事件共指消解方法、装置、终端及计算机可读存储介质
技术领域
本发明涉及自然语言处理技术领域,尤其涉及的是事件共指消解方法、装置、终端及计算机可读存储介质。
背景技术
在信息大爆炸的背景下,利用自然语言处理技术从海量的文本数据当中提取有价值的信息成为一个极其重要的课题。其中,事件共指消解处于信息抽取系统的下游部分,能够对上游抽取出的信息进行组织,提高了应用事件信息的便利性。事件共指消解旨在识别事件之间的指向现实世界中同一客观事件的关系,将满足共指关系的事件聚集成事件簇,有助于从不同来源的数据中识别相同事件,进而达到补全、验证事件信息的目的。事件共指消解在信息并发的场景中发挥着重要作用,对商业参考、舆情分析、金融事件分析、问答系统等应用皆有巨大价值。
从模型的结构层面,已有的事件共指消解模型大致分为管道模型及联合模型两类。其中,管道模型依赖于一个额外的触发词检测器来抽取事件指称,进而推断抽取出的事件指称之间的共指关系;在管道结构中,上游组件的错误将传播到下游组件,即,管道模型的误差会传播到事件共指消解模型中,因此,上游抽取出的事件指称的质量容易成为共指消解效果的瓶颈。联合模型在同一个模型当中完成事件指称识别与共指消解,自然地消除了误差传播问题;然而,多任务的耦合对特征提取工作提出巨大挑战。在事件共指打分器方面,基于事件对模型将共指消解转化为二分类问题,独立地判断事件对之间的共指关系是否成立,在推理时需要构造目标事件与事件池中所有事件的事件对来确定完备的共指关系,在实际应用中事件池的数量往往非常大,这对模型应用带来很大的挑战;即,事件对模型推理计算量大,实际应用困难。
因此,现有技术存在缺陷,有待改进与发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供事件共指消解方法、装置、终端及计算机可读存储介质,旨在解决现有技术中的事件共指消解模型在确定共指关系时会产生误差传播或者推理计算量大的问题。
本发明解决技术问题所采用的技术方案如下:
一种事件共指消解方法,包括:
将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;
构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;
将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。
在一种实现方式中,所述将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池,包括:
将目标事件输入预先训练的粗筛模型,对所述目标事件进行编码,得到所述目标事件对应的目标向量;
获取预先建立的存量事件库,所述存量事件库中包括存量事件及与所述存量事件对应的存量向量,所述存量向量是利用预先训练的粗筛模型对所述存量事件进行编码得到;
根据所述目标向量,在所述存量事件库中进行向量检索,得到向量表征池,所述向量表征池中包括与所述目标向量对应的所有目标存量向量;
获取与所述目标存量向量对应的目标存量事件,将所述目标存量事件作为所述目标事件对应的候选事件,所有所述候选事件形成候选事件池;
其中,所述目标事件和所述存量事件均是由上游的事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成。
在一种实现方式中,将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系,包括:
将每个所述事件对中的目标事件和候选事件进行文本拼接,得到各个事件对拼接文本;
将每个所述事件对拼接文本输入预先训练的精筛模型,编码得到事件对的拼接向量;
对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系。
在一种实现方式中,对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系之后,还包括:
若所述目标事件与所述候选事件之间满足共指关系,则将所述目标事件与所述候选事件聚集为事件簇。
在一种实现方式中,对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系之后,还包括:
若所述目标事件与所述候选事件之间不满足共指关系,则将所述目标事件以及与所述目标事件对应的目标向量加入到所述存量事件库中,所述目标事件作为新的存量事件,所述目标向量作为新的存量向量。
在一种实现方式中,所述粗筛模型的训练步骤包括:
获取第一训练集,利用自监督学习及对比学习训练初始粗筛模型,得到已训练的粗筛模型。
在一种实现方式中,所述获取第一训练集,利用自监督学习及对比学习训练初始粗筛模型,得到已训练的粗筛模型,包括:
获取第一训练集,所述第一训练集中包括第一训练事件;
将经遮盖字符处理的第一训练事件输入初始粗筛模型中,进行遮盖字符的预测,计算交叉熵损失;
将构造为三元组的第一训练事件输入初始粗筛模型,利用Triplet损失函数进行对比学习训练,计算Triplet损失;
将所述交叉熵损失与所述Triplet损失之和作为最终损失,当所述最终损失达到平稳,训练完成,得到已训练的粗筛模型。
在一种实现方式中,所述第一训练事件的事件文本表示为事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成。
在一种实现方式中,所述精筛模型的训练步骤包括:
获取第二训练集,所述第二训练集中包括第二训练事件;
将所述第二训练事件输入已训练的粗筛模型,编码后得到所述第二训练事件对应的第二训练向量;
根据所述第二训练向量在预先建立的存量训练事件池中进行向量检索,所述存量训练事件池中包括:存量训练事件,以及与所述存量训练事件对应的存量训练向量,所述存量训练向量是利用已训练的粗筛模型对所述存量训练事件进行编码得到;
经向量检索后得到训练向量表征池,所述训练向量表征池中包括与所述第二训练向量对应的所有目标存量训练向量;
根据各个所述目标存量训练向量得到对应的目标存量训练事件,将所述目标存量训练事件作为所述第二训练事件对应的训练候选事件,所有所述训练候选事件形成训练候选事件池;
构造所述第二训练事件与各个训练候选事件之间的训练事件对;
将经人工标注处理后的所述训练事件对输入初始精筛模型,对所述初始精筛模型进行训练;
训练完成,得到已训练的精筛模型。
在一种实现方式中,所述存量训练事件的事件文本表示为上游的事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成,所述第二训练集中的第二训练事件是在所述存量训练事件池中随机抽取得来。
在一种实现方式中,将所述第二训练事件输入已训练的粗筛模型,编码后得到所述第二训练事件对应的第二训练向量之前,还包括:
预先在所述第二训练事件的事件文本表示中加入对应的原始文本、原始文本的前后字符,以及指示各要素的特殊字符,所述特殊字符的嵌入为随机初始化得来。
在一种实现方式中,对所述训练事件对进行人工标注的步骤包括:
根据所述训练事件对中第二训练事件的元数据和训练候选事件的元数据,构造所述训练事件对的元数据特征;
根据所述元数据特征标注所述第二训练事件与所述训练候选事件之间的共指关系;
所述元数据特征包括:所述训练事件对的发表时间差,所述训练事件对是否来自同一篇文章,及所述第二训练事件与所述训练候选事件的发表平台。
在一种实现方式中,所述将经人工标注处理后的所述训练事件对输入初始精筛模型,对所述初始精筛模型进行训练,包括:
将经人工标注处理后的所述训练事件对构造为事件对拼接训练文本;
将所述事件对拼接训练文本输入到初始精筛模型中,编码后得到所述训练事件对的拼接训练向量;
取出所述拼接训练向量中[CLS]字符对应的隐向量,对取出隐向量后的拼接训练向量进行分类。
本发明还提供一种事件共指消解装置,包括:
检索模块,用于将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;
构造模块,用于构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;
确定模块,用于将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。
本发明还提供一种终端,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的事件共指消解程序,所述事件共指消解程序被所述处理器执行时实现如上所述的事件共指消解方法的步骤。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序能够被执行以用于实现如上所述的事件共指消解方法的步骤。
本发明所提供的事件共指消解方法、装置、终端及计算机可读存储介质,所述事件共指消解方法包括:将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。本发明通过使用预先训练的粗筛模型进行检索,将原来的存量事件库缩小为候选事件池,降低了推理时的计算量,再通过预先训练的精筛模型,减少了上游模型误差的传播,提升了推理效果。
附图说明
图1是本发明中事件共指消解方法较佳实施例的流程图。
图2是本发明中事件共指消解方法较佳实施例中步骤S100的具体流程图。
图3是本发明中事件共指消解方法较佳实施例中步骤S300的具体流程图。
图4是本发明中粗筛模型和精筛模型的原理示意图。
图5是本发明中粗筛模型的训练步骤的具体流程图。
图6是本发明中精筛模型的训练步骤的具体流程图。
图7是本发明中事件共指消解方法较佳实施例中步骤B60的具体流程图。
图8是本发明中事件共指消解装置的较佳实施例的功能原理框图。
图9是本发明中终端的较佳实施例的功能原理框图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明利用粗筛模型(coarse模型)和精筛模型(fine模型)共同构成coarse-fine双模型结构,通过coarse-fine双模型结构,使用coarse模型缩小事件池的大小,降低推理时计算量,使用fine模型确保效果与传统做法一致或更优。具体的做法是将Coarse模型通过自监督及对比学习训练,对单个事件进行事件嵌入(event embedding),使用向量检索进行临近事件快速查找得到候选事件池。Fine模型通过构造目标事件与候选事件池的事件对,使用早交互的模型进行精细化分类。 Coarse-fine双模型结构在大大节省计算量的同时,也兼顾了良好的效果。
请参见图1,图1是本发明中事件共指消解方法的流程图。如图1所示,本发明实施例所述的事件共指消解方法包括以下步骤:
步骤S100、将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池。
具体地,所述粗筛模型是一个小计算量的模型,输入的是单个文本。在接收到一个新的事件时,将新的事件作为目标事件首先输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池。本发明使用预先训练的粗筛模型缩小了候选事件池的大小,将候选事件池从百万至千万量级降低到百量级,降低了推理时的计算量。
在一种实现方式中,如图2所示,所述步骤S100具体包括:
步骤S110、将目标事件输入预先训练的粗筛模型,对所述目标事件进行编码,得到所述目标事件对应的目标向量;
步骤S120、获取预先建立的存量事件库,所述存量事件库中包括存量事件及与所述存量事件对应的存量向量,所述存量向量是利用预先训练的粗筛模型对所述存量事件进行编码得到;
步骤S130、根据所述目标向量,在所述存量事件库中进行向量检索,得到向量表征池,所述向量表征池中包括与所述目标向量对应的所有目标存量向量;
步骤S140、获取与所述目标存量向量对应的目标存量事件,将所述目标存量事件作为所述目标事件对应的候选事件,所有所述候选事件形成候选事件池。
具体地,所述目标事件和所述存量事件均是由上游的事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成。本发明使用粗筛模型对目标事件进行向量化表示,快速召回,从而快速得到向量表征池,根据向量表征池直接得到候选事件池,提高了推理效率。并且,由于在训练粗筛模型时设计了针对事件结构优化的自监督任务和对比学习任务,无需标注数据,即能得到事件的向量表示。
所述步骤S100之后为:步骤S200、构造所述目标事件与所述候选事件池中各个候选事件之间的事件对。
所述步骤S200之后为:步骤S300、将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。
在一种实现方式中,如图3所示,所述步骤S300具体包括:
步骤S310、将每个所述事件对中的目标事件和候选事件进行文本拼接,得到各个事件对拼接文本;
步骤S320、将每个所述事件对拼接文本输入预先训练的精筛模型,编码得到事件对的拼接向量;
步骤S330、对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系。
具体地,由于在训练fine模型时,使用coarse模型得到高质量的候选事件池进行人工标注,用来训练fine模型。在训练时,设计了事件要素+特殊字符+覆盖原文的事件文本表示方法和元数据特征,减少了上游模型误差的传播,提升了模型效果。
在一种实施例中,所述步骤S330之后包括:若所述目标事件与所述候选事件之间满足共指关系,则将所述目标事件与所述候选事件聚集为事件簇。
在一种实现方式中,所述步骤S330之后还包括:若所述目标事件与所述候选事件之间不满足共指关系,则将所述目标事件以及与所述目标事件对应的目标向量加入到所述存量事件库中,所述目标事件作为新的存量事件,所述目标向量作为新的存量向量。
也就是说,本发明通过Coarse-fine的双模型结构解决事件共指消解问题。Coarse-fine结构使用coarse模型对事件进行向量化表示,快速召回,使用fine模型对事件对进行精细化分类,在节省计算量的同时也保证了效果。
如图4所示,所述coarse模型和fine模型均可以为Transformer语言模型,目标事件中的每个词w经L层Transformer编码器编码后得到向量
Figure 515225DEST_PATH_IMAGE001
Figure 490134DEST_PATH_IMAGE002
表示目标事件最终的向量表征;b则是存量事件库中的存量事件,
Figure 378456DEST_PATH_IMAGE003
是经L层Transformer编码器编码后的向量,
Figure 697179DEST_PATH_IMAGE004
是存量事件最终的向量表征,存量事件的向量表征可以提前获得并存储。根据目标事件的向量表征,在所有存量事件的向量表征中进行向量检索,得到向量表征池,进而得到候选事件池;根据候选事件池构建事件对,将事件对的拼接文本再经L层Transformer编码器进行编码,得到总向量
Figure 518505DEST_PATH_IMAGE005
,再通过分类层进行分类,得到概率评分结果,根据概率评分结果得到事件对的共指关系。
在对粗筛模型和精筛模型进行训练时,先训练coarse模型,再利用coarse模型构造标注数据集训练fine模型。其中,初始粗筛模型和初始精筛模型均可以为Transformer语言模型,如BERT模型。
在一种实施例中,所述粗筛模型的训练步骤包括:获取第一训练集,利用自监督学习及对比学习训练初始粗筛模型,得到已训练的粗筛模型。
具体地,使用针对事件结构优化的自监督学习及对比学习训练coarse模型。
在一种实现方式中,如图5所示,所述粗筛模型的训练步骤具体包括:
步骤A10、获取第一训练集,所述第一训练集中包括第一训练事件;
步骤A20、将经遮盖字符处理的第一训练事件输入初始粗筛模型中,进行遮盖字符的预测,计算交叉熵损失;
步骤A30、将构造为三元组的第一训练事件输入初始粗筛模型,利用Triplet损失函数进行对比学习训练,计算Triplet损失;
步骤A40、将所述交叉熵损失与所述Triplet损失之和作为最终损失,当所述最终损失达到平稳,训练完成,得到已训练的粗筛模型。
具体地,将上游的事件抽取模型抽取得到的事件类型、触发词、事件要素等事件信息拼接到一起,作为事件的文本表示。例如,A袭击B的袭击事件的文本表示为“类型:袭击,触发词:袭击,袭击者:A,被袭击者:B”。在构造自监督训练任务时,遮盖字符处理具体为:以一定的概率遮盖住要素名,并让初始粗筛模型尝试预测出来,例如,遮盖住“袭击者”:即,“类型:袭击,触发词:袭击,[MASK][MASK][MASK]:A,被袭击者:B”,初始粗筛模型需要预测三个遮盖字符为“袭击者”,使用交叉熵算出loss_mlm。其中,遮盖字符的概率值是个可以调整的超参数,根据具体训练效果而设定。在构造对比学习任务时,构造(Anchor, Positive,Negative)三元组,并使用Triplet loss进行对比学习训练。其中,Anchor为原事件表示,Positive为使用同义词随机替换触发词或事件要素,Negative为使用非同义词替换或者事件要素颠倒,使用triplet loss算出loss_triplet;三元组是用于计算triplet loss的,anchor为原文,positive和negative为人为构造,triplet loss会让anchor和positive两个样本的表征距离小于anchor和negative表征距离。最终损失为loss_mlm+loss_triplet。
使用初始粗筛模型中的编码器对事件文本表示进行编码。编码器为加载预训练模型的Transformer语言模型(例如BERT模型),通过充分训练后得到粗筛模型,即模型收敛时,训练完成,收敛则是指最终损失函数平稳不下降。
本发明在粗筛模型训练中,不同于一般的文本表示模型,加入了针对事件结构优化自监督学习及对比学习训练,不同于一般的事件共指消解模型,粗筛模型并不需要标注数据进行学习,确保得到的候选事件池质量。
在一种实施例中,所述第一训练事件的事件文本表示为事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成。具体地,可以使用预先建立的存量训练事件池中的训练事件作为第一训练事件,存量训练事件池中则是事件抽取模型抽取出来的一个个独立的事件,所述第一训练集可以从存量训练事件池构建得来。
在一种实现方式中,如图6所示,所述精筛模型的训练步骤包括:
步骤B10、获取第二训练集,所述第二训练集中包括第二训练事件;
步骤B20、将所述第二训练事件输入已训练的粗筛模型,编码后得到所述第二训练事件对应的第二训练向量;
步骤B30、根据所述第二训练向量在预先建立的存量训练事件池中进行向量检索;
所述存量训练事件池中包括:存量训练事件,以及与所述存量训练事件对应的存量训练向量,所述存量训练向量是利用已训练的粗筛模型对所述存量训练事件进行编码得到。
步骤B40、经向量检索后得到训练向量表征池,所述训练向量表征池中包括与所述第二训练向量对应的所有目标存量训练向量;
步骤B50、根据各个所述目标存量训练向量得到对应的目标存量训练事件,将所述目标存量训练事件作为所述第二训练事件对应的训练候选事件,所有所述训练候选事件形成训练候选事件池;
步骤B60、构造所述第二训练事件与各个训练候选事件之间的训练事件对;
步骤B70、将经人工标注处理后的所述训练事件对输入初始精筛模型,对所述初始精筛模型进行训练;
步骤B80、训练完成,得到已训练的精筛模型。
具体地,在得到已训练的粗筛模型后,首先使用已训练的粗筛模型对预先建立的存量训练事件池中的存量训练事件进行编码,得到对应的存量训练向量。这样,将第二训练事件输入已训练的粗筛模型中即可进行在存量训练事件池中进行向量检索,得到训练向量表征池,进而得到对应的训练候选事件池,构造事件对后进行人工标注,用以训练初始精筛模型。
在一种实施例中,所述存量训练事件的事件文本表示为上游的事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成,所述第二训练集中的第二训练事件是在所述存量训练事件池中随机抽取得来。具体地,在存量训练事件池中随机抽取一定量的存量训练事件,作为第二训练事件,所有第二训练事件构成了第二训练集。
在一种实现方式中,所述步骤B2之前还包括:预先在所述第二训练事件的事件文本表示中加入对应的原始文本、原始文本的前后字符,以及指示各要素的特殊字符,所述特殊字符的嵌入为随机初始化得来。
具体地,由于上游的事件抽取模型会引入一定误差,为了减少误差带来的影响,将事件覆盖的原始文本,以及原始文本附近的上下文(如原始文本的前后k个字符)加入到事件文本表示中,并添加指示事件各要素的特殊字符,在前述的例子中,事件文本表示为“[类型]袭击[触发词]袭击[袭击者]A[被袭击者]B[原文]A袭击了B”,其中,中括号中的内容即为特殊字符,特殊字符的嵌入为随机初始化得来。
在一种实现方式中,对所述训练事件对进行人工标注的步骤包括:根据所述训练事件对中第二训练事件的元数据和训练候选事件的元数据,构造所述训练事件对的元数据特征;根据所述元数据特征标注所述第二训练事件与所述训练候选事件之间的共指关系。所述元数据特征包括:所述训练事件对的发表时间差,所述训练事件对是否来自同一篇文章,及所述第二训练事件与所述训练候选事件的发表平台。
具体地,利用各个事件的元数据构造特征辅助模型预测,元数据特征包括但不限于事件对的发表时间差,事件对是否来自同一篇文章,事件发表平台等。
在一种实施例中,如图7所示,所述步骤B60具体包括:
步骤B61、将经人工标注处理后的所述训练事件对构造为事件对拼接训练文本;
步骤B62、将所述事件对拼接训练文本输入到初始精筛模型中,编码后得到所述训练事件对的拼接训练向量;
步骤B63、取出所述拼接训练向量中[CLS]字符对应的隐向量,对取出隐向量后的拼接训练向量进行分类。
具体地,将事件对构造成A-B句子对后输入到初始精筛模型的编码器中,取出[CLS]字符对应的隐向量h_cls后,作为初始精筛模型的分类器输入进行分类。
本发明在训练精筛模型的过程中,使用了事件要素,特殊字符及覆盖原文的混合表示方法来表示事件,一定程度上缓解上游模型的误差传播,并且嵌入了事件来源,发表时间等元数据作为特征,辅助模型预测,提高了模型效果。
进一步地,如图8所示,基于上述事件共指消解方法,本发明还相应提供了一种事件共指消解装置,包括:
检索模块100,用于将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;
构造模块200,用于构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;
确定模块300,用于将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。
进一步地,如图9所示,基于上述事件共指消解方法,本发明还相应提供了一种终端,包括处理器10、存储器20。图9仅示出了终端的部分组件,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
所述存储器20在一些实施例中可以是所述终端的内部存储单元,例如终端的硬盘或内存。所述存储器20在另一些实施例中也可以是所述终端的外部存储设备,例如所述终端上配备的插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(SecureDigital, SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器20还可以既包括所述终端的内部存储单元也包括外部存储设备。所述存储器20用于存储安装于所述终端的应用软件及各类数据,例如安装所述终端的程序代码等。所述存储器20还可以用于暂时地存储已经输出或者将要输出的数据。在一实施例中,存储器20上存储有事件共指消解程序30,该事件共指消解程序30可被处理器10所执行,从而实现本申请中事件共指消解方法。
所述处理器10在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行所述存储器20中存储的程序代码或处理数据,例如执行所述事件共指消解方法等。
在一实施例中,当处理器10执行所述存储器20中事件共指消解程序30时实现以下步骤:
将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;
构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;
将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。
所述将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池,包括:
将目标事件输入预先训练的粗筛模型,对所述目标事件进行编码,得到所述目标事件对应的目标向量;
获取预先建立的存量事件库,所述存量事件库中包括存量事件及与所述存量事件对应的存量向量,所述存量向量是利用预先训练的粗筛模型对所述存量事件进行编码得到;
根据所述目标向量,在所述存量事件库中进行向量检索,得到向量表征池,所述向量表征池中包括与所述目标向量对应的所有目标存量向量;
获取与所述目标存量向量对应的目标存量事件,将所述目标存量事件作为所述目标事件对应的候选事件,所有所述候选事件形成候选事件池;
其中,所述目标事件和所述存量事件均是由上游的事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成。
将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系,包括:
将每个所述事件对中的目标事件和候选事件进行文本拼接,得到各个事件对拼接文本;
将每个所述事件对拼接文本输入预先训练的精筛模型,编码得到事件对的拼接向量;
对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系。
对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系之后,还包括:
若所述目标事件与所述候选事件之间满足共指关系,则将所述目标事件与所述候选事件聚集为事件簇。
对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系之后,还包括:
若所述目标事件与所述候选事件之间不满足共指关系,则将所述目标事件以及与所述目标事件对应的目标向量加入到所述存量事件库中,所述目标事件作为新的存量事件,所述目标向量作为新的存量向量。
所述粗筛模型的训练步骤包括:
获取第一训练集,利用自监督学习及对比学习训练初始粗筛模型,得到已训练的粗筛模型。
所述获取第一训练集,利用自监督学习及对比学习训练初始粗筛模型,得到已训练的粗筛模型,包括:
获取第一训练集,所述第一训练集中包括第一训练事件;
将经遮盖字符处理的第一训练事件输入初始粗筛模型中,进行遮盖字符的预测,计算交叉熵损失;
将构造为三元组的第一训练事件输入初始粗筛模型,利用Triplet损失函数进行对比学习训练,计算Triplet损失;
将所述交叉熵损失与所述Triplet损失之和作为最终损失,当所述最终损失达到平稳,训练完成,得到已训练的粗筛模型。
所述第一训练事件的事件文本表示为事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成。
所述精筛模型的训练步骤包括:
获取第二训练集,所述第二训练集中包括第二训练事件;
将所述第二训练事件输入已训练的粗筛模型,编码后得到所述第二训练事件对应的第二训练向量;
根据所述第二训练向量在预先建立的存量训练事件池中进行向量检索,所述存量训练事件池中包括:存量训练事件,以及与所述存量训练事件对应的存量训练向量,所述存量训练向量是利用已训练的粗筛模型对所述存量训练事件进行编码得到;
经向量检索后得到训练向量表征池,所述训练向量表征池中包括与所述第二训练向量对应的所有目标存量训练向量;
根据各个所述目标存量训练向量得到对应的目标存量训练事件,将所述目标存量训练事件作为所述第二训练事件对应的训练候选事件,所有所述训练候选事件形成训练候选事件池;
构造所述第二训练事件与各个训练候选事件之间的训练事件对;
将经人工标注处理后的所述训练事件对输入初始精筛模型,对所述初始精筛模型进行训练;
训练完成,得到已训练的精筛模型。
所述存量训练事件的事件文本表示为上游的事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成,所述第二训练集中的第二训练事件是在所述存量训练事件池中随机抽取得来。
将所述第二训练事件输入已训练的粗筛模型,编码后得到所述第二训练事件对应的第二训练向量之前,还包括:
预先在所述第二训练事件的事件文本表示中加入对应的原始文本、原始文本的前后字符,以及指示各要素的特殊字符,所述特殊字符的嵌入为随机初始化得来。
对所述训练事件对进行人工标注的步骤包括:
根据所述训练事件对中第二训练事件的元数据和训练候选事件的元数据,构造所述训练事件对的元数据特征;
根据所述元数据特征标注所述第二训练事件与所述训练候选事件之间的共指关系;
所述元数据特征包括:所述训练事件对的发表时间差,所述训练事件对是否来自同一篇文章,及所述第二训练事件与所述训练候选事件的发表平台。
所述将经人工标注处理后的所述训练事件对输入初始精筛模型,对所述初始精筛模型进行训练,包括:
将经人工标注处理后的所述训练事件对构造为事件对拼接训练文本;
将所述事件对拼接训练文本输入到初始精筛模型中,编码后得到所述训练事件对的拼接训练向量;
取出所述拼接训练向量中[CLS]字符对应的隐向量,对取出隐向量后的拼接训练向量进行分类。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序能够被执行以用于实现如上所述的事件共指消解方法的步骤。
综上所述,本发明公开的事件共指消解方法、装置、终端及计算机可读存储介质,所述事件共指消解方法包括:将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。本发明通过使用预先训练的粗筛模型进行检索,将原来的存量事件库缩小为候选事件池,降低了推理时的计算量,再通过预先训练的精筛模型,减少了上游模型误差的传播,提升了推理效果。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (16)

1.一种事件共指消解方法,其特征在于,包括:
将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;
构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;
将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。
2.根据权利要求1所述的事件共指消解方法,其特征在于,所述将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池,包括:
将目标事件输入预先训练的粗筛模型,对所述目标事件进行编码,得到所述目标事件对应的目标向量;
获取预先建立的存量事件库,所述存量事件库中包括存量事件及与所述存量事件对应的存量向量,所述存量向量是利用预先训练的粗筛模型对所述存量事件进行编码得到;
根据所述目标向量,在所述存量事件库中进行向量检索,得到向量表征池,所述向量表征池中包括与所述目标向量对应的所有目标存量向量;
获取与所述目标存量向量对应的目标存量事件,将所述目标存量事件作为所述目标事件对应的候选事件,所有所述候选事件形成候选事件池;
其中,所述目标事件和所述存量事件均是由上游的事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成。
3.根据权利要求2所述的事件共指消解方法,其特征在于,将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系,包括:
将每个所述事件对中的目标事件和候选事件进行文本拼接,得到各个事件对拼接文本;
将每个所述事件对拼接文本输入预先训练的精筛模型,编码得到事件对的拼接向量;
对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系。
4.根据权利要求3所述的事件共指消解方法,其特征在于,对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系之后,还包括:
若所述目标事件与所述候选事件之间满足共指关系,则将所述目标事件与所述候选事件聚集为事件簇。
5.根据权利要求3所述的事件共指消解方法,其特征在于,对所述拼接向量进行分类处理,得到概率评分结果,根据所述概率评分结果确定所述目标事件与所有所述候选事件之间的共指关系之后,还包括:
若所述目标事件与所述候选事件之间不满足共指关系,则将所述目标事件以及与所述目标事件对应的目标向量加入到所述存量事件库中,所述目标事件作为新的存量事件,所述目标向量作为新的存量向量。
6.根据权利要求1所述的事件共指消解方法,其特征在于,所述粗筛模型的训练步骤包括:
获取第一训练集,利用自监督学习及对比学习训练初始粗筛模型,得到已训练的粗筛模型。
7.根据权利要求6所述的事件共指消解方法,其特征在于,所述获取第一训练集,利用自监督学习及对比学习训练初始粗筛模型,得到已训练的粗筛模型,包括:
获取第一训练集,所述第一训练集中包括第一训练事件;
将经遮盖字符处理的第一训练事件输入初始粗筛模型中,进行遮盖字符的预测,计算交叉熵损失;
将构造为三元组的第一训练事件输入初始粗筛模型,利用Triplet损失函数进行对比学习训练,计算Triplet损失;
将所述交叉熵损失与所述Triplet损失之和作为最终损失,当所述最终损失达到平稳,训练完成,得到已训练的粗筛模型。
8.根据权利要求6所述的事件共指消解方法,其特征在于,所述第一训练事件的事件文本表示为事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成。
9.根据权利要求6所述的事件共指消解方法,其特征在于,所述精筛模型的训练步骤包括:
获取第二训练集,所述第二训练集中包括第二训练事件;
将所述第二训练事件输入已训练的粗筛模型,编码后得到所述第二训练事件对应的第二训练向量;
根据所述第二训练向量在预先建立的存量训练事件池中进行向量检索,所述存量训练事件池中包括:存量训练事件,以及与所述存量训练事件对应的存量训练向量,所述存量训练向量是利用已训练的粗筛模型对所述存量训练事件进行编码得到;
经向量检索后得到训练向量表征池,所述训练向量表征池中包括与所述第二训练向量对应的所有目标存量训练向量;
根据各个所述目标存量训练向量得到对应的目标存量训练事件,将所述目标存量训练事件作为所述第二训练事件对应的训练候选事件,所有所述训练候选事件形成训练候选事件池;
构造所述第二训练事件与各个训练候选事件之间的训练事件对;
将经人工标注处理后的所述训练事件对输入初始精筛模型,对所述初始精筛模型进行训练;
训练完成,得到已训练的精筛模型。
10.根据权利要求9所述的事件共指消解方法,其特征在于,所述存量训练事件的事件文本表示为上游的事件抽取模型抽取得到事件信息后,将所述事件信息拼接而成,所述第二训练集中的第二训练事件是在所述存量训练事件池中随机抽取得来。
11.根据权利要求10所述的事件共指消解方法,其特征在于,将所述第二训练事件输入已训练的粗筛模型,编码后得到所述第二训练事件对应的第二训练向量之前,还包括:
预先在所述第二训练事件的事件文本表示中加入对应的原始文本、原始文本的前后字符,以及指示各要素的特殊字符,所述特殊字符的嵌入为随机初始化得来。
12.根据权利要求9所述的事件共指消解方法,其特征在于,对所述训练事件对进行人工标注的步骤包括:
根据所述训练事件对中第二训练事件的元数据和训练候选事件的元数据,构造所述训练事件对的元数据特征;
根据所述元数据特征标注所述第二训练事件与所述训练候选事件之间的共指关系;
所述元数据特征包括:所述训练事件对的发表时间差,所述训练事件对是否来自同一篇文章,及所述第二训练事件与所述训练候选事件的发表平台。
13.根据权利要求9所述的事件共指消解方法,其特征在于,所述将经人工标注处理后的所述训练事件对输入初始精筛模型,对所述初始精筛模型进行训练,包括:
将经人工标注处理后的所述训练事件对构造为事件对拼接训练文本;
将所述事件对拼接训练文本输入到初始精筛模型中,编码后得到所述训练事件对的拼接训练向量;
取出所述拼接训练向量中[CLS]字符对应的隐向量,对取出隐向量后的拼接训练向量进行分类。
14.一种事件共指消解装置,其特征在于,包括:
检索模块,用于将目标事件输入预先训练的粗筛模型,在预先建立的存量事件库中检索得到与所述目标事件对应的候选事件池;
构造模块,用于构造所述目标事件与所述候选事件池中各个候选事件之间的事件对;
确定模块,用于将各个所述事件对输入预先训练的精筛模型,确定各个所述事件对中目标事件与候选事件之间的共指关系。
15.一种终端,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的事件共指消解程序,所述事件共指消解程序被所述处理器执行时实现如权利要求1~13任意一项所述的事件共指消解方法的步骤。
16.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序能够被执行以用于实现如权利要求1~13任意一项所述的事件共指消解方法的步骤。
CN202211088370.6A 2022-09-07 2022-09-07 事件共指消解方法、装置、终端及计算机可读存储介质 Active CN115186820B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211088370.6A CN115186820B (zh) 2022-09-07 2022-09-07 事件共指消解方法、装置、终端及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211088370.6A CN115186820B (zh) 2022-09-07 2022-09-07 事件共指消解方法、装置、终端及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN115186820A true CN115186820A (zh) 2022-10-14
CN115186820B CN115186820B (zh) 2023-01-10

Family

ID=83523620

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211088370.6A Active CN115186820B (zh) 2022-09-07 2022-09-07 事件共指消解方法、装置、终端及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN115186820B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2664997A2 (en) * 2012-05-18 2013-11-20 Xerox Corporation System and method for resolving named entity coreference
CN106897364A (zh) * 2017-01-12 2017-06-27 上海大学 基于事件的中文指代语料库构建方法
CN111145052A (zh) * 2019-12-26 2020-05-12 北京法意科技有限公司 司法文书的结构化分析方法及系统
CN111611361A (zh) * 2020-04-01 2020-09-01 西南电子技术研究所(中国电子科技集团公司第十研究所) 抽取式机器智能阅读理解问答系统
CN111950269A (zh) * 2020-08-21 2020-11-17 清华大学 文本语句处理方法、装置、计算机设备和存储介质
CN111967258A (zh) * 2020-07-13 2020-11-20 中国科学院计算技术研究所 一种构建共指消解模型的方法、共指消解的方法和介质
US20210034701A1 (en) * 2019-07-30 2021-02-04 Baidu Usa Llc Coreference-aware representation learning for neural named entity recognition
CN113312916A (zh) * 2021-05-28 2021-08-27 北京航空航天大学 基于触发词语态学习的金融文本事件抽取方法及装置
CN113704476A (zh) * 2021-09-02 2021-11-26 中科雨辰科技有限公司 目标事件抽取数据处理系统
CN114255447A (zh) * 2022-01-17 2022-03-29 中国人民解放军国防科技大学 一种无监督的端到端视频异常事件数据识别方法和装置
CN114297394A (zh) * 2022-03-11 2022-04-08 中国科学院自动化研究所 对文本中的事件论元进行抽取的方法和电子设备
CN114548113A (zh) * 2022-02-23 2022-05-27 上海钧正网络科技有限公司 基于事件的指代消解系统、方法、终端及存储介质
CN114757189A (zh) * 2022-06-13 2022-07-15 粤港澳大湾区数字经济研究院(福田) 事件抽取方法、装置、智能终端及存储介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2664997A2 (en) * 2012-05-18 2013-11-20 Xerox Corporation System and method for resolving named entity coreference
CN106897364A (zh) * 2017-01-12 2017-06-27 上海大学 基于事件的中文指代语料库构建方法
US20210034701A1 (en) * 2019-07-30 2021-02-04 Baidu Usa Llc Coreference-aware representation learning for neural named entity recognition
CN111145052A (zh) * 2019-12-26 2020-05-12 北京法意科技有限公司 司法文书的结构化分析方法及系统
CN111611361A (zh) * 2020-04-01 2020-09-01 西南电子技术研究所(中国电子科技集团公司第十研究所) 抽取式机器智能阅读理解问答系统
CN111967258A (zh) * 2020-07-13 2020-11-20 中国科学院计算技术研究所 一种构建共指消解模型的方法、共指消解的方法和介质
CN111950269A (zh) * 2020-08-21 2020-11-17 清华大学 文本语句处理方法、装置、计算机设备和存储介质
CN113312916A (zh) * 2021-05-28 2021-08-27 北京航空航天大学 基于触发词语态学习的金融文本事件抽取方法及装置
CN113704476A (zh) * 2021-09-02 2021-11-26 中科雨辰科技有限公司 目标事件抽取数据处理系统
CN114255447A (zh) * 2022-01-17 2022-03-29 中国人民解放军国防科技大学 一种无监督的端到端视频异常事件数据识别方法和装置
CN114548113A (zh) * 2022-02-23 2022-05-27 上海钧正网络科技有限公司 基于事件的指代消解系统、方法、终端及存储介质
CN114297394A (zh) * 2022-03-11 2022-04-08 中国科学院自动化研究所 对文本中的事件论元进行抽取的方法和电子设备
CN114757189A (zh) * 2022-06-13 2022-07-15 粤港澳大湾区数字经济研究院(福田) 事件抽取方法、装置、智能终端及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KENTON LEE等: "《Higher-order Coreference Resolution with Coarse-to-fine Inference》", 《NORTH AMERICAN CHAPTER OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》 *
刘巍 等: "《知识图谱技术研究》", 《指挥控制与仿真》 *
马毅 等: "《论智能起源中的简约与自洽原则》", 《FRONTIERS OF INFORMATION TECHNOLOGY & ELECTRONIC ENGINEERING》 *

Also Published As

Publication number Publication date
CN115186820B (zh) 2023-01-10

Similar Documents

Publication Publication Date Title
CN108804530B (zh) 对图像的区域加字幕
US20200004815A1 (en) Text entity detection and recognition from images
CN111159485A (zh) 尾实体链接方法、装置、服务器及存储介质
CN112613293B (zh) 摘要生成方法、装置、电子设备及存储介质
CN110678882A (zh) 使用机器学习从电子文档选择回答跨距
CN111105013A (zh) 对抗网络架构的优化方法、图像描述生成方法和系统
CN113627151B (zh) 跨模态数据的匹配方法、装置、设备及介质
EP4191544A1 (en) Method and apparatus for recognizing token, electronic device and storage medium
CN115862040A (zh) 文本纠错方法、装置、计算机设备及可读存储介质
CN116956920A (zh) 一种多任务协同表征的多模态命名实体识别方法
CN114548274A (zh) 一种基于多模态交互的谣言检测方法及系统
CN109614481A (zh) 对象识别方法、装置、电子设备及计算机可读存储介质
CN116258147A (zh) 一种基于异构图卷积的多模态评论情感分析方法及系统
CN115408488A (zh) 用于小说场景文本的分割方法及系统
CN113095072A (zh) 文本处理方法及装置
CN111008624A (zh) 光学字符识别方法和产生光学字符识别的训练样本的方法
CN116070164A (zh) Bim模型构件识别方法、装置、计算机设备和存储介质
Wang et al. Better constraints of imperceptibility, better adversarial examples in the text
CN117253239A (zh) 融合版面信息的端到端文档图像翻译方法及装置
CN115186820B (zh) 事件共指消解方法、装置、终端及计算机可读存储介质
CN117216709A (zh) 基于clip引导的多尺度多模态虚假信息检测方法、装置、电子设备及存储介质
CN111061924A (zh) 词组提取方法、装置、设备和存储介质
CN113095066A (zh) 文本处理方法及装置
CN116304014A (zh) 训练实体类型识别模型的方法、实体类型识别方法及装置
CN114444609B (zh) 数据处理方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant