CN116341519A - 基于背景知识的事件因果关系抽取方法、装置及存储介质 - Google Patents
基于背景知识的事件因果关系抽取方法、装置及存储介质 Download PDFInfo
- Publication number
- CN116341519A CN116341519A CN202310259295.3A CN202310259295A CN116341519A CN 116341519 A CN116341519 A CN 116341519A CN 202310259295 A CN202310259295 A CN 202310259295A CN 116341519 A CN116341519 A CN 116341519A
- Authority
- CN
- China
- Prior art keywords
- event
- word
- sentence
- representation
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001364 causal effect Effects 0.000 title claims abstract description 77
- 238000000605 extraction Methods 0.000 title claims abstract description 38
- 239000013598 vector Substances 0.000 claims abstract description 73
- 238000000034 method Methods 0.000 claims abstract description 19
- 238000003062 neural network model Methods 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 8
- 238000012216 screening Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 230000002457 bidirectional effect Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/268—Morphological analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种基于背景知识的事件因果关系抽取方法、装置及存储介质,步骤如下:对输入的句子预处理,得到表示事件的词语;对知识图谱中邻居知识节点进行筛选,保留与事件因果关系抽取任务相关的节点;基于相关邻居节点对事件的背景知识表示进行编码,构建事件的背景知识表示向量;将句子输入预训练语言模型,得到词语的词向量表示,并将其与背景知识表示向量进行融合;将融合后的向量输入神经网络模型,为句子中的词语分配因果语义角色标签,实现事件因果关系的抽取。本发明能够抽取文本蕴含的隐式事件因果关系,快速发现事件之间的因果关联,将复杂的法律文本内容通过事件间的因果关系进行简化表示,为司法行业从业者提供便利。
Description
技术领域
本发明涉及自然语言处理与深度学习技术领域,尤其是涉及一种基于事件背景知识的司法案件事件因果关系抽取方法。
背景技术
随着人工智能技术的快速发展,其被应用在越来越多的领域及场景之中,而智慧法律也成为了当前的一个热门研究课题。在一个司法案件文本中,往往包含大量的事件因果关系。通过抽取事件间的因果关系,不仅能够将复杂的法律文本利用事件间的因果关联进行简化,而且还能够协助相关人员根据事件间的因果关系对案件的关键信息作出判断,从而更好的理解案件的发展过程。
目前,对事件因果关系抽取的方法可以大致分为基于模式匹配的方法和基于机器学习的方法。基于模式匹配的方法通过对文本进行分析归纳,构造常见的句法模板对事件之间的因果关系进行抽取。虽然这类方法在面向特定领域的任务中取得了较好的效果,但是这类方法所构造出的句法模板无法覆盖所有可能的句法结构,并且难以推广至其他领域,适用性较低。虽然目前基于机器学习的方法取得了较为良好的效果,但是这些方法往往仅在识别显式的事件因果关系上表现较好,当文本中缺少“因为”、“导致”等表示因果关联的词语时,模型难以像人类一样基于事件间的背景知识推理出事件间潜藏的隐式事件因果关系。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于事件背景知识的司法案件事件因果关系抽取方法。
本发明的目的可以通过以下技术方案来实现:
作为本发明的第一方面,提供一种基于背景知识的事件因果关系抽取方法,具体包括以下步骤:
输入句子,对句子进行预处理,得到句子中表示事件的词语;
对知识图谱中与事件相关联的邻居知识节点进行筛选,保留与事件因果关系抽取任务相关的邻居节点;
基于相关邻居节点对事件的背景知识表示进行编码,构建事件的背景知识表示向量;
将句子输入预训练语言模型,得到句子中词语的词向量表示,将词向量表示与背景知识表示向量进行融合;
将融合后的语义信息增强向量输入下游神经网络模型,为句子中的每个词语分配相应的因果语义角色标签,实现事件因果关系的抽取。
进一步的,所述对句子进行预处理,得到其中表示事件的词语,具体步骤包括:
基于专家知识构建面向司法领域的停用词表;
使用分词工具包对输入句子进行分词处理,得到分词后句子S的词语集合W;
对句子中的词语进行词性分析,得到词性集合POS;
结合构建的停用词表与词语的词性对词语集合W中的词语进行过滤,选择其中能够表示事件的词语集合E。
进一步的,所述对知识图谱中与事件相关联的邻居知识节点进行筛选,保留与事件因果关系抽取任务相关的邻居节点的具体步骤包括:
对于事件词语集合E={e1,e2,...,em}中的事件ei,在知识图谱中检索与事件ei相关联的邻居节点;
基于节点间的关系对邻居节点进行过滤,仅保留与事件节点之间具有事件因果关系抽取任务相关关系的邻居节点;
按照知识图谱中节点间的关联强度保留与事件ei相关性最高的前n个邻居节点{N1,N2,N3,...Nn}与其对应的关联权重{W1,W2,W3,...Wn}。
进一步的,所述基于相关邻居节点对事件的背景知识表示进行编码,构建事件的背景知识表示向量的具体步骤包括:
对于事件ei的邻居节点Nj,计算该节点在事件ei的背景知识表示中的权重占比αj;
从知识图谱的词向量表中获取邻居节点Nj对应的词向量表示vj;
基于得到的权重占比αj与词向量表示vj,计算节点Nj在背景知识编码任务中的知识表示kj;
重复上述步骤,获得事件ei所有邻居节点的知识表示集合K;
进一步的,所述将句子输入预训练语言模型,得到句子中词语的词向量表示,将词向量表示与背景知识表示向量进行融合的具体步骤包括:
进一步的,所述将融合后的语义信息增强向量输入下游神经网络模型,为句子中的每个词语分配相应的因果语义角色标签,实现事件因果关系的抽取的具体步骤包括:
对得到的句中每个词语对应的语义信息增强向量进行拼接整合,形成整个句子的特征向量矩阵;
将得到的句子特征向量矩阵作为下层双向长短时记忆神经网络模型的输入,获取基于句子上下文特征的语义向量矩阵;
将获得的语义向量矩阵作为下游条件随机场模型的输入,通过条件随机场模型对句子中每个词语对应的因果语义角色标签序列进行打分,获得给定输入序列的全局最优标签链;
为句子中的每个词语选择得分最高的因果语义角色标签,输出句子以及其中每个词语对应的因果语义角色标签,完成事件因果关系抽取任务。
进一步的,所述因果语义角色标签分为原因、结果以及其他。
作为本发明的第二方面,提供一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上任一项所述的事件因果关系抽取方法。
作为本发明的第三方面,提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上任一项所述的事件因果关系抽取方法的步骤。
与现有技术相比,本发明具有以下有益效果:
本发明提出一种基于事件背景知识的司法案件事件因果关系抽取方法。首先从句子中获得表示事件的词语;对于每个事件词语,在知识图谱中获取与其相关联的邻居知识节点并进行筛选;保留与事件因果关系抽取任务相关程度最高的前n个邻居节点,基于相关节点对该事件的背景知识表示进行编码;并将词语的背景知识表示向量与从预训练语言模型中获得的词向量相融合,得到词语的语义信息增强向量;在此基础上,结合双向长短时记忆神经网络与条件随机场获得句子中每个词语的因果语义角色标签,实现事件因果关系的抽取。有助于在文本中缺少显式因果关联词的情况下,对其中蕴含的隐式事件因果关系进行抽取,快速发现事件之间的因果关联,将复杂的法律文本内容通过事件间的因果关系进行简化表示,为司法行业的相关从业者提供便利。
附图说明
图1是本发明的一种基于事件背景知识的司法案件事件因果关系抽取方法的流程示意图;
图2是对句子中的事件进行背景知识编码的示意图;
图3是司法案件事件因果关系抽取整体模型结构;
图4为本发明提供的示例性实施例示出的电子设备的示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例一
如图1所示,为本发明的基于事件背景知识的司法案件事件因果关系抽取方法的流程示意图,具体包括以下步骤:
步骤A:对输入的句子进行预处理,得到其中表示事件的词语;
步骤A的具体步骤如下:
步骤A1:基于专家知识构建面向司法领域的停用词表;
步骤A2:使用开源中文分词工具包对输入句子进行分词处理,得到分词后句子S的词语集合W={w1,w2,...,wk};
其中,wj表示分词后词语集合中的第j个词语;
步骤A3:对句子中的词语进行词性分析,得到词性集合POS={pos1,pos2,...,posk};
其中,posi表示词语集合中第i个词语所对应的词性;
步骤A4:结合步骤A1中构建的停用词表与词语的词性对词语集合W中的词语进行过滤,选择其中能够表示事件的词语集合E={e1,e2,...,em};
其中,ei表示句子中的第i个事件词语。
步骤B:对知识图谱中与事件相关联的邻居知识节点进行筛选,保留与事件因果关系抽取任务相关的节点;
步骤B的具体步骤如下:
步骤B1:对于事件词语集合E={e1,e2,...,em}中的事件ei,在知识图谱中检索与其相关联的邻居节点;
步骤B2:基于节点间的关系对邻居节点进行过滤,仅保留与事件节点之间具有“造成”、“导致”等事件因果关系抽取任务相关关系的邻居节点;
步骤B3:按照知识图谱中节点间的关联强度保留与事件ei相关性最高的前n个邻居节点{N1,N2,N3,...Nn}与其对应的关联权重{W1,W2,W3,...Wn}。
步骤C:基于相关邻居节点对事件的背景知识表示进行编码,构建事件的背景知识表示向量;
步骤C的具体步骤如下:
步骤C1:对于事件ei的邻居节点Nj,计算该节点在事件ei的背景知识表示中的权重占比αj;
其中,计算权重占比αj的公式为:
Wj表示当前邻居节点Nj与事件ei在知识图谱中的关联权重;
步骤C2:从知识图谱的词向量表中获取邻居节点Nj对应的词向量表示vj;
步骤C3:基于步骤C1中得到的权重占比αj与步骤C2中得到的词向量表示vj,计算节点Nj在背景知识编码任务中的知识表示kj;
其中,计算知识表示kj的公式为:
kj=αjvj
步骤C4:重复步骤C1-C3,获得事件ei所有邻居节点的知识表示集合K={k1,k2,k3,…kn};
步骤D:将句子输入预训练语言模型,得到句子中词语的词向量表示,并将其与背景知识表示向量进行融合;
步骤D的具体步骤如下:
其中,下标i表示这是句子中的第i个词语;
融合,得到词语的语义信息增强向量表示Fi;
步骤E:将融合后的语义信息增强向量输入下游神经网络模型,为句子中的每个词语分配相应的因果语义角色标签,实现事件因果关系的抽取;
步骤E的具体步骤如下:
步骤E1:对步骤D中得到的句中每个词语对应的语义信息增强向量进行拼接整合,形成整个句子的特征向量矩阵;
步骤E2:将步骤E1中得到的句子特征向量矩阵作为下层双向长短时记忆神经网络模型的输入,获取基于句子上下文特征的语义向量矩阵;
步骤E3:将步骤E2中获得的语义向量矩阵作为下游条件随机场模型的输入,通过条件随机场模型对句子中每个词语可能对应的因果语义角色标签序列进行打分,获得给定输入序列的全局最优标签链;
步骤E4:特别地,我们将因果语义角色标签分为“原因”、“结果”以及“其他”;
步骤E5:为句子中的每个词语选择得分最高的因果语义角色标签,输出句子以及其中每个词语对应的因果语义角色标签,完成事件因果关系抽取任务。
综上所述,本发明通过知识图谱对句子中包含的事件进行背景知识编码,为事件词语添加背景知识表示特征,并结合预训练语言模型得到词语的语义信息增强向量表示。在此基础之上,利用双向长短时记忆神经网络与条件随机场为句子中的词语分配因果语义角色标签,对司法案件文本句子中的事件因果关系进行抽取。有助于在文本中缺少显式因果关联词的情况下,对其中蕴含的隐式事件因果关系进行抽取,快速发现事件之间的因果关联,将复杂的法律文本内容通过事件间的因果关系进行简化表示,为司法行业的相关从业者提供便利。
实施例2
作为本发明的第二方面,本申请还提供一种电子设备,包括:一个或多个处理器11;存储器12,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器11执行,使得所述一个或多个处理器11实现如上述基于事件背景知识的司法案件事件因果关系抽取方法。如图4所示,为本发明实施例提供的事件因果关系抽取方法所在任意具备数据处理能力的设备的一种硬件结构图,除了图3所示的处理器11、存储器12以及接口13之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
实施例3
作为本发明的第三方面,本申请还提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如上述事件因果关系抽取方法。所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是外部存储设备,例如所述设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、SD卡、闪存卡(Flash Card)等。进一步的,所述计算机可读存储介还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储已经输出或者将要输出的数据。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (10)
1.一种基于背景知识的事件因果关系抽取方法,其特征在于,具体包括以下步骤:
输入句子,对句子进行预处理,得到句子中表示事件的词语;
对知识图谱中与事件相关联的邻居知识节点进行筛选,保留与事件因果关系抽取任务相关的邻居节点;
基于相关邻居节点对事件的背景知识表示进行编码,构建事件的背景知识表示向量;
将句子输入预训练语言模型,得到句子中词语的词向量表示,将词向量表示与背景知识表示向量进行融合;
将融合后的语义信息增强向量输入下游神经网络模型,为句子中的每个词语分配相应的因果语义角色标签,实现事件因果关系的抽取。
2.根据权利要求1所述的一种基于背景知识的事件因果关系抽取方法,其特征在于,所述对句子进行预处理,得到其中表示事件的词语,具体步骤包括:
基于专家知识构建面向司法领域的停用词表;
使用分词工具包对输入句子进行分词处理,得到分词后句子S的词语集合W;
对句子中的词语进行词性分析,得到词性集合POS;
结合构建的停用词表与词语的词性对词语集合W中的词语进行过滤,选择其中能够表示事件的词语集合E。
3.根据权利要求1所述的一种基于背景知识的事件因果关系抽取方法,其特征在于,所述对知识图谱中与事件相关联的邻居知识节点进行筛选,保留与事件因果关系抽取任务相关的邻居节点的具体步骤包括:
对于事件词语集合E={e1,e2,…,em}中的事件ei,在知识图谱中检索与事件ei相关联的邻居节点;
基于节点间的关系对邻居节点进行过滤,仅保留与事件节点之间具有事件因果关系抽取任务相关关系的邻居节点;
按照知识图谱中节点间的关联强度保留与事件ei相关性最高的前n个邻居节点{N1,N2,N3,…Nn}与其对应的关联权重{W1,W2,W3,…Wn}。
7.根据权利要求1所述的一种基于背景知识的事件因果关系抽取方法,其特征在于,所述将融合后的语义信息增强向量输入下游神经网络模型,为句子中的每个词语分配相应的因果语义角色标签,实现事件因果关系的抽取的具体步骤包括:
对得到的句中每个词语对应的语义信息增强向量进行拼接整合,形成整个句子的特征向量矩阵;
将得到的句子特征向量矩阵作为下层双向长短时记忆神经网络模型的输入,获取基于句子上下文特征的语义向量矩阵;
将获得的语义向量矩阵作为下游条件随机场模型的输入,通过条件随机场模型对句子中每个词语对应的因果语义角色标签序列进行打分,获得给定输入序列的全局最优标签链;
为句子中的每个词语选择得分最高的因果语义角色标签,输出句子以及其中每个词语对应的因果语义角色标签,完成事件因果关系抽取任务。
8.根据权利要求7所述的一种基于背景知识的事件因果关系抽取方法,其特征在于,所述因果语义角色标签分为原因、结果以及其他。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8任一项所述的事件因果关系抽取方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-8任一项所述的事件因果关系抽取方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310259295.3A CN116341519A (zh) | 2023-03-16 | 2023-03-16 | 基于背景知识的事件因果关系抽取方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310259295.3A CN116341519A (zh) | 2023-03-16 | 2023-03-16 | 基于背景知识的事件因果关系抽取方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116341519A true CN116341519A (zh) | 2023-06-27 |
Family
ID=86881705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310259295.3A Pending CN116341519A (zh) | 2023-03-16 | 2023-03-16 | 基于背景知识的事件因果关系抽取方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116341519A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117557946A (zh) * | 2024-01-10 | 2024-02-13 | 中国科学技术大学 | 视频事件描述与归因生成方法、系统、设备及存储介质 |
CN118069789A (zh) * | 2024-04-18 | 2024-05-24 | 北京北大软件工程股份有限公司 | 一种面向立法意见的关键信息抽取方法、系统及设备 |
-
2023
- 2023-03-16 CN CN202310259295.3A patent/CN116341519A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117557946A (zh) * | 2024-01-10 | 2024-02-13 | 中国科学技术大学 | 视频事件描述与归因生成方法、系统、设备及存储介质 |
CN117557946B (zh) * | 2024-01-10 | 2024-05-17 | 中国科学技术大学 | 视频事件描述与归因生成方法、系统、设备及存储介质 |
CN118069789A (zh) * | 2024-04-18 | 2024-05-24 | 北京北大软件工程股份有限公司 | 一种面向立法意见的关键信息抽取方法、系统及设备 |
CN118069789B (zh) * | 2024-04-18 | 2024-07-23 | 北京北大软件工程股份有限公司 | 一种面向立法意见的关键信息抽取方法、系统及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111738004A (zh) | 一种命名实体识别模型的训练方法及命名实体识别的方法 | |
CN111462752B (zh) | 基于注意力机制、特征嵌入及bi-lstm的客户意图识别方法 | |
CN116341519A (zh) | 基于背景知识的事件因果关系抽取方法、装置及存储介质 | |
Zhao et al. | ZYJ123@ DravidianLangTech-EACL2021: Offensive language identification based on XLM-RoBERTa with DPCNN | |
CN115048944B (zh) | 一种基于主题增强的开放域对话回复方法及系统 | |
Mohamad Nezami et al. | Face-cap: Image captioning using facial expression analysis | |
CN111145914B (zh) | 一种确定肺癌临床病种库文本实体的方法及装置 | |
CN111881292B (zh) | 一种文本分类方法及装置 | |
CN117236338B (zh) | 一种稠密实体文本的命名实体识别模型及其训练方法 | |
CN112541337A (zh) | 一种基于递归神经网络语言模型的文档模板自动生成方法及系统 | |
CN113918710A (zh) | 文本数据处理方法、装置、电子设备和可读存储介质 | |
CN117251524A (zh) | 一种基于多策略融合的短文本分类方法 | |
CN116258147A (zh) | 一种基于异构图卷积的多模态评论情感分析方法及系统 | |
CN114817564A (zh) | 一种属性抽取方法、装置及存储介质 | |
Zhang et al. | Distinctive image captioning via clip guided group optimization | |
CN114330483A (zh) | 数据处理方法及模型训练方法、装置、设备、存储介质 | |
CN113705207A (zh) | 语法错误识别方法及装置 | |
CN116910251A (zh) | 基于bert模型的文本分类方法、装置、设备及介质 | |
Yin | Fuzzy information recognition and translation processing in English interpretation based on a generalized maximum likelihood ratio algorithm | |
CN116186241A (zh) | 基于语义学分析与提示学习的事件要素抽取方法、装置、电子设备及存储介质 | |
CN114881038A (zh) | 基于跨度和注意力机制的中文实体与关系抽取方法及装置 | |
CN114637852A (zh) | 医学文本的实体关系抽取方法、装置、设备及存储介质 | |
CN114003708A (zh) | 基于人工智能的自动问答方法、装置、存储介质及服务器 | |
Tao et al. | Improving matching models with hierarchical contextualized representations for multi-turn response selection | |
Shahid | Unsupervised Dual Modality Prompt Learning for Facial Expression Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |