CN115238701B - 基于子词级别适应器的多领域命名实体识别方法和系统 - Google Patents
基于子词级别适应器的多领域命名实体识别方法和系统 Download PDFInfo
- Publication number
- CN115238701B CN115238701B CN202211146784.XA CN202211146784A CN115238701B CN 115238701 B CN115238701 B CN 115238701B CN 202211146784 A CN202211146784 A CN 202211146784A CN 115238701 B CN115238701 B CN 115238701B
- Authority
- CN
- China
- Prior art keywords
- word
- sample data
- training
- sub
- entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 71
- 230000006870 function Effects 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 2
- 230000006978 adaptation Effects 0.000 description 7
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于子词级别适应器的多领域命名实体识别方法和系统,所述方法包括:准备训练用的样本数据集,样本数据集的多个样本数据分别来源于CrossNER中的五个领域,对CrossNER的样本数据进行遍历,统计所有多义词,并进行修改样本数据集;构建基于子词级别适应器的实体标签预测模型;分析出基于子词级别适应器的实体标签预测模型的损失函数;通过样本数据集中的样本数据对实体标签预测模型进行训练,待训练结束后,得到优化后的实体标签预测模型;获取待处理数据并将其输入优化后的实体标签预测模型,预测得到实体标签。本发明基于子词级别适应器将CrossNER中五个不同领域的数据进行微调,节省了训练时间和资源占用,解决领域之间语义冲突问题。
Description
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种基于子词级别适应器的多领域命名实体识别方法和系统。
背景技术
实际场景中在处理超长文本或海量文本时,非常需要多领域命名实体识别的方法。然而目前多领域命名实体识别仍然是一个小众任务,因为它是一个监督学习任务,同时标注多个不同领域的数据是很困难的事情。多领域命名实体识别(MDNER)任务继承了常规序列标注的难点,继承了多领域适应的难点,还有特殊的领域冲突问题。
MDNER属于序列标注的范畴,在序列标注的问题上BERT和 ERNIE以及其他语言模型已经达到了很好的效果。由于上述大语料预训练模型的效果优越,领域适应和微调(DAPT)正成为一个热门的方向。作为迁移学习的特殊案例,领域适应旨在利用庞大的源领域数据对模型进行充分训练后,去提升模型在目标领域的表现。
它们使用掩码语言模型(MLM)等和预训练相同的无监督训练方式,然后针对下游任务例如NER做全量微调。在多领域的场景下,适应器(adapter)被引入用于解决全量微调消耗大量时间和资源的问题。适应器的实现方式是通过给预训练模型增加额外的参数,为每一个领域或每一个任务初始化一个适应器,在领域适应训练和微调时,冻结预训练模型的参数,只调整适应器的参数。适应器的参数相比预训练小很多,还能够实现所有领域同时训练和推理,因此可以成倍地减少训练次数和资源占用。
现有技术中用领域来描述数据的来源网站,而我们按照语义(实体标签)来划分领域,他们并不完全相同。对于NER来说,实体标签是重要的语义信息。实体标签是人工定义的,不同领域意味着出现不同的标签定义,以至于同样的实体提及在不同领域会被定义为不同类型的实体。例如人名在文学领域被定义为作家,在科学领域被定义为科学家,即使他们的表述和上下文是相近的。与此同时,不同领域可以提供标签信息,例如政治领域的政治家标签并不存在于文学领域,如何将各个这样的信息注入模型也是一个关键。
综上所述,MDNER面临的几个问题目前还没有很好的解决方式,而且,目前还没有用一个模型经过DAPT后同时识别多个不同领域的命名实体的案例。这篇文章中,我们提出的基于子词级别适应器(TAS)来解决上述问题。
发明内容
为了解决上述至少一个技术问题,本发明提出了一种基于子词级别适应器的多领域命名实体识别方法和系统,能够基于子词级别适应器,将CrossNER中五个不同领域的数据同时进行微调,相当于进行了隐性的领域适应,同时大大节省了训练时间和资源占用;同时针对MDNER的特殊问题进行提升,解决领域之间语义冲突问题,同时不需要额外的标注数据。
本发明第一方面提出了一种基于子词级别适应器的多领域命名实体识别方法,所述方法包括:
准备训练用的样本数据集,样本数据集的多个样本数据分别来源于CrossNER中的五个领域,对CrossNER的样本数据进行遍历,统计所有多义词,并进行修改样本数据集;
构建基于子词级别适应器的实体标签预测模型;
分析出基于子词级别适应器的实体标签预测模型的损失函数;
通过样本数据集中的样本数据对实体标签预测模型进行训练,待训练结束后,得到优化后的实体标签预测模型;
获取待处理数据并将其输入优化后的实体标签预测模型,预测得到实体标签。
本方案中,修改样本数据集,具体包括:
在每个样本数据中的每一个词后增加两个标记,第一标记为该词的来源领域,记为1~5,对应CrossNER的五个领域;第二标记为该词是否为多义词,用0和1标记,0表示否定,1表示肯定。
本方案中,构建基于子词级别适应器的实体标签预测模型,具体包括:
首先加载开源的BERT-base模型;
然后为CrossNER的五个不同领域初始化不同的领域适应器,分别加载到12个注意力层上;
最后准备子词级别开关和子词级别任务适应器,子词级别开关由softmax函数构成,其负责针对输入信息是否为多义词做判断;判断为否的不传入子词级别任务适应器;判断为真的,传入对应的子词级别任务适应器。
本方案中,所述损失函数由CrossNER的交叉熵损失和子词级别开关的交叉熵损失两部分损失相加得到,损失函数的计算公式为:
本方案中,在训练过程中,将训练用的样本数据的最大句长设置为256,使用BERT-base模型的单句模式进行训练;每一个输入经过BERT-base模型的切词器转换为子词,每个子词继承整个词的实体标签标注、来源领域、是否为多义词的信息,传入输入层;用于训练的GPU为两个V100,训练的批次数据为128,训练数据迭代次数为30次;持续传入输入数据,直到训练结束。
本发明第二方面还提出一种基于子词级别适应器的多领域命名实体识别系统,包括存储器和处理器,所述存储器中包括一种基于子词级别适应器的多领域命名实体识别方法程序,所述基于子词级别适应器的多领域命名实体识别方法程序被所述处理器执行时实现如下步骤:
准备训练用的样本数据集,样本数据集的多个样本数据分别来源于CrossNER中的五个领域,对CrossNER的样本数据进行遍历,统计所有多义词,并进行修改样本数据集;
构建基于子词级别适应器的实体标签预测模型;
分析出基于子词级别适应器的实体标签预测模型的损失函数;
通过样本数据集中的样本数据对实体标签预测模型进行训练,待训练结束后,得到优化后的实体标签预测模型;
获取待处理数据并将其输入优化后的实体标签预测模型,预测得到实体标签。
本方案中,修改样本数据集,具体包括:
在每个样本数据中的每一个词后增加两个标记,第一标记为该词的来源领域,记为1~5,对应CrossNER的五个领域;第二标记为该词是否为多义词,用0和1标记,0表示否定,1表示肯定。
本方案中,构建基于子词级别适应器的实体标签预测模型,具体包括:
首先加载开源的BERT-base模型;
然后为CrossNER的五个不同领域初始化不同的领域适应器,分别加载到12个注意力层上;
最后准备子词级别开关和子词级别任务适应器,子词级别开关由softmax函数构成,其负责针对输入信息是否为多义词做判断;判断为否的不传入子词级别任务适应器;判断为真的,传入对应的子词级别任务适应器。
本方案中,所述损失函数由CrossNER的交叉熵损失和子词级别开关的交叉熵损失两部分损失相加得到,损失函数的计算公式为:
本方案中,在训练过程中,将训练用的样本数据的最大句长设置为256,使用BERT-base模型的单句模式进行训练;每一个输入经过BERT-base模型的切词器转换为子词,每个子词继承整个词的实体标签标注、来源领域、是否为多义词的信息,传入输入层;用于训练的GPU为两个V100,训练的批次数据为128,训练数据迭代次数为30次;持续传入输入数据,直到训练结束。
本发明提出的一种基于子词级别适应器的多领域命名实体识别方法和系统,能够基于子词级别适应器,将CrossNER中五个不同领域的数据同时进行微调,相当于进行了隐性的领域适应,同时大大节省了训练时间和资源占用;同时针对MDNER的特殊问题进行提升,解决领域之间语义冲突问题,同时不需要额外的标注数据。
本发明的附加方面和优点将在下面的描述部分中给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
图1示出了本发明一种基于子词级别适应器的多领域命名实体识别方法的流程图;
图2示出了本发明一种基于子词级别适应器的多领域命名实体识别系统的框图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
图1示出了本发明一种基于子词级别适应器的多领域命名实体识别方法的流程图。
如图1所示,本发明第一方面提出一种基于子词级别适应器的多领域命名实体识别方法,所述方法包括:
S102,准备训练用的样本数据集,样本数据集的多个样本数据分别来源于CrossNER中的五个领域,对CrossNER的样本数据进行遍历,统计所有多义词,并进行修改样本数据集;
S104,构建基于子词级别适应器的实体标签预测模型;
S106,分析出基于子词级别适应器的实体标签预测模型的损失函数;
S108,通过样本数据集中的样本数据对实体标签预测模型进行训练,待训练结束后,得到优化后的实体标签预测模型;
S110,获取待处理数据并将其输入优化后的实体标签预测模型,预测得到实体标签。
CrossNER为一个跨域且完全标注的NER数据集,且横跨五个不同的领域。
数据集标记。本发明采用多领域的实体识别数据集CrossNER,采用其训练集、评估集、测试集,但对数据做了额外处理,包括每个输入增加两种标记,包括每个词属于哪个领域,以及这个词是否是多义词。我们将在不同领域中有不同实体标签标注的词成为多义词,多义词被标记在训练集、评估集、测试集中。
领域适应器。本发明采用预训练的BERT-base作为基础模型,采用适应器结构对BERT进行适应,针对CrossNER的五个领域,设定了五个领域适应器。
任务适应器。在嵌入层之后,本发明设置了5个任务适应器以对应CrossNER的5个领域。此外,本发明为每一个适应器设置了一个开关(switch),开关是一个二分类层,使用softmax实现,用于判断输入的子词是否是多义词或多义词的一部分。非多义词不经过任务适应器,多义词会经过任务适应器。
在最终的损失计算时,将NER的交叉熵损失和任务适应器分类的交叉熵损失相加作为最终损失函数。
本发明通过使用BERT-base和adapters结合的方式,将CrossNER中五个不同领域的数据同时进行微调,相当于进行了隐性的领域适应,同时大大节省了训练时间和资源占用。
本发明新提出的多义词开关层结构,专门针对MDNER的特殊问题进行提升,解决领域之间语义冲突问题,同时不需要额外的标注数据。
根据本发明的实施例,修改样本数据集,具体包括:
在每个样本数据中的每一个词后增加两个标记,第一标记为该词的来源领域,记为1~5,对应CrossNER的五个领域;第二标记为该词是否为多义词,用0和1标记,0表示否定,1表示肯定。
根据本发明的实施例,构建基于子词级别适应器的实体标签预测模型,具体包括:
首先加载开源的BERT-base模型;
然后为CrossNER的五个不同领域初始化不同的领域适应器,分别加载到12个注意力层上;
最后准备子词级别开关和子词级别任务适应器,子词级别开关由softmax函数构成,其负责针对输入信息是否为多义词做判断;判断为否的不传入子词级别任务适应器;判断为真的,传入对应的子词级别任务适应器。
根据本发明的实施例,所述损失函数由CrossNER的交叉熵损失和子词级别开关的交叉熵损失两部分损失相加得到,损失函数的计算公式为:
需要说明的是,在训练过程中,将训练用的样本数据的最大句长设置为256,使用BERT-base模型的单句模式进行训练。每一个输入经过BERT-base模型的切词器转换为子词,每个子词继承整个词的实体标签标注、来源领域、是否为多义词的信息,传入输入层。用于训练的GPU为两个V100,训练的批次数据为128,训练数据迭代次数为30次。持续传入输入数据,直到训练结束。
图2示出了本发明一种基于子词级别适应器的多领域命名实体识别系统的框图。
如图2所示,本发明第二方面还提出一种基于子词级别适应器的多领域命名实体识别系统2,包括存储器21和处理器22,所述存储器中包括一种基于子词级别适应器的多领域命名实体识别方法程序,所述基于子词级别适应器的多领域命名实体识别方法程序被所述处理器执行时实现如下步骤:
准备训练用的样本数据集,样本数据集的多个样本数据分别来源于CrossNER中的五个领域,对CrossNER的样本数据进行遍历,统计所有多义词,并进行修改样本数据集;
构建基于子词级别适应器的实体标签预测模型;
分析出基于子词级别适应器的实体标签预测模型的损失函数;
通过样本数据集中的样本数据对实体标签预测模型进行训练,待训练结束后,得到优化后的实体标签预测模型;
获取待处理数据并将其输入优化后的实体标签预测模型,预测得到实体标签。
本发明提出的一种基于子词级别适应器的多领域命名实体识别方法和系统,能够基于子词级别适应器,将CrossNER中五个不同领域的数据同时进行微调,相当于进行了隐性的领域适应,同时大大节省了训练时间和资源占用;同时针对MDNER的特殊问题进行提升,解决领域之间语义冲突问题,同时不需要额外的标注数据。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (6)
1.一种基于子词级别适应器的多领域命名实体识别方法,其特征在于,所述方法包括:
准备训练用的样本数据集,样本数据集的多个样本数据分别来源于CrossNER中的五个领域,对CrossNER的样本数据进行遍历,统计所有多义词,并进行修改样本数据集;
构建基于子词级别适应器的实体标签预测模型;
分析出基于子词级别适应器的实体标签预测模型的损失函数;
通过样本数据集中的样本数据对实体标签预测模型进行训练,待训练结束后,得到优化后的实体标签预测模型;
获取待处理数据并将其输入优化后的实体标签预测模型,预测得到实体标签;
修改样本数据集,具体包括:
在每个样本数据中的每一个词后增加两个标记,第一标记为该词的来源领域,记为1~5,对应CrossNER的五个领域;第二标记为该词是否为多义词,用0和1标记,0表示否定,1表示肯定;
构建基于子词级别适应器的实体标签预测模型,具体包括:
首先加载开源的BERT-base模型;
然后为CrossNER的五个不同领域初始化不同的领域适应器,分别加载到12个注意力层上;
最后准备子词级别开关和子词级别任务适应器,子词级别开关由softmax函数构成,其负责针对输入信息是否为多义词做判断;判断为否的不传入子词级别任务适应器;判断为真的,传入对应的子词级别任务适应器。
3.根据权利要求1所述的一种基于子词级别适应器的多领域命名实体识别方法,其特征在于,在训练过程中,将训练用的样本数据的最大句长设置为256,使用BERT-base模型的单句模式进行训练;每一个输入经过BERT-base模型的切词器转换为子词,每个子词继承整个词的实体标签标注、来源领域、是否为多义词的信息,传入输入层;用于训练的GPU为两个V100,训练的批次数据为128,训练数据迭代次数为30次;持续传入输入数据,直到训练结束。
4.一种基于子词级别适应器的多领域命名实体识别系统,其特征在于,包括存储器和处理器,所述存储器中包括一种基于子词级别适应器的多领域命名实体识别方法程序,所述基于子词级别适应器的多领域命名实体识别方法程序被所述处理器执行时实现如下步骤:
准备训练用的样本数据集,样本数据集的多个样本数据分别来源于CrossNER中的五个领域,对CrossNER的样本数据进行遍历,统计所有多义词,并进行修改样本数据集;
构建基于子词级别适应器的实体标签预测模型;
分析出基于子词级别适应器的实体标签预测模型的损失函数;
通过样本数据集中的样本数据对实体标签预测模型进行训练,待训练结束后,得到优化后的实体标签预测模型;
获取待处理数据并将其输入优化后的实体标签预测模型,预测得到实体标签;
修改样本数据集,具体包括:
在每个样本数据中的每一个词后增加两个标记,第一标记为该词的来源领域,记为1~5,对应CrossNER的五个领域;第二标记为该词是否为多义词,用0和1标记,0表示否定,1表示肯定;
构建基于子词级别适应器的实体标签预测模型,具体包括:
首先加载开源的BERT-base模型;
然后为CrossNER的五个不同领域初始化不同的领域适应器,分别加载到12个注意力层上;
最后准备子词级别开关和子词级别任务适应器,子词级别开关由softmax函数构成,其负责针对输入信息是否为多义词做判断;判断为否的不传入子词级别任务适应器;判断为真的,传入对应的子词级别任务适应器。
6.根据权利要求4所述的一种基于子词级别适应器的多领域命名实体识别系统,其特征在于,在训练过程中,将训练用的样本数据的最大句长设置为256,使用BERT-base模型的单句模式进行训练;每一个输入经过BERT-base模型的切词器转换为子词,每个子词继承整个词的实体标签标注、来源领域、是否为多义词的信息,传入输入层;用于训练的GPU为两个V100,训练的批次数据为128,训练数据迭代次数为30次;持续传入输入数据,直到训练结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211146784.XA CN115238701B (zh) | 2022-09-21 | 2022-09-21 | 基于子词级别适应器的多领域命名实体识别方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211146784.XA CN115238701B (zh) | 2022-09-21 | 2022-09-21 | 基于子词级别适应器的多领域命名实体识别方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115238701A CN115238701A (zh) | 2022-10-25 |
CN115238701B true CN115238701B (zh) | 2023-01-10 |
Family
ID=83682274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211146784.XA Active CN115238701B (zh) | 2022-09-21 | 2022-09-21 | 基于子词级别适应器的多领域命名实体识别方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115238701B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116029299B (zh) * | 2023-03-30 | 2023-06-30 | 北京融信数联科技有限公司 | 一种基于多义词的命名实体识别方法、系统和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111079429B (zh) * | 2019-10-15 | 2022-03-18 | 平安科技(深圳)有限公司 | 基于意图识别模型的实体消歧方法、装置和计算机设备 |
US20210349975A1 (en) * | 2020-04-30 | 2021-11-11 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for improved cybersecurity named-entity-recognition considering semantic similarity |
CN112151183A (zh) * | 2020-09-23 | 2020-12-29 | 上海海事大学 | 一种基于Lattice LSTM模型的中文电子病历的实体识别方法 |
CN112906397B (zh) * | 2021-04-06 | 2021-11-19 | 南通大学 | 一种短文本实体消歧方法 |
CN114492470A (zh) * | 2021-12-31 | 2022-05-13 | 广州华多网络科技有限公司 | 商品标题文本翻译方法及其装置、设备、介质、产品 |
CN114757193A (zh) * | 2022-04-11 | 2022-07-15 | 浙江工业大学 | 一种基于机器阅读理解的威胁情报命名实体识别方法 |
-
2022
- 2022-09-21 CN CN202211146784.XA patent/CN115238701B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115238701A (zh) | 2022-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902145B (zh) | 一种基于注意力机制的实体关系联合抽取方法和系统 | |
CN110196980B (zh) | 一种基于卷积网络在中文分词任务上的领域迁移 | |
CN110705301B (zh) | 实体关系抽取方法及装置、存储介质、电子设备 | |
Zhang et al. | Neural networks incorporating dictionaries for Chinese word segmentation | |
Gasmi et al. | LSTM recurrent neural networks for cybersecurity named entity recognition | |
CN112115267A (zh) | 文本分类模型的训练方法、装置、设备及存储介质 | |
CN113392209B (zh) | 一种基于人工智能的文本聚类方法、相关设备及存储介质 | |
CN111832440B (zh) | 人脸特征提取模型的构建方法、计算机存储介质及设备 | |
CN112016313B (zh) | 口语化要素识别方法及装置、警情分析系统 | |
CN111522915A (zh) | 中文事件的抽取方法、装置、设备及存储介质 | |
CN111599340A (zh) | 一种多音字读音预测方法、装置及计算机可读存储介质 | |
CN116049412B (zh) | 文本分类方法、模型训练方法、装置及电子设备 | |
CN113779225B (zh) | 实体链接模型的训练方法、实体链接方法及装置 | |
CN115238701B (zh) | 基于子词级别适应器的多领域命名实体识别方法和系统 | |
CN115310443A (zh) | 模型训练方法、信息分类方法、装置、设备及存储介质 | |
Hu et al. | Cosine metric supervised deep hashing with balanced similarity | |
CN111709225B (zh) | 一种事件因果关系判别方法、装置和计算机可读存储介质 | |
CN113065349A (zh) | 基于条件随机场的命名实体识别方法 | |
CN113836295A (zh) | 一种文本摘要提取方法、系统、终端及存储介质 | |
CN116662599A (zh) | 一种基于对比学习算法的多模态商标检索方法及系统 | |
Wang et al. | Recognizing handwritten mathematical expressions as LaTex sequences using a multiscale robust neural network | |
CN117558270B (zh) | 语音识别方法、装置、关键词检测模型的训练方法和装置 | |
CN112668325B (zh) | 一种机器翻译增强方法、系统、终端及存储介质 | |
CN111581377B (zh) | 文本分类方法、装置、存储介质及计算机设备 | |
CN112732863A (zh) | 电子病历标准化切分方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A Multi domain Named Entity Recognition Method and System Based on Subword Level Adapters Granted publication date: 20230110 Pledgee: Industrial Bank Co.,Ltd. Beijing Lize Branch Pledgor: Beijing Finance Union Technology Co.,Ltd. Registration number: Y2024980025161 |