CN117371448A - 实体识别及其模型训练方法、装置、电子设备与存储介质 - Google Patents
实体识别及其模型训练方法、装置、电子设备与存储介质 Download PDFInfo
- Publication number
- CN117371448A CN117371448A CN202210770146.9A CN202210770146A CN117371448A CN 117371448 A CN117371448 A CN 117371448A CN 202210770146 A CN202210770146 A CN 202210770146A CN 117371448 A CN117371448 A CN 117371448A
- Authority
- CN
- China
- Prior art keywords
- information
- entity
- sequence
- mask
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 92
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000012545 processing Methods 0.000 claims abstract description 39
- 230000008569 process Effects 0.000 claims abstract description 20
- 230000000873 masking effect Effects 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 9
- 230000002093 peripheral effect Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 230000000694 effects Effects 0.000 description 16
- 238000002372 labelling Methods 0.000 description 10
- 238000005070 sampling Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000012217 deletion Methods 0.000 description 6
- 230000037430 deletion Effects 0.000 description 6
- 238000012423 maintenance Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请公开一种实体识别及其模型训练方法、装置、电子设备与存储介质,实体识别模型至少包括嵌入层、掩码层和输出层,实体识别模型训练方法包括至少一轮训练过程,任意一轮训练过程包括:掩码层从实体信息序列中确定并标记目标位置;其中,目标位置包括:已经存在实体的位置及部分不存在实体的位置;掩码层基于目标位置,生成与实体信息序列对应的掩码信息;嵌入层基于与实体信息序列对应的训练文本序列,生成训练文本序列对应的三维张量信息并输入至掩码层;掩码层对掩码信息和三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层;输出层基于特征交叉信息,确定实体识别模型的损失;损失用于调整实体识别模型的模型参数。
Description
技术领域
本公开涉及人工智能技术领域,更具体的,涉及一种实体识别及其模型训练方法、装置、电子设备与存储介质。
背景技术
目前,实体识别标注任务场景非常多,例如实体问答标注任务,所谓的实体问答标注任务,即为实体识别模型针对输入的语料进行实体问答并标注问答出的该实体。在实体问答标注任务中,标注缺失的问题比较突出,所谓的标注缺失,指的是在实际标注过程中,由于实体识别模型的问答语料不全,使得实体标注不全,进而导致问答标注的结果会有缺失。这些缺失的标注会继续对模型的下一次学习产生误导,导致模型学偏,影响最后模型学习的效果。
发明内容
本公开实施例的一个目的是提供一种实体识别模型训练的新的技术方案。
根据本公开的第一方面,提供了一种实体识别模型训练方法,其中,所述实体识别模型至少包括嵌入层、掩码层和输出层,所述实体识别模型训练方法包括至少一轮训练过程,任意一轮所述训练过程包括:
所述掩码层从实体信息序列中确定并标记目标位置;其中,所述目标位置包括:已经存在实体的位置及部分不存在实体的位置;
所述掩码层基于所述目标位置,生成与所述实体信息序列对应的掩码信息;
所述嵌入层基于与所述实体信息序列对应的训练文本序列,生成所述训练文本序列对应的三维张量信息并输入至所述掩码层;
所述掩码层对所述掩码信息和所述三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层;
所述输出层基于所述特征交叉信息,确定所述实体识别模型的损失;其中,所述损失用于调整所述实体识别模型的模型参数。
可选地,所述掩码层对所述掩码信息和所述三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层,包括:
所述掩码层将所述三维张量信息和所述掩码信息进行元素层面上的乘积,得到乘积结果作为所述特征交叉信息并输入至所述输出层。
可选地,所述掩码层基于所述目标位置,生成与所述实体信息序列对应的掩码信息,包括:
所述掩码层在所述实体信息序列中确定出实体所在位置;
所述掩码层基于第一超参数,以所述实体信息序列中实体所在位置为基准点,在所述实体信息序列中确定出所述基准点的第一预设周边范围内不存在实体的第一位置;
所述掩码层基于第二超参数,对所述实体信息序列中所述第一位置之外的第二位置进行采样,并将所述实体信息序列中采样到的第二位置确定为不存在实体的第二位置;
所述掩码层标记出所述实体所在位置、不存在实体的第一位置、及不存在实体的第二位置。
可选地,所述第一超参数为窗口大小,所述第二超参数为负采样率。
可选地,所述掩码层基于所述目标位置、生成与所述实体信息序列对应的掩码信息,包括:
所述掩码层基于所述目标位置,生成第一掩码序列;
根据所述第一掩码序列,生成与所述实体信息序列对应的掩码信息。
可选地,所述根据所述第一掩码序列,生成与所述实体信息序列对应的掩码信息,包括:
将所述第一掩码序列的维度和所述三维张量信息的维度进行对齐,生成与所述实体信息序列对应的掩码信息。
可选地,所述三维张量信息的维度包括批量大小、序列长度、所述实体识别模型的每层的节点个数。
可选地,所述将所述第一掩码序列的维度和所述三维张量信息的维度进行对齐,得到与所述实体信息序列对应的掩码信息,包括:
根据所述第一掩码序列、所述序列长度和所述实体识别模型的每层的节点个数,获得第二掩码序列;
根据所述第二掩码序列和所述批量大小,获得与所述实体信息序列对应的掩码信息。
可选地,所述方法还包括获取实体信息序列及其对应的训练文本序列的步骤,
所述获取实体信息序列及其对应的训练文本序列,包括:
获取以第一格式记录的第一文本信息;其中,所述第一文本信息包括原始文本信息和所述原始文本信息中的至少一个实体信息;
将所述原始文本信息转换为所述嵌入层可识别的信息,获得所述训练文本序列;以及,
将所述至少一个实体信息中的每一所述实体信息转换为所述掩码层可识别的信息,获得与每一所述实体信息对应的实体信息序列。
可选地,在所述获取以第一格式记录的第一文本信息之后,还包括:
在所述第一文本信息的首部添加第一标识,以及在所述第一文本信息的末尾添加第二标识以区别不同的第一文本信息。
根据本公开实施例的第二方面,提供了一种实体识别方法,该方法包括:
获取待处理的文本信息;
利用预设的实体识别模型对所述待处理的文本信息进行处理,得到所述待处理的文本信息中的实体识别结果;
其中,所述实体识别模型为根据以上第一方面得到的实体识别模型。
根据本公开实施例的第三方面,提供了一种实体识别模型训练装置,其中,所述装置包括第一确定模块、第一生成模块、第二生成模块、处理模块和第二确定模块,所述实体识别模型至少包括嵌入层、掩码层和输出层,所述实体识别模型训练方法包括至少一轮训练过程,任意一轮所述训练过程包括:
所述第一确定模块,用于所述掩码层从实体信息序列中确定并标记目标位置;其中,所述目标位置包括:已经存在实体的位置及部分不存在实体的位置;
所述第一生成模块,用于所述掩码层基于所述目标位置,生成与所述实体信息序列对应的掩码信息;
所述第二生成模块,用于所述嵌入层基于与所述实体信息序列对应的训练文本序列,生成所述训练文本序列对应的三维张量信息并输入至所述掩码层;
所述处理模块,用于所述掩码层对所述掩码信息和所述三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层;
所述第二确定模块,用于所述输出层基于所述特征交叉信息,确定所述实体识别模型的损失;其中,所述损失用于调整所述实体识别模型的模型参数。
可选地,所述第二生成模块,具体用于:
所述掩码层将所述三维张量信息和所述掩码信息进行元素层面上的乘积,得到乘积结果作为所述特征交叉信息并输入至所述输出层。
可选地,所述第一生成模块,具体用于:
所述掩码层在所述实体信息序列中确定出实体所在位置;
所述掩码层基于第一超参数,以所述实体信息序列中实体所在位置为基准点,在所述实体信息序列中确定出所述基准点的第一预设周边范围内不存在实体的第一位置;
所述掩码层基于第二超参数,对所述实体信息序列中所述第一位置之外的第二位置进行采样,并将所述实体信息序列中采样到的第二位置确定为不存在实体的第二位置;
所述掩码层标记出所述实体所在位置、不存在实体的第一位置、及不存在实体的第二位置。
可选地,所述第一超参数为窗口大小,所述第二超参数为负采样率。
可选地,所述第一生成模块,具体用于:
所述掩码层基于所述目标位置,生成第一掩码序列;
根据所述第一掩码序列,生成与所述实体信息序列对应的掩码信息。
可选地,所述第一生成模块,具体用于:
将所述第一掩码序列的维度和所述三维张量信息的维度进行对齐,生成与所述实体信息序列对应的掩码信息。
可选地,所述三维张量信息的维度包括批量大小、序列长度、所述实体识别模型的每层的节点个数。
可选地,所述第一生成模块,具体用于:
根据所述第一掩码序列、所述序列长度和所述实体识别模型的每层的节点个数,获得第二掩码序列;
根据所述第二掩码序列和所述批量大小,获得与所述实体信息序列对应的掩码信息。
可选地,所述装置还包括获取模块,具体用于:
获取以第一格式记录的第一文本信息;其中,所述第一文本信息包括原始文本信息和所述原始文本信息中的至少一个实体信息;
将所述原始文本信息转换为所述嵌入层可识别的信息,获得所述训练文本序列;以及,
将所述至少一个实体信息中的每一所述实体信息转换为所述掩码层可识别的信息,获得与每一所述实体信息对应的实体信息序列。
可选地,所述获取模块,还用于:
在所述第一文本信息的首部添加第一标识,以及在所述第一文本信息的末尾添加第二标识以区别不同的第一文本信息。
根据本公开实施例的第四方面,还提供一种实体识别装置,所述装置包括:
获取模块,用于关于获取待处理的文本信息;
处理模块,用于利用预设的实体识别模型对所述待处理的文本信息进行处理,得到所述待处理的文本信息中的实体识别结果;
其中,所述实体识别模型为根据以上第一方面所述的方法得到的实体识别模型。
根据本公开实施例的第五方面,还提供一种包括至少一个计算装置和至少一个存储装置的电子设备,其中,所述至少一个存储装置用于存储指令,所述指令用于控制所述至少一个计算装置执行根据以上第一方面或第二方面所述的方法;或者,所述设备通过所述计算装置和所述存储装置实现根据以上第三方面或第四方面所述的装置。
本公开的一个有益效果在于,实体识别模型包括掩码层,该掩码层可以基于实体信息序列确定并标记出已经存在实体的位置、以及部分不存在实体的位置,生成与实体信息序列对应的掩码信息,并将该掩膜信息和实体识别模型的嵌入层基于训练文本序列生成的三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层,输出层基于特征交叉信息确定实体识别模型的损失,进而基于损失调整实体识别模型的模型参数。即,通过掩码层可以将已经存在实体的位置和部分不存在实体的位置均进行标注,并将其输入至输出层进行实体识别模型的损失计算,这样,实体识别模型是将实体的位置和选择出来的部分不是实体的位置输入至输出层进行模型的损失计算,而并非将全部不是实体的位置均输入至输出层进行模型的损失计算,使得模型可以进行部分学习而不是全量学习,从而能够缓解标注缺失对实体识别模型效果的影响。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1是根据本公开实施例的电子设备的硬件结构示意图;
图2是根据本公开实施例的实体识别模型训练方法的流程示意图;
图3是根据本公开实施例的实体识别方法的流程示意图;
图4是根据本公开实施例的实体识别模型训练装置的原理框图;
图5是根据本公开实施例的实体识别装置的原理框图;
图6是根据本公开实施例的电子设备的原理框图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
<硬件配置>
本公开实施例的方法可以由至少一台电子设备实施,即,用于实施该方法的装置400或装置500可以布置在该至少一台电子设备上。图1示出了任意电子设备的硬件结构。图1所示的电子设备可以是便携式电脑、台式计算机、工作站、服务器等,也可以是任意的具有处理器等计算装置和存储器等存储装置的其他设备,在此不做限定。
如图1所示,该电子设备1000可以包括处理器1100、存储器1200、接口装置1300、通信装置1400、显示装置1500、输入装置1600、扬声器1700、麦克风1800等等。其中,处理器1100用于执行计算机程序。该计算机程序可以采用比如x86、Arm、RISC、MIPS、SSE等架构的指令集编写。存储器1200例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1300例如包括USB接口、耳机接口等。通信装置1400例如能够进行有线或无线通信,具体地可以包括Wifi通信、蓝牙通信、2G/3G/4G/5G通信等。显示装置1500例如是液晶显示屏、触摸显示屏等。输入装置1600例如可以包括触摸屏、键盘、体感输入等。电子设备1000可以通过扬声器1700输出语音信息,及可以通过麦克风1800采集语音信息等。
图1所示的电子设备仅仅是说明性的并且决不意味着对本发明、其应用或使用的任何限制。应用于本公开的实施例中,电子设备1000的所述存储器1200用于存储指令,所述指令用于控制所述处理器1100进行操作以执行本公开实施例的实体识别模型训练方法或者实体识别方法。技术人员可以根据本发明所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
在一个实施例中,提供了一种包括至少一个计算装置和至少一个存储装置的电子设备,该至少一个存储装置用于存储指令,该指令用于控制该至少一个计算装置执行根据本公开任意实施例的方法。
该设备可以包括至少一台图1所示的电子设备1000,以提供至少一个例如是处理器的计算装置和至少一个例如是存储器的存储装置,在此不做限定。
<方法实施例一>
图2是根据本公开实施例的实体识别模型训练方法的流程示意图,该方法由电子设备1000执行,实体识别模型至少包括嵌入层、掩码层和输出层,所述实体识别模型训练方法包括至少一轮训练过程,如图2所示,任意一轮所述训练过程可以包括如下步骤S2100~S2500:
步骤S2100,所述掩码层从实体信息序列中确定并标记目标位置。
实体可以包括但不限于以下至少一种:人名(person)、机构名(organization)、地名(location)以及其他所有以名称为标识的实体。
如背景技术所述,实体识别标注场景特别是实体问答标注场景,由于实体标注不全,导致问答标注的结果会有缺失,这些缺失的标注会继续对实体识别模型的下一次学习产生误导,导致实体识别模型学偏,影响最后实体识别模型学习的效果。本实施例中,在实体识别模型中新增了掩码层(Mask层),该掩码层可以位于输出层之前,通过掩码层可以确定出实体信息序列中已经存在实体的位置和部分不存在实体的位置作为目标位置,并基于该目标位置进行实体识别模型的损失计算,这样,实体识别模型可以将实体、以及选择出来的部分不是实体的位置进行训练,使得模型可以进行部分学习而非全量学习,能够达到缓解标注缺失对实体识别模型效果的影响。
目标位置可以包括但不限于:已经存在实体的位置及部分不存在实体的位置。其中,已经存在实体的位置表明该实体信息序列中已经标记为实体的位置。部分不存在实体的位置作为有效信息,其为从全部不是实体的位置中所选择出的部分不是实体的位置。通过掩码层将已经存在实体的位置及部分不是实体的位置进行标记用于确定实体识别模型的损失,使得模型可以进行部分学习而非全量学习,也就是说,通过掩码层的逻辑能够决定出哪些位置会进入后续的训练过程,以调整实体识别模型的模型参数,这样可以提高实体识别模型的效果。
示例性地,原始文本信息例如为“[CLS]如何演好自己的角色,请读《演员自我修养》《喜剧之王》周星驰崛起于穷困潦倒之中的独门秘笈[SEP]”,第一文本信息中的实体包括书名“演员自我修养”、书名“喜剧之王”和人名“周星驰”。由于原始文本信息通常是基于B(begin)E(end)I(inter)O(other)格式进行处理得到其对应的实体信息序列的,则“喜剧之王”对应的实体信息序列可以是:[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]。“周星驰”对应的实体信息序列可以是:[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]。“演员自我修养”对应的实体信息序列可以是:[0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,2,2,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]。其中,实体信息序列中的1代表Begin,2代表Inter,3代表End,0代表Other。关于如何根据原始文本信息得到该原始文本信息对应的实体信息序列可以参照以上实施例,本实施例在此不做赘述。
步骤S2200,所述掩码层基于所述目标位置,生成与所述实体信息序列对应的掩码信息。
本实施例中,掩码层在确定出实体信息序列中已经存在实体的位置及部分不存在实体的位置之后,便可根据该实体信息序列中已经存在实体的位置及部分不存在实体的位置,生成该实体信息序列对应的掩码信息用于实体识别模型的损失计算。也就是说,通过该掩码信息可以反映出实体信息序列中已经被标注为实体、及从全部不是实体的信息中选择出部分不是实体的信息,基于该掩码信息进行实体识别模型训练,使得模型可以进行部分学习而非全量学习,可以缓解标注缺失对实体识别模型效果的影响。
实体信息序列的掩码信息与后续步骤该实体信息序列对应的训练文本序列的三维张量信息的维度相同。由于该三维张量信息的维度shape包括批量大小batch size、序列长度sequence length、所述实体识别模型的每层的节点个数hidden size,为了使得掩码信息和三维张量信息能够在相同维度上进行后续步骤的元素层面上的乘积,则该实体信息序列的掩码信息的维度shape也为批量大小、序列长度、所述实体识别模型的每层的节点个数。
示例性地,通过本步骤可以得到以上“喜剧之王”对应的实体信息序列:[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]的掩码信息。以及以上“周星驰”对应的实体信息序列可以是:[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]对应的掩码信息。
步骤S2300,所述嵌入层基于与所述实体信息序列对应的训练文本序列,生成所述训练文本序列对应的三维张量信息并输入至所述掩码层。
与实体信息序列对应的训练文本序列可以反映出原始文本信息的内容,通常,实体信息序列与其对应的训练文本序列。示例性地,第一文本信息例如为“[CLS]如何演好自己的角色,请读《演员自我修养》《喜剧之王》周星驰崛起于穷困潦倒之中的独门秘笈[SEP]”。由于原始文本信息通常是根据设定词表进行处理得到其对应的训练文本序列的,则该原始文本信息对应的训练文本序列可以是:[101,1964,863,4029,1963,5633,2347,4639,6236,5683,8025,6436,6439,518,4029,1448,5633,2770,935,1076,519,518,1600,1197,723,4375,519,1454,3216,7721,2308,6630,755,4957,1738,4058,949,723,705,4639,4325,7306,4909,5008,102]。关于如何根据原始文本信息得到该原始文本信息对应的训练文本序列可以参照以上实施例,本实施例在此不做赘述。
嵌入层可以为一个预训练语言模型,预训练语言模型可以包括但不限于以下至少一项:Bert(Bidirectional Encoder Representations from Transformer)模型、GPT(Gererate Pre-Training)模型、EMLo(Embeddings from Language Models)模型。所谓的预训练就是在拿训练数据对模型进行训练之前进行的训练,通常由于在自然语言处理的下游任务(本实施例中的实体识别任务)中,可以使用的样本数据是比较少的,因为这些任务需要的都是经过专门标注的数据,这样就使得拿这些样本数据直接训练出的模型效果一般,因此就需要对模型进行预训练。也就是说,预训练的目的就是,提前训练好这些下游任务中底层的、共性的部分模型,然后再用下游任务的样本数据来训练模型,这样可以极大地加快收敛速度。
本实施例中,嵌入层可以根据实体信息序列对应的训练文本序列,得到该训练文本序列对应的三维张量信息并输入至掩码层,三维张量信息可以简称为三维Tensor,并且,该三维张量信息的维度包括批量大小batch size、序列长度sequence length、实体识别模型的每层的节点个数hidden size。
步骤S2400,所述掩码层对所述掩码信息和所述三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层。
本实施例中,掩码层会对掩码信息和三维张量信息进行特征交叉处理,这里,该掩码信息作为权重,对于三维特征信息乘以掩码信息一个给定的权重,换句话说,就是通过一个乘子对数据集的每一列进行缩放,提高特征交叉能力。在此,本步骤S2400中所述掩码层对所述掩码信息和所述三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层可以进一步包括:所述掩码层将所述三维张量信息和所述掩码信息进行元素层面上的乘积,得到乘积结果作为所述特征交叉信息并输入至所述输出层。
元素层面上的乘积element-wise product指的是两个维度相同的矩阵,针对其中每一项数据进行相乘的操作。继续上述示例,通过以上步骤得到以上实体信息序列:[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]的掩码信息。以及以上实体信息序列可以是:[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]对应的掩码信息。通过以上步骤得到训练文本序列对应的三维张量信息之后,便可根据本步骤分别将这两个掩膜信息与该三维张量信息相乘,得到乘积向量作为特征交叉信息输入至输出层。
步骤S2500,所述输出层基于所述特征交叉信息,确定所述实体识别模型的损失;其中,所述损失用于调整所述实体识别模型的模型参数。
输出层通常也可以称之为是序列标注输出层,该输出层可以包括但不限于以下至少一种:Linear、CRF层、LAN层以及其他能够进行序列标注的输出层。
本实施例中,输出层会基于乘积向量确定实体识别模型的损失loss,具体的,实体识别模型中的输出层可以基于乘积向量并结合该输出层的预设序列标注模型确定实体识别模型的loss,该序列标注模型可以包括但不限于以下至少一种:BIO、BEIO。通过损失loss可以调整实体识别模型的模型参数例如权重和偏置,从而完成一轮训练。可以理解的是,由于参与实体识别模型的损失计算的不仅包括已经存在实体的位置,还包括可能存在实体的位置,这样,实体识别模型可以将实体、以及选择出来的部分不是实体的位置作为有效信息进行部分学习而不是全量学习,进而达到缓解标注缺失对实体识别模型效果的影响。
本申请实施例中的实体识别模型训练方法,是基于嵌入层(预训练语言模型)+输出层(Linear/CRF)类似架构的实体识别模型上,在预训练语言模型输出三维张量信息(可以理解为是预训练结果向量)或者是Linear/CRF层结果上增加了合适的掩码层,通过该掩码层可以使得训练出的实体识别模型忽略缺失的标注,达到缓解标注缺失对实体识别模型效果影响的效果。
可以理解的是,输出层Linear/CRF可以替换为其他序列标注输出层,例如可以替换为LAN。对应的,也可以将序列标注模型BEIO替换为其他序列标注模型,例如可以替换为BIO。
根据本公开实施例,实体识别模型包括掩码层,该掩码层可以基于实体信息序列确定并标记出已经存在实体的位置、以及部分不存在实体的位置,生成与实体信息序列对应的掩码信息,并将该掩膜信息和实体识别模型的嵌入层基于训练文本序列生成的三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层,输出层基于特征交叉信息确定实体识别模型的损失,进而基于损失调整实体识别模型的模型参数。即,通过掩码层可以将已经存在实体的位置和部分不是实体的位置均进行标注,并将其输入至输出层进行实体识别模型的损失计算,这样,实体识别模型是将实体的位置和选择出来的部分不是实体的位置输入至输出层进行模型的损失计算,而并非将全部不是实体的位置均输入至输出层进行模型的损失计算,使得模型可以进行部分学习而不是全量学习,从而能够缓解标注缺失对实体识别模型效果的影响。
在任意一些实施例中,前文所述的步骤S2100所述掩码层从实体信息序列中确定并标记目标位置的实现方式,可以进一步包括但不限于如下步骤S2110~步骤S2410:
步骤S2110,所述掩码层在所述实体信息序列中确定出实体所在位置。
示例性地,以实体信息序列[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]为例,掩码层在该实体信息中确定出实体所在位置为{"begin":21,"end":25},即,实体“喜剧之王”的起始位置为21,结尾位置为25。
步骤S2120,所述掩码层基于第一超参数,以所述实体信息序列中实体所在位置为基准点,在所述实体信息序列中确定出所述基准点的第一预设周边范围内不存在实体的第一位置。
第一超参数可以称之为窗口尺寸window size,第一超参数可以根据经验值进行设置,通常设置为5或者10。通过第一超参数可以决定出实体识别模型在正确实体附近的可见范围是多少,也就是说,一个被用户确定过的实体附近多少个字会被认为是有效信息,其也会被送入至输出层进行模型的损失计算,从而能够影响最终的实体识别模型的效果。
第一预设周边范围可以根据以上第一超参数确定,其中,第一超参数的数值设置的越大,该第一预设周边范围也就相应越大。第一超参数的数值设置的越小,该第一预设周边范围也就相应越小。
继续以实体信息序列[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]为例,由于实体位置为{"begin":21,"end":25},第一超参数为5,则可能存在实体的第一位置的可以分别为21-5=16,25+5=30,也就是说,实体“喜剧之王”所在位置的前5个字和后5个字也可以被认为是有效信息,其也会被送入至输出层进行模型的损失计算。
步骤S2130,所述掩码层基于第二超参数,对所述实体信息序列中所述第一位置之外的第二位置进行采样,并将所述实体信息序列中采样到的第二位置确定为不存在实体的第二位置。
第二超参数为负采样率negative sample rate,第二超参数也可以根据经验值进行设置。可以理解的是,根据第一超参数仅可以确定出实体位置附近的有效信息,并没有确定出实体位置的其他位置是否可以作为有效信息,在此,需要对其他位置进行采样,采样的逻辑就是针对第二位置处的字符,按照负采样率negative sample rate的概率进行采样。这样设计的原因是让实体识别模型除了实体周围的信息以外,还能获得文本中的其他信息,以免实体识别模型只能看到实体周围的信息造成误判。
继续以实体信息序列[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]为例,第二超参数为0.1,那么就是针对第二位置处的字符,按照10%的概率进行采样。
步骤S2140,所述掩码层标记出所述实体所在位置、不存在实体的第一位置、及不存在实体的第二位置。
在一些实施例中,本步骤S2140所述掩码层标记出所述实体所在位置、不存在实体的第一位置、及不存在实体的第二位置可以进一步包括:
步骤S2141,所述掩码层基于目标位置(即,标记出的所述实体所在位置、不存在实体的第一位置、及不存在实体的第二位置),生成第一掩码序列。
继续以上实体信息序列[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]为例,在此,掩码层可以先生成一个长度等于实体信息序列长度且初始化为0的初始掩码序列,[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]。然后在初始掩码序列中将所标记出的实体所在位置、不存在实体的第一位置、及不存在实体的第二位置改写为1,得到第一掩码序列[0,0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0,0,1,0,0,0,0,0,0,0,0]。
步骤S2142,根据所述第一掩码序列,生成与所述实体信息序列对应的掩码信息。
在一些实施例中,为了使得掩码信息的维度与三维张量信息的维度相同,以便于进行元素层面上的乘积,本步骤S2142根据所述第一掩码序列,生成与所述实体信息序列对应的掩码信息可以进一步包括:将所述第一掩码序列的维度和所述三维张量信息的维度进行对齐,生成与所述实体信息序列对应的掩码信息。
具体地,所述三维张量信息的维度包括批量大小batch size、序列长度sequencelength、所述实体识别模型的每层的节点个数hidden size。在此,可以根据所述第一掩码序列、所述序列长度和所述实体识别模型的每层的节点个数,获得第二掩码序列;根据所述第二掩码序列和所述批量大小,获得与所述实体信息序列对应的掩码信息。
可以理解的是,基于以上步骤所得到的是维度shape只有一个序列长度sequencelength的掩码信息,那么需要将该掩码信息复制hidden size次,组成一个维度为【sequence length,sequence length】的二维张量信息即二维tensor。同时,需要针对第一文本信息对应的每一个实体信息序列都进行相同计算,得到batch_size个二维张量信息,然后把这batch_size个二维张量信息组合成【batch size,sequence length,hiddensize】的三维张量信息。
在一些实施例中,本公开实施例的实体识别模型训练方法还包括获取实体信息序列及其对应的训练文本序列的步骤,该获取实体信息序列及其对应的训练文本序列的实现方式,可以进一步包括但不限于如下步骤S1100~步骤S1300:
步骤S1100,获取以第一格式记录的第一文本信息;其中,所述第一文本信息包括原始文本信息和所述原始文本信息中的至少一个实体信息。
第一格式可以是json格式,当然,也可以是其他数据格式,本实施例在此不做限定。
以原始文本信息为“如何演好自己的角色,请读《演员自我修养》《喜剧之王》周星驰崛起于穷困潦倒之中的独门秘笈”为例,在此,以json格式可以将原始文本信息和实体信息保存为第一文本信息,该第一文本信息可以是:{"text":"如何演好自己的角色,请读《演员自我修养》《喜剧之王》周星驰崛起于穷困潦倒之中的独门秘笈","entity_list":[{"entity_index":{"begin":21,"end":25},"entity_type":"影视作品","entity":"喜剧之王"},{"entity_index":{"begin":26,"end":29},"entity_type":"人物","entity":"周星驰"}]}
其中,text为原始文本信息,entity_list为一个实体列表,用以保存所有标注的实体,其中每一个内容为一个实体信息,一个实体信息包含entity_index(实体在文本中的位置),entity_type实体类型(实体的具体类型)以及entity(实体的内容)三个部分。
在一些实施例中,在获取以第一格式记录的第一文本信息之后,还可以在第一文本信息的首部添加第一标识,以及在所述第一文本信息的末尾添加第二标识以区别不同的第一文本信息。
第一标识可以是[CLS],第二标识可以是[SEP],通常,第一标识和第二标识通常是成对出现的,在此,第一标识和第二标识也可以是其他自定义字符,只要能够区分出不同文本信息即可。
继续上述示例,可以在第一文本信息的开始加上[CLS],在第一文本信息的结尾加上[SEP],变成“[CLS]如何演好自己的角色,请读《演员自我修养》《喜剧之王》周星驰崛起于穷困潦倒之中的独门秘笈[SEP]”。
步骤S1200,将所述原始文本信息转换为所述嵌入层可识别的信息,获得所述训练文本序列。
本实施例中,可以基于设定词表将原始文本信息转换为数字序列,将数字序列为嵌入层可识别的序列。
继续上述示例,例如“[CLS]”在设定词表中的第101行,则可以将[CLS]转换为101,又例如“如”这个字在设定词表中的第1064行,则可以将如转换为1064,在此,原始文本信息会被转换为:[101,1064,863,4029,1963,5633,2347,4639,6236,5683,8025,6436,6439,518,4029,1448,5633,2770,935,1076,519,518,1600,1197,723,4375,519,1454,3216,7721,2308,6630,755,4957,1738,4058,949,723,705,4639,4325,7306,4909,5008,102]。并将这个数字序列作为训练文本序列输入至嵌入层。
步骤S1300,将所述至少一个实体信息中的每一所述实体信息转换为所述掩码层可识别的信息,获得与每一所述实体信息对应的实体信息序列。
本实施例中,可以基于B(begin)E(end)I(inter)O(other)格式将原始文本信息中的实体信息转换为掩码层可识别的信息。在此,原始文本信息中标记几个实体信息,则相应的可以得到几个实体信息序列。
继续上述示例,由于原始文本信息中包括“《演员自我修养》”、“《喜剧之王》”和“周星驰”这三个实体,则《喜剧之王》对应的实体信息序列可以是:[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]。周星驰对应的实体信息序列可以是:[0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]。演员自我修养对应的实体信息序列可以是[0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,2,2,2,2,3,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]。其中,实体信息序列中的1代表Begin,2代表Inter,3代表End,0代表Other。
<方法实施例二>
图3是根据本公开实施例的实体识别方法的流程示意图,该方法由电子设备1000执行,如图3所示,该实体识别方法可以包括如下步骤S3100~S3200:
步骤S3100,获取待处理的文本信息。
待处理的文本信息可以是任意需要进行实体识别的文本信息。该文本信息可以是本地文本,也可以是线上文本;可以是实时文本,也可以是预存的文本;可以原始文本数据,也可以是经过对其他格式的数据进行文本转换处理得到的。
例如,可以对音频文件进行文本转换处理,得到待处理的文本信息。或者,又例如,还可以对视频中的音频数据进行文本转换处理,得到待处理的文本信息。或者,还可以对图像(例如票据等)进行文本识别,得到待处理的文本信息。
步骤S3200,利用预设的实体识别模型对所述待处理的文本信息进行处理,得到所述待处理的文本信息中的实体识别结果。
所述实体识别模型为根据以上方法实施例一得到的实体识别模型。
需要说明的是,本发明实施例中所涉及到的模型(例如实体识别模型)还可被用于隐私计算、多方安全计算、联邦学习、匿踪(隐匿)查询、安全(隐私)求交等场景。
本实施例中,可以将待处理的文本信息作为实体识别模型的输入,以便由实体识别模型识别出该待处理的文本信息中的实体,由于上述在进行实体识别模型的训练过程中,通过掩码层可以将已经存在实体的位置和部分不是实体的位置均进行标注,并将其输入至输出层进行实体识别模型的损失计算,这样,实体识别模型是将实体的位置和选择出来的部分不是实体的位置输入至输出层进行模型的损失计算,而并非将全部不是实体的位置均输入至输出层进行模型的损失计算,使得模型可以进行部分学习而不是全量学习,从而能够缓解标注缺失对实体识别模型效果的影响。进一步提高了实体识别模型的训练效果。则基于该实体识别模型可以准确识别出该待处理的文本信息中的实体。
<装置实施例一>
本申请实施例还提供一种实体识别模型训练装置,参照图4,所述装置400包括第一确定模块410、第一生成模块420、第二生成模块430、处理模块440和第二确定模块450,所述实体识别模型至少包括嵌入层、掩码层和输出层,所述实体识别模型训练方法包括至少一轮训练过程,任意一轮所述训练过程包括:
所述第一确定模块410,用于所述掩码层从实体信息序列中确定并标记目标位置;其中,所述目标位置包括:已经存在实体的位置及部分不存在实体的位置。
所述第一生成模块420,用于所述掩码层基于所述目标位置,生成与所述实体信息序列对应的掩码信息。
所述第二生成模块430,用于所述嵌入层基于与所述实体信息序列对应的训练文本序列,生成所述训练文本序列对应的三维张量信息并输入至所述掩码层。
所述处理模块440,用于所述掩码层对所述掩码信息和所述三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层。
所述第二确定模块450,用于所述输出层基于所述特征交叉信息,确定所述实体识别模型的损失;其中,所述损失用于调整所述实体识别模型的模型参数。
在一个实施例中,所述第二生成模块430,具体用于:所述掩码层将所述三维张量信息和所述掩码信息进行元素层面上的乘积,得到乘积结果作为所述特征交叉信息并输入至所述输出层。
在一个实施例中,所述第一生成模块420,具体用于:所述掩码层在所述实体信息序列中确定出实体所在位置;所述掩码层基于第一超参数,以所述实体信息序列中实体所在位置为基准点,在所述实体信息序列中确定出所述基准点的第一预设周边范围内不存在实体的第一位置;所述掩码层基于第二超参数,对所述实体信息序列中所述第一位置之外的第二位置进行采样,并将所述实体信息序列中采样到的第二位置确定为不存在实体的第二位置;所述掩码层标记出所述实体所在位置、不存在实体的第一位置、及不存在实体的第二位置。
在一个实施例中,所述第一超参数为窗口大小,所述第二超参数为负采样率。
在一个实施例中,所述第一生成模块420,具体用于:所述掩码层基于所述目标位置,生成第一掩码序列;根据所述第一掩码序列,生成与所述实体信息序列对应的掩码信息。
在一个实施例中,所述第一生成模块420,具体用于:将所述第一掩码序列的维度和所述三维张量信息的维度进行对齐,生成与所述实体信息序列对应的掩码信息。
在一个实施例中,所述三维张量信息的维度包括批量大小、序列长度、所述实体识别模型的每层的节点个数。
在一个实施例中,所述第一生成模块410,具体用于:根据所述第一掩码序列、所述序列长度和所述实体识别模型的每层的节点个数,获得第二掩码序列;根据所述第二掩码序列和所述批量大小,获得与所述实体信息序列对应的掩码信息。
在一个实施例中,所述装置还包括获取模块(图中未示出),具体用于:获取以第一格式记录的第一文本信息;其中,所述第一文本信息包括原始文本信息和所述原始文本信息中的至少一个实体信息;将所述原始文本信息转换为所述嵌入层可识别的信息,获得所述训练文本序列;以及,将所述至少一个实体信息中的每一所述实体信息转换为所述掩码层可识别的信息,获得与每一所述实体信息对应的实体信息序列。
在一个实施例中,所述获取模块,还用于:在所述第一文本信息的首部添加第一标识,以及在所述第一文本信息的末尾添加第二标识以区别不同的第一文本信息。
根据本公开实施例,实体识别模型包括掩码层,该掩码层可以基于实体信息序列确定并标记出已经存在实体的位置、以及部分不存在实体的位置,生成与实体信息序列对应的掩码信息,并将该掩膜信息和实体识别模型的嵌入层基于训练文本序列生成的三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层,输出层基于特征交叉信息确定实体识别模型的损失,进而基于损失调整实体识别模型的模型参数。即,通过掩码层可以将已经存在实体的位置和部分不是实体的位置均进行标注,并将其输入至输出层进行实体识别模型的损失计算,这样,实体识别模型是将实体的位置和选择出来的部分不是实体的位置输入至输出层进行模型的损失计算,而并非将全部不是实体的位置均输入至输出层进行模型的损失计算,使得模型可以进行部分学习而不是全量学习,从而能够缓解标注缺失对实体识别模型效果的影响。
<装置实施例二>
本申请实施例还提供一种实体识别装置,参照图5,所述装置500包括获取模块510、处理模块520。
获取模块510,用于关于获取待处理的文本信息。
处理模块520,用于利用预设的实体识别模型对所述待处理的文本信息进行处理,得到所述待处理的文本信息中的实体识别结果;
其中,所述实体识别模型为根据以上方法实施例一得到的实体识别模型。
根据本公开实施例,可以将待处理的文本信息作为实体识别模型的输入,以便由实体识别模型识别出该待处理的文本信息中的实体,由于上述在进行实体识别模型的训练过程中,通过掩码层可以将已经存在实体的位置和部分不是实体的位置均进行标注,并将其输入至输出层进行实体识别模型的损失计算,这样,实体识别模型是将实体的位置和选择出来的部分不是实体的位置输入至输出层进行模型的损失计算,而并非将全部不是实体的位置均输入至输出层进行模型的损失计算,使得模型可以进行部分学习而不是全量学习,从而能够缓解标注缺失对实体识别模型效果的影响。进一步提高了实体识别模型的训练效果。则基于该实体识别模型可以准确识别出该待处理的文本信息中的实体。
<设备实施例>
本公开实施例提供了一种电子设备600,该电子设备600可以是服务器,也可以是终端设备。其中,服务器可以是整体式服务器或是跨多计算机或计算机数据中心的分散式服务器。终端设备可以是手机、平板电脑、笔记本电脑等。
如图6所示,电子设备600包括处理器610和存储器620,该存储器620用于存储可执行的指令;该处理器610用于根据指令的控制运行电子设备600执行根据本发明任意实施例的实体识别模型训练方法或者实体识别方法。
该电子设备可以是具有处理器和存储器的电子产品。例如可以是智能手机、便携式电脑、台式计算机、平板电脑等。
<介质实施例>
本公开实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器执行时,实现前述任一实施例提供的实体识别模型训练方法或者实体识别方法。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (10)
1.一种实体识别模型训练方法,其特征在于,所述实体识别模型至少包括嵌入层、掩码层和输出层,所述实体识别模型训练方法包括至少一轮训练过程,任意一轮所述训练过程包括:
所述掩码层从实体信息序列中确定并标记目标位置;其中,所述目标位置包括:已经存在实体的位置及部分不存在实体的位置;
所述掩码层基于所述目标位置,生成与所述实体信息序列对应的掩码信息;
所述嵌入层基于与所述实体信息序列对应的训练文本序列,生成所述训练文本序列对应的三维张量信息并输入至所述掩码层;
所述掩码层对所述掩码信息和所述三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层;
所述输出层基于所述特征交叉信息,确定所述实体识别模型的损失;其中,所述损失用于调整所述实体识别模型的模型参数。
2.根据权利要求1所述的方法,其中,所述掩码层对所述掩码信息和所述三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层,包括:
所述掩码层将所述三维张量信息和所述掩码信息进行元素层面上的乘积,得到乘积结果作为所述特征交叉信息并输入至所述输出层。
3.根据权利要求1所述的方法,其特征在于,所述掩码层基于所述目标位置,生成与所述实体信息序列对应的掩码信息,包括:
所述掩码层在所述实体信息序列中确定出实体所在位置;
所述掩码层基于第一超参数,以所述实体信息序列中实体所在位置为基准点,在所述实体信息序列中确定出所述基准点的第一预设周边范围内不存在实体的第一位置;
所述掩码层基于第二超参数,对所述实体信息序列中所述第一位置之外的第二位置进行采样,并将所述实体信息序列中采样到的第二位置确定为不存在实体的第二位置;
所述掩码层标记出所述实体所在位置、不存在实体的第一位置、及不存在实体的第二位置。
4.根据权利要求1所述的方法,其特征在于,所述掩码层基于所述目标位置,生成与所述实体信息序列对应的掩码信息,包括:
所述掩码层基于所述目标位置,生成第一掩码序列;
根据所述第一掩码序列,生成与所述实体信息序列对应的掩码信息。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括获取实体信息序列及其对应的训练文本序列的步骤,
所述获取实体信息序列及其对应的训练文本序列,包括:
获取以第一格式记录的第一文本信息;其中,所述第一文本信息包括原始文本信息和所述原始文本信息中的至少一个实体信息;
将所述原始文本信息转换为所述嵌入层可识别的信息,获得所述训练文本序列;以及,
将所述至少一个实体信息中的每一所述实体信息转换为所述掩码层可识别的信息,获得与每一所述实体信息对应的实体信息序列。
6.一种实体识别方法,其特征在于,所述方法包括:
获取待处理的文本信息;
利用预设的实体识别模型对所述待处理的文本信息进行处理,得到所述待处理的文本信息中的实体识别结果;
其中,所述实体识别模型为根据权利要求1至5中任一项得到的实体识别模型。
7.一种实体识别模型训练装置,其中,所述装置包括第一确定模块、第一生成模块、第二生成模块、处理模块和第二确定模块,所述实体识别模型至少包括嵌入层、掩码层和输出层,所述实体识别模型训练方法包括至少一轮训练过程,任意一轮所述训练过程包括:
所述第一确定模块,用于所述掩码层从实体信息序列中确定并标记目标位置;其中,所述目标位置包括:已经存在实体的位置及部分不存在实体的位置;
所述第一生成模块,用于所述掩码层基于所述目标位置,生成与所述实体信息序列对应的掩码信息;
所述第二生成模块,用于所述嵌入层基于与所述实体信息序列对应的训练文本序列,生成所述训练文本序列对应的三维张量信息并输入至所述掩码层;
所述处理模块,用于所述掩码层对所述掩码信息和所述三维张量信息进行特征交叉处理,得到特征交叉信息并输入至输出层;
所述第二确定模块,用于所述输出层基于所述特征交叉信息,确定所述实体识别模型的损失;其中,所述损失用于调整所述实体识别模型的模型参数。
8.一种实体识别装置,其特征在于,所述装置包括:
获取模块,用于关于获取待处理的文本信息;
处理模块,用于利用预设的实体识别模型对所述待处理的文本信息进行处理,得到所述待处理的文本信息中的实体识别结果;
其中,所述实体识别模型为根据权利要求1至5中任一项得到的实体识别模型。
9.一种包括至少一个计算装置和至少一个存储装置的电子设备,其中,所述至少一个存储装置用于存储指令,所述指令用于控制所述至少一个计算装置执行根据权利要求1至6中任一项所述的方法;或者,所述设备通过所述计算装置和所述存储装置实现根据权利要求7至8任一项所述的装置。
10.一种计算机可读存储介质,其中,其上存储有计算机程序,所述计算机程序在被处理器执行时实现如权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210770146.9A CN117371448A (zh) | 2022-06-30 | 2022-06-30 | 实体识别及其模型训练方法、装置、电子设备与存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210770146.9A CN117371448A (zh) | 2022-06-30 | 2022-06-30 | 实体识别及其模型训练方法、装置、电子设备与存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117371448A true CN117371448A (zh) | 2024-01-09 |
Family
ID=89387946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210770146.9A Pending CN117371448A (zh) | 2022-06-30 | 2022-06-30 | 实体识别及其模型训练方法、装置、电子设备与存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117371448A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117591076A (zh) * | 2024-01-19 | 2024-02-23 | 北京壁仞科技开发有限公司 | 用于生成二进制掩码张量的方法、计算设备和存储介质 |
-
2022
- 2022-06-30 CN CN202210770146.9A patent/CN117371448A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117591076A (zh) * | 2024-01-19 | 2024-02-23 | 北京壁仞科技开发有限公司 | 用于生成二进制掩码张量的方法、计算设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12032910B2 (en) | Joint intent and entity recognition using transformer models | |
CN107808004B (zh) | 模型训练方法和系统、服务器、存储介质 | |
CN109711548B (zh) | 超参数的选取方法、使用方法、装置及电子设备 | |
CN109685056A (zh) | 获取文档信息的方法及装置 | |
KR20210090576A (ko) | 품질을 관리하는 방법, 장치, 기기, 저장매체 및 프로그램 | |
CN104899304A (zh) | 命名实体识别方法及装置 | |
CN108073573A (zh) | 一种机器翻译方法、装置和机器翻译系统训练方法、装置 | |
CN116415594A (zh) | 问答对生成的方法和电子设备 | |
CN110020009A (zh) | 在线问答方法、装置及系统 | |
CN110046637B (zh) | 一种合同段落标注模型的训练方法、装置及设备 | |
JP2023017910A (ja) | セマンティック表現モデルの事前トレーニング方法、装置及び電子機器 | |
CN108345581A (zh) | 一种信息识别方法、装置和终端设备 | |
CN115952272A (zh) | 一种生成对话信息的方法、装置、设备及可读存储介质 | |
CN111897915B (zh) | 问答设备和答复信息确定方法 | |
WO2024088039A1 (zh) | 人机对话方法、对话网络模型的训练方法及装置 | |
WO2024074100A1 (zh) | 自然语言处理、模型训练方法、装置、设备及存储介质 | |
CN117371448A (zh) | 实体识别及其模型训练方法、装置、电子设备与存储介质 | |
CN117389890A (zh) | 测试用例的生成方法、装置、电子设备和存储介质 | |
CN107967112A (zh) | 解码用于图形键盘的不准确手势 | |
CN113420531A (zh) | 一种代码文本的转换方法、装置及存储介质 | |
CN105243051A (zh) | 酒店订单短信模板的创建方法、提取方法及装置 | |
CN112380865A (zh) | 识别文本中的实体方法、装置及存储介质 | |
KR20210050484A (ko) | 정보 처리 방법, 장치 및 저장 매체 | |
CN114218957A (zh) | 行政区划变迁信息的确定方法、装置、设备及存储介质 | |
CN110399615B (zh) | 交易风险监控方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |