CN113935327A - 一种地域实体的识别方法及装置 - Google Patents
一种地域实体的识别方法及装置 Download PDFInfo
- Publication number
- CN113935327A CN113935327A CN202111176378.3A CN202111176378A CN113935327A CN 113935327 A CN113935327 A CN 113935327A CN 202111176378 A CN202111176378 A CN 202111176378A CN 113935327 A CN113935327 A CN 113935327A
- Authority
- CN
- China
- Prior art keywords
- region
- entity
- trained
- text
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 239000013598 vector Substances 0.000 claims abstract description 148
- 238000012549 training Methods 0.000 claims abstract description 75
- 230000004927 fusion Effects 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010606 normalization Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 241000590419 Polygonia interrogationis Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种地域实体的识别方法及装置,涉及人工智能领域。其中,方法具体包括:将待训练地域文本中的待训练地域实体对应的词向量和待训练地域实体中的每个字对应的字特征进行融合,以得到字向量;根据待训练地域实体对应的地域实体描述和字向量对第一预训练模型进行训练,得到地域文本实体识别模型;利用地域文本实体识别模型,识别待识别地域文本的地域实体。应用本申请能让地域文本实体识别模型找到与输入的地域实体描述最相关的地域实体,即实现在最终分类中更加倾向于与地域实体描述相关的地域实体,进而实现通过词向量、字特征和地域实体描述来提高地域文本实体识别模型的识别准确率,以此提高地域实体识别的准确度。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种地域实体的识别方法及装置。
背景技术
地域相关实体识别主要是从百科、新闻等文本中提取出与地域相关的特定地域实体,例如可以从杭州市的百度百科描述中抽取出杭州市交通领域的火车站、机场、地铁线路等地域实体,也可以抽取出杭州市的历史文化、自然资源、科技产业等领域的相关地域实体。从而为构建城市大脑、知识图谱、网络舆论热点检测、城市宣传等提供支持。
传统的地域相关地域实体识别多为通过人工总结地域实体名称包含的特定字或地域实体上下文蕴含的特定规律来识别出文本中的地域实体,例如:对于城市的火车站可以采用“城市名”+“站”;例如:对于城市的地铁线路可以采用“城市名”+“地铁”这样的规则进行地域实体识别。一部分采用了基于深度学习的地域实体识别方法。
然而这些方法仅仅是将深度学习中的地域实体识别模型直接搬运过来,采用BERT等预训练模型将文本中的每个字编码为向量,再结合CRF进行序列标注对每个字进行分类,判断其是否为地域实体。因此上述现有技术存在下述缺陷:
需要人工对地域实体的规律进行总结,由于不同的地域实体所存在的规律可能难以归纳尽,因此需要不断投入人力去开发;另一方面,总结的规则较为具体时虽然能保证识别地域实体的准确性,但是这样的规则泛化能力较差,容易造成召回不足;规则较为宽泛时虽然能囊括很多种情况,但是精度较低,容易将很多非地域实体抽取出来。同时,复杂的规则也为后期的维护带来了压力。
大多采用的是主流的命名地域实体识别模型,由于基于深度学习的命名地域实体识别研究多聚焦于英文数据集,而中英文之间存在着巨大的差异,英文表达意思的基本粒度是单词且句子中每个单词之间会用空格隔开;而中文表达意思的基本粒度是词而非字,中文地域实体的边界一般也是词的边界,因此准确识别出词的边界在中文地域实体识别中至关重要。简单的使用字信息的序列标注方案忽视了中文的词汇信息,容易出现抽取的地域实体残缺或包含多余字的问题。
并没有考虑结合地域信息,因此难以区分不同地域对应的地域实体。例如,在杭州市的百度百科介绍中的句子“杭州东站位于上城区天城路,建于1992年;改扩建后的杭州东站于2013年7月1日启用,为上海铁路局下辖特等站,车站体量与上海虹桥站相当。”,地域相关地域实体识别任务希望仅抽取出与杭州市相关的火车站实体即“杭州东站”。但是对于综合全国各地数据训练的模型来说,“杭州东站”和“上海虹桥站”均是火车站类实体,因此难以在关于杭州市的描述中仅仅将“杭州东站”识别出来。针对不同地域分别进行模型训练确实可以做到让模型适用于该地域,但这样一来每识别一个城市就需要单独训练一个模型,造成了数据标注和模型训练上的巨大工作量。
发明内容
本申请提供了一种地域实体的识别方法及装置,实现了让地域文本实体识别模型找到与输入的地域实体描述最相关的地域实体,即实现在最终分类中更加倾向于与地域实体描述相关的地域实体,进而实现通过词向量、字特征和地域实体描述提高地域文本实体识别模型的识别准确率,以此提高地域实体识别的准确度。
一种地域实体的识别方法,其中,包括以下步骤:
将待训练地域文本中的待训练地域实体对应的词向量和待训练地域实体中的每个字对应的字特征进行融合,以得到待训练地域实体中的每个字对应的字向量;
根据待训练地域实体对应的地域实体描述和字向量对第一预训练模型进行训练,得到地域文本实体识别模型;
利用地域文本实体识别模型,识别待识别地域文本的地域实体。
优选的,识别方法,其中,得到待训练地域实体中的每个字对应的字向量之前,包括:
根据待训练地域文本的地域文本类型获取得到待训练地域文本的待训练地域实体和待训练地域实体的位置标记;
根据位置标记对待训练地域实体进行标记转换,以得到待训练地域实体的序列标注。
优选的,识别方法,其中,根据待训练地域文本的地域文本类型获取得到待训练地域文本的待训练地域实体和待训练地域实体的位置标记,具体包括以下步骤:
获取待识别地域文本,将待训练地域文本进行分类以获取得到待训练地域文本的地域文本类型;
根据地域文本类型从待识别地域文本中获取待训练地域实体的位置,并对待训练地域实体的位置进行标记,以得到每个待训练地域实体对应的标记位置。
优选的,识别方法,其中,得到待训练地域实体中的每个字对应的字向量之前,包括:
对待训练地域文本按照句子进行切分,并将切分后的短句进行拼接,以得到符合第一预训练模型的输入文本。
优选的,识别方法,其中,得到字向量,具体包括以下步骤:
采用字级别的第一预训练模型提取待训练地域文本中的待训练地域实体中的每个字对应的字特征;
采用词级别的第二预训练模型提取待训练地域文本中的待训练地域实体对应的词向量;
将词向量输入到第一预训练模型中,以将词向量和字特征进行融合后得到字向量。
优选的,识别方法,其中,将词向量和字特征进行融合后得到字向量,具体包括以下步骤:
将词向量输入到第一预训练模型中,以得到融合有词向量的第一预训练模型,并将融合有词向量的第一预训练模型记为融合模型;
融合模型对待训练地域文本构建字词对,并将字词对中的字信息和词信息融合,以得到待训练地域实体中的每个字对应的字向量。
优选的,识别方法,其中,将词向量和字特征进行融合后得到字向量,具体包括以下步骤:
将经第二预训练模型中获取得到的词向量进行维度转换,以得到符合第一预训练模型的词向量;
获取得到待训练地域实体中的每个字对应的符合第一预训练模型的词向量集合;
采用注意力加权机制将字特征和与字特征对应的词向量集合进行融合,以计算得到字特征的词向量权重:
将每个字特征的词向量权重进行加权处理,以得到每个字的字特征对应的加权词向量;
将字特征和加权词向量相加,以得到字向量。
优选的,识别方法,其中,第一预训练模型为BERT模型。
优选的,识别方法,其中,得到地域文本实体识别模型,具体包括以下步骤:
将待训练地域实体对应的地域实体描述输入到神经网络模型中,以输出得到地域实体描述向量;
将地域实体描述向量输入到第一预训练模型中,根据地域实体描述向量和字向量对第一预训练模型进行训练,得到地域文本实体识别模型。
还包括一种地域实体的识别装置,其中,包括:
融合单元,配置用于将待训练地域文本中的待训练地域实体对应的词向量和待训练地域实体中的每个字对应的字特征进行融合,以得到待训练地域实体中的每个字对应的字向量;
训练单元,配置用于根据待训练地域实体对应的地域实体描述和字向量对第一预训练模型进行训练,得到地域文本实体识别模型;
识别单元,配置用于利用地域文本实体识别模型,识别待识别地域文本的地域实体。
本申请能让地域文本实体识别模型找到与输入的地域实体描述最相关的地域实体,即实现在最终分类中更加倾向于与地域实体描述相关的地域实体,进而实现通过词向量、字特征和地域实体描述提高地域文本实体识别模型的识别准确率,以此提高地域实体识别的准确度。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其他特征将通过以下的说明书而变得容易理解。
附图说明
参考所附附图,以更加充分地描述本发明的实施例。然而,所附附图仅用于说明和阐述,并不构成对本发明范围的限制。
图1为本发明地域实体的识别方法的实施例的得到字向量的流程图。
具体实施方式
以下结合附图对本申请的示范性实施例作出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
一种地域实体的识别方法,包括以下步骤:
步骤S1,将待训练地域文本中的待训练地域实体对应的词向量和待训练地域实体中的每个字对应的字特征进行融合,以得到待训练地域实体中的每个字对应的字向量;
步骤S2,根据待训练地域实体对应的地域实体描述和字向量对第一预训练模型进行训练,得到地域文本实体识别模型;
步骤S3,利用地域文本实体识别模型,识别待识别地域文本的地域实体。
实际应用中,为了提高最终的地域文本实体识别模型的识别准确率,可以采用大规模的训练样本。因此,本申请实施例中,待训练地域文本可包含多个文本。
在上述实施例中,通过将待训练地域文本中的词向量和待训练地域文本中的字特征融合,得到字向量,从而克服了传统算法仅仅利用了字信息导致地域实体边界判断不准确的问题,并且能够更准确地识别待训练地域文本中的地域实体的边界。
通过将待训练地域文本所属于的地域实体描述融入第一预训练模型中,该地域实体描述为地域信息,即根据待训练地域实体对应的地域实体描述和字向量对第一预训练模型进行训练,得到地域文本实体识别模型。这样就能达到通过地域信息影响和控制模型输出的目的,也就能让地域文本实体识别模型根据不同的地域信息自适应的调整识别地域实体的倾向,找到与输入的地域信息最相关的地域实体,即实现在最终分类中更加倾向于与地域信息相关的地域实体。
需要说明的是,本申请涉及到的所有地域信息均为地域实体描述。
作为优选的实施方式,在步骤S1之前还包括:
步骤A1,根据待训练地域文本的地域文本类型获取得到待训练地域文本的待训练地域实体和待训练地域实体的位置标记;
进一步地,对待训练地域文本进行分类处理,以得到待训练地域文本的地域文本类型,根据地域文本类型获取得到待训练地域文本的核心词,并获取得到核心词的位置标记;
步骤A2,根据位置标记对待训练地域实体进行标记转换,以得到待训练地域实体对应的序列标注。
在上述实施例中,对于一个地域文本类型中的待训练地域文本,按照待训练地域文本中的待训练地域实体和待训练地域实体存在的位置标记进行序列标注的转化。
例如,对于交通领域,使用TRA表示火车站,AIR表示机场,PORT表示港口,METRO表示地铁,RAIL表示铁路,ROAD表示公路。由于中文的地域实体通常是由多个字组成的词,而地域实体识别方案以字为基本单位进行预测,因此一般将一个地域实体的第一个字表示为B-,其他部分表示为I-,对于非地域实体的字使用O表示。根据以上地域实体类型,共有B-TRA、I-TRA、B-AIR、 I-AIR、B-PORT、I-PORT、B-METRO、I-METRO、B-RAIL、I-RAIL、B-ROAD、 I-ROAD、O,13类字符标记分别用来表示文本中每个字的属性。例如,对于文本“杭州市最大的火车站是杭州东站,机场是萧山国际机场。”,其转换后的标记如下表1所示。
表1
通过数据处理,根据标注中地域实体的位置将文本均转换为上述的标记结果。
步骤A1具体包括以下步骤:
步骤A11,获取待识别地域文本,将待识别地域文件进行分类以获取得到待识别地域文件的地域文本类型;
由于不同类别的文本需要抽取的地域实体类型也是不同的,例如:交通领域需要抽取如下类型的地域实体:1)火车站2)机场3)港口4)地铁5)铁路6) 公路等;
而自然资源需要抽取如下类型的地域实体:1)国家I级保护动物2)国家 II级保护动物3)主要树种4)国家保护树种5)矿产资源。
因此需要首先对地域文本进行分类,具体的类别可根据需求而定。
分类采用规则方法,作为优选的实施方式,可以直接采用可信资料中的类别分类。
例如,由于在百度百科中对于省、市、县或区等地域的交通、自然资源、历史文化等类别均已进行了区分并分别描述,因此可以直接采用百度百科中对于省、市、县或区的描述的规律设计规则对地域文本进行分类。
需要说明的是,可信资料除了上述的官方认证的百度百科之外还有其他可信资料,例如维基百科、大英百科全书及其电子版和中国大百科全书及其电子版等。
步骤A12,根据地域文本类型从待识别地域文本中获取待训练地域实体的位置,并对待训练地域实体的位置进行标记,以得到每个待训练地域实体对应的标记位置。
对于不同类别的文本,标出每一类需要抽取的地域实体在文本中的位置。
作为优选的实施方式,在步骤S1之前还包括:
步骤B1,对待训练地域文本按照句子进行切分,并将切分后的短句进行拼接,以得到符合第一预训练模型的输入文本。
例如,BERT模型限制了输入的文本最大长度为512,而地域的描述文本长度一般都超过512,所以需要对文本进行分割。为了保证文本整体的结构不变,本申请首先以句号、感叹号、问号等符号对输入的文本进行分句。再按顺序组合若干句子,保证总长度不超过512。这样就可以将一段文本切分成若干总长度小于512的短文本,同时保证了句子的完整性。最终,将模型在各个子块上的地域实体识别结果综合起来即为完整文本的地域实体结果。
作为优选的实施方式,步骤S1具体包括以下步骤:
步骤S11,采用字级别的第一预训练模型取待训练地域文本中的待训练地域实体中的每个字对应的字特征;
步骤S12,采用词级别的第二预训练模型提取待训练地域文本中的待训练地域实体对应的词向量;
步骤S13,将词向量输入到第一预训练模型中,以将词向量和字特征进行融合后得到字向量。
在上述实施例中,通过将词级别的第二预训练模型将待训练地域文本中的词向量和字级别的第一预训练模型得到待训练地域文本中的字特征融合,得到字向量,从而克服了传统算法仅仅利用了字信息导致地域实体边界判断不准确的问题,并且能够更准确地识别待训练地域文本中的地域实体的边界。
通过将待训练地域文本所属于的地域信息融入第一预训练模型中,根据待训练地域实体对应的地域实体描述和字向量对第一预训练模型进行训练,得到地域文本实体识别模型。这样就能达到通过地域信息影响和控制模型输出的目的,也就能让模型根据不同的地域信息自适应的调整识别地域实体的倾向,找到与输入的地域信息最相关的地域实体,即实现在最终分类中更加倾向于与地域信息相关的地域实体。
作为优选的实施方式,步骤S1具体包括以下步骤:
步骤S14,将词向量输入到第一预训练模型中,以得到融合有词向量的第一预训练模型,并将融合有词向量的第一预训练模型记为融合模型;
步骤S15,融合模型对待训练地域文本构建字词对,并将字词对中的字信息和词信息融合,以得到待训练地域实体中的每个字对应的字向量。
例如,构建字词对的具体实施可以为:
对于一个中文句子s={c1,c2,…,cn},其中ci表示句子中的第i个字。通过现有的词典可以得到当前句子中每个字与其相邻字所能构成的词的集合。将句子中每个字和由该字匹配到的词集合组成一个字词对,表示为
scw={(c1,ws1),(c2,ws2),…,(cn,wsn)},其中wsi表示句子中的第i个字构成的词的集合。
举例说明,“杭州市民”中的“杭”可以构成的词有(杭州、杭州市),“州”可以构成的词有(杭州、杭州市),“市”可以构成的词有(杭州市、市民),“民”可以构成的词有(市民)。
其中,步骤S15具体包括以下步骤:
步骤S151,将经第二预训练模型中获取得到的词向量维度进行转换,以得到符合第一预训练模型的词向量;
具体的,对于句子中第i个位置的字词对(cn,wsn)的向量表示为(hi,wi),其中hi是第i个字的特征,wi={wi1,wi2,…,wim}为第由第i个字符对应的词构成的词向量,这个词向量可以通过单独训练的词向量模型(该词向量模型为第二预训练模型)得到。
通俗地说,在句子“杭州市民”中“州”这个字即为hi,“州”所对应的词有两个[杭州,杭州市],因此通过第二预训练模型生成的词向量也有两个,记为 wi0,wi1,也就是说“wi0”对应于“杭州”,“wi1”对应于“杭州市”;
但是由于词向量wi是通过第二预训练模型获取得到的,而字特征hi是通过第一预训练模型获取得到的,因此,wi和hi向量长度可能不同,此时就需要将wi 进行维度转换,使得wi和hi向量长度一致,具体方式如图1和下文所示:
首先,使用一个非线性变换将词向量维度与字向量维度对齐,如下述公式(1) 所示:
Vij=tan(h(W1wij+b)); (1)
dc用于表示字向量维度;
dw用于表示词向量维度;
wij用于表示第i个字对应的第j个第二预训练模型获取得到的词向量;
vij用于表示第i个字对应的第j个第一预训练模型获取得到的词向量;
步骤S152,获取得到待训练地域实体中的每个字对应的符合第一预训练模型的词向量集合;
此时,对于句子中第i个字,其对应的词经维度变换后的集合如下述公式(2) 所示:
Vi={vi1,vi2,vi3,……,vim}; (2)
其中,Vi用于表示第i个字对应的第一预训练模型获取得到的词向量集合。
步骤S153,采用注意力加权机制将字特征和与字特征对应的词向量集合进行融合,以计算得到字特征的词向量权重,如下述公式(3)所示:
其中,
αi用于表示第i个字的字特征的词向量权重;
hi用于表示第i个字的字特征;
W2用于表示神经网络中另一个参数;
vi T用于表示第i个字对应的多个词融合后的向量的转置,T用于表示转置参数。
在上述实施例中,每个字存在多个词向量,通过上述公式计算得到的数字表示字特征的词向量权重,其中,词向量权重用于表示该词向量权重对应的词向量对这个字的重要程度,重要的权重值高,不重要的权重值低。
步骤S154,将每个字特征的词向量权重进行加权处理,以得到每个字的字特征对应的加权词向量,如下述公式(4)所示:
在上述公式(4)中,采用权重对字对应的各个词向量加权,将加权后的词向量相加即得到融合的词向量,并将该融合的词向量记为加权词向量;
αij用于表示词向量权重αi中的第j个值;
vij为第i个字对应的第j个向量;
zi用于表示加权词向量。
步骤S155,将字特征hi和加权词向量zi相加,以得到融合结果。
在上述实施例中,词级别的第二预训练模型将该句子中的词信息与字级别的第一预训练模型得到的字向量融合,能够更准确地识别地域实体的边界。
在本申请实施例中,第一预训练模型可以为BERT模型,第二预训练模型可以为WoBERT模型。
第一预训练模型可以为BERT模型,BERT模型是由多层Transformer堆叠而成的,假设有L层,在中间的第K层将词信息融合,由第K-1层Transformer 输出得到字向量,再根据上述计算得到对应的词向量,将第i个位置的字向量与词向量相加后的融合结果作为该位置的信息输入下一层Transformer中。
在本申请实施例中,通过引入条件层标准化(Conditional LayerNormalization, Conditional LN)将文本中的地域实体所属于的地域信息融入地域文本实体识别模型中。由于BERT等预训练模型中都是以Transformer作为基础架构,而Transformer中的网络深层特征使用了层标准化(Layer Normalization,LN),条件层标准化就是将地域信息变成特征加到LN的参数中,这样就能达到通过地域信息影响或控制模型输出的目的,也就能让模型在最终分类中更加倾向于与地域信息相关的地域实体。使用地域信息作为特征输入的条件层标准化模型可以仅训练一个模型就能根据不同的地域信息作出不同倾向的结果。
在本申请实施例中,步骤S2具体包括以下步骤:
步骤S21,将待训练地域实体对应的地域实体描述输入到神经网络模型中,以输出得到地域实体描述向量;
步骤S22,将地域实体描述向量输入到第一预训练模型中,根据地域实体描述向量和字向量对第一预训练模型进行训练,得到地域文本实体识别模型。
优选的,由于识别的地域实体与地域信息相关,需要将地域相关的描述信息融合到模型中以指导模型正确识别出与地域相关的地域实体。本申请将地域信息 (可以是省市区名称、地域简短介绍等)做embedding(词嵌入,即将文字变为数字向量)得到地域信息向量r,再将地域信息向量r加入层标准化(Layer Normalization,LN)中改变LN的参数,再使用融合地域信息的LN对上一节的字词信息融合后的BERT输出结果进行层标准化。
其中,LN是深度学习中常用的一种标准化方法,用来将深层网络的特征调整到一个激活函数的合适范围,它能在很大程度上避免梯度消失、梯度爆炸等问题,并且加速模型收敛。
其中,计算各隐藏层的期望和标准差如下述公式(5)和(6)所示:
其中,在上述公式(5)和(6)中:
H用于表示隐藏层的节点数;
a用于表示向量;
μl用于表示第l层隐藏层的期望;
将地域信息向量r加入层标准化如下述公式(7)所示:
g用于表示增益参数;
b用于表示偏置参数;
经激活函数输出地输出结果如下述公式(8)所示:
其中,h用于表示一个样本经过LN后的输出结果。
公式(5)-公式(8)中的“l”是小写的L。
本申请将地域信息r经线性变换后加到上述的可训练参数g和b中,以得到如下述公式(9)和(10)所示的经过LN转换后的增益参数g’和偏置参数b’。
g’=Wg*r+g; (9)
b’=Wb*r+b; (10)
如此,即可实现对于不同地域的针对性地域实体识别。
进一步地,将模型结果对序列上的每个字做分类,类别为(B-TRA、I-TRA、 B-AIR、I-AIR、B-PORT、I-PORT、B-METRO、I-METRO、B-RAIL、I-RAIL、 B-ROAD、I-ROAD、O),取类别概率最大的作为结果。最终根据分类结果提取出其中的地域实体。
还提供一种地域实体的识别装置,包括:
融合单元,配置用于将待训练地域文本中的待训练地域实体对应的词向量和待训练地域实体中的每个字对应的字特征进行融合,以得到待训练地域实体中的每个字对应的字向量;
训练单元,配置用于根据待训练地域实体对应的地域实体描述和字向量对第一预训练模型进行训练,得到地域文本实体识别模型;
识别单元,配置用于利用地域文本实体识别模型,识别待识别地域文本的地域实体。
需要说明的是,地域实体的识别装置的各实施例与地域实体的识别方法的各实施例一致,在此不做详细赘述。
以上仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (10)
1.一种地域实体的识别方法,其特征在于,包括以下步骤:
将待训练地域文本中的待训练地域实体对应的词向量和所述待训练地域实体中的每个字对应的字特征进行融合,以得到所述待训练地域实体中的每个字对应的字向量;
根据所述待训练地域实体对应的地域实体描述和所述字向量对第一预训练模型进行训练,得到地域文本实体识别模型;
利用所述地域文本实体识别模型,识别待识别地域文本的地域实体。
2.根据权利要求1所述的识别方法,其特征在于,所述得到所述待训练地域实体中的每个字对应的字向量之前,包括:
根据所述待训练地域文本的地域文本类型获取得到所述待训练地域文本的待训练地域实体和所述待训练地域实体的位置标记;
根据所述位置标记对所述待训练地域实体进行标记转换,以得到所述待训练地域实体的序列标注。
3.根据权利要求2所述的识别方法,其特征在于,所述根据所述待训练地域文本的地域文本类型获取得到所述待训练地域文本的待训练地域实体和所述待训练地域实体的位置标记,具体包括以下步骤:
获取待训练地域文本,将所述待训练地域文本进行分类以获取得到所述待训练地域文本的地域文本类型;
根据所述地域文本类型从所述待训练地域文本中获取待训练地域实体的位置,并对所述待训练地域实体的位置进行标记,以得到每个所述待训练地域实体对应的标记位置。
4.根据权利要求1所述的识别方法,其特征在于,所述得到所述待训练地域实体中的每个字对应的字向量之前,包括:
对所述待训练地域文本按照句子进行切分,并将切分后的短句进行拼接,以得到符合所述第一预训练模型的输入文本。
5.根据权利要求1-4中任一所述的识别方法,其特征在于,所述得到字向量,具体包括以下步骤:
采用字级别的所述第一预训练模型提取所述待训练地域文本中的所述待训练地域实体中的每个字对应的字特征;
采用词级别的第二预训练模型提取所述待训练地域文本中的所述待训练地域实体对应的词向量;
将所述词向量输入到所述第一预训练模型中,以将所述词向量和所述字特征进行融合后得到字向量。
6.根据权利要求5中所述的识别方法,其特征在于,所述将所述词向量和所述字特征进行融合后得到字向量,具体包括以下步骤:
将所述词向量输入到所述第一预训练模型中,以得到融合有所述词向量的第一预训练模型,并将融合有所述词向量的第一预训练模型记为融合模型;
所述融合模型对所述待训练地域文本构建字词对,并将所述字词对中的字信息和词信息融合,以得到所述待训练地域实体中的每个字对应的字向量。
7.根据权利要求6中所述的识别方法,其特征在于,所述将所述词向量和所述字特征进行融合后得到字向量,具体包括以下步骤:
将经所述第二预训练模型中获取得到的词向量进行维度转换,以得到符合所述第一预训练模型的词向量;
获取得到所述待训练地域实体中的每个字对应的符合所述第一预训练模型的词向量集合;
采用注意力加权机制将所述字特征和与所述字特征对应的所述词向量集合进行融合,以计算得到所述字特征的词向量权重:
将每个所述字特征的所述词向量权重进行加权处理,以得到每个字的字特征对应的加权词向量;
将所述字特征和所述加权词向量相加,以得到所述字向量。
8.根据权利要求1-4中任一所述的识别方法,其特征在于,第一预训练模型为BERT模型。
9.根据权利要求1-4中任一所述的识别方法,其特征在于,所述得到地域文本实体识别模型,具体包括以下步骤:
将所述待训练地域实体对应的地域实体描述输入到神经网络模型中,以输出得到地域实体描述向量;
将所述地域实体描述向量输入到所述第一预训练模型中,根据所述地域实体描述向量和所述字向量对所述第一预训练模型进行训练,得到所述地域文本实体识别模型。
10.一种地域实体的识别装置,其特征在于,包括:
融合单元,配置用于将待训练地域文本中的待训练地域实体对应的词向量和所述待训练地域实体中的每个字对应的字特征进行融合,以得到所述待训练地域实体中的每个字对应的字向量;
训练单元,配置用于根据所述待训练地域实体对应的地域实体描述和所述字向量对第一预训练模型进行训练,得到地域文本实体识别模型;
识别单元,配置用于利用所述地域文本实体识别模型,识别待识别地域文本的地域实体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111176378.3A CN113935327A (zh) | 2021-10-09 | 2021-10-09 | 一种地域实体的识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111176378.3A CN113935327A (zh) | 2021-10-09 | 2021-10-09 | 一种地域实体的识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113935327A true CN113935327A (zh) | 2022-01-14 |
Family
ID=79278362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111176378.3A Pending CN113935327A (zh) | 2021-10-09 | 2021-10-09 | 一种地域实体的识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113935327A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115292620A (zh) * | 2022-08-09 | 2022-11-04 | 腾讯科技(深圳)有限公司 | 地域信息识别方法、装置、电子设备和存储介质 |
-
2021
- 2021-10-09 CN CN202111176378.3A patent/CN113935327A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115292620A (zh) * | 2022-08-09 | 2022-11-04 | 腾讯科技(深圳)有限公司 | 地域信息识别方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230031738A1 (en) | Taxpayer industry classification method based on label-noise learning | |
CN112269901B (zh) | 一种基于知识图谱的故障判别推理方法 | |
CN110019839B (zh) | 基于神经网络和远程监督的医学知识图谱构建方法和系统 | |
CN107679224B (zh) | 一种面向无结构文本智能问答的方法和系统 | |
CN112183064B (zh) | 基于多任务联合学习的文本情绪原因识别系统 | |
CN110781663B (zh) | 文本分析模型的训练方法及装置、文本分析方法及装置 | |
CN112329467A (zh) | 地址识别方法、装置、电子设备以及存储介质 | |
CN104809176A (zh) | 藏语实体关系抽取方法 | |
CN103703459A (zh) | 基于字符变换和无监督网络数据的文本消息规格化方法和系统 | |
WO2023108991A1 (zh) | 模型的训练方法、知识分类方法、装置、设备、介质 | |
US20220300546A1 (en) | Event extraction method, device and storage medium | |
CN111708882A (zh) | 基于Transformer的中文文本信息缺失的补全方法 | |
CN111522961B (zh) | 一种基于注意力机制及实体描述的产业图谱构建方法 | |
CN107368471A (zh) | 一种网页文本中地名地址的提取方法 | |
CN113191148A (zh) | 一种基于半监督学习和聚类的轨道交通实体识别方法 | |
Zhang et al. | Rule-based extraction of spatial relations in natural language text | |
CN114091454A (zh) | 一种互联网文本中地名信息提取及空间定位方法 | |
CN114153978A (zh) | 模型训练方法、信息抽取方法、装置、设备及存储介质 | |
CN110008699A (zh) | 一种基于神经网络的软件漏洞检测方法及装置 | |
CN113935327A (zh) | 一种地域实体的识别方法及装置 | |
CN113312918B (zh) | 融合部首向量的分词和胶囊网络法律命名实体识别方法 | |
CN113886512A (zh) | 地址要素解析方法、装置和电子设备 | |
CN103699568A (zh) | 一种从维基中抽取领域术语间上下位关系的方法 | |
CN116562294A (zh) | 一种基于提示学习的桥梁文本小样本命名实体识别方法 | |
CN113627185A (zh) | 一种用于肝癌病理文本命名的实体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |