CN115146033A - 命名实体识别方法及装置 - Google Patents
命名实体识别方法及装置 Download PDFInfo
- Publication number
- CN115146033A CN115146033A CN202210870244.XA CN202210870244A CN115146033A CN 115146033 A CN115146033 A CN 115146033A CN 202210870244 A CN202210870244 A CN 202210870244A CN 115146033 A CN115146033 A CN 115146033A
- Authority
- CN
- China
- Prior art keywords
- entity
- sequence
- tag
- document set
- inputting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Machine Translation (AREA)
Abstract
本公开涉及自然语言处理技术领域,提供了一种命名实体识别方法及装置。该方法包括:将原始语料实体名称与对应的实体标签均作为关键字,在原始文档集合中进行检索,检索出同时命中原始语料实体名称与对应的实体标签的文档,形成检索后的文档集合;将原始语料实体序列集合、检索后的文档集合共同输入到基于注意力机制的训练模型中,获得融入实体标签语义信息后的序列特征向量;将获得融入实体标签语义信息后的序列特征向量输入到条件随机场,经过训练学习,获得命名实体识别标签预测序列。本公开能够充分利用标签的语义信息,提高对命名实体的识别效率,增强输入序列标签的特征,更好的完成命名实体识别任务。
Description
技术领域
本公开涉及自然语言处理技术领域,尤其涉及一种命名实体识别方法及装置。
背景技术
目前主流的命名实体识别方法将命名实体识别任务建模成一个序列标注任务,例如,通过BERT预训练模型建模了标签token之间的语义关系,通过条件随机场的转移矩阵建模了标签与标签之间的转移关系,但是没有充分的利用标签的语义信息,而标签的语义信息天然的包含了某种先验知识,因此需要一种融入标签语义信息的命名实体识别方法,帮助模型更好的对输入序列中的命名实体进行识别。
目前主要利用BERT等预训练语言模型对输入的文本序列进行序列特征编码,由于BERT只考虑了输入序列中token的信息,而没有考虑到当前token与上一token标签之间的转移关系,因此再在BERT网络的基础上增加CRF层建模标签之间的转移关系。现有方法在进行序列token特征编码时仅利用了token的语义信息,本发明通过引入远程监督方法学习标签的语义信息,然后利用注意力机制将标签的语义信息融合到token特征中,通过该方法模型能够利用token与标签之间的语义关联帮助模型更好的识别序列中的命名实体。
发明内容
有鉴于此,本公开实施例提供了一种命名实体识别方法及装置,以解决现有技术中的标签语义信息没有得到充分利用、命名实体识别效果不够好、识别效率低等问题。
本公开实施例的第一方面,提供了一种命名实体识别方法,包括以下步骤:
将原始语料实体名称与对应的实体标签均作为关键字,在原始文档集合中进行检索,检索出同时命中原始语料实体名称与对应的实体标签的文档,形成检索后的文档集合;将原始语料实体序列集合、检索后的文档集合共同输入到基于注意力机制的训练模型中,获得融入实体标签语义信息后的序列特征向量;将获得融入实体标签语义信息后的序列特征向量输入到条件随机场,经过训练学习,获得命名实体识别标签预测序列。
本公开实施例的第二方面,提供了一种命名实体识别方法,包括以下步骤:
将原始语料实体名称与对应的实体标签均作为关键字,在原始文档集合中进行检索,检索出同时命中原始语料实体名称与对应的实体标签的文档,形成检索后的文档集合;
替换所述检索后的文档集合中的实体名称为与实体对应的实体标签,形成替换后的文档集合;
将替换后的文档集合输入到Skip-gram算法模型中,在Skip-gram算法模型中训练学习各个实体标签的嵌入表示向量,输出得到各个实体标签的嵌入表示向量集合;
将原始语料实体序列集合输入到BERT训练语言模型中,获得双向语言表征的输出向量序列;
将所述双向语言表征的输出向量序列、与原始语料对应的各个实体标签的嵌入表示向量集合,共同输入到基于注意力机制的训练模型中,针对所述注意力机制训练模型的输入向量序列:输出向量序列和嵌入表示向量集合对应的所有实体标签,在任意两个标签之间进行注意力得分判断,获得所述双向语言表征的输出序列、以及与原始语料对应的各个实体标签的嵌入表示向量集合之间的注意力权重矩阵;
利用所述注意力权重矩阵、与原始语料对应的各个实体标签的嵌入表示向量集合的转置矩阵MT,获得融入实体标签语义信息后的序列特征向量;
将所述融入实体标签语义信息后的序列特征向量输入到基于自注意力机制的深度神经网络:Transformer,获得输出嵌入表示矩阵;
将所述输出嵌入表示矩阵输入到线性变换层,获得变换后的嵌入表示矩阵;
将所述变换后的嵌入表示矩阵输入到条件随机场CRF,经过训练学习,获得命名实体识别标签预测序列。
本公开实施例的第三方面,提供了一种系统,包括:包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种装置,包括:包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第五方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果是:通过各个实体标签表示的向量集合,能够在实体信息中融入实体标签语义信息,通过基于注意力机制的训练模型获得融入实体标签语义信息后的序列特征向量,能够增强命名实体的相似度识别,增强输入序列标签token的特征;此外,通过CRF条件随机场的练学习,能够通过当前单词的词性与上一个或者上几个单词的词性的关系、当前单词的词性与当前单词的词性的关系,当前单词的词性与下一个或者下几个未来单词的词性的关系,当前单词的词性与输入的任意一个单词的关系,等等,通过更丰富的表达输出的单词词性概率,获得了较好的预测输出序列,能够帮助模型更好的完成命名实体识别任务,能够充分利用标签的语义信息,提高对命名实体的识别效率。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本公开实施例的应用场景的场景示意图;
图2是本公开实施例提供的一种命名实体识别方法的流程示意图;
图3是本公开实施例提供的另一种命名实体识别方法的流程示意图;
图4是本公开实施例提供的又一种命名实体识别方法的流程示意图。
图5是本公开实施例提供的再一种命名实体识别方法的流程示意图;
图6是本公开实施例提供的一种命名实体识别方法的流程示意图。
图7是本公开实施例提供的一种系统的结构示意图。
具体实施方式
本发明实施例能够解决现有技术中存在的相关问题,具体参见下文描述。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
下面将结合附图详细说明根据本公开实施例的一种命名实体识别方法和装置。
图1是本公开实施例的应用场景的场景示意图。该应用场景可以包括终端设备1、2和3、服务器4、网络5。
终端设备1、2和3可以是硬件,也可以是软件。当终端设备1、2和3为硬件时,其可以是具有显示屏且支持与服务器4通信的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等;当终端设备1、2和3为软件时,其可以安装在如上所述的电子设备中。终端设备1、2和3可以实现为多个软件或软件模块,也可以实现为单个软件或软件模块,本公开实施例对此不作限制。进一步地,终端设备1、2和3上可以安装有各种应用,例如数据处理应用、即时通信工具、社交平台软件、搜索类应用、购物类应用等。
服务器4可以是提供各种服务的服务器,例如,对与其建立通信连接的终端设备发送的请求进行接收的后台服务器,该后台服务器可以对终端设备发送的请求进行接收和分析等处理,并生成处理结果。服务器4可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者还可以是一个云计算服务中心,本公开实施例对此不作限制。
需要说明的是,服务器4可以是硬件,也可以是软件。当服务器4为硬件时,其可以是为终端设备1、2和3提供各种服务的各种电子设备。当服务器4为软件时,其可以是为终端设备1、2和3提供各种服务的多个软件或软件模块,也可以是为终端设备1、2和3提供各种服务的单个软件或软件模块,本公开实施例对此不作限制。
网络5可以是采用同轴电缆、双绞线和光纤连接的有线网络,也可以是无需布线就能实现各种通信设备互联的无线网络,例如,蓝牙(Bluetooth)、近场通信(Near FieldCommunication,NFC)、红外(Infrared)等,本公开实施例对此不作限制。
用户可以通过终端设备1、2和3经由网络5与服务器4建立通信连接,以接收或发送信息等。
需要说明的是,终端设备1、2和3、服务器4以及网络5的具体类型、数量和组合可以根据应用场景的实际需求进行调整,本公开实施例对此不作限制。
用户可以通过终端设备1、2、3、服务器4以及网络5的任一端,进行命名实体识别,从而解决本发明的技术问题并且实现相应的技术效果。
如前文背景技术内容,现有技术中通过在BERT网络的基础上增加CRF层建模标签之间的转移关系来实现命名实体的识别,该方法的主要包括以下内容:
对于输入序列W=(w1,...,wi,...,wn),其中i∈[1,...,n],n代表输入序列的长度,wi代表输入序列的第i个token。将其输入预训练语言模型BERT中得到的输出序列用矩阵X=(x1,...,xi,...,xn)∈Rn×d表示:
X=BERT(W)
其中R代表实数空间,d代表输入序列token的输出嵌入表示维度,xi∈R1×d代表第i个token即wi经过BERT模型后得到的输出嵌入表示。
将矩阵X输入一个线性变换层得到token标签的评分矩阵P=(p1,...,pi,...,pn)∈Rn×k,其中k代表序列token的k个标签,pi∈R1×k代表第i个token的标签分布概率,Pi,j代表第i个token属于第k个标签的概率。
对于输入序列X的预测序列y=(y1,...,yi,...,yn)∈Rn,定义如下评分:
其中A∈R(k+2)×(k+2)代表标签之间的转移矩阵(加入了开始标签和结束标签)。
预测序列y出现的概率为:
其中YX输入序列W所有可能的标签序列。
模型最终得到的命名实体最佳预测序列即是:
由此可见,现有技术的方法在进行序列token特征编码时仅利用了token的语义信息,本发明通过引入远程监督方法学习标签的语义信息,然后利用注意力机制将标签的语义信息融合到token特征中,通过该方法模型能够利用token与标签之间的语义关联帮助模型更好的识别序列中的命名实体。
图2是本公开实施例提供的一种命名实体识别方法的流程示意图。图2的命名实体识别方法可以由图1的终端设备或服务器执行。如图2所示,该命名实体识别方法包括:
S201,将原始语料实体名称与对应的实体标签均作为关键字,在原始文档集合中进行检索;
S202,检索出同时命中原始语料实体名称与对应的实体标签的文档,形成检索后的文档集合;
S203,将原始语料实体序列集合、检索后的文档集合共同输入到基于注意力机制的训练模型中;
S204,获得融入实体标签语义信息后的序列特征向量;
S205,将获得融入实体标签语义信息后的序列特征向量输入到条件随机场;
S206,经过训练学习,获得命名实体识别标签预测序列。
方法步骤用“SXXX”表示,XXX为三位连续编号的数字,如该方法步骤的S201、S202、S203、S204,S205、S206,应理解,实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对公开实施例的实施过程构成任何限定。其他具体实施方式中关于方法步骤的理解方式与本实施方式相同,将不再赘述。
具体地,将原始语料实体名称与对应的实体标签均作为关键字,在原始文档集合D中进行检索并形成检索后的文档集合DE,能够获得实体标签的信息集合,将原始语料实体序列集合W、检索后的文档集合DE共同输入到基于注意力机制的训练模型中进行训练,通过融合标签语义信息的手段,提高了对相似度特性的识别程度,能够增强原始语料实体序列集合的实体识别程度;此外,通过将获得融入实体标签语义信息后的序列特征向量E输入到条件随机场CRF,能够基于条件随机场CRF训练模型的特点:通过当前单词的词性与上一个或者上几个单词的词性的关系、当前单词的词性与当前单词的词性的关系,当前单词的词性与下一个或者下几个未来单词的词性的关系,当前单词的词性与输入的任意一个单词的关系,等等,通过更丰富的表达输出的单词词性概率,获得了较好的预测输出序列。
根据本公开实施例提供的技术方案,可以较好地识别序列中的命名实体,获得了较好的识别效果。
图3是本公开实施例提供的另一种命名实体识别方法的流程示意图。图3的命名实体识别方法可以由图1的终端设备或服务器执行。如图3所示,该命名实体识别方法包括:
S301,将原始语料实体名称与对应的实体标签均作为关键字,在原始文档集合D中进行检索;
S302,检索出同时命中原始语料实体名称与对应的实体标签的文档,形成检索后的文档集合DE;
S303,将检索后的文档集合DE中的实体名称替换为与实体对应的实体标签,形成替换后的文档集合DR;
S304,将原始语料实体序列集合W、替换后的文档集合DR共同输入到基于注意力机制的训练模型中;
S305,获得融入实体标签语义信息后的序列特征向量E;
S306,将获得融入实体标签语义信息后的序列特征向量E输入到条件随机场CRF;
S307,经过训练学习,获得命名实体识别标签预测序列Y。
具体地,在图2公开实施例的基础上,通过进一步对融入实体标签的信息进行加工:将检索后的文档集合DE中的实体名称替换为与实体对应的实体标签,形成替换后的文档集合DR,并且,将原始语料实体序列集合W、替换后的文档集合DR共同输入到基于注意力机制的训练模型中,能够进一步提高语义信息的识别程度,通过条件随机场CRF后获得更好的预测输出序列。
图4是本公开实施例提供的一种命名实体识别方法示意图,该命名实体识别方法包括:
S401,将原始语料实体名称与对应的实体标签均作为关键字,在原始文档集合D中进行检索;
S402,检索出同时命中原始语料实体名称与对应的实体标签的文档,形成检索后的文档集合DE;
S403,将检索后的文档集合DE中的实体名称替换为与实体对应的实体标签,形成替换后的文档集合DR;
S404,将替换后的文档集合DR输入到word2vec算法模型中,在word2vec算法模型中训练学习各个实体标签的嵌入表示向量;
S405,输出得到原始语料对应的各个实体标签的嵌入表示向量集合M;
S406,将原始语料实体序列集合W、替换后的文档集合DR共同输入到基于注意力机制的训练模型中;
S407,获得融入实体标签语义信息后的序列特征向量E;
S408,将获得融入实体标签语义信息后的序列特征向量E输入到条件随机场CRF;
S409,经过训练学习,获得命名实体识别标签预测序列Y。
具体地,通过在图3公开实施例的基础上,通过进一步对融入实体标签的信息进行加工:将替换后的文档集合DR输入到word2vec算法模型中,在word2vec算法模型中训练学习各个实体标签的嵌入表示向量,输出得到原始语料对应的各个实体标签的嵌入表示向量集合M,能够通过word2vec算法模型对单词进行训练以重新建构向量,训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系。
根据本公开实施例提供的技术方案,可以进一步增强融入实体标签的信息的语义学习和识别水平。
图5是本公开实施例提供的一种命名实体识别方法示意图,该命名实体识别方法包括:
S501,将原始语料实体名称与对应的实体标签均作为关键字,在原始文档集合D中进行检索;
S502,检索出同时命中原始语料实体名称与对应的实体标签的文档,形成检索后的文档集合DE;
S503,将检索后的文档集合DE中的实体名称替换为与实体对应的实体标签,形成替换后的文档集合DR;
S504,将替换后的文档集合DR输入到word2vec算法模型中,在word2vec算法模型中训练学习各个实体标签的嵌入表示向量;
S505,输出得到原始语料对应的各个实体标签的嵌入表示向量集合M;
S506,将原始语料实体序列集合W输入到BERT训练语言模型中,获得双向语言表征的输出向量序列X;
S507,将双向语言表征的输出向量序列X、替换后的文档集合DR共同输入到基于注意力机制的训练模型中;
S508,获得融入实体标签语义信息后的序列特征向量E;
S509,将获得融入实体标签语义信息后的序列特征向量E输入到条件随机场CRF;
S510,经过训练学习,获得命名实体识别标签预测序列Y。
具体地,通过在图4公开实施例的基础上,将原始语料实体序列集合W输入到BERT训练语言模型中,获得双向语言表征的输出向量序列X.
BERT的全称为Bidirectional Encoder Representation from Transformers(基于Transformer的双向编码器表征),是一个预训练的语言表征模型,BERT模型的根基是Transformer,BERT在处理一个词的时候,能考虑到该词前面和后面单词的信息,从而获取上下文的语义。
为了实现深度的双向表示,使得双向的作用让每个单词能够在多层上下文中间接的看到自己,BERT模型采用了一种简单的策略:Masked Language Model(MLM),MLM策略能够随机屏蔽掉部分输入token(固定维度的向量),然后再去预测这些被屏蔽掉的token(固定维度的向量),采用MLM策略的具体过程为:在输入一句话的时候,随机地选一些要预测的词,然后用一个特殊的符号来代替它们,之后让模型根据所给的标签去学习这些地方该填的词。
第二个策略在双向语言模型的基础上额外增加了一个句子级别的连续性预测任务,预测输入BERT的两段文本是否为连续的文本,引入这个任务可以更好地让模型学到连续的文本片段之间的关系。
具体地,选用BERT模型作为自然语言训练模型,能够让每个切词及对应的词性信息在上下文中进行预测训练,还能够学习训练两段文字文本之间的连续性,对训练语料的词语、词性、上下文关系、文本连续性等方向去进行学习和预测,能够较好地实现自然语言处理和语义学习的效果。
根据本公开实施例提供的技术方案,可以进一步增强原始语料实体序列的语义学习和识别水平。
优选地,在基于注意力机制的训练模型中,针对输入的所有实体标签,在任意两个标签之间进行注意力得分判断,获得注意力权重矩阵A。
优选地,将基于注意力机制训练模型中的输入向量集合:各个实体标签的嵌入表示向量集合M进行向量集合的转置,获得MT,结合注意力权重矩阵A,获得融入实体标签语义信息后的序列特征向量E,其中E为A*MT。
优选地,获得融入实体标签语义信息后的序列特征向量E后,将融入实体标签语义信息后的序列特征向量E输入到基于自注意力机制的深度神经网络:Transformer,获得输出嵌入表示矩阵H;将H输入到条件随机场CRF,经过训练学习,获得命名实体识别标签预测序列Y。
优选地,获得输出嵌入表示矩阵H后,将输出嵌入表示矩阵H输入到线性变换层,获得变换后的嵌入表示矩阵O;将变换后的嵌入表示矩阵O输入到条件随机场CRF,经过训练学习,获得命名实体识别标签预测序列Y。
图6是本公开实施例提供的一种命名实体识别方法示意图,该命名实体识别方法包括:
S601,将实体名称:阿迪达斯、星巴克、优衣库,以及与阿迪达斯、星巴克、优衣库对应的实体标签BRAND,以及与实体标签BRAND对应的关键词描述“品牌”和“牌子”均作为准备检索的关键字;
S602,将实体名称与对应的实体标签和关键词均作为关键字在原始文档集合D中进行检索;
S603,检索后形成文档集合DE;
S604,将文档集合DE中的实体名称替换为与实体对应的实体标签,形成替换后形成文档集合DR;
S605,将替换后形成的文档集合DR输入到Skip-gram算法模型中,获得各个实体标签的嵌入表示向量;
S606,获得原始语料实体序列集合W;
S607,将原始语料实体序列集合W输入到BERT训练语言模型,输出得到序列集合X;
S608,将各个实体标签的嵌入表示向量、序列集合X同时输入基于注意力机制的训练模型,获得融入实体标签语义信息后的序列特征向量E;
S609,将融入实体标签语义信息后的序列特征向量E输入到Transformer层,获得嵌入表示矩阵H;
S610,序列嵌入表示矩阵H过一个线性变换层,投影到实体标签的空间中得到嵌入表示矩阵O;
S611,将嵌入表示矩阵O输入到CRF层,学习输入序列的命名实体识别标签预测序列;
S612,获得命名实体识别标签预测序列y。
具体地:
实体节点定义:定义知识图谱为G={E,L},其中E代表知识图谱中的实体节点集合,Ne代表知识图谱中实体节点的个数,代表知识图谱中的第ie个实体节点。L代表知识图谱本体中实体标签的集合,Nl代表知识图谱本体中实体标签的个数,代表知识图谱本体中的第il个实体标签。
为知识图谱本体中实体标签的集合L中的每个实体标签补充该标签的关键词描述信息,如商品品牌的实体标签“BRAND”,可以为其添加关键词描述“品牌”和“牌子”,便于后续对实体节点相关的文档进行更加准确的检索。
对于知识图谱G中的每个实体节点e∈E,在文档集合D上使用实体节点e的名称和其对应的实体标签l∈L作为关键字检索出同时命中两者的文档,然后形成文档集合其中ied∈[1,…,Ned],Ned代表实体e在文档集合D中检索出的文档个数,代表实体检索出的文档集合De中的第ied个文档。所有实体节点检索出的文档形成文档集合其中代表知识图谱中的第ie个实体节点的名称和别名搜索出的相关文档集合,∪代表合并集合。
如假设知识图谱G中包含实体节点e其名称为“阿迪达斯”,对应的实体标签l为“BRAND”,实体标签“BRAND”的关键词包括“品牌”和“牌子”,将“阿迪达斯”和实体标签BRAND的关键字“品牌”、“牌子”作为关键词,在文档集合D进行检索,然后对检索出的文档进行实体标签标记替换获得文档集合DR=Replace(DE),其中Replace代表实体标签标记替换操作。具体的做法是将检索出的文档中出现“品牌”和“牌子”的地方替换为实体标签特殊标记“[BRAND]”,如下表所示:
将实体检索返回的相关文档作为实体标签嵌入表示学习的语料,利用skip-gram算法,学习知识图谱本体中各个实体标签嵌入表示M=(m1,…,mi,…,mk)∈Rk×d。
对于输入序列W=(w1,…,wi,…,wn),将其输入预训练语言模型BERT中得到的输出序列用矩阵X=(x1,…,xi,…,xn)表示:
X=BERT(W)
将各个实体标签嵌入表示M和输出序列用矩阵X输入注意力机制学习模型中,利用注意力机制学习序列中每个token对标签的权重得分,加权得到该单词对应的标签嵌入表示。
A=Attention(X,M)∈Rn×k
利用注意力权重得分矩阵将实体标签的嵌入表示融合到输入序列token的嵌入表示中:
E=A×MT∈Rn×d
其中MT∈Rd×k是实体标签嵌入表示矩阵M的转置矩阵,E是融入实体标签语义信息后的输入序列token特征。
将融入实体标签语义信息的token序列E输入一层的Transformer层,进行token上下文特征融合,得到输出嵌入表示矩阵H:
H=Transformer(E)∈Rn×d
再将上下文特征融合后的序列嵌入表示矩阵H过一个线性变换层,投影到实体标签的空间中得到嵌入表示矩阵O∈Rn×k:
O=Linear(H)
Linear代表线性变换层。最后将O送入CRF层,学习输入序列的命名实体识别标签预测序列y。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
图7是本公开实施例提供的系统700的示意图。如图7所示,该实施例的系统700包括:处理器701、存储器702以及存储在该存储器702中并且可在处理器701上运行的计算机程序703。处理器701执行计算机程序703时实现上述各个方法实施例中的步骤。或者,处理器701执行计算机程序703时实现上述各装置实施例中各模块/单元的功能。
示例性地,计算机程序703可以被分割成一个或多个模块/单元,一个或多个模块/单元被存储在存储器702中,并由处理器701执行,以完成本公开。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序703在系统700中的执行过程。
系统700可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。系统700可以包括但不仅限于处理器701和存储器702。本领域技术人员可以理解,图7仅仅是系统700的示例,并不构成对系统700的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如,系统还可以包括输入输出设备、网络接入设备、总线等。
处理器701可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器702可以是系统700的内部存储单元,例如,系统700的硬盘或内存。存储器702也可以是系统700的外部存储设备,例如,系统700上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器702还可以既包括系统700的内部存储单元也包括外部存储设备。存储器702用于存储计算机程序以及电子设备所需的其它程序和数据。存储器702还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
在本公开所提供的实施例中,应该理解到,所揭露的装置/系统和方法,可以通过其它的方式实现。例如,以上所描述的装置/系统实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。
Claims (10)
1.一种命名实体识别方法,其特征在于,包括:
将原始语料实体名称与对应的实体标签均作为关键字,在原始文档集合中进行检索,检索出同时命中原始语料实体名称与对应的实体标签的文档,形成检索后的文档集合;
将原始语料实体序列集合、检索后的文档集合共同输入到基于注意力机制的训练模型中,获得融入实体标签语义信息后的序列特征向量;
将所述获得融入实体标签语义信息后的序列特征向量输入到条件随机场,经过训练学习,获得命名实体识别标签预测序列。
2.根据权利要求1所述的命名实体识别方法,其特征在于,形成检索后的文档集合后,将所述检索后的文档集合中的实体名称替换为与实体对应的实体标签,形成替换后的文档集合,将原始语料实体序列集合、替换后的文档集合共同输入到基于注意力机制的训练模型中,获得融入实体标签语义信息后的序列特征向量。
3.根据权利要求2所述的命名实体识别方法,其特征在于,形成替换后的文档集合后,将替换后的文档集合输入到word2vec算法模型中,在word2vec算法模型中训练学习各个实体标签的嵌入表示向量,输出得到原始语料对应的各个实体标签的嵌入表示向量集合;将原始语料实体序列集合、各个实体标签的嵌入表示向量集合共同输入到基于注意力机制的训练模型中,获得融入实体标签语义信息后的序列特征向量。
4.根据权利要求2所述的命名实体识别方法,其特征在于,所述word2vec算法模型为Skip-gram算法模型。
5.根据权利要求1所述的命名实体识别方法,其特征在于,将原始语料实体序列集合输入到BERT训练语言模型中,获得双向语言表征的输出向量序列;将原始语料实体序列集合、双向语言表征的输出向量序列共同输入到基于注意力机制的训练模型中,获得融入实体标签语义信息后的序列特征向量。
6.根据权利要求1-5任一所述的命名实体识别方法,其特征在于,在基于注意力机制的训练模型中,针对输入的所有实体标签,在任意两个标签之间进行注意力得分判断,获得注意力权重矩阵。
7.根据权利要求6所述的命名实体识别方法,其特征在于,将基于注意力机制训练模型中的输入向量集合中对应的检索后的文档集合、或者替换后的文档集合、或者各个实体标签的嵌入表示向量集合进行向量集合的转置,获得DET、或者DRT、或者MT,结合所述注意力权重矩阵,获得融入实体标签语义信息后的序列特征向量,其中序列特征向量为A*DET、或者A*DRT、或者A*MT对应的结果。
8.根据权利要求7所述的命名实体识别方法,其特征在于,获得融入实体标签语义信息后的序列特征向量后,将所述融入实体标签语义信息后的序列特征向量输入到基于自注意力机制的深度神经网络,获得输出嵌入表示矩阵;将输出的嵌入表示矩阵输入到条件随机场,经过训练学习,获得命名实体识别标签预测序列。
9.根据权利要求8所述的命名实体识别方法,其特征在于,获得输出嵌入表示矩阵后,将所述输出嵌入表示矩阵输入到线性变换层,获得变换后的嵌入表示矩阵;将所述变换后的嵌入表示矩阵输入到条件随机场,经过训练学习,获得命名实体识别标签预测序列。
10.一种装置,包括存储器,处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求1至9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210870244.XA CN115146033A (zh) | 2022-07-18 | 2022-07-18 | 命名实体识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210870244.XA CN115146033A (zh) | 2022-07-18 | 2022-07-18 | 命名实体识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115146033A true CN115146033A (zh) | 2022-10-04 |
Family
ID=83413704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210870244.XA Pending CN115146033A (zh) | 2022-07-18 | 2022-07-18 | 命名实体识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115146033A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116804998A (zh) * | 2023-08-22 | 2023-09-26 | 神州医疗科技股份有限公司 | 基于医学语义理解的医学术语检索方法和系统 |
-
2022
- 2022-07-18 CN CN202210870244.XA patent/CN115146033A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116804998A (zh) * | 2023-08-22 | 2023-09-26 | 神州医疗科技股份有限公司 | 基于医学语义理解的医学术语检索方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI732271B (zh) | 人機對話方法、裝置、電子設備及電腦可讀媒體 | |
US10650102B2 (en) | Method and apparatus for generating parallel text in same language | |
CN112131350B (zh) | 文本标签确定方法、装置、终端及可读存储介质 | |
CN112487182A (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN111241237B (zh) | 一种基于运维业务的智能问答数据处理方法及装置 | |
WO2021135469A1 (zh) | 基于机器学习的信息抽取方法、装置、计算机设备及介质 | |
WO2021218028A1 (zh) | 基于人工智能的面试内容精炼方法、装置、设备及介质 | |
CN112287069B (zh) | 基于语音语义的信息检索方法、装置及计算机设备 | |
KR20170004154A (ko) | 문서를 이미지 기반 컨텐츠로 요약하여 제공하는 방법 및 시스템 | |
CN111414561B (zh) | 用于呈现信息的方法和装置 | |
CN110309275A (zh) | 一种对话生成的方法和装置 | |
CN112560505A (zh) | 一种对话意图的识别方法、装置、电子设备及存储介质 | |
CN113779225B (zh) | 实体链接模型的训练方法、实体链接方法及装置 | |
CN111813905A (zh) | 语料生成方法、装置、计算机设备及存储介质 | |
CN112926308B (zh) | 匹配正文的方法、装置、设备、存储介质以及程序产品 | |
CN108846125A (zh) | 对话生成方法、装置、终端和计算机可读存储介质 | |
CN115374771A (zh) | 文本标签确定方法及装置 | |
CN115146033A (zh) | 命名实体识别方法及装置 | |
CN114780701A (zh) | 自动问答匹配方法、装置、计算机设备及存储介质 | |
CN114281996A (zh) | 长文本分类方法、装置、设备及存储介质 | |
CN116402166B (zh) | 一种预测模型的训练方法、装置、电子设备及存储介质 | |
CN116975221A (zh) | 文本阅读理解方法、装置、设备及存储介质 | |
CN116701593A (zh) | 基于GraphQL的中文问答模型训练方法及其相关设备 | |
CN116796730A (zh) | 基于人工智能的文本纠错方法、装置、设备及存储介质 | |
Cui et al. | Cross-modal alignment with graph reasoning for image-text retrieval |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |