CN111310456B - 一种实体名称匹配方法、装置及设备 - Google Patents
一种实体名称匹配方法、装置及设备 Download PDFInfo
- Publication number
- CN111310456B CN111310456B CN202010090933.XA CN202010090933A CN111310456B CN 111310456 B CN111310456 B CN 111310456B CN 202010090933 A CN202010090933 A CN 202010090933A CN 111310456 B CN111310456 B CN 111310456B
- Authority
- CN
- China
- Prior art keywords
- entity
- feature vector
- word
- vector
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 90
- 239000013598 vector Substances 0.000 claims abstract description 369
- 238000002372 labelling Methods 0.000 claims abstract description 63
- 230000007246 mechanism Effects 0.000 claims abstract description 37
- 230000011218 segmentation Effects 0.000 claims abstract description 34
- 238000013507 mapping Methods 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 13
- 238000010380 label transfer Methods 0.000 claims description 9
- 230000007704 transition Effects 0.000 claims description 9
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 230000006872 improvement Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 4
- 230000008520 organization Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000011001 backwashing Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/04—Trading; Exchange, e.g. stocks, commodities, derivatives or currency exchange
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Strategic Management (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Business, Economics & Management (AREA)
- Technology Law (AREA)
- Marketing (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本说明书实施例提供一种实体名称匹配方法、装置及设备。方案包括:获取待匹配实体名称;对待匹配实体名称进行分词,并将分词映射为向量,得到待匹配实体名称的词向量;采用基于自注意力机制的特征抽取器对每个词向量进行特征抽取,得到第一特征向量;再采用训练完成的条件随机场模型对第一特征向量进行序列标注,得到携带有域标签的第二特征向量,将第二特征向量输入到实体匹配模型中,得到匹配结果。
Description
技术领域
本说明书一个或多个实施例涉及计算机技术领域,尤其涉及一种实体名称匹配方法、装置及设备。
背景技术
目前,命名实体识别(Named Entities Recognition,NER)是自然语言处理(Natural Language Processing,NLP)的一个基础任务。其目的是识别语料中人名、地名、组织机构名等命名实体。由于这些命名实体数量不断增加,通常不可能在词典中穷尽列出,且其构成方法具有各自的一些规律性,因而,通常把对这些词的识别从词汇形态处理(如汉语切分)任务中独立处理,称为命名实体识别。命名实体识别技术是信息抽取、信息检索、机器翻译等多种自然语言处理技术必不可少的组成部分。
现有技术中,在进行命名实体识别时,一般采用全词对齐匹配的方法,比如:直接基于字符串匹配算法。但是现有技术中的方法,并没有考虑到实体文本中各个字词之间的语义关联,比如公司名作为文本的语义关联。也无法区分企业/机构名中的各部分在实体文本匹配中的重要程度,在面向大量企业业务时,会因为着重匹配非关键部分(如后缀,地区等)、简称部分等而导致匹配到错误的实体对象,难以保证匹配准确性,对于含有非常见词、非登录词的文本泛化能力也较差,导致系统打扰率升高。
因此,需要提供一种更可靠的实体名称匹配方案。
发明内容
有鉴于此,本说明书一个或多个实施例提供了一种实体名称匹配方法、装置及设备,用于提高实体名称匹配的准确率。
为解决上述技术问题,本说明书实施例是这样实现的:
本说明书实施例提供的一种实体名称匹配方法,包括:
获取待匹配实体名称;
对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,所述词向量携带有语义信息;
采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,所述第一特征向量为权重向量,所述权重表示所述词向量之间的上下文联系;
采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,所述第二特征向量为携带有域标签的特征向量;
将所述第二特征向量输入到实体匹配模型中,得到匹配结果。
本说明书实施例提供的一种实体名称匹配装置,包括:
待匹配实体名称获取模块,用于获取待匹配实体名称;
词向量确定模块,用于对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,所述词向量携带有语义信息;
特征抽取模块,用于采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,所述第一特征向量为权重向量,所述权重表示所述词向量之间的上下文联系;
序列标注模块,用于采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,所述第二特征向量为携带有域标签的特征向量;
匹配模块,用于将所述第二特征向量输入到实体匹配模型中,得到匹配结果。
本说明书实施例提供的一种实体名称匹配设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取待匹配实体名称;
对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,所述词向量携带有语义信息;
采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,所述第一特征向量为权重向量,所述权重表示所述词向量之间的上下文联系;
采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,所述第二特征向量为携带有域标签的特征向量;
将所述第二特征向量输入到实体匹配模型中,得到匹配结果。
本说明书实施例提供的一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现一种实体名称匹配方法。
本说明书一个实施例实现了能够达到以下有益效果:通过获取待匹配实体名称;对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到携带有域标签第二特征向量,能够捕捉字词的上下文依赖关系以及标签序列的概率转移关系,降低实体名称的匹配失误率,提高实体名称的匹配效率。
附图说明
此处所说明的附图用来提供对本说明书一个或多个实施例的进一步理解,构成本说明书一个或多个实施例的一部分,本说明书的示意性实施例及其说明用于解释本说明书一个或多个实施例,并不构成对本说明书一个或多个实施例的不当限定。在附图中:
图1为本说明书实施例中一种实体名称匹配方法的模型结构示意图;
图2为本说明书实施例提供的一种实体名称匹配方法的流程示意图;
图3为本说明书实施例提供的对应于图2的一种实体名称匹配装置的结构示意图;
图4为本说明书实施例提供的对应于图2的一种实体名称匹配设备的结构示意图。
具体实施方式
为使本说明书一个或多个实施例的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书一个或多个实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书一个或多个实施例保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
随着线上交易的发展,对线上交易的安全性要求越来越高,比如:在反洗钱领域中,通常会通过管控网上交易的用户账户的安全性来保证交易的安全性,此时,可以通过判断交易的账户双方的安全性来管控交易行为,具体地,在金融领域,通常可以根据一些历史交易数据得到一些风险账户(比如:失信账户或者其他存在风险的账户),在风险管控系统中可以将存在风险的账户相关信息进行存储,作为判断交易账户安全性的参考。比如:交易平台接收到一条交易请求,此时,交易平台可以从交易请求对应的交易数据中提取出交易双方的账户实体名称,将交易双方的账户实体名称与数据库中保存的存在风险的账户实体名称进行匹配,如果匹配成功,可以认为该交易请求对应的至少一个账户实体属于存在风险的账户实体,此时,可以停止对于该交易数据的处理过程。并且再此基础上还可以向交易双发发送交易失败的提示信息。
以交易制裁名单匹配为例,存在一份公司制裁名单,该公司制裁名单中包括至少一个公司实体名称。此时,在进行交易制裁名单匹配时,交易方可以包含至少一个公司实体账户。因此,首先可以从交易请求对应的交易数据中提取出公司实体名称,将提取得到的公司实体名称与交易制裁名单中的公司实体名称进行匹配,如果匹配成功,可以认为该交易请求存在风险,可以停止对于该交易数据的处理过程,在此基础上也可以向交易双发发送交易失败的提示信息。
在进行实体名称匹配时,具体可以采用下面的实施例进行实现:
图1为本说明书实施例中一种实体名称匹配方法的模型结构示意图。如图1所示,在进行实体名称匹配时,可以采用图1中的模型结构来实现,模型中包括嵌入层101、特征提取层103、序列标注层105和匹配层107。其中,嵌入层101负责嵌入待匹配实体名称对应的词向量102,特征提取层103可以是基于自注意力机制的transformer(特征抽取器),负责对嵌入层101嵌入的待匹配实体名称中的词向量102进行特征抽取。特征抽取层103在进行特征抽取时,会考虑到其他向量对自身向量的注意力权重,使抽取到的第一特征向量104是考虑了上下文相关性的特征向量。序列标注层105可以采用条件随机场模型(ConditionalRandom Field,简称CRF),负责对特征抽取层103抽取的第一特征向量104进行序列标注,可以理解为对第一特征向量104进行排序组合,并打上域标签,得到第二特征向量106,域标签可以包括名称标签、领域标签、地址标签、后缀标签等。其中,机构可以用ORG表示,地点可以用LOC表示,名称可以用NAME表示,B表示开始的字节,I表示中间的字节,E表示最后的字节,S表示该实体是单字节,B-Loc表示开始字节为地址标签。匹配层107可以采用机器学习模型,这一机器学习模型可以是采用已知实体名称名单训练得到的模型,负责对第二特征向量106进行匹配,得到匹配分数,当匹配分数大于预设分数阈值时,可以认为待匹配实体名称存在于实体名称名单中,更进一步地,可以将匹配分数最高的实体名称作为待匹配实体名称的匹配对象。
接下来,将针对说明书实施例提供的一种实体名称匹配方法结合附图进行具体说明:
图2为本说明书实施例提供的一种实体名称匹配方法的流程示意图。从程序角度而言,流程的执行主体可以为搭载于应用服务器的程序或应用客户端。
如图2所示,该流程可以包括以下步骤:
步骤202:获取待匹配实体名称。
这里的待匹配实体名称可以指的是命名实体(named entity),命名实体一般可以分为实体类、时间类和数字类,可以指的是人名、机构名、地名、时间、日期、货币和百分比以及其他所有以名称为标识的实体。
步骤204:对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,所述词向量携带有语义信息。
对待匹配实体名称进行分词时,可以将待匹配实体名称中的每一个字都分离出来。以公司名称实体为例,例如,“北京电力A1A2A3A4有限公司”,对这个公司名称进行分词后的结果可以是:“/北/京/电/力/A1/A2/A3/A4/有/限/公/司/,将待匹配实体名称的分词映射为向量,可以是将待匹配实体名称中分离出来的每一个字通过查找分词向量映射表得到对应的词向量。这里的分词向量映射表可以是预先存储或加载的分词向量映射表。
在确定词向量的具体过程中,为了增加模型的泛化能力,可以使用一些模型利用大量语料训练出的词向量做初始化,比如:利用大量无监督语料得到的语料库训练得到的词向量,用来作为模型词向量的初始化,以公司名称为例,在具体场景下,基于公司实体名称继续训练调整词向量,对训练集之外的数据有很好的泛化性,能够提升词向量的覆盖度。另外,也可以通过多语种语料预训练词向量,并在训练数据中加入多语种公司名数据,模型可以具有多语种匹配能力。这里的词向量可以是在文本数据集上通过word2vec训练得到的,可以携带有语义信息,词向量之间的各种度量,可以有欧氏距离、余弦距离、点积等,可用于衡量向量之间的相似性,即反映为词语之间的相似与联系。
步骤206:采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,所述第一特征向量为权重向量,所述权重表示所述词向量之间的上下文联系。
自注意力机制会模仿生物观察行为的内部过程,提取稀疏数据的重要特征,能减少对外部信息的依赖,擅长捕捉数据或特征的内部相关性。
基于自注意力机制的特征抽取器(transform)可以对实体名称中词向量的上下文特征进行提取,transformer是由编码组件、解码组件和它们之间的连接组成。编码组件部分由一堆编码器(encoder)构成。解码组件部分也是由与编码器相同数量的解码器(decoder)组成的。
从编码器输入的实体名称首先会经过自注意力(self-attention)层,以帮助编码器在对每个词向量编码时关注输入实体名称中的其他词向量对该词向量本身的注意力权重影响。解码器中也有编码器的自注意力(self-attention)层和前馈(feed-forward)层。除此之外,这两个层之间可以设置注意力层,用来关注输入句子的相关部分。
自注意力机制会将所有相关单词的理解融入到我们正在处理的单词中,自注意力层作为Transformer的一部分存在,自注意力层的输出是权重向量,即当前向量受其它每向量影响的权重向量。Transformer最终可有完成分类,但其输出的并不是分类结果,而是某个字属于各个实体域标签的概率,用于传递给CRF层。
第一特征向量可以包括各个词向量对应的多个特征向量。基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到的第一特征向量可以是结合实体名称中各词向量的上下文相关性的特征向量,比如:存在待匹配的实体名称X,包括词向量A1、A2、A3、A4、A5,采用基于自注意力机制的特征抽取器对每个词向量进行特征抽取,分别得到第一特征向量a1、a2、a3、a4、a5,其中,特征向量a1是考虑了A2、A3、A4、A5对A1的注意力权重之后得到的特征向量,特征向量a2是考虑了A1、A3、A4、A5对A1的注意力权重之后得到的特征向量。其中,对每个词向量进行特征提取时,可以计算其他所有的字对自己的影响,分别得到一个向量,将向量拼接起来形成自身的向量,从而得到第一特征向量。
步骤208:采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,所述第二特征向量为携带有域标签的特征向量。
条件随机场(conditional random fields,简称CRF,或CRFs),是一种判别式概率模型,是随机场的一种,常用于标注或分析序列资料。条件随机场模型是一种可以考虑多因素,对物体进行多标签分类的模型。
选择条件随机场模型的动机是:
实体名称中的各部分实体域标签存在一定的概率联系和转移关系,并不是作为单独的类别而存在,如“巴”字在“阿里巴巴”中为名称,而在“古巴”等中作为地区,这是由上下文以及上下文的字对应的实体域标签共同决定的,单纯的分类模型并不能表示这一关系,因此,选用条件随机场模型。
以公司名称为例,公司实体名称通常可以由五个部分组成,名称、领域、地址、后缀以及无意义部分,不同部分在匹配时有不同的权重。所述域标签可以包括:名称标签、地址标签、领域标签和/或后缀标签。其中,领域标签可以是公司的经营类型、公司所属的领域等,比如:知识产权领域、服装领域、医疗领域等等。
在进行序列标注时,可以对分词之后的词向量进行单独标注标签,也可以结合实体名称中各个词向量之间的相关性进行重新组合排序之后,再进行标签标注,标注完之后的特征向量是携带有域标签的向量,即第二特征向量可以是对第一特征向量进行分域后的特征向量。比如:将公司名称“北京X1X2Y1Y2有限公司”,进行分词后得到北京/X1X2/Y1Y2/有限公司/,将分词映射为词向量:C1C2/C3C4/C5 C6/C7C8C9C10/,采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,可以得到第一特征向量:C1C2→d1、C3C4→d2、C5 C6→d3、C7C8C9C10→d4,第一特征向量中各个向量具有对应的注意力权重,可以获取上下文特征。采用训练完成的条件随机场模型对第一特征向量中的各个向量进行序列标注,比如:将d1打上地域标签,将d2打上名称标签,将d3打上领域标签,将d4打上后缀标签。
Transformer最终完成的是一个分类问题,但其输出并不是分类结果,而是某个字属于各个实体域标签的概率,用于传递给CRF层。训练过程中CRF会学习到实体域标签之间的转移概率表,由转移概率表和每个字对应到各个实体标签的概率,可以搜索出一组具有最大联合概率的标注,作为最终的标注结果。
步骤210:将所述第二特征向量输入到实体匹配模型中,得到匹配结果。
实体匹配模型可以是机器学习模型,具体可以是提前训练完成的模型,将公司名称对应的特征向量进行分域之后,输入实体匹配模型中可以按照域里面的词去进行对齐和匹配,针对每个域都可以得到一个匹配得分,最后进行加权得到待匹配实体名称的匹配得分。
图2中的方法,通过获取待匹配实体名称,对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到携带有域标签第二特征向量,能够捕捉字词的上下文依赖关系以及字词标签序列的概率转移关系,能降低实体名称的匹配失误率,提升特征的抽取能力,提高实体名称的匹配效率。
基于图2的方法,本说明书实施例还提供了该方法的一些具体实施方案,下面进行说明。
图2中的方法可以具体用在交易场景中,通过判断交易的账户双方是否属于危险账户,来判断是否允许交易;还可以用于制裁扫描场景(比如:反洗钱制裁扫描)或者需要搜索的场景中。其中,制裁扫描,可以理解为根据已有名单扫描匹配公司名称,匹配到的公司即为被制裁的公司。匹配成功的可以暂停交易、继续审核或者直接冻结交易。
实体名称的获取具体可以从待匹配交易数据提取,待匹配交易数据中交易双方的账户实体名称可以作为待匹配的实体名称。
实体名称匹配中,一般会采用名称字符串匹配、基于词典/规则进行匹配、根据提取的关键词进行匹配或者利用机器学习或者深度学习的方法进行匹配等方案。但是这些方法忽略了实体名称中各个字的重要程度(例如:公司名称中的名称部分相比于其他部分在匹配时重要性更高)、覆盖度不够,泛化能力差。实体名称的重要性与出现频次不成正比,比如:以匹配公司名称为例,为了保证公司名称的独特性,经常会将不常见的词作为公司名称,导致匹配时可能出现的误匹配情况。通用的分类模型没有考虑到上下文相关性、一字/词多义等现象。为了克服上述缺陷,可以采用以下技术方案:
在实际应用中,所述采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,具体可以包括:
根据所述词向量的上下文信息采用自注意力机制计算每个词向量的权重值;
根据所述权重值对每个所述词向量进行注意力权重赋值,得到第一特征向量。
其中,所述根据所述词向量的上下文信息采用自注意力机制计算每个词向量的权重值,具体可以包括:
对于任意一个所述词向量,根据所述词向量之间的语义信息,确定所述实体名称中的其他词向量对该词向量的影响权重;
对所述任意一个所述词向量的影响权重进行归一化;
将进行归一化后的权重进行加权求和,得到每个词向量的权重值。
需要说明的是,在采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取时,需要计算每个词向量的注意力权重,在计算特征向量的注意力权重时,可以引入不同的函数和计算机制来计算该向量与其他任意向量两者的相似性或者相关性。其中,最常见的方法包括:求两者的向量点积、求两者的向量Cosine相似性。得到的分值根据具体产生的方法不同其数值取值范围也不一样,接着可以采用SoftMax的计算方式对得到的分值进行数值转换,一方面可以进行归一化,将原始计算分值整理成所有元素权重之和为1的概率分布;另一方面也可以通过SoftMax的内在机制更加突出重要元素的权重,然后进行加权求和即可得到注意力权重。
上述方法中,在进行特征提取时,除了采用基于自注意力机制的特征提取器Transformer,还可以考虑进行其他模型的组合,如在编解码层中加入CNN,在解码器后再加入一层Bi-LSTM等,对特征提取能力的小幅度的提升。
通过上述方法,采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,可以捕获同一个实体名称中词向量之间的上下文特征,更容易捕获句子中长距离的相互依赖的特征,相对于循环神经网络(Recurrent Neural Network,简称RNN)或者长短期记忆网络(Long Short Term Memory,简称LSTM),不需要依次序序列计算对于远距离的相互依赖的特征,不需要经过若干时间步步骤的信息累积就能将两者联系起来,不管两个词向量中间有多长距离,最大的路径长度也都只是1。因此,采用CRF进行序列标注能够无视词之间的距离直接计算依赖关系,能够学习一个句子的内部结构,能够有效捕捉词向量之间的上下文特征。
在具体的应用场景中,以公司名称为例,公司名称之间存在一定上下文依赖。例如“巴”出现在公司名称中时,属于名称领域,在“古巴”、“巴东”等地址名称领域中属于地址,这些中文分词在公司名这类外词或非登录词(out of vocabulary,简称OOV)较多的场景下分词准确率不足。另外,公司名称中的各个部分之间存在一定的依赖与转移关系,比如,在中文语境下,公司名称中,名称部分一般会在后面接上其他名称或者行业。
考虑到上述实体名称中可能存在的问题,可以采用以下技术方案对实体名称进行序列标注:
所述采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,具体可以包括:
确定每个所述第一特征向量对应的域标签概率;
根据所述域标签概率确定所述第一特征向量的标签转移关系;
根据所述标签转移关系对所述第一特征向量进行序列组合排序,得到组合排序后的特征向量;
对所述组合排序后的特征向量标注域标签,得到第二特征向量。
在标注时,可以对分词后的每一个词向量分别进行域标签标注,也可以结合上下文特征,对分词后的向量进行重新组合并排序,进行域标签标注。为了关注到序列标注之间的关联性,可以采用概率图模型。具体地,可以采用条件随机场(Conditional RandomField,CRF)执行序列标注任务。相对于隐马尔可夫模型(Hidden Markov Model,HMM),最大熵马尔可夫模型(Maximum Entropy Markov Model,MEMM)来说,CRF(条件随机场)的能够解决标签偏置问题。
CRF是无向图模型,是在给定需要标记的观察序列的条件下,计算整个标记序列的联合概率分布,从而决定最佳标记序列,而不是在给定当前状态条件下,定义下一个状态的状态分布。与HMM比较,CRF没有HMM那样严格的独立性假设条件,因而可以容纳任意的上下文信息。与MEMM比较,由于CRF计算全局最优输出节点的条件概率,因此,可以克服MEMM的标签偏置问题。CRF的存在使得我们并不是根据单个字所属标签的概率去决定这个字的标签,而是考虑到标签之前可能存在转移关系,从整个短语的标签组合去选择具有最大概率的一组。
CRF层能从训练数据中获得约束性的规则,CRF层可以为最后预测的标签添加一些约束来保证预测的标签是合法的。在训练数据训练过程中,这些约束可以通过CRF层自动学习到。这些约束可以是:句子中第一个词总是以标签“B-”或“O”开始,而不是“I-”;标签“B-label1 I-label2 I-label3 I-…”,label1,label2,label3应该属于同一类实体。例如,“B-Person I-Person”是合法的序列,但是“B-Person I-Organization”是非法标签序列。标签序列“O I-label”is非法的.实体标签的首个标签应该是“B-”,而非“I-”,换句话说,有效的标签序列应该是“O B-label”等。有了这些约束,标签序列预测中非法序列出现的概率将会大大降低。
采用CRF进行序列标注时,具体可以确定每个所述第一特征向量对应的域标签概率;根据域标签概率确定所述第一特征向量的标签转移关系;根据标签转移关系对所述第一特征向量进行序列组合排序,得到组合排序后的特征向量;并对组合排序后的特征向量标注域标签。
BiLSTM-CRF的输入是词嵌入向量,输出是每个单词对应的预测标签。BiLSTM层的输入表示该单词对应各个类别的分数。如W0,BiLSTM节点的输出是1.5(B-Person),0.9(I-Person),0.1(B-Organization),0.08(I-Organization)and 0.05(O)。这些分数将会是CRF层的输入
其中,确定每个所述第一特征向量对应的域标签概率可以理解为对每一个第一特征向量,都计算得到其对应的域标签概率。例如:第一特征向量为{A1、A2、A3、A4}标签类型可以包括:名称标签、地址标签、领域标签和后缀标签,此时,针对A1,可以计算得到A1对应所有标签的概率分布,比如,计算得到A1对应的所有标签概率分布可以为:1.5(B-Loc),0.9(I-Loc),0.2(B-Name),0.4(I-Name),0.05(O),0.8(B-Suffix),0.9(I-Suffix)。针对其他的特征向量可以采用相同的方法计算概率分布。
例如:将公司名称“北京X1X2Y1Y2有限公司”,进行分词后得到北/京/X1/X2/Y1/Y2/有/限/公/司/,将分词映射为词向量:C1/C2/C3/C4/C5/C6/C7/C8/C9/C10,采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,可以得到第一特征向量:c1/c2/c3/c4/c5/c6/c7/c8/c9/c10,第一特征向量中各个向量注意力权重是根据上下文特征计算得到的。采用训练完成的条件随机场模型对所述第一特征向量进行序列标注时,可以结合上下文特征对第一特征向量组合排序,比如:结合上下文特征将c1/c2合并,打上地域标签,将c3/c4合并,打上名称标签,将c5/c6合并,打上领域标签,将C7/C8/C9/C10合并,打上后缀标签。
通过上述方法,采用基于概率图模型的CRF模型对待匹配的公司名称对应的特征向量进行序列标注,得到携带域标签的特征向量,通过优化标签序列和文本序列的联合概率,可以捕捉实体域标签之间的概率转移关系。
上述方法中,采用条件随机场模型(CRF)来进行序列标注,在进行标注之前,需要对条件随机场模型进行训练,具体的训练过程可以采用以下方法:
所述采用训练完成的条件随机场模型对所述第一特征向量进行序列标注之前,还可以包括:
获取域标签已知的实体名称样本;
提取所述实体名称样本对应的第三特征向量;
将所述第三特征向量输入待训练的条件随机场模型进行训练,得到所述待训练的条件随机场模型输出的所述第三特征向量所述域标签的概率;
根据转移概率表和所述第三特征向量对应的各个域标签的概率,得到第三特征向量对应的最大联合概率对应的标注结果;
将所述标注结果与所述实体名称样本的已知域标签进行比对,得到比对结果;
当所述比对结果表示所述全部实体名称样本中的域标签标注结果与所述实体名称样本的已知域标签相比,准确率达到预设阈值时,得到训练完成的条件随机场模型。
域标签已知可以理解为已经根据已有规则确定的域标签,例如:实体名称样本可以为域标签已知的公司名称集合或者其他账户名称集合。
提取实体样本对应的特征向量,将得到的特征向量作为输入量,输入待训练的条件随机场模型进行训练,得到所述待训练的条件随机场模型输出的对所述第三特征向量的域标签标注结果;将全部所述实体名称样本中的域标签标注结果与全部所述实体名称样本的已知域标签进行比对,当比对结果表示所述全部实体名称样本中的域标签标注结果与所述实体名称样本的已知域标签相比,准确率达到预设阈值时,可以认为训练结果收敛,完成训练,得到训练完成的条件随机场模型。
具体地,假设实体样本为[A,B],则输入量可以为A=a1,a2,a3,……,an,输出可以为B=b1,b2,b3,……,bn,其中,an可以表示向量序列中的第n个词向量,A可以表示由词向量构成的实体名称,bn可以表示an对应的标注的域标签,B可以表示标注域标签中构成的序列,从实体样本中提取特征向量对待训练的命名实体识别模型进行训练,直到待训练的命名实体识别模型收敛,从而得到命名实体识别模型。
在采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,并采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到携带有域标签的第二特征向量之后,可以采用实体匹配模型进行匹配:具体的匹配过程可以包括:
按照域标签分类将所述第二特征向量与所述实体名单中相同域的特征向量进行对齐匹配,得到每个域标签对应的相似度匹配分数;
将所述每个域标签对应的相似度匹配分数进行加权得到所述第二特征向量的匹配分数;
当所述匹配分数大于预设分值时,将匹配分数最高的实体名称作为所述待匹配实体名称的匹配结果。
需要说明的是,上述方法中的实体名单可以是已知的实体名单,比如:已知的制裁名单、已知的风险名单等。通过比对待匹配的实体名称与已知名单中的实体名称是否匹配,来完成匹配过程。
在实际的实施过程中,可以按照分域结果,按照域进行匹配,比如:将携带有名称域标签的特征向量与实体名单中的名称域中的特征向量进行对齐匹配,携带有地址域标签的特征向量与实体名单中的地址域中的特征向量进行对齐匹配,携带有领域标签的特征向量与实体名单中的领域中的特征向量进行对齐匹配等等。
在进行实体匹配时,具体可以采用多种方式进行匹配,例如:距离度量、相似性评价、误写纠正、音节比较、翻译比较以及简称匹配等,本方案对此不进行限定。
所述将所述第二特征向量输入到实体匹配模型中,得到匹配结果之后,还可以包括:
当所述匹配结果表示所述匹配分数大于预设分值时,停止对于所述待匹配实体名称对应的交易数据的处理过程。
当待匹配实体名称与已知的实体名单中的实体名称匹配成功,可以认为待匹配实体名称存在风险或者该名称应当遵循已知的实体名单遵循权限设置。在交易场景中,匹配成功的实体名称作为账户不能继续进行交易,涉及的交易数据应当被停止,进一步审核或者直接限制交易。在实际的交易过程中,当交易双方的账户名称与已知的实体名称名单中的实体名称匹配成功时,该交易停止,系统会向交易双方发送用于提示交易失败的提示信息。
通过上述方法,通过基于Transformer特征抽取层,使用自注意力机制代替经典的CNN/RNN,自注意力机制通过分词后的词向量学习注意力权重,直接捕捉字词上下文的依赖关系;基于概率图模型的CRF模型,通过优化标签序列和文本序列的联合概率,可以捕捉实体域标签之间的概率转移关系,从而降低了实体名称的匹配失误率,提高了实体名称的匹配效率。
上述实施例中,通过引入实体识别算法来解决公司名匹配问题中的非关键匹配、误写匹配等问题,对输入的词向量进行上下文特征提取以及序列标注的方式可以是采用以下方式:包括把常见的NER方案如CRF、HMM、MEMM、CNN模型+CRF,RNN模型(如RNN、LSTM、GRU、Bi-LSTM、Bi-GRU等)+CRF以及其它的命名实体匹配算法移植到企业名匹配问题中。比如:Bi-LSTM+CRF的实体识别模型结构。
上述实施例中的特征抽取层采用基于自注意力机制的Transformer。除此之外,还可以考虑基于Transformer进行一些优化,比如:除了调节参数之外,进行Transformer与CNN、RNN系列模型的组合,如在编码器和解码器之间加入CNN层、在解码器后再加入RNN模型等,以更好的捕捉上下文联系。
本说明书实施例中的技术方案具有广泛的适应性,不仅适用于公司实体名称的匹配,还广泛适用于以命名实体识别任务为代表的序列标注相关的其它任务,如词性标注、文本翻译、各种实体名称匹配等。
基于同样的思路,本说明书实施例还提供了上述方法对应的装置。图3为本说明书实施例提供的对应于图2的一种实体名称匹配装置的结构示意图。如图3所示,该装置可以包括:
待匹配实体名称获取模块302,用于获取待匹配实体名称;
词向量确定模块304,用于对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,所述词向量携带有语义信息;
特征抽取模块306,用于采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,所述第一特征向量为权重向量,所述权重表示所述词向量之间的上下文联系;
序列标注模块308,用于采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,所述第二特征向量为携带有域标签的特征向量;
匹配模块310,用于将所述第二特征向量输入到实体匹配模型中,得到匹配结果。
可选的,所述待匹配实体名称获取模块302,具体可以包括:
待匹配交易数据获取单元,用于获取待匹配交易数据;
实体名称提取单元,用于从所述交易数据中提取出交易双方的账户实体名称。
可选的,所述特征抽取模块306,具体可以用于:
根据所述词向量的上下文信息采用自注意力机制计算每个词向量的权重值;
根据所述权重值对每个所述词向量进行注意力权重赋值,得到第一特征向量。
可选的,所述特征抽取模块306,具体可以用于:
对于任意一个所述词向量,根据所述词向量之间的语义信息,确定所述实体名称中的其他词向量对该词向量的影响权重;
对所述任意一个所述词向量的影响权重进行归一化;
将进行归一化后的权重进行加权求和,得到每个词向量的权重值。
可选的,所述序列标注模块308,具体可以包括:
域标签概率确定单元,用于确定每个所述第一特征向量对应的域标签概率;
标签转移关系确定单元,用于根据所述域标签概率确定所述第一特征向量的标签转移关系;
组合排序单元,用于根据所述标签转移关系对所述第一特征向量进行序列组合排序,得到组合排序后的特征向量;
域标签标注单元,用于对所述组合排序后的特征向量标注域标签,得到第二特征向量。
可选的,所述域标签包括:名称标签、地址标签、领域标签、后缀标签和/或其他标签。
可选的,所述装置,还可以包括:
实体名称样本获取模块,用于获取域标签已知的实体名称样本;
特征向量提取模块,用于提取所述实体名称样本对应的第三特征向量;
训练模块,用于将所述第三特征向量输入待训练的条件随机场模型进行训练,得到所述待训练的条件随机场模型输出的所述第三特征向量所述域标签的概率;根据转移概率表和所述第三特征向量对应的各个域标签的概率,得到第三特征向量对应的最大联合概率对应的标注结果;;
比对模块,用于将全部所述实体名称样本中的域标签标注结果与全部所述实体名称样本的已知域标签进行比对,得到比对结果;当所述比对结果表示所述全部实体名称样本中的域标签标注结果与所述实体名称样本的已知域标签相比,准确率达到预设阈值时,得到训练完成的条件随机场模型。
可选的,所述实体匹配模型中包括实体名称名单,所述实体名称名单包括公司名称。
可选的,所述匹配模块310,具体可以包括:
对齐匹配单元,用于按照域标签分类将所述第二特征向量与所述实体名单中相同域的特征向量进行对齐匹配,得到每个域标签对应的相似度匹配分数;
加权单元,用于将所述每个域标签对应的相似度匹配分数进行加权得到所述第二特征向量的匹配分数;
匹配结果确定单元,用于当所述匹配分数大于预设分值时,将匹配分数最高的实体名称作为所述待匹配实体名称的匹配结果。
可选的,所述装置,还可以包括:
交易停止模块,用于当所述匹配结果表示所述匹配分数大于预设分值时,停止对于所述待匹配实体名称对应的交易数据的处理过程。
基于同样的思路,本说明书实施例还提供了上述方法对应的设备。图4为本说明书实施例提供的对应于图2的一种实体名称匹配设备的结构示意图。如图4所示,设备400可以包括:
至少一个处理器410;以及,
与所述至少一个处理器通信连接的存储器430;其中,
所述存储器430存储有可被所述至少一个处理器410执行的指令420,所述指令被所述至少一个处理器410执行。
所述指令可以使所述至少一个处理器410能够:
获取待匹配实体名称;
对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,所述词向量携带有语义信息;
采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,所述第一特征向量为权重向量,所述权重表示所述词向量之间的上下文联系;
采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,所述第二特征向量为携带有域标签的特征向量;
将所述第二特征向量输入到实体匹配模型中,得到匹配结果。
基于同样的思路,本说明书实施例还提供了上述方法对应的计算机可读介质。计算机可读介质上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现以下方法:
获取待匹配实体名称;
对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,所述词向量携带有语义信息;
采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,所述第一特征向量为权重向量,所述权重表示所述词向量之间的上下文联系;
采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,所述第二特征向量为携带有域标签的特征向量;
将所述第二特征向量输入到实体匹配模型中,得到匹配结果。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书一个或多个实施例可提供为方法、系统、或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个实施例是参照根据本说明书一个或多个实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书一个或多个实施例。对于本领域技术人员来说,本说明书一个或多个实施例可以有各种更改和变化。凡在本说明书一个或多个实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书一个或多个实施例的权利要求范围之内。
Claims (13)
1.一种实体名称匹配方法,包括:
获取待匹配实体名称;
对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,所述词向量携带有语义信息;
采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,所述第一特征向量为权重向量,所述权重表示所述词向量之间的上下文联系;
采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,所述第二特征向量为携带有域标签的特征向量;在进行所述序列标注过程时,对分词之后的词向量进行单独标注标签,或者,结合实体名称中各个词向量之间的相关性进行重新组合排序之后再进行标签标注;
将所述第二特征向量输入到实体匹配模型中,得到匹配结果。
2.如权利要求1所述的方法,所述获取待匹配实体名称,具体包括:
获取待匹配交易数据;
从所述待匹配交易数据中提取出交易双方的账户实体名称,所述账户实体名称包括公司实体名称。
3.如权利要求1所述的方法,所述采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,具体包括:
根据所述词向量的上下文信息采用自注意力机制计算每个词向量的权重值;
根据所述权重值对每个所述词向量进行注意力权重赋值,得到第一特征向量。
4.如权利要求3所述的方法,所述根据所述词向量的上下文信息采用自注意力机制计算每个词向量的权重值,具体包括:
对于任意一个所述词向量,根据所述词向量之间的语义信息,确定所述实体名称中的其他词向量对该词向量的影响权重;
对所述任意一个所述词向量的影响权重进行归一化;
将进行归一化后的权重进行加权求和,得到每个词向量的权重值。
5.如权利要求1所述的方法,所述采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,具体包括:
确定每个所述第一特征向量对应的域标签概率;
根据所述域标签概率确定所述第一特征向量的标签转移关系;
根据所述标签转移关系对所述第一特征向量进行序列组合排序,得到组合排序后的特征向量;
对所述组合排序后的特征向量标注域标签,得到第二特征向量。
6.如权利要求5所述的方法,所述域标签包括:名称标签、地址标签、领域标签、后缀标签和/或其他标签。
7.如权利要求1所述的方法,所述采用训练完成的条件随机场模型对所述第一特征向量进行序列标注之前,还包括:
获取域标签已知的实体名称样本;
提取所述实体名称样本对应的第三特征向量;
将所述第三特征向量输入待训练的条件随机场模型进行训练,得到所述待训练的条件随机场模型输出的所述第三特征向量所述域标签的概率;
根据转移概率表和所述第三特征向量对应的各个域标签的概率,得到第三特征向量对应的最大联合概率对应的标注结果;
将所述标注结果与所述实体名称样本的已知域标签进行比对,得到比对结果;
当所述比对结果表示全部所述实体名称样本中的域标签标注结果与所述实体名称样本的已知域标签相比,准确率达到预设阈值时,得到训练完成的条件随机场模型。
8.如权利要求1所述的方法,所述实体匹配模型中包括实体名称名单,所述实体名称名单包括公司名称。
9.如权利要求8所述的方法,所述将所述第二特征向量输入到实体匹配模型中,得到匹配结果,具体包括:
按照域标签分类将所述第二特征向量与所述实体名单中相同域的特征向量进行对齐匹配,得到每个域标签对应的相似度匹配分数;
将所述每个域标签对应的相似度匹配分数进行加权得到所述第二特征向量的匹配分数;
当所述匹配分数大于预设分值时,将匹配分数最高的实体名称作为所述待匹配实体名称的匹配结果。
10.如权利要求9所述的方法,所述将所述第二特征向量输入到实体匹配模型中,得到匹配结果之后,还包括:
当所述匹配结果表示所述匹配分数大于预设分值时,停止对于所述待匹配实体名称对应的交易数据的处理过程。
11.一种实体名称匹配装置,包括:
待匹配实体名称获取模块,用于获取待匹配实体名称;
词向量确定模块,用于对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,所述词向量携带有语义信息;
特征抽取模块,用于采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,所述第一特征向量为权重向量,所述权重表示所述词向量之间的上下文联系;
序列标注模块,用于采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,所述第二特征向量为携带有域标签的特征向量;
匹配模块,用于将所述第二特征向量输入到实体匹配模型中,得到匹配结果。
12.一种实体名称匹配设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取待匹配实体名称;
对所述待匹配实体名称进行分词,并将所述待匹配实体名称的分词映射为向量,得到所述待匹配实体名称的词向量,所述词向量携带有语义信息;
采用基于自注意力机制的特征抽取器对每个所述词向量进行特征抽取,得到第一特征向量,所述第一特征向量为权重向量,所述权重表示所述词向量之间的上下文联系;
采用训练完成的条件随机场模型对所述第一特征向量进行序列标注,得到第二特征向量,所述第二特征向量为携带有域标签的特征向量;在进行所述序列标注过程时,对分词之后的词向量进行单独标注标签,或者,结合实体名称中各个词向量之间的相关性进行重新组合排序之后再进行标签标注;
将所述第二特征向量输入到实体匹配模型中,得到匹配结果。
13.一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现权利要求1至10中任一项所述的实体名称匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010090933.XA CN111310456B (zh) | 2020-02-13 | 2020-02-13 | 一种实体名称匹配方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010090933.XA CN111310456B (zh) | 2020-02-13 | 2020-02-13 | 一种实体名称匹配方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111310456A CN111310456A (zh) | 2020-06-19 |
CN111310456B true CN111310456B (zh) | 2023-06-20 |
Family
ID=71159967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010090933.XA Active CN111310456B (zh) | 2020-02-13 | 2020-02-13 | 一种实体名称匹配方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111310456B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11539745B2 (en) * | 2019-03-22 | 2022-12-27 | Proofpoint, Inc. | Identifying legitimate websites to remove false positives from domain discovery analysis |
CN112015913B (zh) * | 2020-08-28 | 2024-06-28 | 支付宝(杭州)信息技术有限公司 | 用于训练处罚实体分类模型的方法及装置 |
CN112084796B (zh) * | 2020-09-15 | 2021-04-09 | 南京文图景信息科技有限公司 | 一种基于Transformer深度学习模型的多语种地名词根汉译方法 |
CN112381169B (zh) * | 2020-11-23 | 2023-01-13 | 济南博观智能科技有限公司 | 一种图像识别方法、装置、电子设备及可读存储介质 |
CN112580691B (zh) * | 2020-11-25 | 2024-05-14 | 北京北大千方科技有限公司 | 一种元数据字段的术语匹配方法、匹配系统和存储介质 |
CN112635035A (zh) * | 2021-01-05 | 2021-04-09 | 北京融威众邦电子技术有限公司 | 预约放号科室的匹配方法、装置、计算机设备 |
CN113221563B (zh) * | 2021-04-20 | 2024-04-16 | 支付宝(杭州)信息技术有限公司 | 一种pdf文档的标注方法、装置以及设备 |
CN113239257B (zh) * | 2021-06-07 | 2024-05-14 | 北京字跳网络技术有限公司 | 信息处理方法、装置、电子设备及存储介质 |
CN113642603B (zh) * | 2021-07-05 | 2023-04-28 | 北京三快在线科技有限公司 | 一种数据匹配方法、装置、存储介质及电子设备 |
CN113535880B (zh) * | 2021-09-16 | 2022-02-25 | 阿里巴巴达摩院(杭州)科技有限公司 | 地理信息确定方法、装置、电子设备及计算机存储介质 |
CN114911999A (zh) * | 2022-05-24 | 2022-08-16 | 中国电信股份有限公司 | 一种名称匹配方法和装置 |
CN117240760B (zh) * | 2023-11-13 | 2024-01-16 | 国网天津市电力公司信息通信公司 | 一种工业物联网协议字段智能检测方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
CN110287479A (zh) * | 2019-05-20 | 2019-09-27 | 平安科技(深圳)有限公司 | 命名实体识别方法、电子装置及存储介质 |
CN110705294A (zh) * | 2019-09-11 | 2020-01-17 | 苏宁云计算有限公司 | 命名实体识别模型训练方法、命名实体识别方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9836453B2 (en) * | 2015-08-27 | 2017-12-05 | Conduent Business Services, Llc | Document-specific gazetteers for named entity recognition |
-
2020
- 2020-02-13 CN CN202010090933.XA patent/CN111310456B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
CN110287479A (zh) * | 2019-05-20 | 2019-09-27 | 平安科技(深圳)有限公司 | 命名实体识别方法、电子装置及存储介质 |
CN110705294A (zh) * | 2019-09-11 | 2020-01-17 | 苏宁云计算有限公司 | 命名实体识别模型训练方法、命名实体识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111310456A (zh) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310456B (zh) | 一种实体名称匹配方法、装置及设备 | |
US11574122B2 (en) | Method and system for joint named entity recognition and relation extraction using convolutional neural network | |
US11568143B2 (en) | Pre-trained contextual embedding models for named entity recognition and confidence prediction | |
CN112084337B (zh) | 文本分类模型的训练方法、文本分类方法及设备 | |
US11651163B2 (en) | Multi-turn dialogue response generation with persona modeling | |
CN111738003B (zh) | 命名实体识别模型训练方法、命名实体识别方法和介质 | |
WO2022141878A1 (zh) | 端到端的语言模型预训练方法、系统、设备及存储介质 | |
CN113221555A (zh) | 一种基于多任务模型的关键词识别方法、装置及设备 | |
CN116228383A (zh) | 风险预测方法及装置、存储介质和电子设备 | |
He et al. | Multi-level cross-lingual transfer learning with language shared and specific knowledge for spoken language understanding | |
Heo et al. | Hybrid sense classification method for large-scale word sense disambiguation | |
CN118363657A (zh) | 基于代码层次结构的预训练网络的输入编码方法和系统 | |
CN117034942B (zh) | 一种命名实体识别方法、装置、设备及可读存储介质 | |
Xu | Research on neural network machine translation model based on entity tagging improvement | |
Grabner et al. | A BERT-based report classification for semiconductor failure analysis | |
Morinaga et al. | Improvement of neural reverse dictionary by using cascade forward neural network | |
Zhou et al. | Chinese named entity recognition augmented with lexicon memory | |
CN113704466B (zh) | 基于迭代网络的文本多标签分类方法、装置及电子设备 | |
CN111626059B (zh) | 一种信息处理方法及装置 | |
Phuong et al. | CAE: mechanism to diminish the class imbalanced in SLU slot filling task | |
Ali et al. | Joint slot filling and intent detection in spoken language understanding by hybrid CNN-LSTM model | |
Seo et al. | FAGON: fake news detection model using grammatical transformation on deep neural network | |
Cao et al. | Partial domain adaptation for relation extraction based on adversarial learning | |
Dey et al. | EKTVQA: Generalized Use of External Knowledge to Empower Scene Text in Text-VQA | |
US11934794B1 (en) | Systems and methods for algorithmically orchestrating conversational dialogue transitions within an automated conversational system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |