CN113158682B - 产品名称识别方法、装置、电子设备和介质 - Google Patents
产品名称识别方法、装置、电子设备和介质 Download PDFInfo
- Publication number
- CN113158682B CN113158682B CN202110382081.6A CN202110382081A CN113158682B CN 113158682 B CN113158682 B CN 113158682B CN 202110382081 A CN202110382081 A CN 202110382081A CN 113158682 B CN113158682 B CN 113158682B
- Authority
- CN
- China
- Prior art keywords
- weight
- vector
- text
- word
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 239000013598 vector Substances 0.000 claims abstract description 231
- 238000003062 neural network model Methods 0.000 claims abstract description 30
- 239000011159 matrix material Substances 0.000 claims description 79
- 230000002441 reversible effect Effects 0.000 claims description 13
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 201000010099 disease Diseases 0.000 description 20
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 20
- 230000008569 process Effects 0.000 description 14
- 230000036541 health Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/08—Insurance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Finance (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Accounting & Taxation (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Business, Economics & Management (AREA)
- Technology Law (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种产品名称识别方法、装置、电子设备和介质,涉及文本识别技术领域。其中,产品名称识别方法包括:获取待识别文本,并获取与待识别文本的字符匹配的候选产品名称;基于深度神经网络模型和预设的权重表对待识别文本进行编码,生成第一编码向量,基于深度神经网络模型和权重表对候选产品名称进行编码,生成第二编码向量,权重表包括预存产品名称中每个文字的文本语义权重和/或位置权重;检测第一编码向量和第二编码向量之间的语义相似度;基于语义相似度在候选产品名称中选取与待识别文本对应的产品名称。通过本公开的技术方案,在一定程度上纠正了由于大规模预训练导致的常用词偏差,从而能够有效地提高产品名称识别的准确率。
Description
技术领域
本公开涉及文本识别技术领域,尤其涉及一种产品名称识别方法、装置、电子设备和存储介质。
背景技术
在保险行业中,保险产品名称识别广泛应用于保险领域的诸多业务场景。
相关技术中,对于保险产品名称的识别,主要采用序列标注或文本检索的方式进行。
其中,针对基于序列标注的名称识别方案,在较短的名称识别上较为有效,如果保险名称较长,且名称的开头和结尾没有明显特征,对保险名识别的效果就不够理想,针对基于文本检索的名称识别方案,由于只能够进行字符匹配,而缺少语义匹配,导致识别结果的语义相似度比较低。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种产品名称识别方法、装置、存储介质及电子设备,至少在一定程度上克服由于相关技术中的保险名称识别的效果就不够理想的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种产品名称识别方法,包括:获取待识别文本,并获取与所述待识别文本的字符匹配的候选产品名称;基于深度神经网络模型和预设的权重表对所述待识别文本进行编码,生成第一编码向量,基于所述深度神经网络模型和所述权重表对所述候选产品名称进行编码,生成第二编码向量,所述权重表包括预存产品名称中每个文字的文本语义权重和/或位置权重;检测所述第一编码向量和所述第二编码向量之间的语义相似度;基于所述语义相似度在所述候选产品名称中选取与所述待识别文本对应的所述产品名称。
在一个实施例中,所述深度神经网络模型包括BERT模型,所述基于深度神经网络模型和预设的权重表对所述待识别文本进行编码,生成第一编码向量,基于所述深度神经网络模型和所述权重表对所述候选产品名称进行编码,生成第二编码向量包括:将所述待识别文本输入BERT模型,得到第一词向量,将所述候选产品名称输入所述BERT模型,得到第二词向量;基于注意力机制模型生成初始化权重矩阵;基于所述初始化权重矩阵和所述权重表得到所述第一词向量的第一权重,基于所述初始化权重矩阵和所述权重表得到所述第二词向量的第二权重;基于所述第一权重生成所述第一编码向量,基于所述第二权重生成所述第二编码向量。
在一个实施例中,所述基于所述初始化权重矩阵和所述权重表得到所述第一词向量的第一权重,基于所述初始化权重矩阵和所述权重表得到所述第二词向量的第二权重包括:所述第一初始化权重矩阵包括第一查询权重矩阵、第一关键权重矩阵和第一数值权重矩阵,所述第二初始化权重矩阵包括第二查询权重矩阵、第二关键权重矩阵和第二数值权重矩阵,基于所述第一查询权重矩阵和所述第一词向量生成第一查询向量,基于所述第一关键权重矩阵和所述第一词向量生成第一关键向量,基于所述第二查询权重矩阵和所述第二词向量生成第二查询向量,基于所述第二关键权重矩阵和所述第二词向量生成第二关键向量;基于所述第一查询向量和所述第一关键向量生成所述第一词向量中每个文字的第一初始权重,基于所述第二查询向量和所述第二关键向量生成所述第二词向量中每个文字的第二初始权重;基于所述文本语义权重和/或所述位置权重更新所述第一初始权重,得到所述第一权重,基于所述文本语义权重和/或所述位置权重更新所述第二初始权重,得到所述第二权重。
在一个实施例中,所述基于所述第一权重生成所述第一编码向量,基于所述第二权重生成所述第二编码向量包括:对所述第一权重进行归一化处理,得到第一归一化权重,对所述第二权重进行归一化处理,得到第二归一化权重;基于所述第一数值权重矩阵和所述第一词向量生成第一数值向量,基于所述第二数值权重矩阵和所述第二词向量生成第二数值向量,基于所述第一归一化权重和所述第一数值向量生成第一待编码向量,基于所述第二归一化权重和所述第二数值向量生成第二待编码向量;对所述第一待编码向量进行编码运算得到所述第一编码向量,对所述第二待编码向量进行编码运算得到所述第二编码向量。
在一个实施例中,所述检测所述第一编码向量和所述第二编码向量之间的语义相似度包括:计算所述第一编码向量和所述第二编码向量之间的余弦距离,基于所述余弦距离确定所述待识别文本和所述候选产品名称之间的所述语义相似度。
在一个实施例中,所述在基于深度神经网络模型和预设的权重表对所述待识别文本进行编码,生成第一编码向量之前,还包括:计算所述预存产品名称中所述文字的第一逆向文件频率,将所述第一逆向文件频率确定为所述文字的文本语义权重,或对所述预设产品名称进行分词,计算每个分词的第二逆向文件频率,将所述第二逆向文件频率平均分配到所述分词的每个文字上,得到所述文字的文本语义权重;基于所述文字在所述预存产品名称中的位置信息和所述预存产品名称的长度信息,得到所述文字的位置权重。
在一个实施例中,所述获取与所述待识别文本的字符匹配的候选产品名称包括:基于文本检索引擎在产品名称库中对所述待识别文本进行字符匹配检索,基于字符匹配检索结果得到所述候选产品名称。
根据本公开的第二方面,提供一种产品名称识别装置,包括:获取模块,用于获取待识别文本,并获取与所述待识别文本的字符匹配的候选产品名称;生成模块,用于基于深度神经网络模型和预设的权重表对所述待识别文本进行编码,生成第一编码向量,基于所述深度神经网络模型和所述权重表对所述候选产品名称进行编码,生成所述第二编码向量,所述权重表包括预存产品名称中每个文字的文本语义权重和/或位置权重;检测模块,用于检测所述第一编码向量和所述第二编码向量之间的语义相似度;选取模块,用于基于所述语义相似度在所述候选产品名称中选取与所述待识别文本对应的所述产品名称。
根据本公开的第三方面,提供一种电子设备,包括:处理器;以及存储器,用于存储处理器的可执行指令;所述处理器配置为经由执行所述可执行指令来执行上述的产品名称识别方法。
根据本公开的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的产品名称识别方法。
本公开的实施例所提供的产品名称识别方法,通过获取与待识别文本的字符匹配的候选产品名称,实现基于字符层面的产品名称识别,通过将每个文字的文本语义权重和/或位置权重引入基于深度神经网络模型的编码过程,实现基于语义编码,并得到与待识别文本对应的第一编码向量,与候选产品名称对应的第二编码向量,使第一编码向量和第二编码向量同时兼顾了字符匹配和语义匹配,进而能够突出产品名称中重要字词的语义,在一定程度上纠正了由于大规模预训练导致的常用词偏差,从而能够有效地提高产品名称识别的准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种产品名称识别系统结构的示意图;
图2示出本公开实施例中一种产品名称识别方法流程图;
图3示出本公开实施例中另一种品名称识别方法流程图;
图4示出本公开实施例中再一种产品名称识别方法流程图;
图5示出本公开实施例中的品名称识别方案中一种神经网络结果示意图;
图6示出本公开实施例中又一种产品名称识别方法流程图;
图7出本公开实施例中的品名称识别方案中另一种神经网络结果示意图;
图8出本公开实施例中又一种产品名称识别方法流程图
图9本公开实施例中一种产品名称识别装置示意图;
图10公开实施例中一种计算机设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本申请提供的方案,通过获取与待识别文本的字符匹配的候选产品名称,实现基于字符层面的产品名称识别,通过将每个文字的文本语义权重和/或位置权重引入基于深度神经网络模型的编码过程,实现基于语义编码,并得到与待识别文本对应的第一编码向量,与候选产品名称对应的第二编码向量,使第一编码向量和第二编码向量同时兼顾了字符匹配和语义匹配,进而能够突出产品名称中重要字词的语义,在一定程度上纠正了由于大规模预训练导致的常用词偏差,从而能够有效地提高产品名称识别的准确率。
图1是本申请一个示例性实施例提供的计算机系统的结构示意图。该系统包括:若干个终端120和服务器集群140。
终端120可以是手机、游戏主机、平板电脑、电子书阅读器、智能眼镜、MP4(MovingPicture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、智能家居设备、AR(Augmented Reality,增强现实)设备、VR(Virtual Reality,虚拟现实)设备等移动终端,或者,终端120也可以是个人计算机(Personal Computer,PC),比如膝上型便携计算机和台式计算机等等。
其中,终端120中可以安装有用于提供产品名称识别的应用程序。
终端120与服务器集群140之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
服务器集群140是一台服务器,或者由若干台服务器组成,或者是一个虚拟化平台,或者是一个云计算服务中心。服务器集群140用于为提供产品名称识别的应用程序提供后台服务。可选地,服务器集群140承担主要计算工作,终端120承担次要计算工作;或者,服务器集群140承担次要计算工作,终端120承担主要计算工作;或者,终端120和服务器集群140之间采用分布式计算架构进行协同计算。
在一些可选的实施例中,服务器集群140用于存储产品名称识别信息。
在本申请中,服务器集群140还与区块链系统160相连,服务器集群140将产品名称识别信息和/或交易记录存储在区块链系统中。在一些可选的实施例中,服务器集群140本身也可以作为区块链系统中的一个节点运行和存储数据。
可选的,在本申请实施例中,服务器集群140包括逻辑服务器142和区块链服务器144。其中,逻辑服务器142用于实现应用程序的逻辑控制,比如,进行产品名称识别交易的请求处理、账号资源管理、界面内容管理等,区块链服务器144作为区块链系统160的一部分,用于实现各个产品名称识别信息和/或交易记录的存储,以及重要功能的决策管理,比如,可以实现对交易请求的决策。
需要说明的是,上述逻辑服务器142和区块链服务器144可以属于同一个计算机设备,或者,上述逻辑服务器142和区块链服务器144也可以分属于不同的计算机设备。
可选地,不同的终端120中安装的应用程序的客户端是相同的,或两个终端120上安装的应用程序的客户端是不同控制系统平台的同一类型应用程序的客户端。基于终端平台的不同,该应用程序的客户端的具体形态也可以不同,比如,该应用程序客户端可以是手机客户端、PC客户端或者全球广域网(World Wide Web,Web)客户端等。
本领域技术人员可以知晓,上述终端120的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量。本申请实施例对终端的数量和设备类型不加以限定。
可选的,该系统还可以包括管理设备(图1未示出),该管理设备与服务器集群140之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(ExtensibleMarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(InternetProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
下面,将结合附图及实施例对本示例实施方式中的产品名称识别方法的各个步骤进行更详细的说明。
图2示出本公开实施例中一种产品名称识别方法流程图。本公开实施例提供的方法可以由任意具备计算处理能力的电子设备执行,例如如图1中的终端120和/或服务器集群140。在下面的举例说明中,以服务器集群140为执行主体进行示例说明。
如图2所示,服务器集群140执行产品名称识别方法,包括以下步骤:
步骤S202,获取待识别文本,并获取与待识别文本的字符匹配的候选产品名称。
其中,在接收到输入文本时,通过对输入文本进行预处理操作,得到待识别文本,预处理操作包括但不限于去除标点符号、去除停顿词,以及去除语气助词等,待识别文本可以为用户想要表达但表达不正确的产品名称,即某一产品名称的变形文本。
另外,获取与待识别文本的字符匹配的候选产品名称的一种具体实现方式,包括:基于文本检索引擎(elastic search,简称ES)在产品名称库中对待识别文本进行字符匹配检索,基于字符匹配检索结果得到候选产品名称。
具体地,基于ES检索,计算待识别文本和产品名称库中的产品名称之间的匹配度,将匹配度排在前列的产品名称作为候选产品名称,以实现基于字符匹配的候选产品名称的获取,以在得到具有字符匹配特征的候选产品名称后,进一步基于候选产品名称得到与待识别文本匹配的产品名称。
步骤S204,基于深度神经网络模型和预设的权重表对待识别文本进行编码,生成第一编码向量,基于深度神经网络模型和权重表对候选产品名称进行编码,生成第二编码向量,权重表包括预存产品名称中每个文字的文本语义权重和/或位置权重。
其中,深度神经网络模型用于对待识别文本和候选产品名称进行编码,预设的权重表用于将待识别文本和候选产品名称进行语义描述。
步骤S206,检测第一编码向量和第二编码向量之间的语义相似度。
步骤S208,基于语义相似度在候选产品名称中选取与待识别文本对应的产品名称。
其中,基于语义相似度在候选产品名称中选取与待识别文本对应的产品名称的实现过程包括:根据相似度对候选产品名称进行排序,将排在前面的一个或多个候选产品名称作为与待识别文本对应的产品名称。
具体地,产品名称可以为保险产品名称,比如附加乐相伴豁免保险费重大疾病保险、健康尊享D款医疗保险等。
在该实施例中,通过获取与待识别文本的字符匹配的候选产品名称,实现基于字符层面的产品名称识别,通过将每个文字的文本语义权重和/或位置权重引入基于深度神经网络模型的编码过程,实现基于语义编码,并得到与待识别文本对应的第一编码向量,与候选产品名称对应的第二编码向量,使第一编码向量和第二编码向量同时兼顾了字符匹配和语义匹配,进而能够突出产品名称中重要字词的语义,在一定程度上纠正了由于大规模预训练导致的常用词偏差,从而能够有效地提高产品名称识别的准确率。
进一步地,在自动问答、客服、自助培训、机器人回访、信息收集与整理等多个应用场景中,通过提高对保险名称的识别准确率,可精准定位用户需求,从而反馈正确信息,在提升系统智能化程度的同时,有利于加快与用户之间的交互过程,进而能够优化用户体验并减轻业务人员的工作负担。
如图3所示,在一个实施例中,深度神经网络模型包括BERT模型,步骤S204,基于深度神经网络模型和预设的权重表对待识别文本进行编码,生成第一编码向量,基于深度神经网络模型和权重表对候选产品名称进行编码,生成第二编码向量的一种具体实施方式,包括:
步骤S302,将待识别文本输入BERT模型,得到第一词向量。
步骤S304,将候选产品名称输入BERT模型,得到第二词向量。
步骤S306,基于注意力机制模型生成初始化权重矩阵。
步骤S308,基于初始化权重矩阵和权重表得到第一词向量的第一权重,基于初始化权重矩阵和权重表得到第二词向量的第二权重。
步骤S310,基于第一权重生成第一编码向量,基于第二权重生成第二编码向量。
在该实施例中,采用基于transformer的深度神经网络模型进行编码,BERT采用了transformer中input embedding的部分,分为多层,每一层中都包括Multi-HeadAttention网络、归一化处理以及一个前馈神经网络,在Multi-Head Attention网络中,通过引入权重表,实现了在编码过程中引入表示语义的权重表,从而能够使编码向量向文本的语义倾斜,以克服相关技术中名称识别偏向于常用但不重要的词汇的缺点。
另外,还可以采用基于序列标注、CNN等非预训练的深度神经网络代替BERT模型。
如图4所示,在一个实施例中,步骤S308,第一初始化权重矩阵包括第一查询权重矩阵、第一关键权重矩阵和第一数值权重矩阵,第二初始化权重矩阵包括第二查询权重矩阵、第二关键权重矩阵和第二数值权重矩阵,基于初始化权重矩阵和权重表得到第一词向量的第一权重,基于初始化权重矩阵和权重表得到第二词向量的第二权重的一种具体实现方式,包括:
步骤S402,基于第一查询权重矩阵和第一词向量生成第一查询向量,基于第一关键权重矩阵和第一词向量生成第一关键向量,基于第二查询权重矩阵和第二词向量生成第二查询向量,基于第二关键权重矩阵和第二词向量生成第二关键向量。
步骤S404,基于第一查询向量和第一关键向量生成第一词向量中每个文字的第一初始权重,基于第二查询向量和第二关键向量生成第二词向量中每个文字的第二初始权重。
步骤S406,基于文本语义权重和/或位置权重更新第一初始权重,得到第一权重,基于文本语义权重和/或位置权重更新第二初始权重,得到第二权重。
具体的,如图5所示,待识别文本包括x1,x2,x3(都是字),输出b0是CLS位置的编码。其中CLS是人为添加的一个特殊字符,添加在文本的开头,一般取这个位置的编码为整个句子的编码。
对输入的每一个字,通过类计算得到一个输出向量(x1对应b1,x2对应b2,...),整个句子的编码可以通过取b2,b3,...的和再求平均值得到。
其中,a(a0,a1,a2,a3)为每个词对应的词向量(一般预训练模型都会包含初始的词向量,也可以自己计算得到(例如在领域语料上用word2vec等算法生成))。q(q0,q1,q2,q3),k(k0,k1,k2,k3),v(v0,v1,v2,v3)分别为通过初始权重矩阵w(wq,wk,wv与词向量相乘后得到的向量,q、k、v的含义分别是query(查询)、key(关键字)和value(数值),如公式(1)所示:
其中,i=1,2,3
Attention权重通过公式(2)计算得到:
输出向量b0是和v的加权求和,如公式(3)所示:
本公开在此步骤中引入了保险名称词汇对应的权重(ω0,ω1,ω2,ω3)。ω可以是在产品名称列表上计算的IDF权重α(或者在保险名称列表和普通文本集合上计算的相对熵)、位置权重β,或者二者的乘积。ω0是CLS位置的权重,不能从IDF得到,可以由其他ω综合而成,例如下式公式(4):
将ω与相乘后得到新的权重,如公式(5)所示:
在该实施例中,通过修改神经网络模型,在权重计算过程中引入语义权重机制,以提高对产品名称的语义理解在编码过程中的占比,使深度神经网络实现了语义匹配,进而有利于克服文本检索仅依赖于表面字符的缺陷。
如图6所示,在一个实施例中,步骤S310,基于第一权重生成第一编码向量,基于第二权重生成第二编码向量的一种具体实现方式,包括:
步骤S602,对第一权重进行归一化处理,得到第一归一化权重,对第二权重进行归一化处理,得到第二归一化权重。
步骤S604,基于第一数值权重矩阵和第一词向量生成第一数值向量,基于第二数值权重矩阵和第二词向量生成第二数值向量,基于第一归一化权重和第一数值向量生成第一待编码向量,基于第二归一化权重和第二数值向量生成第二待编码向量。
步骤S606,对第一待编码向量进行编码运算得到第一编码向量,对第二待编码向量进行编码运算得到第二编码向量。
为了使结果更加合理化可对得到的第一权重和第二权重分别进行归一化处理,如公式(6)所示:
再分别与向量V(v0,v1,v2,v3)相乘,最后对结果求和得到CLS对应的输出,即第一待编码向量和第二待编码向量,计算过程如公式7所示:
以上只是一个Head一层网络的情况,多个Head和多层网络是类似的。
进一步地,将第一待编码向量和第二待编码向量输入到下一层进行编码运算,经过多层网络得到最终的编码结果,即第一编码向量和第二编码向量。
以上加权方式得到的编码更偏向于保险名称中的重要字词,而忽略不重要字词,所以更能突出保险名称在句子编码中的语义信息。
在该实施例中,通过将第一权重和第二权重分别进行归一化处理,是得到的第一归一化权重和第二归一化权重相对第一权重和第二权重更加合理,即所有权重值之和为1,进一步结合对应的数值向量,实现基于语义权重和/或位置权重的文本向量的更新,从而实现了基于文本的重要性权重以及文本的位置权重对相应文本进行加权。
在一个实施例中,检测第一编码向量和第二编码向量之间的语义相似度包括:计算第一编码向量和第二编码向量之间的余弦距离,基于余弦距离确定待识别文本和候选产品名称之间的语义相似度。
在该实施例中,通过对两个编码向量进行余弦距离运算,以计算待识别文本和候选产品名称之间的文本相似度,具体地,一个向量空间中两个向量夹角间的余弦值作为衡量两个个体之间差异的大小,余弦值接近1,夹角趋于0,表明两个向量越相似,余弦值接近于0,夹角趋于90度,表明两个向量越不相似,从而能够通过余弦距离运算,保证识别结果的可靠性。
具体地,根据得到的编码结果计算向量间的余弦距离,评估语义相似度,计算公式如公式(8)所示:
其中,A为第一编码向量,B为第二编码向量。
在一个实施例中,在基于预设的权重表对待识别文本进行编码,生成第一编码向量之前,还包括:计算预存产品名称中文字的第一逆向文件频率,将第一逆向文件频率确定为文字的文本语义权重,或对预设产品名称进行分词,计算每个分词的第二逆向文件频率,将第二逆向文件频率平均分配到分词的每个文字上,得到文字的文本语义权重;基于文字在预存产品名称中的位置信息和预存产品名称的长度信息,得到文字的位置权重。
具体地,TF-IDF(Term Frequency–Inverse Document Frequency)是一种用于资讯检索与文本挖掘的常用加权技术。TFIDF的主要思想是,如果某个词或短语在一篇文章中出现的频率TF高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类。TF-IDF实际上是:TF*IDF。
其中,词频(Term Frequency,TF)指的是某一个给定的词语在该文件中出现的频率。这个数字是对词数(term count)的归一化,以防止它偏向长的文件(同一个词语在长文件里可能会比短文件有更高的词数,而不管该词语重要与否。)
逆向文件频率(Inverse Document Frequency,IDF)是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取对数得到。
在该实施例中,根据预存产品名称列表计算文本的IDF权重并根据每个字在保险名称中的位置计算位置权重,得到权重表1。
其中,IDF权重的计算方式可用通过计算每个字的IDF值,也可采用对保险名称进行分词后计算每个词的IDF值并平均分配到相应的字上得到最终权重。
另外,文本的位置权重的计算方式如公式(9)所示:
其中,w_ind指文本在产品名称中的位置,q_len指产品名称长度)。
如,“e康D款重大疾病保险”对应的IDF权重α与位置权重β为:
表1
保险名称 | IDF权重α | w_ind | 位置权重β |
泰 | 0.201 | 1 | 0.500 |
康 | 0.136 | 2 | 0.469 |
e | 0.885 | 3 | 0.438 |
康 | 0.136 | 4 | 0.406 |
D | 0.941 | 5 | 0.375 |
款 | 0.251 | 6 | 0.344 |
重 | 0.102 | 7 | 0.312 |
大 | 0.003 | 8 | 0.281 |
疾 | 0.031 | 9 | 0.250 |
病 | 0.002 | 10 | 0.219 |
保 | 0.172 | 11 | 0.188 |
险 | 0.106 | 12 | 0.156 |
下面结合图8,针对保险产品名称的识别,对本公开的产品名称识别方法进行具体描述,如图8所示,保险产品名称的识别方法,包括:
步骤S802,对输入文本进行预处理,去除可能对最终识别结果产生影响的标点符号(如‘<>’),得到待识别文本Q。
比如,接收用户输入文本“e康D款重疾险保轻疾吗”
步骤S804,通过文本检索引擎在保险名称库中对Q进行搜索,返回匹配度排名靠前的若干保险名作为候选产品名称{E}。
比如,通过ES检索,得到匹配度得分在前十的候选产品名集合E,包括:
附加乐相伴豁免保险费重大疾病保险;
健康尊享D款医疗保险;
E康B款终身重大疾病保险;
e康D款两全保险;
e康D款重大疾病保险;
健康人生D款两全保险;
E理财D款年金保险投资连结型;
附加E康C款重大疾病保险;
E理财E款年金保险投资连结型;
e顺轻症疾病保险。
步骤S806,根据深度神经网络和预设的文本权重表对Q和{E}中的保险名分别进行编码。
具体地,将待识别文本与候选产品名以及得到的权重输入到BERT模型进行编码,得到相应的句向量(768维)。
具体来说,x1,x2,x3...x12=e康D款重大疾病保险,BERT模型附带的初始词向量a(a0,a1,a2...a11),如下表2所示(每个词向量是768维):
表2
输入文本x | 词向量a |
泰 | [0.603,0.208,-0.489,0.98,-0.183...] |
康 | [-1.147,0.733,-0.676,0.192,0.35...] |
e | [-1.178,0.401,-0.466,0.487,0.309...] |
康 | [-1.147 0.733 -0.676 0.192 0.35...] |
D | [-0.895,0.348,-0.168,0.163,0.113...] |
款 | [-1.266,0.382,-0.453,0.275,0.288...] |
重 | [-0.909,0.52,-0.453,-0.061,0.247...] |
大 | [-1.451,0.642,-0.472,0.362,0.555...] |
疾 | [-1.055,0.473,-0.232,-0.089,0.352...] |
病 | [-1.172,0.635,-0.589,0.433,0.376...] |
保 | [-0.908,0.257,-0.563,0.134,0.37...] |
险 | [-1.049,0.668,-0.666,-0.119,0.442...] |
模型Attention机制的初始化权重矩阵如下(每个矩阵都是768*768的方阵):
/>
通过公式(10):
qi=wqai
ki=wkai
vi=wvai,(i=0,1,2,3...) (10)
得到向量k,向量q,向量v,分别为:
具体地,如图7所示,图7的左半部分示出了对向量Q、向量K、向量V进行处理的数据流示意图,具体地,将查询向量Q和关键向量K进行矩阵乘、缩放和掩膜处理后,通过得到每个词对应的模型初始权重/>见表3。
图7的右半部分示出了与数据流对应的矩阵形式处理示意图,在基于Q和K和引入的权重表得到第一权重和第二权重。
接下来,引入表1事先计算好的IDF权重α(α0,α1,α2...)以及位置权重β(β0,β1,β2...)(图7中未示出),得到新的权重(即第一权重和第二权重),计算公式如公式(11)所示:
如图7所示,通过softmax归一化处理得到新权重(即第一归一化权重和第二归一化权重),如公式(12)所示:
得到的新权重如下表3所示:
表3
从上表可以看出,“e、D”等字的权重较高,“款、重大疾病保险”的权重较低,说明引入权重后的模型更偏重于保险名称中的重点词汇。
最后根据新权重与数值向量v(v0,v1,v2...)计算整个例句对应输出b0,计算过程如公式(13)所示:
最终得到本示例对应的b0向量(768维):
[0.534,0.378,0.267,-0.335,0.198...]
将b0输入到后续网络层中继续进行编码运算,得到最终的CLS位置编码(下表右下角的向量)。
下表4为加权后的模型与原模型对相同输入文本的编码对比结果:
表4
如表4所示,两个向量比第一行的两个向量更类似。
步骤S808,根据编码计算Q和{E}中的保险名的语义相似度。
根据得到的编码结果计算向量间的余弦距离,评估语义相似度,计算公式为上述公式(8)。
步骤S810,根据相似度排序。
步骤S812,将排名靠前的一个或多个保险名称输出。
得到例句与候选保险名称间的相似度结果如下表:
表5
候选保险名称 | 语义相似度 |
附加乐相伴豁免保险费重大疾病保险 | 0.672 |
健康尊享D款医疗保险 | 0.697 |
E康B款终身重大疾病保险 | 0.701 |
e康D款两全保险 | 0.872 |
e康D款重大疾病保险 | 0.898 |
健康人生D款两全保险 | 0.812 |
E理财D款年金保险投资连结型 | 0.824 |
附加E康C款重大疾病保险 | 0.807 |
E理财E款年金保险投资连结型 | 0.709 |
e顺轻症疾病保险 | 0.659 |
最后,对以上结果进行排序,选择语义相似度最高的“e康D款重大疾病保险”作为输出。
需要注意的是,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
下面参照图9来描述根据本发明的实施方式的产品名称识别装置900。图9所示的产品名称识别装置900仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
产品名称识别装置900以硬件模块的形式表现。产品名称识别装置900的组件可以包括但不限于:获取模块902,用于获取待识别文本,并获取与待识别文本的字符匹配的候选产品名称;生成模块904,用于基于深度神经网络模型和预设的权重表对待识别文本进行编码,生成第一编码向量,基于深度神经网络模型和权重表对候选产品名称进行编码,生成第二编码向量,权重表包括预存产品名称中每个文字的文本语义权重和/或位置权重;检测模块906,用于检测第一编码向量和第二编码向量之间的语义相似度;选取模块908,用于基于语义相似度在候选产品名称中选取与待识别文本对应的产品名称。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图10来描述根据本发明的这种实施方式的电子设备1000。图10显示的电子设备1000仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图10所示,电子设备1000以通用计算设备的形式表现。电子设备1000的组件可以包括但不限于:上述至少一个处理单元1010、上述至少一个存储单元1020、连接不同系统组件(包括存储单元1020和处理单元1010)的总线1030。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1010执行,使得所述处理单元1010执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元1010可以执行如图2中所示的步骤S202,获取待识别文本,并获取与所述待识别文本的字符匹配的候选产品名称;步骤S204基于深度神经网络模型和预设的权重表对所述待识别文本进行编码,生成第一编码向量,基于所述深度神经网络模型和所述权重表对所述候选产品名称进行编码,生成所述第二编码向量,所述权重表包括预存产品名称中每个文字的文本语义权重和/或位置权重;步骤S206,测所述第一编码向量和所述第二编码向量之间的语义相似度;步骤S208基于所述语义相似度在所述候选产品名称中选取与所述待识别文本对应的所述产品名称。
存储单元1020可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)10201和/或高速缓存存储单元10202,还可以进一步包括只读存储单元(ROM)10203。
存储单元1020还可以包括具有一组(至少一个)程序模块10205的程序/实用工具10204,这样的程序模块10205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1030可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1000也可以与一个或多个外部设备1070(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1000交互的设备通信,和/或与使得该电子设备1000能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1050进行。并且,电子设备1000还可以通过网络适配器1060与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1060通过总线1030与电子设备1000的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1000使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图9所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品900,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (9)
1.一种产品名称识别方法,其特征在于,包括:
获取待识别文本,并获取与所述待识别文本的字符匹配的候选产品名称;
基于深度神经网络模型和预设的权重表对所述待识别文本进行编码,生成第一编码向量,基于所述深度神经网络模型和所述权重表对所述候选产品名称进行编码,生成第二编码向量,所述权重表包括预存产品名称中每个文字的文本语义权重和/或位置权重,包括:将所述待识别文本输入BERT模型,得到第一词向量,将所述候选产品名称输入所述BERT模型,得到第二词向量;基于注意力机制模型生成初始化权重矩阵;基于所述初始化权重矩阵和所述权重表得到所述第一词向量的第一权重,基于所述初始化权重矩阵和所述权重表得到所述第二词向量的第二权重,包括:基于所述初始化权重矩阵中的第一查询权重矩阵和所述第一词向量生成第一查询向量,基于所述初始化权重矩阵中的第一关键权重矩阵和所述第一词向量生成第一关键向量,基于所述第一查询向量和所述第一关键向量生成所述第一词向量中每个文字的第一初始权重,基于所述文本语义权重和/或所述位置权重更新所述第一初始权重,得到所述第一权重,基于所述初始化权重矩阵中的第二查询权重矩阵和所述第二词向量生成第二查询向量,基于所述初始化权重矩阵中的第二关键权重矩阵和所述第二词向量生成第二关键向量,基于所述第二查询向量和所述第二关键向量生成所述第二词向量中每个文字的第二初始权重;基于所述文本语义权重和/或所述位置权重更新所述第二初始权重,得到所述第二权重;基于所述第一权重生成所述第一编码向量,基于所述第二权重生成所述第二编码向量;
检测所述第一编码向量和所述第二编码向量之间的语义相似度;
基于所述语义相似度在所述候选产品名称中选取与所述待识别文本对应的所述产品名称。
2.根据权利要求1所述的产品名称识别方法,其特征在于,
所述初始化权重矩阵包括第一初始化权重矩阵和第二初始化权重矩阵,所述第一初始化权重矩阵包括所述第一查询权重矩阵、所述第一关键权重矩阵和第一数值权重矩阵,所述第二初始化权重矩阵包括所述第二查询权重矩阵、所述第二关键权重矩阵和第二数值权重矩阵。
3.根据权利要求2所述的产品名称识别方法,其特征在于,所述基于所述第一权重生成所述第一编码向量,基于所述第二权重生成所述第二编码向量包括:
对所述第一权重进行归一化处理,得到第一归一化权重,对所述第二权重进行归一化处理,得到第二归一化权重;
基于所述第一数值权重矩阵和所述第一词向量生成第一数值向量,基于所述第二数值权重矩阵和所述第二词向量生成第二数值向量,
基于所述第一归一化权重和所述第一数值向量生成第一待编码向量,基于所述第二归一化权重和所述第二数值向量生成第二待编码向量;
对所述第一待编码向量进行编码运算得到所述第一编码向量,对所述第二待编码向量进行编码运算得到所述第二编码向量。
4.根据权利要求1至3中任一项所述的产品名称识别方法,其特征在于,所述检测所述第一编码向量和所述第二编码向量之间的语义相似度包括:
计算所述第一编码向量和所述第二编码向量之间的余弦距离,基于所述余弦距离确定所述待识别文本和所述候选产品名称之间的所述语义相似度。
5.根据权利要求1至3中任一项所述的产品名称识别方法,其特征在于,在基于深度神经网络模型和预设的权重表对所述待识别文本进行编码,生成第一编码向量之前,还包括:
计算所述预存产品名称中所述文字的第一逆向文件频率,将所述第一逆向文件频率确定为所述文字的文本语义权重,或对所述预存产品名称进行分词,计算每个分词的第二逆向文件频率,将所述第二逆向文件频率平均分配到所述分词的每个文字上,得到所述文字的文本语义权重;
基于所述文字在所述预存产品名称中的位置信息和所述预存产品名称的长度信息,得到所述文字的位置权重。
6.根据权利要求1至3中任一项所述的产品名称识别方法,其特征在于,所述获取与所述待识别文本的字符匹配的候选产品名称包括:
基于文本检索引擎在产品名称库中对所述待识别文本进行字符匹配检索,基于字符匹配检索结果得到所述候选产品名称。
7.一种产品名称识别装置,其特征在于,包括:
获取模块,用于获取待识别文本,并获取与所述待识别文本的字符匹配的候选产品名称;
生成模块,用于基于深度神经网络模型和预设的权重表对所述待识别文本进行编码,生成第一编码向量,基于所述深度神经网络模型和所述权重表对所述候选产品名称进行编码,生成第二编码向量,所述权重表包括预存产品名称中每个文字的文本语义权重和/或位置权重,包括:将所述待识别文本输入BERT模型,得到第一词向量,将所述候选产品名称输入所述BERT模型,得到第二词向量;基于注意力机制模型生成初始化权重矩阵;基于所述初始化权重矩阵和所述权重表得到所述第一词向量的第一权重,基于所述初始化权重矩阵和所述权重表得到所述第二词向量的第二权重,包括:基于所述初始化权重矩阵中的第一查询权重矩阵和所述第一词向量生成第一查询向量,基于所述初始化权重矩阵中的第一关键权重矩阵和所述第一词向量生成第一关键向量,基于所述第一查询向量和所述第一关键向量生成所述第一词向量中每个文字的第一初始权重,基于所述文本语义权重和/或所述位置权重更新所述第一初始权重,得到所述第一权重,基于所述初始化权重矩阵中的第二查询权重矩阵和所述第二词向量生成第二查询向量,基于所述初始化权重矩阵中的第二关键权重矩阵和所述第二词向量生成第二关键向量,基于所述第二查询向量和所述第二关键向量生成所述第二词向量中每个文字的第二初始权重;基于所述文本语义权重和/或所述位置权重更新所述第二初始权重,得到所述第二权重;基于所述第一权重生成所述第一编码向量,基于所述第二权重生成所述第二编码向量;
检测模块,用于检测所述第一编码向量和所述第二编码向量之间的语义相似度;
选取模块,用于基于所述语义相似度在所述候选产品名称中选取与所述待识别文本对应的所述产品名称。
8.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~6中任意一项所述产品名称识别方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~6中任意一项所述的产品名称识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110382081.6A CN113158682B (zh) | 2021-04-09 | 2021-04-09 | 产品名称识别方法、装置、电子设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110382081.6A CN113158682B (zh) | 2021-04-09 | 2021-04-09 | 产品名称识别方法、装置、电子设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113158682A CN113158682A (zh) | 2021-07-23 |
CN113158682B true CN113158682B (zh) | 2024-03-01 |
Family
ID=76888975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110382081.6A Active CN113158682B (zh) | 2021-04-09 | 2021-04-09 | 产品名称识别方法、装置、电子设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113158682B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113988011A (zh) * | 2021-08-19 | 2022-01-28 | 中核核电运行管理有限公司 | 文档内容识别方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309878A (zh) * | 2020-01-19 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 检索式问答方法、模型训练方法、服务器及存储介质 |
CN111858859A (zh) * | 2019-04-01 | 2020-10-30 | 北京百度网讯科技有限公司 | 自动问答处理方法、装置、计算机设备及存储介质 |
US10923111B1 (en) * | 2019-03-28 | 2021-02-16 | Amazon Technologies, Inc. | Speech detection and speech recognition |
-
2021
- 2021-04-09 CN CN202110382081.6A patent/CN113158682B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10923111B1 (en) * | 2019-03-28 | 2021-02-16 | Amazon Technologies, Inc. | Speech detection and speech recognition |
CN111858859A (zh) * | 2019-04-01 | 2020-10-30 | 北京百度网讯科技有限公司 | 自动问答处理方法、装置、计算机设备及存储介质 |
CN111309878A (zh) * | 2020-01-19 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 检索式问答方法、模型训练方法、服务器及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113158682A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11334635B2 (en) | Domain specific natural language understanding of customer intent in self-help | |
CN109145294B (zh) | 文本实体识别方法及装置、电子设备、存储介质 | |
CN111597830A (zh) | 基于多模态机器学习的翻译方法、装置、设备及存储介质 | |
US20210342658A1 (en) | Polysemant meaning learning and search result display | |
CN113220999B (zh) | 用户特征的生成方法、装置、电子设备和存储介质 | |
CN112818091A (zh) | 基于关键词提取的对象查询方法、装置、介质与设备 | |
CN115983271A (zh) | 命名实体的识别方法和命名实体识别模型的训练方法 | |
Parvin et al. | Transformer-based local-global guidance for image captioning | |
Biesialska et al. | Leveraging contextual embeddings and self-attention neural networks with bi-attention for sentiment analysis | |
CN113158682B (zh) | 产品名称识别方法、装置、电子设备和介质 | |
CN114861082A (zh) | 一种基于多维度语义表示的攻击性评论检测方法 | |
Ristoski et al. | KG-ZESHEL: knowledge graph-enhanced zero-shot entity linking | |
CN114036246A (zh) | 商品图谱向量化方法、装置、电子设备及存储介质 | |
CN117807482A (zh) | 海关报关单的分类方法、装置、设备及存储介质 | |
JP2023517518A (ja) | ヌル値又は同等の値を有するリレーショナル・テーブルのためのベクトル埋込モデル | |
CN116402166B (zh) | 一种预测模型的训练方法、装置、电子设备及存储介质 | |
CN115640418B (zh) | 基于残差语义一致性跨域多视角目标网站检索方法及装置 | |
CN117009516A (zh) | 换流站故障策略模型训练方法、推送方法及装置 | |
CN115358817A (zh) | 基于社交数据的智能产品推荐方法、装置、设备及介质 | |
CN111199170B (zh) | 配方文件识别方法及装置、电子设备、存储介质 | |
CN113392630A (zh) | 一种基于语义分析的中文句子相似度计算方法和系统 | |
Francis et al. | SmarTxT: A Natural Language Processing Approach for Efficient Vehicle Defect Investigation | |
CN114783596B (zh) | 诊断数据识别方法及装置、电子设备、存储介质 | |
CN109933788A (zh) | 类型确定方法、装置、设备和介质 | |
CN111402012B (zh) | 一种基于迁移学习的电商缺陷产品识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |