CN116451764A - 基于查询集合的实体识别模型训练方法、装置及设备 - Google Patents
基于查询集合的实体识别模型训练方法、装置及设备 Download PDFInfo
- Publication number
- CN116451764A CN116451764A CN202310384062.6A CN202310384062A CN116451764A CN 116451764 A CN116451764 A CN 116451764A CN 202310384062 A CN202310384062 A CN 202310384062A CN 116451764 A CN116451764 A CN 116451764A
- Authority
- CN
- China
- Prior art keywords
- entity
- tensor
- model
- query
- recognition model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims abstract description 55
- 239000013598 vector Substances 0.000 claims abstract description 160
- 238000004364 calculation method Methods 0.000 claims abstract description 45
- 230000006870 function Effects 0.000 claims abstract description 28
- 230000008447 perception Effects 0.000 claims abstract description 11
- 230000014509 gene expression Effects 0.000 claims description 61
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 14
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000012797 qualification Methods 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 4
- 238000013139 quantization Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 8
- 238000007726 management method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Character Discrimination (AREA)
Abstract
本发明涉及人工智能技术,揭露了一种基于查询集合的实体识别模型训练方法、装置、设备及存储介质。所述方法包括:通过预构建的序列编码器对文本语句进行量化,得到文本向量;利用预构建的实体解码器对预构建的实体查询集合进行自注意力权重计算,对所述文本向量及所述实体查询集合进行交叉注意力权重计算,并利用预构建的多层感知层,对两个注意力权重计算结果进行实体识别,得到预测实体集,根据预设的二部匹配损失函数、所述预测实体集及所述文本语句对应的标签实体集,对实体识别模型进行训练,得到训练完成的实体识别模型。本发明可以避免了现有方法需要穷举所有实体再进行预测的模式,提高了实体识别准确性及效率。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于查询集合的实体识别模型训练方法、装置、设备及计算机可读存储介质。
背景技术
命名实体识别是自然语言处理中的重要研究课题,在人工智能等技术领域发挥越来越重要的作用。目前,命名实体识别方法的做法主要为基于跨度的方法。
其中,基于跨度的方法是将实体识别看作一个跨度分类任务,基于跨度的模型对通过各种方法从文本序列中提取的候选跨度进行分类在限定长度内枚举所有可能的跨度,然后预测它们的类,跨度枚举方法需要搜索所有可能的区域,且候选跨度没有交互彼此直接联系,因此不适当地忽略了命名实体之间的依赖关系,导致模型受制于巨大的搜索空间和实体之间缺乏交互的限制,后续标签的预测依赖于前面实体跨度预测效果,容易导致误差传播,造成识别错误。
发明内容
本发明提供一种基于查询集合的实体识别模型训练方法、装置、设备及存储介质,其主要目的在于把预测实体转换为一个可学习的查询向量表示,避免了现有方法需要穷举所有实体再进行预测的模式,提高了实体识别准确性及效率。
为实现上述目的,本发明提供的一种基于查询集合的实体识别模型训练方法,包括:
获取预构建的样本训练集合,依次从所述样本训练集合中提取一个文本语句,利用预构建的实体识别模型的序列编码器对所述文本语句进行量化,得到文本向量;
将所述文本向量及预构建的实体查询集合导入所述实体识别模型的实体集解码器中,利用所述实体集解码器对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合;
对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合;
利用预构建的多层感知层对所述第一增强向量表达集合及所述第二增强向量表达集合进行实体识别操作,得到预测实体集;
根据预设的二部匹配损失函数及所述文本语句对应的标签实体集,对所述预测实体集进行基于预测实体类型及预测实体左右边界的损失值计算,得到模型损失值;
利用预构建的前反馈神经网络,根据所述模型损失值,对所述实体识别模型进行模型参数更新,得到更新的实体识别模型;
判断所述模型损失值是否符合预设的模型合格标准,得到判断结果,并根据预设的模型训练策略及所述判断结果,对所述实体识别模型进行迭代更新,得到训练完成的实体识别模型。
可选的,所述根据预设的二部匹配损失函数及所述文本语句对应的标签实体集,对所述预测实体集进行基于预测实体类型及预测实体左右边界的损失值计算,得到模型损失值,包括:
利用匈牙利算法对所述预测实体集与标签实体集进行最优匹配,根据匹配结果,将标签实体集与预测实体集的对位结果记录为(y,y′)格式,其中,y为标签实体,y′为预测实体;
根据预设的左边界、右边界、实体标签格式,将所述预测实体集合中的各个预测实体进行格式化表述,得到增强预测实体集;
根据预构建的二部匹配损失函数,对所述增强预测实体集分别进行实体类型误差计算、左边界误差计算及右边界误差计算,并将各个误差计算结果进行求和计算,得到模型损失值;
其中,所述二部匹配损失函数:
其中,c表示实体类型,l表示实体的左边界,r表示实体的右边界,N表示所述实体查询集合中预配置的实体查询向量的数量;所述为预测实体y′在实体分类上的误差,/>为预测实体y′在左边界上的误差,/>为预测实体y′在右边界上的误差,其中,所述ci、li、ri分别为标签实体y的实体类型、左边界及右边界。
可选的,所述实体查询集合为固定大小的可学习向量集合。
可选的,所述利用所述实体集解码器对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合,包括:
利用Hspan表示所述实体查询集合,并配置自注意力机制的第一张量、第二张量及第三张量,得到
Q=K=V=Hspan
其中,Q为第一张量集合,K为第二张量集合,V为第三张量集合,Hspan为实体查询集合;
依次从所述第一张量集合提取一个第一张量,并利用所述第一张量对所述第二张量集合中的各个第二张量进行向量内积,得到关联向量集合,并对所述关联向量集合进行归一化操作,得到注意力权重集合;
利用所述注意力权重集合与所述第三张量集合进行对位关系加权求和操作,得到所述第一张量对应的第一增强向量表达;
当所述第一张量集合中的各个第一张量全部遍历完成,得到第一增强向量表达集合。
可选的,所述对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合,包括:
配置交叉注意力机制的第四张量、第五张量及第六张量,得到
Q′=span,K′=V′=H
其中,所述Q′为所述第四张量集合,K′为所述第五张量集合,V′为所述第六张量集合,H为所述文本向量;
依次从所述第四张量集合提取一个第四张量,并利用所述第四张量对所述第五张量集合中的各个第五张量进行向量内积,得到关联向量集合,并对所述关联向量集合进行归一化操作,得到注意力权重集合;
利用所述注意力权重集合与所述第六张量集合进行对位关系加权求和操作,得到所述第四张量对应的第二增强向量表达;
当所述第四张量集合中的各个第四张量全部遍历完成,得到第二增强向量表达集合。
可选的,所述利用预构建的前反馈神经网络,根据所述模型损失值,对所述实体识别模型进行模型参数更新,得到更新的实体识别模型,包括:
利用预构建的前反馈神经网络,最小化所述模型损失值,得到所述模型损失值最小时的模型参数;
将所述模型参数进行网络逆向传播,更新所述实体识别模型,得到更新的实体识别模型。
可选的,所述利用预构建的实体识别模型的序列编码器对所述文本语句进行量化,得到文本向量,包括:
对所述文本向量进行分词操作,得到分词结果集合;
对所述分词结果集合进行量化编码,得到文本向量。
为了解决上述问题,本发明还提供一种基于查询集合的实体识别模型训练装置,所述装置包括:
数据输入模块,用于获取预构建的样本训练集合,依次从所述样本训练集合中提取一个文本语句,利用预构建的实体识别模型的序列编码器对所述文本语句进行量化,得到文本向量;
注意力融合模块,用于将所述文本向量及预构建的实体查询集合导入所述实体识别模型的实体集解码器中,利用所述实体集解码器对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合,及对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合;
模型正向识别模块,用于利用预构建的多层感知层对所述第一增强向量表达集合及所述第二增强向量表达集合进行实体识别操作,得到预测实体集;
模型更新模块,用于根据预设的二部匹配损失函数及所述文本语句对应的标签实体集,对所述预测实体集进行基于预测实体类型及预测实体左右边界的损失值计算,得到模型损失值,及利用预构建的前反馈神经网络,根据所述模型损失值,对所述实体识别模型进行模型参数更新,得到更新的实体识别模型;
迭代训练模块,用于判断所述模型损失值是否符合预设的模型合格标准,得到判断结果,并根据预设的模型训练策略及所述判断结果,对所述实体识别模型进行迭代更新,得到训练完成的实体识别模型。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的基于查询集合的实体识别模型训练方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的基于查询集合的实体识别模型训练方法。
本发明实施例首先获取一个初始化的实体查询集合,其中,所述实体查询集合为固定的可学习向量集合,用于将命名实体识别视为一个序列到集合的任务,然后通过对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合,可以捕获实体之间的依赖关系,避免最终输出实体重复,冗余等问题,然后通过对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合,可以让所述实体查询集合和文本向量进行交互,优化所述实体查询集合,使得所述实体识别模型能够得到更加丰富的数据信息,得到更加准确的实体识别结果。因此,本发明实施例提供的一种基于查询集合的实体识别模型训练方法、装置、设备及存储介质,能够在于把预测实体转换为一个可学习的查询向量表示,避免了现有方法需要穷举所有实体再进行预测的模式,提高了实体识别准确性及效率。
附图说明
图1为本发明一实施例提供的基于查询集合的实体识别模型训练方法的流程示意图;
图2为本发明一实施例提供的基于查询集合的实体识别模型训练方法中一个步骤的详细流程示意图;
图3为本发明一实施例提供的基于查询集合的实体识别模型训练方法中一个步骤的详细流程示意图;
图4为本发明一实施例提供的基于查询集合的实体识别模型训练方法中一个步骤的详细流程示意图;
图5为本发明一实施例提供的基于查询集合的实体识别模型训练装置的功能模块图;
图6为本发明一实施例提供的实现所述基于查询集合的实体识别模型训练方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于查询集合的实体识别模型训练方法。本申请实施例中,所述基于查询集合的实体识别模型训练方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于查询集合的实体识别模型训练方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的基于查询集合的实体识别模型训练方法的流程示意图。在本实施例中,所述基于查询集合的实体识别模型训练方法包括步骤S1~S7:
S1、获取预构建的样本训练集合,依次从所述样本训练集合中提取一个文本语句,利用预构建的实体识别模型的序列编码器对所述文本语句进行量化,得到文本向量。
本发明实施例中,所述样本训练集包括文本语句及所述文本语句对应的标签实体集。
进一步的,本发明实施例中,所述实体识别模型为基于一个序列编码器、一个实体解码器及一个多层感知层组成的神经网络模型。
其中,所述序列编码器用于对文本语句进行分词量化,所述实体解码器用于通过自注意力机制与交叉注意力机制,进行注意力权重配置,所述多层感知层由3层感知器和一个线性投影层组成,用于对得到最终的实体识别结果。
详细的,本发明实施例中,所述利用预构建的实体识别模型的序列编码器对所述文本语句进行量化,得到文本向量,包括:对所述文本向量进行分词操作,得到分词结果集合;对所述分词结果集合进行量化编码,得到文本向量。
其中,本发明实施例可以通过One-Hot编码的方式将各个分词结果进行唯一编码,得到文本向量。
S2、将所述文本向量及预构建的实体查询集合导入所述实体识别模型的实体集解码器中,利用所述实体集解码器对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合。
本发明实施例中,所述实体查询集合为一组固定的可学习的向量表示集合,其中向量表示的数量设置为N,因为N被设置为大于文本语句中实体的实际数量,为后续实体识别结果的对应输出,可以先定义一个额外的标签空集,表示无实体类型。
本发明实施例通过配置一个固定的可学习的实体查询集合,用于将命名实体识别视为一个序列到集合的任务。
进一步的,所述实体集解码器中包含自注意力机制及交叉注意力机制。既能捕获各个实体之间的依赖关系,避免最终输出实体重复,冗余等问题,还可以通过交叉注意机制有效地获取上下文信息,让实体查询集合和所述文本语句的文本信息进行交互,不断优化所述实体查询集合。
详细的,参考图2所示,本发明实施例中,所述利用所述实体集解码器对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合,包括步骤S21~S24:
S21、利用Hspan表示所述实体查询集合,并配置自注意力机制的第一张量、第二张量及第三张量,得到
Q=K=V=Hspan
其中,Q为第一张量集合,K为第二张量集合,V为第三张量集合,Hspan为实体查询集合;
S22、依次从所述第一张量集合提取一个第一张量,并利用所述第一张量对所述第二张量集合中的各个第二张量进行向量内积,得到关联向量集合,并对所述关联向量集合进行归一化操作,得到注意力权重集合;
S23、利用所述注意力权重集合与所述第三张量集合进行对位关系加权求和操作,得到所述第一张量对应的第一增强向量表达;
S24、当所述第一张量集合中的各个第一张量全部遍历完成,得到第一增强向量表达集合。
本发明实施例中的自注意力机制是针对所述实体查询集合的,因此,注意力算法的三个张量Q、K、V设置为实体查询集合中的各个实体查询向量表示。其中,所述实体查询集合定义为Hspan。
其中,Q为第一张量集合,K为第二张量集合,V为第三张量集合,Hspan为实体查询集合,其中,在注意力算法中第一张量、第二张量及第三张量均为一个实体查询向量表达对应的权重变形,本发明实施例中可以将三个变形设置为相同。
由于所述实体查询集合中有N个实体查询向量表达,则有Q1、Q2……QN,K1、K2……KN及V1、V2……VN,本发明实施例,通过遍历,依次从Q中提取一个第一张量,如Q1,然后将Q1依次与K1、K2……KN进行向量内积,根据向量内积为两向量的关联度的数学经验,得到的关联向量包含了各个实体查询向量表达的相互关系,然后为了方便计算,本发明实施例通过归一化操作,将各个关联向量进行归一化,得到注意力权重集合【a1、a2……aN】,然后本发明实施例将a1与V1、a2与V2……aN与VN进行对位乘积,并进行相加,得到所述Q1对应的第一增强向量表达。
根据上述步骤,对Q中的其他向量表达,如Q2、……QN进行同理操作,得到第一增强向量表达集合。
S3、对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合。
详细的,参考图3所示,本发明实施例中,所述对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合,包括步骤S31~S34:
S31、配置交叉注意力机制的第四张量、第五张量及第六张量,得到
Q′=span,K′=V′=H
其中,所述Q′为所述第四张量集合,K′为所述第五张量集合,V′为所述第六张量集合,H为所述文本向量;
S32、依次从所述第四张量集合提取一个第四张量,并利用所述第四张量对所述第五张量集合中的各个第五张量进行向量内积,得到关联向量集合,并对所述关联向量集合进行归一化操作,得到注意力权重集合;
S33、利用所述注意力权重集合与所述第六张量集合进行对位关系加权求和操作,得到所述第四张量对应的第二增强向量表达;
S34、当所述第四张量集合中的各个第四张量全部遍历完成,得到第二增强向量表达集合。
本发明实施例中,所述第四张量、第五张量及第六张量基本等同于上述第一张量、第二张量及第三张量,但由于交叉注意力机制,需要对文本语句的信息与所述实体查询集合之间的信息进行交互,使得张量赋值不同,得到:
Q′=span,K′=V′=H
然后通过同上述步骤S3的步骤,对所述第四张量、第五张量及第六张量进行注意力配置计算,得到第二增强向量表达集合。
S4、利用预构建的多层感知层对所述第一增强向量表达集合及所述第二增强向量表达集合进行实体识别操作,得到预测实体集。
本发明实施例中,所述第一增强向量表达集合包含各个实体查询向量表示之间的关系,不会造成识别结果重复冗余的问题;而所述第二增强向量表达集合中包括所述文本语句的上下文信息数据,通过所述多层感知层进行实体识别可以得到更加准确的识别结果。
S5、根据预设的二部匹配损失函数及所述文本语句对应的标签实体集,对所述预测实体集进行基于预测实体类型及预测实体左右边界的损失值计算,得到模型损失值。
由于N个实体查询向量表示对应的实体标签是未知的,所以本发明实施例设计一个二部匹配的算法为每个目标实体分配一个唯一的预测,从而计算出整个模型的预测损失。本发明实施例在对N个预测进行解码后,训练的主要难点是根据标签实体对预测实体(左边界、右边界、实体标签)进行评分。
详细的,参考图4所示,本发明实施例中,所述根据预设的二部匹配损失函数及所述文本语句对应的标签实体集,对所述预测实体集进行基于预测实体类型及预测实体左右边界的损失值计算,得到模型损失值,包括步骤S51~S53:
S51、利用匈牙利算法对所述预测实体集与标签实体集进行最优匹配,根据匹配结果,将标签实体集与预测实体集的对位结果记录为(y,y′)格式,其中,y为标签实体,y′为预测实体;
S52、根据预设的左边界、右边界、实体标签格式,将所述预测实体集合中的各个预测实体进行格式化表述,得到增强预测实体集;
S53、根据预构建的二部匹配损失函数,对所述增强预测实体集分别进行实体类型误差计算、左边界误差计算及右边界误差计算,并将各个误差计算结果进行求和计算,得到模型损失值,其中,所述二部匹配损失函数:
其中,c表示实体类型,l表示实体的左边界,r表示实体的右边界,N表示所述实体查询集合中预配置的实体查询向量的数量;所述为预测实体y′在实体分类上的误差,/>为预测实体y′在左边界上的误差,/>为预测实体y′在右边界上的误差,其中,所述ci、li、ri分别为标签实体y的实体类型、左边界及右边界。
其中,所述匈牙利算法为一种多项式时间内求解任务分配问题的组合优化算法,可以快速将标签实体集与所述预测实体集进行对位识别。
本发明实施例中,标签实体集的每个元素都可以看作是一个yi=(ci,li,ri),其中,所述ci、li、ri分别为标签实体y的实体类型、左边界及右边界。本发明通过把识别得到的实体结果是否准确的任务,转换为三个多分类问题的任务,通过评估实体类型、左边界及右边界,计算整体的损失值,得到模型损失值。
S6、利用预构建的前反馈神经网络,根据所述模型损失值,对所述实体识别模型进行模型参数更新,得到更新的实体识别模型。
所述前反馈神经网络为模型训练中的常见结构,用于根据损失值对模型进行逆向更新。
详细的,本发明实施例中,所述利用预构建的前反馈神经网络,根据所述模型损失值,对所述实体识别模型进行模型参数更新,得到更新的实体识别模型,包括:利用预构建的前反馈神经网络,最小化所述模型损失值,得到所述模型损失值最小时的模型参数;将所述模型参数进行网络逆向传播,更新所述实体识别模型,得到更新的实体识别模型。
本发明实施例通过上述操作,对所述多层感知层中的感知层及线性投影层进行模型参数修改,使得所述多层感知层中的激活函数的拟合得越来越准确。
S7、判断所述模型损失值是否符合预设的模型合格标准,得到判断结果,并根据预设的模型训练策略及所述判断结果,对所述实体识别模型进行迭代更新,得到训练完成的实体识别模型。
本发明实施例中,为避免出现模型过拟合现象,需要对模型得训练过程及时停止,当所述模型损失值大于预设的模型合格标准时,表明模型的误差较大,可以返回上述S1得步骤,选择新的文本语句进行迭代训练,当所述模型损失值小于预设的模型合格标准,表明模型的误差已经在可接受范围内,因此,可以停止训练过程,得到训练完成的实体识别模型。
本发明实施例首先获取一个初始化的实体查询集合,其中,所述实体查询集合为固定的可学习向量集合,用于将命名实体识别视为一个序列到集合的任务,然后通过对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合,可以捕获实体之间的依赖关系,避免最终输出实体重复,冗余等问题,然后通过对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合,可以让所述实体查询集合和文本向量进行交互,优化所述实体查询集合,使得所述实体识别模型能够得到更加丰富的数据信息,得到更加准确的实体识别结果。因此,本发明实施例提供的一种基于查询集合的实体识别模型训练方法,能够在于把预测实体转换为一个可学习的查询向量表示,避免了现有方法需要穷举所有实体再进行预测的模式,提高了实体识别准确性及效率。
如图5所示,是本发明一实施例提供的基于查询集合的实体识别模型训练装置的功能模块图。
本发明所述基于查询集合的实体识别模型训练装置100可以安装于电子设备中。根据实现的功能,所述基于查询集合的实体识别模型训练装置100可以包括数据输入模块101、注意力融合模块102、模型正向识别模块103、模型更新模块104及迭代训练模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
数据输入模块,用于获取预构建的样本训练集合,依次从所述样本训练集合中提取一个文本语句,利用预构建的实体识别模型的序列编码器对所述文本语句进行量化,得到文本向量;
注意力融合模块,用于将所述文本向量及预构建的实体查询集合导入所述实体识别模型的实体集解码器中,利用所述实体集解码器对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合,及对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合;
模型正向识别模块,用于利用预构建的多层感知层对所述第一增强向量表达集合及所述第二增强向量表达集合进行实体识别操作,得到预测实体集;
模型更新模块,用于根据预设的二部匹配损失函数及所述文本语句对应的标签实体集,对所述预测实体集进行基于预测实体类型及预测实体左右边界的损失值计算,得到模型损失值,及利用预构建的前反馈神经网络,根据所述模型损失值,对所述实体识别模型进行模型参数更新,得到更新的实体识别模型;
迭代训练模块,用于判断所述模型损失值是否符合预设的模型合格标准,得到判断结果,并根据预设的模型训练策略及所述判断结果,对所述实体识别模型进行迭代更新,得到训练完成的实体识别模型。
详细地,本申请实施例中所述基于查询集合的实体识别模型训练装置100中所述的各模块在使用时采用与上述图1至图4中所述的基于查询集合的实体识别模型训练方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图6所示,是本发明一实施例提供的实现基于查询集合的实体识别模型训练方法的电子设备1的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于查询集合的实体识别模型训练程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备1的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行基于查询集合的实体识别模型训练程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如基于查询集合的实体识别模型训练程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备1与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图6仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图6示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于查询集合的实体识别模型训练程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取预构建的样本训练集合,依次从所述样本训练集合中提取一个文本语句,利用预构建的实体识别模型的序列编码器对所述文本语句进行量化,得到文本向量;
将所述文本向量及预构建的实体查询集合导入所述实体识别模型的实体集解码器中,利用所述实体集解码器对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合;
对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合;
利用预构建的多层感知层对所述第一增强向量表达集合及所述第二增强向量表达集合进行实体识别操作,得到预测实体集;
根据预设的二部匹配损失函数及所述文本语句对应的标签实体集,对所述预测实体集进行基于预测实体类型及预测实体左右边界的损失值计算,得到模型损失值;
利用预构建的前反馈神经网络,根据所述模型损失值,对所述实体识别模型进行模型参数更新,得到更新的实体识别模型;
判断所述模型损失值是否符合预设的模型合格标准,得到判断结果,并根据预设的模型训练策略及所述判断结果,对所述实体识别模型进行迭代更新,得到训练完成的实体识别模型。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取预构建的样本训练集合,依次从所述样本训练集合中提取一个文本语句,利用预构建的实体识别模型的序列编码器对所述文本语句进行量化,得到文本向量;
将所述文本向量及预构建的实体查询集合导入所述实体识别模型的实体集解码器中,利用所述实体集解码器对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合;
对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合;
利用预构建的多层感知层对所述第一增强向量表达集合及所述第二增强向量表达集合进行实体识别操作,得到预测实体集;
根据预设的二部匹配损失函数及所述文本语句对应的标签实体集,对所述预测实体集进行基于预测实体类型及预测实体左右边界的损失值计算,得到模型损失值;
利用预构建的前反馈神经网络,根据所述模型损失值,对所述实体识别模型进行模型参数更新,得到更新的实体识别模型;
判断所述模型损失值是否符合预设的模型合格标准,得到判断结果,并根据预设的模型训练策略及所述判断结果,对所述实体识别模型进行迭代更新,得到训练完成的实体识别模型。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于查询集合的实体识别模型训练方法,其特征在于,所述方法包括:
获取预构建的样本训练集合,依次从所述样本训练集合中提取一个文本语句,利用预构建的实体识别模型的序列编码器对所述文本语句进行量化,得到文本向量;
将所述文本向量及预构建的实体查询集合导入所述实体识别模型的实体集解码器中,利用所述实体集解码器对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合;
对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合;
利用预构建的多层感知层对所述第一增强向量表达集合及所述第二增强向量表达集合进行实体识别操作,得到预测实体集;
根据预设的二部匹配损失函数及所述文本语句对应的标签实体集,对所述预测实体集进行基于预测实体类型及预测实体左右边界的损失值计算,得到模型损失值;
利用预构建的前反馈神经网络,根据所述模型损失值,对所述实体识别模型进行模型参数更新,得到更新的实体识别模型;
判断所述模型损失值是否符合预设的模型合格标准,得到判断结果,并根据预设的模型训练策略及所述判断结果,对所述实体识别模型进行迭代更新,得到训练完成的实体识别模型。
2.如权利要求1所述的基于查询集合的实体识别模型训练方法,其特征在于,所述根据预设的二部匹配损失函数及所述文本语句对应的标签实体集,对所述预测实体集进行基于预测实体类型及预测实体左右边界的损失值计算,得到模型损失值,包括:
利用匈牙利算法对所述预测实体集与标签实体集进行最优匹配,根据匹配结果,将标签实体集与预测实体集的对位结果记录为(y,y′)格式,其中,y为标签实体,y′为预测实体;
根据预设的左边界、右边界、实体标签格式,将所述预测实体集合中的各个预测实体进行格式化表述,得到增强预测实体集;
根据预构建的二部匹配损失函数,对所述增强预测实体集分别进行实体类型误差计算、左边界误差计算及右边界误差计算,并将各个误差计算结果进行求和计算,得到模型损失值;
其中,所述二部匹配损失函数:
其中,c表示实体类型,l表示实体的左边界,r表示实体的右边界,N表示所述实体查询集合中预配置的实体查询向量的数量;所述为预测实体y′在实体分类上的误差,/>为预测实体y′在左边界上的误差,/>为预测实体y′在右边界上的误差,其中,所述ci、li、ri分别为标签实体y的实体类型、左边界及右边界。
3.如权利要求1所述的基于查询集合的实体识别模型训练方法,其特征在于,所述实体查询集合为固定大小的可学习向量集合。
4.如权利要求1所述的基于查询集合的实体识别模型训练方法,其特征在于,所述利用所述实体集解码器对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合,包括:
利用Hspan表示所述实体查询集合,并配置自注意力机制的第一张量、第二张量及第三张量,得到
Q=K=V=Hspan
其中,Q为第一张量集合,K为第二张量集合,V为第三张量集合,Hspan为实体查询集合;
依次从所述第一张量集合提取一个第一张量,并利用所述第一张量对所述第二张量集合中的各个第二张量进行向量内积,得到关联向量集合,并对所述关联向量集合进行归一化操作,得到注意力权重集合;
利用所述注意力权重集合与所述第三张量集合进行对位关系加权求和操作,得到所述第一张量对应的第一增强向量表达;
当所述第一张量集合中的各个第一张量全部遍历完成,得到第一增强向量表达集合。
5.如权利要求4所述的基于查询集合的实体识别模型训练方法,其特征在于,所述对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合,包括:
配置交叉注意力机制的第四张量、第五张量及第六张量,得到
Q′=Hspan,K′=V′=H
其中,所述Q′为所述第四张量集合,K′为所述第五张量集合,V′为所述第六张量集合,H为所述文本向量;
依次从所述第四张量集合提取一个第四张量,并利用所述第四张量对所述第五张量集合中的各个第五张量进行向量内积,得到关联向量集合,并对所述关联向量集合进行归一化操作,得到注意力权重集合;
利用所述注意力权重集合与所述第六张量集合进行对位关系加权求和操作,得到所述第四张量对应的第二增强向量表达;
当所述第四张量集合中的各个第四张量全部遍历完成,得到第二增强向量表达集合。
6.如权利要求1所述的基于查询集合的实体识别模型训练方法,其特征在于,所述利用预构建的前反馈神经网络,根据所述模型损失值,对所述实体识别模型进行模型参数更新,得到更新的实体识别模型,包括:
利用预构建的前反馈神经网络,最小化所述模型损失值,得到所述模型损失值最小时的模型参数;
将所述模型参数进行网络逆向传播,更新所述实体识别模型,得到更新的实体识别模型。
7.如权利要求1所述的基于查询集合的实体识别模型训练方法,其特征在于,所述利用预构建的实体识别模型的序列编码器对所述文本语句进行量化,得到文本向量,包括:
对所述文本向量进行分词操作,得到分词结果集合;
对所述分词结果集合进行量化编码,得到文本向量。
8.一种基于查询集合的实体识别模型训练装置,其特征在于,所述装置包括:
数据输入模块,用于获取预构建的样本训练集合,依次从所述样本训练集合中提取一个文本语句,利用预构建的实体识别模型的序列编码器对所述文本语句进行量化,得到文本向量;
注意力融合模块,用于将所述文本向量及预构建的实体查询集合导入所述实体识别模型的实体集解码器中,利用所述实体集解码器对所述实体查询集合中的各个实体查询向量表示进行自注意力权重计算,得到第一增强向量表达集合,及对所述实体查询集合与所述文本向量进行交叉注意力权重计算,得到第二增强向量表达集合;
模型正向识别模块,用于利用预构建的多层感知层对所述第一增强向量表达集合及所述第二增强向量表达集合进行实体识别操作,得到预测实体集;
模型更新模块,用于根据预设的二部匹配损失函数及所述文本语句对应的标签实体集,对所述预测实体集进行基于预测实体类型及预测实体左右边界的损失值计算,得到模型损失值,及利用预构建的前反馈神经网络,根据所述模型损失值,对所述实体识别模型进行模型参数更新,得到更新的实体识别模型;
迭代训练模块,用于判断所述模型损失值是否符合预设的模型合格标准,得到判断结果,并根据预设的模型训练策略及所述判断结果,对所述实体识别模型进行迭代更新,得到训练完成的实体识别模型。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的基于查询集合的实体识别模型训练方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的基于查询集合的实体识别模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310384062.6A CN116451764A (zh) | 2023-04-06 | 2023-04-06 | 基于查询集合的实体识别模型训练方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310384062.6A CN116451764A (zh) | 2023-04-06 | 2023-04-06 | 基于查询集合的实体识别模型训练方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116451764A true CN116451764A (zh) | 2023-07-18 |
Family
ID=87127089
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310384062.6A Pending CN116451764A (zh) | 2023-04-06 | 2023-04-06 | 基于查询集合的实体识别模型训练方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116451764A (zh) |
-
2023
- 2023-04-06 CN CN202310384062.6A patent/CN116451764A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111814962B (zh) | 识别模型的参数获取方法、装置、电子设备及存储介质 | |
CN113157927B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN111639153A (zh) | 基于法律知识图谱的查询方法、装置、电子设备及介质 | |
CN113378970B (zh) | 语句相似性检测方法、装置、电子设备及存储介质 | |
CN113807973B (zh) | 文本纠错方法、装置、电子设备及计算机可读存储介质 | |
CN113821622B (zh) | 基于人工智能的答案检索方法、装置、电子设备及介质 | |
CN114880449B (zh) | 智能问答的答复生成方法、装置、电子设备及存储介质 | |
CN113158676A (zh) | 专业实体与关系联合抽取方法、系统及电子设备 | |
CN116821373A (zh) | 基于图谱的prompt推荐方法、装置、设备及介质 | |
CN114840684A (zh) | 基于医疗实体的图谱构建方法、装置、设备及存储介质 | |
CN112651782B (zh) | 基于缩放点积注意力的行为预测方法、装置、设备及介质 | |
CN113658002A (zh) | 基于决策树的交易结果生成方法、装置、电子设备及介质 | |
CN113342940A (zh) | 文本匹配分析方法、装置、电子设备及存储介质 | |
CN116702761A (zh) | 文本纠错方法、装置、设备及存储介质 | |
CN116705345A (zh) | 医疗实体标注方法、装置、设备及存储介质 | |
CN114625340B (zh) | 基于需求分析的商用软件研发方法、装置、设备及介质 | |
CN116720525A (zh) | 基于问诊数据的疾病辅助分析方法、装置、设备及介质 | |
CN114548114B (zh) | 文本情绪识别方法、装置、设备及存储介质 | |
CN116451764A (zh) | 基于查询集合的实体识别模型训练方法、装置及设备 | |
CN111414452B (zh) | 搜索词匹配方法、装置、电子设备及可读存储介质 | |
CN113723114A (zh) | 基于多意图识别的语义分析方法、装置、设备及存储介质 | |
CN113705692A (zh) | 基于人工智能的情感分类方法、装置、电子设备及介质 | |
CN112749264A (zh) | 基于智能机器人的问题分发方法、装置、电子设备及存储介质 | |
CN114968412B (zh) | 基于人工智能的配置文件生成方法、装置、设备及介质 | |
CN113157865B (zh) | 跨语言词向量生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |