发明内容
基于此,有必要针对上述技术问题,提供一种能够提高意图识别准确性的意图类别识别模型的确定方法、装置、计算机设备、计算机可读存储介质和计算机程序产品。
第一方面,本申请提供了一种意图类别识别模型的确定方法,所述方法包括:
基于目标语言表征模型,确定每一文本各自所对应的特征;
对每一所述文本各自所对应的特征进行聚类分析,得到多个簇的中心;
确定所述目标语言表征模型的模型损失满足目标条件时每一所述簇的中心各自对应的意图类别;
基于每一所述簇的中心各自对应的意图类别,更新所述目标语言表征模型中的参数,得到训练后的目标语言表征模型;所述训练后的目标语言表征模型用于识别目标文本的意图类别。
在其中一个实施例中,所述基于目标语言表征模型,确定每一文本各自所对应的特征文本之前,包括:
获取已标注语料数据集,并使用语言表征模型对所述已标注语料数据集中的每一样本进行映射处理,得到每一所述样本各自对应的特征;
确定每一所述特征与所述已标注语料数据集中每一样本中心之间的距离,并基于所述距离确定所述语言表征模型的分类损失和锚损失;
对所述语言表征模型的分类损失和锚损失进行相加处理,得到所述语言表征模型的类锚聚类损失;
在所述语言表征模型的类锚聚类损失满足目标条件的情况下,确定目标语言表征模型。
在其中一个实施例中,所述基于目标语言表征模型,确定每一文本各自所对应的特征,包括:
使用目标语言表征模型对每一文本进行映射处理,得到每一所述文本各自所对应的特征;
所述对每一所述文本各自所对应的特征进行聚类分析,得到多个簇的中心,包括:
使用k-均值聚类算法对每一所述文本各自所对应的特征进行聚类分析,得到多个簇的中心。
在其中一个实施例中,所述确定所述目标语言表征模型的模型损失满足目标条件时每一所述簇的中心各自对应的意图类别,包括:
使用所述目标语言表征模型中的分类器确定每一所述簇的中心属于每一意图类别的模型判断概率,并获取每一所述簇的中心属于每一意图类别的初始后验分布概率;
利用所述初始后验分布概率对基于所述模型判断概率确定的分类损失进行重写处理,得到所述目标语言表征模型的目标分类损失;
获取所述目标语言表征模型的目标分类损失满足目标条件时初始后验分布概率更新后的后验分布概率;
基于所述后验分布概率,确定每一所述簇的中心各自对应的意图类别。
在其中一个实施例中,所述基于每一所述簇的中心各自对应的意图类别,更新所述目标语言表征模型中的参数,得到训练后的目标语言表征模型,包括:
基于每一所述簇的中心各自对应的意图类别,确定所述目标语言表征模型的类锚聚类损失;
在所述目标语言表征模型的类锚聚类损失满足目标条件的情况下,对所述目标语言表征模型中的参数进行更新,得到训练后的目标语言表征模型。
在其中一个实施例中,所述方法还包括:
使用所述训练后的目标语言表征模型对多个待预测文本进行聚类分析,得到每一所述待预测文本的聚类结果;
提取所述聚类结果中每一目标类各自的关键词,并根据每一所述目标类各自的关键词,得到每一所述目标类中各待预测文本的意图类别。
第二方面,本申请提供了一种意图类别识别模型的确定装置,所述装置包括:
特征确定模块,用于基于目标语言表征模型,确定每一文本各自所对应的特征;
中心获取模块,用于对每一所述文本各自所对应的特征进行聚类分析,得到多个簇的中心;
类别确定模块,用于确定所述目标语言表征模型的模型损失满足目标条件时每一所述簇的中心各自对应的意图类别;
模型训练模块,用于基于每一所述簇的中心各自对应的意图类别,更新所述目标语言表征模型中的参数,得到训练后的目标语言表征模型;所述训练后的目标语言表征模型用于识别目标文本的意图类别。
第三方面,本申请提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述的方法的步骤。
第四方面,本申请提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法的步骤。
第五方面,本申请提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述的方法的步骤。
上述意图类别识别模型的确定方法、装置、计算机设备、存储介质和计算机程序产品,通过将每一文本转化成各自所对应的特征,从而可以完成对每一文本的特征提取,便于目标语言表征模型对文本进行处理;通过确定目标语言表征模型满足目标条件时的模型损失,从而可以得到每一簇的中心各自对应的准确意图类别;根据每一簇的中心各自对应的意图类别,可以更新目标语言表征模型中的参数,完成对目标语言表征模型的训练,从而提高训练后的目标语言表征模型识别文本意图类别的准确率。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供的意图类别识别模型的确定方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。数据存储系统可以存储服务器104需要处理的数据。数据存储系统可以集成在服务器104上,也可以放在云上或其他网络服务器上。服务器104使用目标语言表征模型对文本进行处理,得到每一文本各自所对应的特征。服务器104对每一文本各自所对应的特征进行聚类分析,将所有文本分成多个簇,并得到每一簇的中心。服务器104获取在目标语言表征模型的模型损失满足目标条件时每一簇的中心各自所对应的意图类别。服务器104根据每一簇的中心各自所对应的意图类别,对目标语言表征模型中的参数进行更新处理,从而得到训练后的目标语言表征模型。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能音箱、智能电视、智能空调、智能车载设备等。便携式可穿戴设备可为智能手表、智能手环、头戴设备等。服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种意图类别识别模型的确定方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤202,基于目标语言表征模型,确定每一文本各自所对应的特征。
其中。目标语言表征模型指的是对BERT(Bidirectional EncoderRepresentation from Transformers,预训练的语言表征)模型进行训练后得到的模型。例如,使用审核资源借用资质的机构,具体可以为银行等金融机构开展业务过程中积累的已标注语料数据集,对BERT模型进行微调训练,得到FI-BERT(Finance Intent BERT,金融领域的意图识别)模型,FI-BERT模型即为目标语言表征模型。
文本是从对话系统获取的用户的语言材料,如果语言材料为语音,则调用自动语音识别系统将语音转为文本,从而获取到与语音对应的文本。
可选地,服务器使用由BERT模型训练得到的目标语言表征模型对每一文本进行特征向量提取,得到每一文本各自所对应的特征。
步骤204,对每一文本各自所对应的特征进行聚类分析,得到多个簇的中心。
其中,聚类分析是使用聚类算法先将特征分成N组,随机确定N个初始聚类中心,也就是簇的中心,再计算每一特征和各个簇的中心的距离,并将每一特征分配给距离最近的簇的中心。例如,使用k-均值聚类算法将多个特征分为K组,随机选取K个对象作为初始的簇的中心,然后计算每个特征与各个簇的中心之间的距离,并把每个特征分配给距离最近的簇的中心。聚类算法还可以是k-means++算法、bi-kmeans算法等。
可选地,服务器使用聚类算法将每一文本各自所对应的特征分成多个组,随机确定多个簇的中心,再计算每一特征和各个簇的中心之间的距离,并将每一特征分配给距离最近的簇的中心。
步骤206,确定目标语言表征模型的模型损失满足目标条件时每一簇的中心各自对应的意图类别。
其中,模型损失满足目标条件为确定模型损失最小的模型损失。
意图类别指的根据现有的文本信息,确定该文本所要表达的意图。例如,在资源转移的业务场景中,意图类别包括“延期还款”、“投诉”、“分期还款”等类型。又例如,文本“我需要过段时间才能还款”的意图为“延期还款”。
可选地,服务器将目标语言表征模型的模型损失最小时的状态,确定为模型损失满足目标条件,并确定模型损失最小时每一簇的中心各自对应的意图类别。
步骤208,基于每一簇的中心各自对应的意图类别,更新目标语言表征模型中的参数,得到训练后的目标语言表征模型。训练后的目标语言表征模型用于识别目标文本的意图类别。
可选地,服务器基于目标语言表征模型的模型损失最小时得到的每一簇的中心各自对应的意图类别,对目标语言表征模型中的参数进行更新处理,从而得到训练后的目标语言表征模型,并将训练后的目标语言表征模型应用于目标文本的意图类别识别。
上述意图类别识别模型的确定方法中,通过将每一文本转化成各自所对应的特征,从而可以完成对每一文本的特征提取,便于目标语言表征模型对文本进行处理;通过确定目标语言表征模型满足目标条件时的模型损失,从而可以得到每一簇的中心各自对应的准确意图类别;根据每一簇的中心各自对应的意图类别,可以更新目标语言表征模型中的参数,完成对目标语言表征模型的训练,从而提高训练后的目标语言表征模型识别文本意图类别的准确率。
在一个实施例中,如图3所示,基于目标语言表征模型,确定每一文本各自所对应的特征文本之前,包括:
步骤302,获取已标注语料数据集,并使用语言表征模型对已标注语料数据集中的每一样本进行映射处理,得到每一样本各自对应的特征。
其中,已标注语料数据集指已经进行了的意图类别标注的数据集。例如,“我需要过段时间才能还款”只是原始的训练数据,经人工标注后,可以得到这段样本对应的标签为“延期还款”,有了标签的样本就属于已标注语料数据集。
语言表征模型是一个预训练的语言表征模型,强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的MLM(masked language model,屏蔽语言模型),以致能生成深度的双向语言表征。例如,BERT模型。
映射处理是对样本进行特征提取,从而得到该样本所对应的特征。例如,样本为“我是某某”,根据模型的特征提取结果,则该样本的特征表示为(1,3,4,7,8)。
可选地,服务器使用BERT模型对获取到的已标注语料数据集中每一样本进行特征提取,从而得到已标注语料数据集中每一样本各自的特征。
步骤304,确定每一特征与已标注语料数据集中每一样本中心之间的距离,并基于距离确定语言表征模型的分类损失和锚损失。
其中,样本中心为已标注语料数据集中每一簇的中心,也就是每个意图类别的中心,为已知数据。分类损失是基于每一特征和每一样本中心之间的多个距离数据计算的损失。锚损失是基于每一特征和每一样本中心之间的单个距离数据计算的损失。
可选地,服务器获取已标注语料数据集中每一样本中心,并根据每一特征与已标注语料数据集中每一样本中心之间的多个距离数据,确定语言表征模型的分类损失,根据每一特征和每一样本中心之间的单个距离数据,确定语言表征模型的锚损失。
在一个具体应用中,已标注语料的数据集中已知的意图类别有K个,每一样本中心表示为C=(c1,...,cK)=(α·e1,...,α·eK),其中,cK表示第K个意图类别的样本中心,eK=(1,0,...,0)T为样本中心K对应的特征,仅位置K为1,其余位置为0,α为一个超参数,在训练之前设定,在训练过程中保持不变。服务器对每一特征与已标注语料数据集中每一样本中心之间的距离进行计算,得到d=e(x,C)=(||x-c1||2,...,||x-cK||2)T,其中x表示特征,||||2为欧几里得范数。服务器再根据得到的距离数据,计算分类损失LT和锚损失LA:
LA(x,y)=dy=||x-cy||2 (2)
公式(1)和公式(2)中,dy表示特征x与意图类别y的样本中心的距离,LT(x,y)表示样本x分类为意图类别y所造成的分类损失,LA(x,y)表示样本x分类为意图类别y所造成的锚损失。
步骤306,对语言表征模型的分类损失和锚损失进行相加处理,得到语言表征模型的类锚聚类损失。
其中,类锚聚类损失是基于聚类中心计算的损失,包括锚损失和分类损失。
可选地,服务器根据每一特征与已标注语料数据集中每一样本中心之间的距离数据得到的分类损失和锚损失的和,从而得到语言表征模型的类锚聚类损失LCAC:
LCAC(x,y)=LT(x,y)+λLA(x,y) (3)
公式(3)中,λ为超参数,LCAC(x,y)表示样本x分类为意图类别y时所造成的类锚聚类损失。
步骤308,在语言表征模型的类锚聚类损失满足目标条件的情况下,确定目标语言表征模型。
可选地,服务器对语言表征模型中的参数进行微调,使得语言表征模型的类锚聚类损失最小,从而得到语言表征模型训练后的目标语言表征模型。
本实施例中,通过对语言表征模型进行参数的微调,得到目标语言表征模型,使目标语言表征模型能够学习到特定领域的意图识别知识。
在一个实施例中,基于目标语言表征模型,确定每一文本各自所对应的特征,包括:
使用目标语言表征模型对每一文本进行映射处理,得到每一文本各自所对应的特征。
对每一文本各自所对应的特征进行聚类分析,得到多个簇的中心,包括:
使用k-均值聚类算法对每一文本各自所对应的特征进行聚类分析,得到多个簇的中心。
其中,k-均值聚类算法是一种迭代求解的聚类分析算法,其步骤是,将样本分为k组,随机选取k个对象作为初始的聚类中心,然后计算每个样本与各个聚类中心之间的距离,把每个样本分配给距离它最近的聚类中心。聚类中心以及分配给它们的对象就代表一个聚类,每分配一个样本,聚类中心会根据聚类中现有的对象被重新计算,这个过程将不断重复直到满足终止条件。
可选地,服务器使用k-均值聚类算法将多个特征分为k组,随机选取k个对象作为初始的簇的中心,然后计算每个特征与各个簇的中心之间的距离,并把每个特征分配给距离最近的簇的中心。
本实施例中,通过使用k-均值聚类算法进行聚类分析,能够提高收敛的速度快,并得到较好地聚类效果。
在一个实施例中,确定目标语言表征模型的模型损失满足目标条件时每一簇的中心各自对应的意图类别,包括:
使用目标语言表征模型中的分类器确定每一簇的中心属于每一意图类别的模型判断概率,并获取每一簇的中心属于每一意图类别的初始后验分布概率。
利用初始后验分布概率对基于模型判断概率确定的分类损失进行重写处理,得到目标语言表征模型的目标分类损失。
获取目标语言表征模型的目标分类损失满足目标条件时初始后验分布概率更新后的后验分布概率。
基于后验分布概率,确定每一簇的中心各自对应的意图类别。
其中,模型判断概率由目标语言表征模型中的分类器确定,表示每一簇的中心属于每一意图类别的概率。
初始后验分布概率是未知的概率,需要进行求解,可以理解为因变量,后验分布概率则表示初始后验分布概率求解后的具体数值。
重写表示重新整理基于模型判断概率确定的分类损失Lt的表达式,从而得到目标语言表征模型的目标分类损失Lt’。
目标分类损失满足目标条件指的是目标语言表征模型的目标分类损失Lt’最小。
可选地,服务器使用目标语言表征模型中的分类器,来确定每一簇的中心分别属于每一意图类别的模型判断概率。模型判断概率p(y|xi)的计算公式为:
公式(4)中,p(y|xi)表示第i个簇的中心点xi为类别y的概率,di表示第i个簇的中心点xi与意图类别y的中心点之间的距离,K’表示训练目标语言表征模型时意图类别的数量。
服务器对模型的分类损失Lt进行重写,从而得到目标语言表征模型的目标分类损失Lt’。基于模型判断概率确定的分类损失Lt和目标语言表征模型的目标分类损失Lt’分别为:
公式(6)中,q(y|xi)表示第i个簇的中心点xi属于意图类别y的后验分布概率。
服务器对目标分类损失Lt’进行最小化处理,从而可以得到目标语言表征模型的目标分类损失满足目标条件时的后验分布概率。最小化目标分类损失Lt’表示为:
公式(7)中限制条件的含义为一个簇的中心对应的意图类别有且仅有一个。求解公式(7)的过程为,记P和Q为概率矩阵,其中的元素满足
P
yi代表模型预测的结果,Q
yi代表实际的情况。最小化目标分类损失L
t’问题的解空间为:
公式(8)中,
为元素全为1的向量,r和c满足/>
r和c分别为行和列的缩写。从而有:
公式(9)中,<>表示矩阵的对应元素相乘。服务器将最小化目标分类损失L
t’问题转化为最小化<Q,-logP>,并加入正则项求解
公式(10)中KL(·)为相对熵,用于衡量相同事件空间里的两个概率分布的差异情况。服务器使用Sinkhorn-Knopp(辛克霍恩-诺普)算法对公式(10)进行求解,得到解的形式为Q=diag(α)P
γdiag(β),并使用
和/>
不断对α和β进行迭代,直到收敛,最终求出Q,从而得到每一簇的中心对应的意图类别。
本实施例中,通过将求解概率矩阵的问题进行转化并加入正则项,可以提升求解概率矩阵的速度。
在一个实施例中,基于每一簇的中心各自对应的意图类别,更新目标语言表征模型中的参数,得到训练后的目标语言表征模型,包括:
基于每一簇的中心各自对应的意图类别,确定目标语言表征模型的类锚聚类损失。
在目标语言表征模型的类锚聚类损失满足目标条件的情况下,对目标语言表征模型中的参数进行更新,得到训练后的目标语言表征模型。
可选地,服务器根据在目标语言表征模型的目标分类损失满足目标条件的情况下得到的每一簇的中心各自对应的意图类别,目标语言表征模型的类锚聚类损失进行计算。当服务器探测到目标语言表征模型的类锚聚类损失最小时,根据最小的类锚聚类损失,更新目标语言表征模型中的参数,从而得到训练后的目标语言表征模型。
本实施例中,通过使用类锚聚类损失对目标语言表征模型进行训练,可以在训练的过程中不断地调整模型的参数,从而得到训练后的目标语言表征模型。
在一个实施例中,意图类别识别模型的确定方法还包括:
使用训练后的目标语言表征模型对多个待预测文本进行聚类分析,得到每一待预测文本的聚类结果。
提取聚类结果中每一目标类各自的关键词,并根据每一目标类各自的关键词,得到每一目标类中各待预测文本的意图类别。
其中,待预测文本指的是需要进行意图类别判定的文本。聚类结果表示多个待预测文本的分类结果。
可选地,服务器使用训练后的目标语言表征模型对需要进行意图类别判定的待预测文本进行聚类分析,得到多个待预测文本的分类结果。服务器从分成的每一个目标类中分别进行关键词的提取,再根据提取到的关键词,确定每一待预测文本各自的意图类别。
本实施例中,通过使用训练后的目标语言表征模型对待预测文本进行聚类分析,可以对目标词进行准确地分类提取,从而实现对每一目标类中各待预测文本意图类别的准确判定。
本申请还提供一种应用场景,该应用场景应用上述的意图类别识别模型的确定方法。具体地,该意图类别识别模型的确定方法在该应用场景的应用如下:使用资源转移业务开展过程中积累的已标注语料数据集对BERT模型进行微调,得到FI-BERT模型,使模型能够学习到资源转移领域的意图识别知识。使用由BERT模型训练得到的FI-BERT模型对每一文本进行特征提取,得到每一文本各自所对应的特征。使用k均值聚类算法将多个特征分为k组,随机选取k个对象作为初始的簇的中心,然后计算每个特征与各个簇的中心之间的距离,并把每个特征分配给距离最近的簇的中心。使用FI-BERT模型中的分类器,来确定每一簇的中心分别属于每一意图类别的模型判断概率。对模型的分类损失进行重写,从而得到FI-BERT模型的目标分类损失。再对目标分类损失进行最小化处理,得到FI-BERT模型的目标分类损失满足目标条件时的后验分布概率,根据后验分布概率,得到每一簇的中心对应的意图类别。根据在FI-BERT模型的目标分类损失满足目标条件的情况下得到的每一簇的中心各自对应的意图类别,计算FI-BERT模型的类锚聚类损失。当探测到FI-BERT模型的类锚聚类损失最小时,根据最小的类锚聚类损失,更新FI-BERT模型中的参数,从而得到训练后的FI-BERT模型。最后,使用训练后的FI-BERT模型对需要进行意图类别判定的待预测文本进行聚类分析,得到多个待预测文本的分类结果。从分成的每一个目标类中分别进行关键词的提取,再根据提取到的关键词,确定每一待预测文本各自的意图类别。
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的意图类别识别模型的确定方法的意图类别识别模型的确定装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个意图类别识别模型的确定装置实施例中的具体限定可以参见上文中对于意图类别识别模型的确定方法的限定,在此不再赘述。
在一个实施例中,如图4所示,提供了一种意图类别识别模型的确定装置,包括:
特征确定模块,用于基于目标语言表征模型,确定每一文本各自所对应的特征。
中心获取模块,用于对每一文本各自所对应的特征进行聚类分析,得到多个簇的中心。
类别确定模块,用于确定目标语言表征模型的模型损失满足目标条件时每一簇的中心各自对应的意图类别。
模型训练模块,用于基于每一簇的中心各自对应的意图类别,更新目标语言表征模型中的参数,得到训练后的目标语言表征模型。
在其中一个实施例中,特征确定模块包括:
映射处理单元,用于获取已标注语料数据集,并使用语言表征模型对已标注语料数据集中的每一样本进行映射处理,得到每一样本各自对应的特征。
第一损失计算单元,用于确定每一特征与已标注语料数据集中每一样本中心之间的距离,并基于距离确定语言表征模型的分类损失和锚损失。
第二损失计算单元,用于对语言表征模型的分类损失和锚损失进行相加处理,得到语言表征模型的类锚聚类损失。
目标语言表征模型获取单元,用于在语言表征模型的类锚聚类损失满足目标条件的情况下,确定目标语言表征模型。
在其中一个实施例中,特征确定模块包括:
特征确定单元,用于使用目标语言表征模型对每一文本进行映射处理,得到每一文本各自所对应的特征。
中心获取模块包括:
中心获取单元,用于使用k-均值聚类算法对每一文本各自所对应的特征进行聚类分析,得到多个簇的中心。
在其中一个实施例中,类别确定模块包括:
第一概率获取单元,用于使用目标语言表征模型中的分类器确定每一簇的中心属于每一意图类别的模型判断概率,并获取每一簇的中心属于每一意图类别的初始后验分布概率。
目标分类损失获取单元,用于利用初始后验分布概率对基于模型判断概率确定的分类损失进行重写处理,得到目标语言表征模型的目标分类损失。
第二概率获取单元,用于获取目标语言表征模型的目标分类损失满足目标条件时初始后验分布概率更新后的后验分布概率。
类别确定单元,用于基于后验分布概率,确定每一簇的中心各自对应的意图类别。
在其中一个实施例中,模型训练模块包括:
类锚聚类损失确定单元,用于基于每一簇的中心各自对应的意图类别,确定目标语言表征模型的类锚聚类损失。
模型训练单元,用于在目标语言表征模型的类锚聚类损失满足目标条件的情况下,对目标语言表征模型中的参数进行更新,得到训练后的目标语言表征模型。
在其中一个实施例中,意图类别识别模型的确定装置还包括:
聚类结果获取单元,用于使用训练后的目标语言表征模型对多个待预测文本进行聚类分析,得到每一待预测文本的聚类结果。
意图预测单元,用于提取聚类结果中每一目标类各自的关键词,并根据每一目标类各自的关键词,得到每一目标类中各待预测文本的意图类别。
上述意图类别识别模型的确定装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图5所示。该计算机设备包括处理器、存储器、输入/输出接口(Input/Output,简称I/O)和通信接口。其中,处理器、存储器和输入/输出接口通过系统总线连接,通信接口通过输入/输出接口连接到系统总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储文本、每一文本各自所对应的特征、簇的中心、每一簇的中心各自对应的意图类别、训练后的目标语言表征模型、已标注语料数据集、每一样本各自对应的特征、每一特征与已标注语料数据集中每一样本中心之间的距离、语言表征模型的分类损失和锚损失、语言表征模型的类锚聚类损失、模型判断概率、目标语言表征模型的目标分类损失、后验分布概率、每一簇的中心各自对应的意图类别、目标语言表征模型的类锚聚类损失以及训练后的目标语言表征模型数据。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种意图类别识别模型的确定方法。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
基于目标语言表征模型,确定每一文本各自所对应的特征。对每一文本各自所对应的特征进行聚类分析,得到多个簇的中心。确定目标语言表征模型的模型损失满足目标条件时每一簇的中心各自对应的意图类别。基于每一簇的中心各自对应的意图类别,更新目标语言表征模型中的参数,得到训练后的目标语言表征模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取已标注语料数据集,并使用语言表征模型对已标注语料数据集中的每一样本进行映射处理,得到每一样本各自对应的特征。确定每一特征与已标注语料数据集中每一样本中心之间的距离,并基于距离确定语言表征模型的分类损失和锚损失。对语言表征模型的分类损失和锚损失进行相加处理,得到语言表征模型的类锚聚类损失。在语言表征模型的类锚聚类损失满足目标条件的情况下,确定目标语言表征模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
使用目标语言表征模型对每一文本进行映射处理,得到每一文本各自所对应的特征。使用k-均值聚类算法对每一文本各自所对应的特征进行聚类分析,得到多个簇的中心。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
使用目标语言表征模型中的分类器确定每一簇的中心属于每一意图类别的模型判断概率,并获取每一簇的中心属于每一意图类别的初始后验分布概率。利用初始后验分布概率对基于模型判断概率确定的分类损失进行重写处理,得到目标语言表征模型的目标分类损失。获取目标语言表征模型的目标分类损失满足目标条件时初始后验分布概率更新后的后验分布概率。基于后验分布概率,确定每一簇的中心各自对应的意图类别。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
基于每一簇的中心各自对应的意图类别,确定目标语言表征模型的类锚聚类损失。在目标语言表征模型的类锚聚类损失满足目标条件的情况下,对目标语言表征模型中的参数进行更新,得到训练后的目标语言表征模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
使用训练后的目标语言表征模型对多个待预测文本进行聚类分析,得到每一待预测文本的聚类结果。提取聚类结果中每一目标类各自的关键词,并根据每一目标类各自的关键词,得到每一目标类中各待预测文本的意图类别。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
基于目标语言表征模型,确定每一文本各自所对应的特征。对每一文本各自所对应的特征进行聚类分析,得到多个簇的中心。确定目标语言表征模型的模型损失满足目标条件时每一簇的中心各自对应的意图类别。基于每一簇的中心各自对应的意图类别,更新目标语言表征模型中的参数,得到训练后的目标语言表征模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取已标注语料数据集,并使用语言表征模型对已标注语料数据集中的每一样本进行映射处理,得到每一样本各自对应的特征。确定每一特征与已标注语料数据集中每一样本中心之间的距离,并基于距离确定语言表征模型的分类损失和锚损失。对语言表征模型的分类损失和锚损失进行相加处理,得到语言表征模型的类锚聚类损失。在语言表征模型的类锚聚类损失满足目标条件的情况下,确定目标语言表征模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
使用目标语言表征模型对每一文本进行映射处理,得到每一文本各自所对应的特征。使用k-均值聚类算法对每一文本各自所对应的特征进行聚类分析,得到多个簇的中心。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
使用目标语言表征模型中的分类器确定每一簇的中心属于每一意图类别的模型判断概率,并获取每一簇的中心属于每一意图类别的初始后验分布概率。利用初始后验分布概率对基于模型判断概率确定的分类损失进行重写处理,得到目标语言表征模型的目标分类损失。获取目标语言表征模型的目标分类损失满足目标条件时初始后验分布概率更新后的后验分布概率。基于后验分布概率,确定每一簇的中心各自对应的意图类别。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
基于每一簇的中心各自对应的意图类别,确定目标语言表征模型的类锚聚类损失。在目标语言表征模型的类锚聚类损失满足目标条件的情况下,对目标语言表征模型中的参数进行更新,得到训练后的目标语言表征模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
使用训练后的目标语言表征模型对多个待预测文本进行聚类分析,得到每一待预测文本的聚类结果。提取聚类结果中每一目标类各自的关键词,并根据每一目标类各自的关键词,得到每一目标类中各待预测文本的意图类别。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
基于目标语言表征模型,确定每一文本各自所对应的特征。对每一文本各自所对应的特征进行聚类分析,得到多个簇的中心。确定目标语言表征模型的模型损失满足目标条件时每一簇的中心各自对应的意图类别。基于每一簇的中心各自对应的意图类别,更新目标语言表征模型中的参数,得到训练后的目标语言表征模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取已标注语料数据集,并使用语言表征模型对已标注语料数据集中的每一样本进行映射处理,得到每一样本各自对应的特征。确定每一特征与已标注语料数据集中每一样本中心之间的距离,并基于距离确定语言表征模型的分类损失和锚损失。对语言表征模型的分类损失和锚损失进行相加处理,得到语言表征模型的类锚聚类损失。在语言表征模型的类锚聚类损失满足目标条件的情况下,确定目标语言表征模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
使用目标语言表征模型对每一文本进行映射处理,得到每一文本各自所对应的特征。使用k-均值聚类算法对每一文本各自所对应的特征进行聚类分析,得到多个簇的中心。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
使用目标语言表征模型中的分类器确定每一簇的中心属于每一意图类别的模型判断概率,并获取每一簇的中心属于每一意图类别的初始后验分布概率。利用初始后验分布概率对基于模型判断概率确定的分类损失进行重写处理,得到目标语言表征模型的目标分类损失。获取目标语言表征模型的目标分类损失满足目标条件时初始后验分布概率更新后的后验分布概率。基于后验分布概率,确定每一簇的中心各自对应的意图类别。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
基于每一簇的中心各自对应的意图类别,确定目标语言表征模型的类锚聚类损失。在目标语言表征模型的类锚聚类损失满足目标条件的情况下,对目标语言表征模型中的参数进行更新,得到训练后的目标语言表征模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
使用训练后的目标语言表征模型对多个待预测文本进行聚类分析,得到每一待预测文本的聚类结果。提取聚类结果中每一目标类各自的关键词,并根据每一目标类各自的关键词,得到每一目标类中各待预测文本的意图类别。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。