CN117786063A - 对话话语的编码方法、装置、电子设备及存储介质 - Google Patents
对话话语的编码方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN117786063A CN117786063A CN202311696753.6A CN202311696753A CN117786063A CN 117786063 A CN117786063 A CN 117786063A CN 202311696753 A CN202311696753 A CN 202311696753A CN 117786063 A CN117786063 A CN 117786063A
- Authority
- CN
- China
- Prior art keywords
- slot
- dialogue
- utterance
- semantic
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 239000013598 vector Substances 0.000 claims description 107
- 238000012549 training Methods 0.000 claims description 56
- 238000012545 processing Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 8
- 238000009825 accumulation Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 13
- 230000003287 optical effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Machine Translation (AREA)
Abstract
本发明实施例公开了一种对话话语的编码方法、装置、电子设备及存储介质,该方法包括:构建样本集,样本集中包括多个话语样本,话语样本包括对话话语以及多个槽位语义描述,多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;基于样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;基于目标编码器对接收到的待编码话语编码处理。本发明实施例所提供的技术方案,解决了现有技术中对槽位编码不准确,导致对话预测效果不佳的问题,实现了基于目标编码器对对话话语进行编码时,可以有效确定相应槽位所对应的编码结果,进而基于编码结果进行对话预测的技术效果。
Description
技术领域
本发明实施例涉及人工智能技术领域,尤其涉及一对话话语的编码方法、装置、电子设备及存储介质。
背景技术
面向任务的对话系统,通过高效、简单的人机交互方法为用户提供了资讯搜索和个人事项办理等服务,比如预约闹钟、天气信息、预订车票等,以辅助用户进行个人事项的办理,从而缩短用户的操作步骤,降低了用户的使用复杂度和时间成本,提升了用户的使用感受。
一个典型的任务对话由四个关键部分组成:自然语言理解、对话状态追踪、对话策略学习以及自然语言生成。由于对话学习策略和自然语言生成依赖对话状态追踪的结果来选择下一轮的系统操作并生成下一轮的系统回复,所以准确的预测对话状态对于提高对话系统的整体性能至关重要。
发明人在基于上述方式实施本技术方案时,发现存在如下问题:
由于预训练语言模型主要是对对话话语和槽位的编码,因此槽位的编码就尤其重要,然而,现有槽位名称通常被缩写即不够具体,就导致槽位和对话上下文建立语义就变得比较困难,相应的,可能也无法进行准确编码,从而导致预测对话结果不准确。
发明内容
本发明提供一种对话话语的编码方法、装置、电子设备及存储介质,实现对槽位进行准确编码,从而提高预测对话准确性的效果。
第一方面,本发明实施例提供了一种对话话语的编码方法,该方法包括:
构建样本集,所述样本集中包括多个话语样本,所述话语样本包括对话话语以及多个槽位语义描述,所述多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;
基于所述样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;
基于所述目标编码器对接收到的待编码话语编码处理。
进一步的,所述构建样本集,包括:
获取历史多轮对话话语;
对于每轮对话话语,确定当前对话话语的槽位以及与所述槽位对应的槽位语义描述;其中,所述槽位语义描述与所述当前对话话语相匹配;
基于所述当前对话话语、与所述当前对话话语相匹配的槽位语义描述以及与所述当前对话话语不匹配的槽位语义描述,确定话语样本。
进一步的,所述基于所述样本集对待训练编码模型中的模型参数进行修正,得到目标编码器,包括:
对于各话语样本,将当前话语样本中的当前对话话拼接后输入至第一预训练语言模型中,输出话语特征向量;以,将预先设定的槽位标签和与所述当前话语样本相对应的多个槽位语义描述输入至第二预训练语言模型中,得到语义描述向量;
基于所述话语特征向量、语义描述向量以及二进制交叉熵损失函数,对所述第一预训练语言模型和第二预训练语言模型中的参数进行修正,得到所述目标编码器。
进一步的,所述基于所述话语特征向量、语义描述向量以及二进制交叉熵损失函数,对所述第一预训练语言模型和第二预训练语言模型中的参数进行修正,得到所述目标编码器,包括:
基于所述对话特征向量中每个文字所对应的嵌入向量累加后均值处理,得到对话待处理向量;
将与所述当前对话话语相匹配的槽位语义描述的语义描述向量均值处理,得到匹配描述向量;以及,将与所述当前对话话语不匹配的槽位语义描述的语义描述向量均值处理,得到不匹配描述向量;
基于所述对话待处理向量、匹配描述向量、不匹配描述向量以及所述二进制交叉熵损失函数,对所述第一预训练语言模型和第二预训练语言模型中的参数进行修正,得到所述目标编码器。
进一步的,所述第一预训练语言模型与所述第二预训练语言模型的模型结构相同,且模型参数相同。
进一步的,所述二进制交叉熵损失函数如下所示:
其中,n为预先定义的槽位的数量,yij指的是zi和ej是否相关的标签(0或1),Sim(·)表示余弦距离,zi表示对话待处理向量,表示与对话话语相匹配的匹配描述向量,e- j表示与对话话语不匹配的不匹配描述向量,τ表示为温度系数,Sigmoid(·)表示激活函数。
进一步的,在训练得到所述目标编码器的过程中,以对话话语与相匹配槽位语义描述在特征空间中距离缩小、对话话语与不匹配槽位语义描述在特征空间中的距离扩大作为目标进行优化。
进一步的,所述方法还包括:将所述目标编码器集成在任意对对话话语分析处理的网络模型中。
第二方面,本发明实施例还提供了一种对话话语的编码装置,该装置包括:
样本构建模块,用于构建样本集,所述样本集中包括多个话语样本,所述话语样本包括对话话语以及多个槽位语义描述,所述多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;
编码器确定模块,用于基于所述样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;
编码模块,用于基于所述目标编码器对接收到的待编码话语编码处理。
第三方面,本发明实施例还提供了一种电子设备,电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如本发明实施例任一的对话话语的编码方法。
第四方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,计算机可执行指令在由计算机处理器执行时用于执行如本发明实施例任一的对话话语的编码方法。
本发明实施例所提供的技术方案,构建样本集,样本集中包括多个话语样本,话语样本包括对话话语以及多个槽位语义描述,多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;基于样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;基于目标编码器对接收到的待编码话语编码处理,解决了现有了技术了对槽位编码不准确,导致对话预测效果不佳的问题,实现了基于目标编码器对对话话语进行编码时,可以有效确定相应槽位所对应的编码结果,进而基于编码结果进行对话预测的技术效果。
附图说明
为了更加清楚地说明本发明示例性实施例的技术方案,下面对描述实施例中所需要用到的附图做一简单介绍。显然,所介绍的附图只是本发明所要描述的一部分实施例的附图,而不是全部的附图,对于本领域普通技术人员,在不付出创造性劳动的前提下,还可以根据这些附图得到其他的附图。
图1为本发明实施例所提供的对话话语的编码方法的流程示意图;
图2为本发明实施例所提供的对话话语的编码方法的流程示意图;
图3为本发明实施例所提供的对话话语的编码装置的结构示意图;
图4为本发明实施例所提供的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
在介绍本发明实施例所提供的技术方案之前,可以先对应用场景进行示例性说明。在构建样本对时,由于将所有话语串联编码时会产生更多的噪声和冗余信息,因此在构建训练样本时,可以选择使用对话轮级别以及对应的标签信息。同时,槽位名称表示通常被缩写或不够具体,这使得对话上下文建立语义关系变得困难,基于上述问题,可以为每个槽位补充描述并将语义注入到语言模型中减少对话话语和槽位之间的语义差距。也就是说,可以基于本发明实施例所提供的方案来构建样本,并基于构建的样本来训练得到编码器,进而基于编码器对对话话语进行编码处理,以得到应用到对话追踪的场景中。
图1为本发明实施例所提供的一种对话话语的编码方法的流程示意图,本实施例可适用于在对话系统中对对话话语进行编码的情形,该方法可以由对话话语的编码装置来执行,该装置可以通过软件和/或硬件的形式实现,该硬件可以是电子设备,如移动终端、PC端或服务器等。
如图1所示,方法包括:
S110、构建样本集,样本集中包括多个话语样本,话语样本包括对话话语以及多个槽位语义描述,多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述。
其中,样本集中包括多个话语样本,每个话语样本都是用来训练目标编码器的。每个话语样本中包括对话话语以及多个槽位语义描述。槽位语义描述中包括与槽位相匹配的至少一个语义描述以及与槽位语义不匹配的至少一个语义描述。槽位具体是什么,以及与槽位相对应的语义描述的数量,用户可以根据实际需求进行设定,也就是说可以根据实际的应用场景来设定槽位,相应的,依据预先设定的槽位可以设定槽位语义描述。
在本实施例中构建样本集中每个话语样本可以是:获取历史多轮对话话语;对于每轮对话话语,确定当前对话话语的槽位以及与槽位对应的槽位语义描述;其中,槽位语义描述与当前对话话语相匹配;基于当前对话话语、与当前对话话语相匹配的槽位语义描述以及与当前对话话语不匹配的槽位语义描述,确定话语样本。
为了提高模型训练的准确性,可以尽可能多的获取训练样本。每个训练样本中包括对话话语以及与对话话语相对应的槽位语义描述。基于此,可以从对话系统中调取历史多轮对话话语。可以基于每轮对话话语来确定话语样本。
具体的,每一轮对话均存在与其相对应的多个槽位,可以为每个槽位添加相应的语义描述,该语义描述中包括与槽位相匹配的语义描述和与槽位不匹配的语义描述。基于每轮对话话语、与之相匹配的槽位语义描述和与之不匹配的槽位语义描述,确定一个话语样本。也就是说,话语样本中包括与对话话语相对应的正样本和负样本,将与对话话语相匹配的槽位语义描述作为正样本,将与对话话语不匹配的槽位语义描述作为负样本。
S120、基于样本集对待训练编码模型中的模型参数进行修正,得到目标编码器。
在本实施例中,基于对比学习算法并采用该样本集对待训练编码模型中的模型参数进行修正,从而得到目标编码器。目标编码器为最终训练得到,用于对对话话语进行编码的编码器,也就是说,最终可以使用的编码器。
其中,对比学习算法是一种使相似度的实例在特征空间中距离缩小,不相似的实例在特征空间中距离扩大的监督算法。对比及学习算法可以通过使相似的样本在特征空间中距离更近,使不相似的样本在特征空间中更远来优化预训练语言模型,以此来提高语言模型的表达能力。该语言模型对应于待训练编码模型。目标编码器为最终训练好的,用于对对话话语进行编码的模型。
在本实施例中,待训练编码模型可以是BERT模型,可以采用本发明实施例所提供的方法对其模型参数进行微调,微调后的模型可以对对话话语进行编码,从而提高预测话语准确性。
在本实施例中,基于样本集对待训练编码模型中的模型参数进行修正,得到目标编码器,包括:对于各话语样本,将当前话语样本中的当前对话话拼接后输入至第一预训练语言模型中,输出话语特征向量;以,将预先设定的槽位标签和与当前话语样本相对应的多个槽位语义描述输入至第二预训练语言模型中,得到语义描述向量;基于话语特征向量、语义描述向量以及二进制交叉熵损失函数,对第一预训练语言模型和第二预训练语言模型中的参数进行修正,得到目标编码器。
其中,待训练编码模型是具有共享参数的对称上下分支组成。上下分支分别对应的为第一预训练语言模型和第二预训练语言模型。上下分支对应的模型参数相同。当前话语样本是由一轮对话构成,该轮对话中包括用户话语以及系统话语。可以将用户话语和系统话语用特殊字符拼接后,得到待输入对话话语。将待输入对话话语输入至第一预训练语言模型中,得到话语特征向量。同时,可以将预先设定的槽位标签以及话语样本中的多个槽位标签相匹配的槽位语义描述和不匹配的槽位语义描述,输入至第二预训练语言模型中,得到语义描述向量。基于上述得到的话语特征向量,语义描述向量以及二进制交叉熵损失函数,确定损失值,以基于损失值对预训练语言模型中的模型参数进行修正,得到目标编码器。
S130、基于目标编码器对接收到的待编码话语编码处理。
其中,待编码话语可以理解为需要将该文字表述转换为计算机可以识别的且与其含义比较接近的话语。
具体的,在得到目标编码器之后,可以采用该编码器替换现有对话系统中的对话状态追踪模型中的编码器。将待编码话语输入至对话状态追踪模型之前,可以采用目标编码器对待编码对话话语进行编码,然后将编码结果输入到对话状态追踪模型中,以追踪对话状态。
还需要说明的是,目标编码器可以用于不同的对话状态追踪模型中。
本发明实施例所提供的技术方案,构建样本集,样本集中包括多个话语样本,话语样本包括对话话语以及多个槽位语义描述,多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;基于样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;基于目标编码器对接收到的待编码话语编码处理,解决了现有了技术了对槽位编码不准确,导致对话预测效果不佳的问题,实现了基于目标编码器对对话话语进行编码时,可以有效确定相应槽位所对应的编码结果,进而基于编码结果进行对话预测的技术效果。
图2为本发明实施例所提供的一种对话话语的编码方法的流程示意图,在前述实施例的基础上,可以先训练得到目标编码器,以基于目标编码器对待编码对话话语进行编码,其具体的实施方式可以参见本实施例的详细阐述,其中,与上述实施例相同或者相应的技术术语不再赘述。
如图2所示,所述方法包括:
S210、构建样本集,样本集中包括多个话语样本,话语样本包括对话话语以及多个槽位语义描述,多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述。
在本实施例中,先介绍与对话话语以及与对话话语相对应的槽位语义描述。假设对话话语为“I'm looking for a restaurant”,与该对话话语相关联的槽位加槽位语义描述为:“restaurant-name+ask for the name of restaurant”和“restaurant-location+ask for the location of restaurant”,同时,也可以为对话话语添加不匹配的槽位语义描述,为:“hotel-name+ask for the name of hotel”和“hotel-location+ask for thelocation of hotel”。也就是说,将reataurant的两个槽位加槽位描述信息与当前对话话语分别组成两个正例对,hotel的两个槽位加槽位描述信息与当前对话话语组成负例对。
将当前对话话语和上述提到的四个槽位加槽位描述信息分别送入BERT预训练模型当中,BERT模型会分别输出四个嵌入,包含:一个对话话语的嵌入和四个槽位加槽位描述信息的嵌入,将restaurant的两个槽位加槽位描述信息嵌入与当前对话话语的嵌入之间的相似距离拉近,将hotel的两个槽位加槽位描述信息的嵌入与当前话语的嵌入之间的相似距离推远。
需要说明的是,与每个对话话语相匹配的槽位语义描述和不匹配槽位语义描述的数量是可以动态调整的,即,可以根据实际需求设定槽位语义描述的数量。
S220、对于各话语样本,将当前话语样本中的当前对话话语拼接后输入至第一预训练语言模型中,输出话语特征向量;以,将预先设定的槽位标签和与当前话语样本相对应的多个槽位语义描述输入至第二预训练语言模型中,得到语义描述向量。
示例性的,假设存在t轮对话,每轮对话为话语样本中的对话话语,可以确定每轮对话所对应的多个槽位语义描述。T轮对话话语可以表示为:
Xt={(R1,U1),…,(Rt,Ut),…,(RT,UT)}
其中,Rt和Ut分别表示第t轮的系统话语和用户话语。
对于每一轮对话话语来说,可以系统用语和用户话语拼接,得到输入至第一与预训练模型中的对话话语,可选的,将Ri和Ui拼接在一起,其中,i的取值范围为1至t中的任意一个正整数。例如,第t轮的对话话语表示为这里的/>表示序列的连接操作。编码Xt的公式如下所示:
Ht=BERT([CLS]Xt[SEP]);
其中,这里的是编码后的输出,L是序列的长度,k是编码器隐藏大小,[CLS]和[SEP]是BERT引入的特殊标签,[CLS]标签用来聚合所有特定于词的表示,[SEP]标签被用来标记句子的结尾。
预先设定的槽位标签可以由j个,用S={s1,…,sJ}来表示,多个槽位语义描述中包括相匹配的槽位语义描述和不匹配的槽位语义描述。
具体的,对于每个话语样本来说,可以将当前对话话语、与当前对话话语相匹配的槽位语义描述和不匹配的槽位语义描述输入至预训练语言模型中,基于第一预训练语言模型对当前对话话语进行处理,得到话语特征向量;基于第二预训练语言模型对槽位语义描述进行处理,得到语义描述向量。语义描述向量中包括与对话话语相匹配的语义描述向量,以及不匹配的语义描述向量。
S230、基于话语特征向量中每个文字所对应的嵌入向量累加后均值处理,得到对话待处理向量。
其中,累加后均值处理是基于平均层和归一化层来实现的。对话话语是由至少一个文字构成的,每个文字都存在与其相对应的嵌入向量,所有嵌入向量的集合为话语特征向量。对话待处理向量为对嵌入向量处理后所得到的向量。
具体的,可以对话语特征向量中每个文字所对应的嵌入向量累加后均值处理,得到与当前对话话语相对应的对话待处理向量。
示例性的,对话语特征向量编码处理的公式可以是:
zt=LN(AVG(Ht))
其中,AVG(·)指的是句中每个文字的嵌入向量累加后求均值,LN(·)是正则化函数,zt表示对话待处理向量。
S240、将与当前对话话语相匹配的槽位语义描述的语义描述向量均值处理,得到匹配描述向量;以及,将与当前对话话语不匹配的槽位语义描述的语义描述向量均值处理,得到不匹配描述向量。
其中,匹配描述向量是对与槽位相匹配的语义描述向量均值处理后所得到的向量。不匹配描述向量是对于槽位不匹配的语义描述向量均值处理后所得到的描述向量。
使用了第t轮对话对应的槽位标签S={s1,…,sJ}以及对应的自然语言描述信息descriptionj,作为BERT的输入,它的定义公式如下:
ej=LN(AVG(Hj)/,j=1,…,J
这里的是编码后的输出,L是序列的长度,k是编码器隐藏大小,是第j个槽位以及槽位的描述向量。
也就是说,基于S230和S240处理之后,可以得到与每个话语样本相对应的其中,/>为与对话话语相匹配的槽位语义描述所对应的匹配描述量,/>为与对话话语不匹配的槽位语义描述所对应的不匹配描述向量。zi为对话话语相对应的对话待处理向量。
S250、基于对话待处理向量、匹配描述向量、不匹配描述向量以及二进制交叉熵损失函数,对第一预训练语言模型和第二预训练语言模型中的参数进行修正,得到目标编码器。
基于对比学习算法和二进制交叉熵损失函数并采用对话待处理向量、匹配描述向量和不匹配描述向量,对第一预训练语言模型和第二预训练语言模型中的模型参数进行修正,得到目标编码器。
其中,对比学习的目的在于将语义相近的样本之间的距离拉近,将不相近的样本之间的距离推远,以此来学习到高质量的嵌入表示,期望将对话话语和槽位语义描述映射到同一表示空间。
在本实施例中,二进制交叉熵损失函数可以表示为:
其中,n为预先定义的槽位的数量,yij指的是zi和ej是否相关的标签(0或1),Sim(·)表示余弦距离,zi表示对话待处理向量,表示与对话话语所匹配描述向量,e- j表示与对话话语不匹配描述向量,τ表示为温度系数,Sigmoid(·)表示激活函数。
训练BERT(编码器)模型的暹罗网络,它由具有共享参数的对称上下分支组成。本发明实施例在BERT输出层之后添加一个pooling操作,计算所有的输出,得到一个固定大小的句子嵌入。
在本实施例中,当损失函数收敛时,说明编码器训练完成,或者在迭代次数达到预设次数阈值时,说明编码器训练完成,得到目标编码器。
S260、基于所述目标编码器对接收到的待编码话语编码处理。
得到了参数微调后的BERT(即目标编码器),采用参数微调后的BERT用于对话状态追踪模型中,作为编码器,完成对话状态追踪任务。
在上述技术方案的基础上,在得到目标编码器之后,可以将目标编码器部署在任意需要对对话话语进行处理的神经网络中,以提高对待编码对话编码处理的准确率和效率。
任意对话话语进行处理的场景可以是智能问答场景,客服回复场景等,相应的神经网络可以是部署在智能问答场景或者客服回复场景中的网络。
本发明实施例所提供的技术方案,构建样本集,样本集中包括多个话语样本,话语样本包括对话话语以及多个槽位语义描述,多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;基于样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;基于目标编码器对接收到的待编码话语编码处理,解决了现有了技术了对槽位编码不准确,导致对话预测效果不佳的问题,实现了基于目标编码器对对话话语进行编码时,可以有效确定相应槽位所对应的编码结果,进而基于编码结果进行对话预测的技术效果。
图3为本发明实施例所提供的一种对话话语的编码装置的结构示意图,该装置包括:样本构建模块310、编码器确定模块320以及编码模块330。
样本构建模块310,用于构建样本集,所述样本集中包括多个话语样本,所述话语样本包括对话话语以及多个槽位语义描述,所述多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;编码器确定模块320,用于基于所述样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;编码模块330,用于基于所述目标编码器对接收到的待编码话语编码处理。
本发明实施例所提供的技术方案,构建样本集,样本集中包括多个话语样本,话语样本包括对话话语以及多个槽位语义描述,多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;基于样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;基于目标编码器对接收到的待编码话语编码处理,解决了现有了技术了对槽位编码不准确,导致对话预测效果不佳的问题,实现了基于目标编码器对对话话语进行编码时,可以有效确定相应槽位所对应的编码结果,进而基于编码结果进行对话预测的技术效果。
在上述技术方案的基础上,所述样本构建模块,包括:
话语获取单元,用于获取历史多轮对话话语;
语义描述确定单元,用于对于每轮对话话语,确定当前对话话语的槽位以及与所述槽位对应的槽位语义描述;其中,所述槽位语义描述与所述当前对话话语相匹配;样本确定单元,用于基于所述当前对话话语、与所述当前对话话语相匹配的槽位语义描述以及与所述当前对话话语不匹配的槽位语义描述,确定话语样本。
在上述技术方案的基础上,所述编码器确定模块,包括:
第一向量确定单元,用于对于各话语样本,将当前话语样本中的当前对话话语拼接后输入至第一预训练语言模型中,输出话语特征向量;以及,将预先设定的槽位标签和与所述当前话语样本相对应的多个槽位语义描述输入至第二预训练语言模型中,得到语义描述向量;目标编码器确定单元,用于基于所述话语特征向量、语义描述向量以及二进制交叉熵损失函数,对所述第一预训练语言模型和第二预训练语言模型中的参数进行修正,得到所述目标编码器。
在上述各技术方案的基础上,所述目标编码器确定单元,包括:
待处理向量确定子单元,用于基于所述话语特征向量中每个文字所对应的嵌入向量累加后均值处理,得到对话待处理向量;
描述向量确定子单元,用于将与所述当前对话话语相匹配的槽位语义描述的语义描述向量均值处理,得到匹配描述向量;以及,将与所述当前对话话语不匹配的槽位语义描述的语义描述向量均值处理,得到不匹配描述向量;编码器确定子单元,用于基于所述对话待处理向量、匹配描述向量、不匹配描述向量以及所述二进制交叉熵损失函数,对所述第一预训练语言模型和第二预训练语言模型中的参数进行修正,得到所述目标编码器。
在上述各技术方案的基础上,所述第一预训练语言模型与所述第二预训练语言模型的模型结构相同,且模型参数相同。
在上述各技术方案的基础上,所述二进制交叉熵损失函数如下所示:
其中,n为预先定义的槽位的数量,y_ij指的是z_i和e_j是否相关的标签(0或1),Sim(·)表示余弦距离,表示对话待处理向量,表示与对话话语相匹配的所匹配描述向量,表示与对话话语不匹配的不匹配描述向量,表示为温度系数,Sigmoid(·)表示激活函数。
在上述各技术方案的基础上,在训练得到所述目标编码器的过程中,以对话话语与相匹配槽位语义描述在特征空间中距离缩小、对话话语与不匹配槽位语义描述在特征空间中的距离扩大作为目标进行优化。
在上述各技术方案的基础上,所述装置还包括:将所述目标编码器集成在任意对对话话语分析处理的网络模型中。
本发明实施例所提供的技术方案,构建样本集,样本集中包括多个话语样本,话语样本包括对话话语以及多个槽位语义描述,多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;基于样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;基于目标编码器对接收到的待编码话语编码处理,解决了现有了技术了对槽位编码不准确,导致对话预测效果不佳的问题,实现了基于目标编码器对对话话语进行编码时,可以有效确定相应槽位所对应的编码结果,进而基于编码结果进行对话预测的技术效果。
本发明实施例所提供的任务处理装置可执行本发明任意实施例所提供的对话话语的编码方法,具备执行方法相应的功能模块和有益效果。
值得注意的是,上述系统所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明实施例的保护范围。
图4为本发明实施例所提供的一种电子设备的结构示意图。图4示出了适于用来实现本发明实施例实施方式的示例性电子设备40的框图。图4显示的电子设备40仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备40以通用计算设备的形式表现。电子设备40的组件可以包括但不限于:一个或者多个处理器或者处理单元401,系统存储器402,连接不同系统组件(包括系统存储器402和处理单元401)的总线403。
总线403表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备40典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备40访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器402可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)404和/或高速缓存存储器405。电子设备40可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统406可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线403相连。存储器402可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块407的程序/实用工具408,可以存储在例如存储器402中,这样的程序模块407包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块407通常执行本发明所描述的实施例中的功能和/或方法。
电子设备40也可以与一个或多个外部设备409(例如键盘、指向设备、显示器810等)通信,还可与一个或者多个使得用户能与该电子设备40交互的设备通信,和/或与使得该电子设备40能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口414进行。并且,电子设备40还可以通过网络适配器412与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器412通过总线403与电子设备40的其它模块通信。应当明白,尽管图4中未示出,可以结合电子设备40使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元401通过运行存储在系统存储器402中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的对话话语的编码方法。
本发明实施例还提供一种包含计算机可执行指令的存储介质,计算机可执行指令在由计算机处理器执行时用于执行一种对话话语的编码方法,该方法包括:
构建样本集,所述样本集中包括多个话语样本,所述话语样本包括对话话语以及多个槽位语义描述,所述多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;
基于所述样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;
基于所述目标编码器对接收到的待编码话语编码处理。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明实施例操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种对话话语的编码方法,其特征在于,包括:
构建样本集,所述样本集中包括多个话语样本,所述话语样本包括对话话语以及多个槽位语义描述,所述多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;
基于所述样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;
基于所述目标编码器对接收到的待编码话语编码处理。
2.根据权利要求1所述的方法,其特征在于,所述构建样本集,包括:
获取历史多轮对话话语;
对于每轮对话话语,确定当前对话话语的槽位以及与所述槽位对应的槽位语义描述;其中,所述槽位语义描述与所述当前对话话语相匹配;
基于所述当前对话话语、与所述当前对话话语相匹配的槽位语义描述以及与所述当前对话话语不匹配的槽位语义描述,确定话语样本。
3.根据权利要求1所述的方法,其特征在于,所述待训练编码模型中包括第一预训练语言模型以及第二预训练语言模型,所述基于所述样本集对待训练编码模型中的模型参数进行修正,得到目标编码器,包括:
对于各话语样本,将当前话语样本中的当前对话话语拼接后输入至第一预训练语言模型中,输出话语特征向量;以及,将预先设定的槽位标签和与所述当前话语样本相对应的多个槽位语义描述输入至第二预训练语言模型中,得到语义描述向量;
基于所述话语特征向量、语义描述向量以及二进制交叉熵损失函数,对所述第一预训练语言模型和第二预训练语言模型中的参数进行修正,得到所述目标编码器。
4.根据权利要求3所述的方法,其特征在于,所述基于所述话语特征向量、语义描述向量以及二进制交叉熵损失函数,对所述第一预训练语言模型和第二预训练语言模型中的参数进行修正,得到所述目标编码器,包括:
基于所述话语特征向量中每个文字所对应的嵌入向量累加后均值处理,得到对话待处理向量;
将与所述当前对话话语相匹配的槽位语义描述的语义描述向量均值处理,得到匹配描述向量;以及,将与所述当前对话话语不匹配的槽位语义描述的语义描述向量均值处理,得到不匹配描述向量;
基于所述对话待处理向量、匹配描述向量、不匹配描述向量以及所述二进制交叉熵损失函数,对所述第一预训练语言模型和第二预训练语言模型中的参数进行修正,得到所述目标编码器。
5.根据权利要求3或4所述的方法,其特征在于,所述第一预训练语言模型与所述第二预训练语言模型的模型结构相同,且模型参数相同。
6.根据权利要求3或4所述的方法,其特征在于,在训练得到所述目标编码器的过程中,以对话话语与相匹配槽位语义描述在特征空间中距离缩小、对话话语与不匹配槽位语义描述在特征空间中的距离扩大作为目标进行优化。
7.根据权利要求1所述的方法,其特征在于,还包括:
将所述目标编码器集成在任意对对话话语分析处理的网络模型中。
8.一种对话话语的编码装置,其特征在于,包括:
样本构建模块,用于构建样本集,所述样本集中包括多个话语样本,所述话语样本包括对话话语以及多个槽位语义描述,所述多个槽位语义描述中包括相匹配的语义描述和不匹配的语义描述;
编码器确定模块,用于基于所述样本集对待训练编码模型中的模型参数进行修正,得到目标编码器;
编码模块,用于基于所述目标编码器对接收到的待编码话语编码处理。
9.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7任一项所述的对话话语的编码方法。
10.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7任一项所述的对话话语的编码方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311696753.6A CN117786063A (zh) | 2023-12-11 | 2023-12-11 | 对话话语的编码方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311696753.6A CN117786063A (zh) | 2023-12-11 | 2023-12-11 | 对话话语的编码方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117786063A true CN117786063A (zh) | 2024-03-29 |
Family
ID=90389989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311696753.6A Pending CN117786063A (zh) | 2023-12-11 | 2023-12-11 | 对话话语的编码方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117786063A (zh) |
-
2023
- 2023-12-11 CN CN202311696753.6A patent/CN117786063A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110516253B (zh) | 中文口语语义理解方法及系统 | |
WO2020253060A1 (zh) | 语音识别方法、模型的训练方法、装置、设备及存储介质 | |
KR20180001889A (ko) | 언어 처리 방법 및 장치 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN112507706B (zh) | 知识预训练模型的训练方法、装置和电子设备 | |
CN113239157B (zh) | 对话模型的训练方法、装置、设备和存储介质 | |
CN113053367B (zh) | 语音识别方法、语音识别的模型训练方法以及装置 | |
CN112786108B (zh) | 分子理解模型的训练方法、装置、设备和介质 | |
KR20200091797A (ko) | 음성 인식 장치 및 방법 | |
US20240078385A1 (en) | Method and apparatus for generating text | |
US20220358955A1 (en) | Method for detecting voice, method for training, and electronic devices | |
CN112825114A (zh) | 语义识别方法、装置、电子设备及存储介质 | |
CN114218940B (zh) | 文本信息处理、模型训练方法、装置、设备及存储介质 | |
CN113160820B (zh) | 语音识别的方法、语音识别模型的训练方法、装置及设备 | |
CN112487813B (zh) | 命名实体识别方法及系统、电子设备及存储介质 | |
CN111933119B (zh) | 用于生成语音识别网络的方法、装置、电子设备和介质 | |
CN114694637A (zh) | 混合语音识别方法、装置、电子设备及存储介质 | |
CN113609157B (zh) | 语言转换模型训练、语言转换方法、装置、设备及介质 | |
CN115294974A (zh) | 一种语音识别方法、装置、设备和存储介质 | |
CN113268452B (zh) | 一种实体抽取的方法、装置、设备和存储介质 | |
CN112990292B (zh) | 基于神经网络的对话状态的生成方法及装置 | |
CN117786063A (zh) | 对话话语的编码方法、装置、电子设备及存储介质 | |
CN115101072A (zh) | 一种语音识别处理方法和装置 | |
CN114625860A (zh) | 一种合同条款的识别方法、装置、设备及介质 | |
CN111414468B (zh) | 话术选择方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |