CN115358243A - 多轮对话识别模型的训练方法、装置、设备及存储介质 - Google Patents

多轮对话识别模型的训练方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN115358243A
CN115358243A CN202210889552.7A CN202210889552A CN115358243A CN 115358243 A CN115358243 A CN 115358243A CN 202210889552 A CN202210889552 A CN 202210889552A CN 115358243 A CN115358243 A CN 115358243A
Authority
CN
China
Prior art keywords
turn
dialogue
recognition
sentences
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210889552.7A
Other languages
English (en)
Inventor
黄健
郭林海
张琛
万化
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Pudong Development Bank Co Ltd
Original Assignee
Shanghai Pudong Development Bank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Pudong Development Bank Co Ltd filed Critical Shanghai Pudong Development Bank Co Ltd
Priority to CN202210889552.7A priority Critical patent/CN115358243A/zh
Publication of CN115358243A publication Critical patent/CN115358243A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本发明实施例公开了一种多轮对话识别模型的训练方法、装置、设备及存储介质。对初始多轮对话进行预处理,获得多轮对话样本;将多轮对话样本输入特征提取子网络,输出嵌入向量;将嵌入向量输入掩码识别子网络,输出掩码识别结果;将各轮对话语句的语义嵌入向量输入内部反转识别子网络,输出内部反转识别结果;将各轮对话语句的语义嵌入向量输入轮次识别子网络,输出轮次识别结果;基于掩码识别结果、内部反转识别结果及轮次识别结果对多轮对话识别模型进行训练。本发明实施例提供的多轮对话识别模型的训练方法,基于掩码识别结果、内部反转识别结果及轮次识别结果对多轮对话识别模型进行训练,可以提高训练后的多轮对话识别模型的准确性。

Description

多轮对话识别模型的训练方法、装置、设备及存储介质
技术领域
本发明实施例涉及自然语言技术领域,尤其涉及一种多轮对话识别模型的训练方法、装置、设备及存储介质。
背景技术
对话系统在自然语言处理应用中扮演着重要的作用,且得到广泛的应用,如:智能客服,智能外呼,智能助手等,并广泛应用于金融、通信、电子商务等领域。传统的对话系统仅允许客户通过文本方式表达需求,这极大地限制了使用效率。为了提升客户体验,这些对话系统逐渐支持客户通过语音方式输入询问语句。并且,随着语音识别(audio speechrecognition,ASR)技术的发展和成熟,越来越多的客户倾向于使用语音作为主要输入方式。客户的语音经过ASR转译为文本,并传递给对话系统。通过语音输入的文本,通常是口语化文本。
根据语言学的研究,口语与书面语存在差异,口语是听和说的语言,所以要求快,讲求效率,用词范围相对较窄,句子比较短,结构比较简单,有重复、脱节、颠倒、停顿等现象,还会出现语气词。书面语是写和看的语言,这可以给人足够的时间进行推敲和琢磨。因此,口语化的文本语料和书面语文本语料存在显著的差异。值得注意的是,这些预训练语言模型的训练数据,大多是文档型书面文本,而非口语化文本。
发明内容
本发明实施例提供一种多轮对话识别模型的训练方法、装置、设备及存储介质,实现口语化多轮对话识别模型的训练,使得多轮对话识别模型可以识别口语化的对话语义。
第一方面,本发明实施例提供了一种多轮对话识别模型的训练方法,多轮对话识别模型包括:特征提取子网络、掩码识别子网络、内部反转识别子网络及轮次识别子网络;所述方法包括:
对初始多轮对话进行预处理,获得多轮对话样本;其中,所述初始多轮对话包括多轮对话语句,每轮对话语句包括多个字符;所述预处理的方式包括如下至少一项:对所述初始多轮对话的字符进行掩码处理、对所述多轮对话的对话语句进行内部反转以及对所述多轮对话的对话语句的轮次进行互换;
将所述多轮对话样本输入所述特征提取子网络,输出嵌入向量;其中,所述嵌入向量包括各轮对话语句的语义嵌入向量和各字符的字符嵌入向量;
将所述嵌入向量输入所述掩码识别子网络,输出掩码识别结果;
将所述各轮对话语句的语义嵌入向量输入所述内部反转识别子网络,输出内部反转识别结果;
将所述各轮对话语句的语义嵌入向量输入所述轮次识别子网络,输出轮次识别结果;
基于所述掩码识别结果、内部反转识别结果及所述轮次识别结果对所述多轮对话识别模型进行训练。
第二方面,本发明实施例还提供了一种多轮对话识别模型的训练装置,多轮对话识别模型包括:特征提取子网络、掩码识别子网络、内部反转识别子网络及轮次识别子网络;所述装置包括:
多轮对话样本获取模块,用于对初始多轮对话进行预处理,获得多轮对话样本;其中,所述初始多轮对话包括多轮对话语句,每轮对话语句包括多个字符;所述预处理的方式包括如下至少一项:对所述初始多轮对话的字符进行掩码处理、对所述多轮对话的对话语句进行内部反转以及对所述多轮对话的对话语句的轮次进行互换;
嵌入向量输出模块,用于将所述多轮对话样本输入所述特征提取子网络,输出嵌入向量;其中,所述嵌入向量包括各轮对话语句的语义嵌入向量和各字符的字符嵌入向量;
掩码识别结果输出模块,用于将所述嵌入向量输入所述掩码识别子网络,输出掩码识别结果;
内部反转识别结果,用于将所述各轮对话语句的语义嵌入向量输入所述内部反转识别子网络,输出内部反转识别结果;
轮次识别结果输出模块,用于将所述各轮对话语句的语义嵌入向量输入所述轮次识别子网络,输出轮次识别结果;
训练模块,用于基于所述掩码识别结果、内部反转识别结果及所述轮次识别结果对所述多轮对话识别模型进行训练。
第三方面,本发明实施例还提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明实施例所述的多轮对话识别模型的训练方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明实施例所述的多轮对话识别模型的训练方法。
本发明实施例提供了一种多轮对话识别模型的训练方法、装置、设备及存储介质。对初始多轮对话进行预处理,获得多轮对话样本;将多轮对话样本输入特征提取子网络,输出嵌入向量;将嵌入向量输入掩码识别子网络,输出掩码识别结果;将各轮对话语句的语义嵌入向量输入内部反转识别子网络,输出内部反转识别结果;将各轮对话语句的语义嵌入向量输入轮次识别子网络,输出轮次识别结果;基于掩码识别结果、内部反转识别结果及轮次识别结果对多轮对话识别模型进行训练。本发明实施例提供的多轮对话识别模型的训练方法,基于掩码识别结果、内部反转识别结果及轮次识别结果对多轮对话识别模型进行训练,可以提高训练后的多轮对话识别模型的准确性。
附图说明
图1是本发明实施例一中的一种多轮对话识别模型的训练方法的流程图;
图2是本发明实施例一中的训练多轮对话识别模型的原理图;
图3是本发明实施例二中的一种多轮对话识别模型的训练装置的结构示意图;
图4是本发明实施例三中的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种多轮对话识别模型的训练方法的流程图,本实施例可适用于对多轮对话识别模型进行训练的情况,该方法可以由多轮对话识别模型的训练装置来执行,该装置可由硬件和/或软件组成,并一般可集成在具有多轮对话识别模型的训练功能的设备中。
本实施例中,多轮对话识别模型包括:特征提取子网络、掩码识别子网络、内部反转识别子网络及轮次识别子网络。
如图1所示,该方法具体包括如下步骤:
S110,对初始多轮对话进行预处理,获得多轮对话样本。
其中,初始多轮对话包括多轮对话语句,每轮对话语句包括多个字符。示例性的,假设初始多轮对话表示为:
Figure BDA0003767007550000051
其中,表示dk表示初始多轮对话,m表示对话的轮次,i∈[1,m]表示第i轮次,si表示第i轮次的角色,ui表示第i轮次的对话语句;ui可以表示为
Figure BDA0003767007550000052
其中,ni表示第i轮次的对话语句的长度(也可以称之为包含的字符数),
Figure BDA0003767007550000053
表示第i轮次的对话语句的第j个字符,j∈[1,ni]。
其中,预处理的方式包括如下至少一项:对初始多轮对话的字符进行掩码处理、对多轮对话的对话语句进行内部反转以及对多轮对话的对话语句的轮次进行互换。
本实施例中,对初始多轮对话的字符进行掩码处理的方式可以是:从初始多轮对话中选择一轮或者多轮对话语句,确定为第一待处理对话语句;将第一待处理对话语句中连续设定数量的字符替换为设定掩码。
其中,设定数量可以是对话语句长度的设定比例,例如:将其中15%的字符进行掩码处理。设定掩码可以表示[MASK]。示例性的,对于第i轮对话语句
Figure BDA0003767007550000061
若对第2个和第3个字符进行掩码,则获得掩码后的对话语句
Figure BDA0003767007550000062
具体的,将从多轮对话中选择的一轮或者多轮对话语句中的连续设定数量的字符替换为设定掩码,获得掩码后的多轮对话。
本实施例中,对多轮对话的对话语句进行内部反转的方式可以是:从初始多轮对话中选择一轮或者多轮对话语句,确定为第二待处理对话语句;将第二待处理对话语句中的任意两个子语句互换位置。
其中,每个对话语句中包含至少一个子语句,子语句可以由一个或者多个连续的字符组成。多个子语句中具有先后顺序和内在逻辑,若将其中两个子语句的位置进行互换,会影响对话语句的实际语义。示例性的,对于第i轮对话语句
Figure BDA0003767007550000063
假设
Figure BDA0003767007550000064
Figure BDA0003767007550000065
组成一个子语句,
Figure BDA0003767007550000066
Figure BDA0003767007550000067
组成一个子语句,如果将该两个自语句的位置互换,则获得内部反转后的对话语句:
Figure BDA0003767007550000068
具体的,将选择出的一轮或者多轮对话语句的任意两个子语句进行位置互换,获得内部反转处理后多轮对话。
本实施例中,对多轮对话的对话语句的轮次进行互换的方式可以是:从初始多轮对话中任意选择两轮对话语句;将选择的两轮对话语句的轮次互换。
在多轮对话中,不同轮次的对话语句之间具有内在的顺序和逻辑,每轮次的对话语句可以是对前一轮次或者更早轮次的对话语句的回复。如果将任意两轮次的对话语句的顺序互换,会影响整个对话的实际语句。示例性的,对于多轮对话dk={(s1,u1),(s2,u2),(s3,u3)…(sm,um)},如果将第一轮和第三轮的对话语句进行互换,则获得轮次互换后的多轮对话语句:dk={(s3,u3),(s2,u2),(s1,u1)…(sm,um)}。具体的,将选择出的两轮的对话语句的位置互换,获得轮次互换后的多轮对话。
本实施例中,还可以在每轮对话语句的首字符之前添加一个用于表示整个对话语句的字符,可表示为[CLS]。
S120,将多轮对话样本输入特征提取子网络,输出嵌入向量。
其中,嵌入向量包括各轮对话语句的语义嵌入向量和各字符的字符嵌入向量。语音嵌入向量可以是每轮对话语句分别对应的嵌入向量,字符嵌入向量可以是每个字符分别对应的嵌入向量。
其中,特征提取子网络可以包括编码器和特征提取模块。其中,特征提取模块可以是transformer模块。编码器用于对多轮对话中的字符进行编码,获得编码结果。编码结果可以由三部分的编码子结果组成,分别为语义编码结果(token编码)、轮次编码结果(也可以称为片段编码结果)及位置编码结果。其中,token编码可以是对字符语义信息进行编码后的结果,可以表示为
Figure BDA0003767007550000071
轮次编码结果可以是对字符所处轮次信息进行编码后的结果,可以表示为
Figure BDA0003767007550000072
位置编码结果可以是对字符所处的位置信息进行编码后的结果,可以表示为
Figure BDA0003767007550000073
则编码结果可以表示为:
Figure BDA0003767007550000074
其中,特征提取模块的输入为编码器输出的编码结果进行特征提取,输出每个字符对应的嵌入向量。可以表示为:Eij=transformer(eij),其中,Eij表示每个字符对应的嵌入向量,每个会话语句的第一个嵌入向量为该会话语句的语义嵌入向量,可以表示为ECLSi=Ei1,即字符[CLS]对应的嵌入向量。
S130,将嵌入向量输入掩码识别子网络,输出掩码识别结果。
其中,掩码识别子网络可以是非线性字符分类器,掩码识别结果可以是掩码对应的预测语义信息的概率。假设,预设的语义包含N个,则掩码识别结果为N个预测语音信息的概率。具体的,将多轮对话语句对应的嵌入向量Eij输入掩码识别子网络,输出各个掩码字符对应的掩码识别结果。
S140,将各轮对话语句的语义嵌入向量输入内部反转识别子网络,输出内部反转识别结果。
其中,内部反转识别子网络可以是非线性反转分类器,例如:二分类器,内部反转识别结果为对话语句内部是否反转的概率,即对话语句发生反转(true)的预测概率以及未发生反转(false)的预测概率。具体的,将各轮对话语句的语义嵌入向量ECLSi输入内部反转识别子网络,输出各轮对话语句是否内部反转的概率。
S150,将各轮对话语句的语义嵌入向量输入轮次识别子网络,输出轮次识别结果。
其中,轮次识别子网络可以是非线性轮次分类器,例如:多分类器,轮次识别结果可以是对话语句属于各个轮次的预测概率。具体的,将将各轮对话语句的语义嵌入向量ECLSi输入轮次识别子网络,输出对话语句属于各个轮次的概率。
S160,基于掩码识别结果、内部反转识别结果及轮次识别结果对多轮对话识别模型进行训练。
其中,假设特征提取子网络的参数为θ,掩码识别子网络的参数为θ1,内部反转识别子网络的参数为θ2,轮次识别子网络的参数为θ3
具体的,基于掩码识别结果、内部反转识别结果及轮次识别结果对多轮对话识别模型进行训练的方式可以是:根据掩码识别结果和掩码真实结果确定第一损失函数;根据内部反转识别结果和内部反转真实结果确定第二损失函数;根据轮次识别结果和轮次真实结果确定第三损失函数;基于第一损失函数、第二损失函数和第三损失函数对多轮对话识别模型进行训练。
其中,根据掩码识别结果和掩码真实结果确定第一损失函数的方式可以是:对于每个掩码字符,获取该掩码字符对应的掩码真实结果的语义信息,确定该语义信息对应的预测概率,将各个掩码字符对应的预测概率分别求对数,并对求对数后的预测概率进行累加,获得第一损失函数。其中,第一损失函数的计算公式可以表示为:
Figure BDA0003767007550000091
其中,M表示掩码字符的数量,
Figure BDA0003767007550000092
为掩码字符对应的真实语义信息的预测概率。
其中,根据内部反转识别结果和内部反转真实结果确定第二损失函数的方式可以是:获取每个对话语句的内部反转真实结果的预测概率,对各预测概率分别求取对数,并对求对数后的预测概率进行累加,获得第二损失函数。其中,第二损失函数的计算公式可以表示为:
Figure BDA0003767007550000093
其中,
Figure BDA0003767007550000094
表示第i轮次对话语句的内部反转真实结果的预测概率。
其中,根据轮次识别结果和轮次真实结果确定第三损失函数的方式可以是:获取各轮次的对话语句的轮次真实结果对应的预测概率,对各预测概率分别求取对数,并对求对数后的预测概率进行累加,获得第三损失函数。其中,第三损失函数的计算公式可以表示为:
Figure BDA0003767007550000095
其中,
Figure BDA0003767007550000096
表示第i个对话语句的轮次真实结果对应的预测概率。
具体的,基于第一损失函数、第二损失函数和第三损失函数对多轮对话识别模型进行训练的方式可以是:将第一损失函数、第二损失函数和第三损失函数进行累加,获得目标损失函数;基于目标损失函数对多轮对话识别模型进行训练。
其中,目标损失函数的计算公式可以是表示为:L(θ,θ124)=L1+L2+L3。在获得目标损失函数后,反向传输对参数θ,θ124进行调整,以对多轮对话识别模型进行训练。
示例性的,图2是本实施例中训练多轮对话识别模型的原理图,如图2所示,首先将多轮对话样本的各个字符分别进行token编码、片段编码及位置编码,获得编码结果,再将编码结果输入Transformer中,获得各个字符的嵌入向量,将字符嵌入向量输入非线性字符分类器中,输出掩码字符的掩码识别结果;将各对话语句的语义嵌入向量输入非线性轮次分类器,输出各对话语句的轮次识别结果;将各对话语句的语义嵌入向量输入非线性反转分类器,输出反转预测结果;最后基于掩码识别结果、内部识别结果及所述轮次识别结果对所述多轮对话识别模型进行训练。
本实施例中,在对多轮对话识别模型训练完成后,将掩码识别子网络、内部反转识别子网络及轮次识别子网络删除,获得语义识别模型,即语义识别模型由训练后特征提取子网络构成,将对话中的语句输入该语义识别模型进行语义识别。
本实施例的技术方案,对初始多轮对话进行预处理,获得多轮对话样本;将多轮对话样本输入特征提取子网络,输出嵌入向量;将嵌入向量输入掩码识别子网络,输出掩码识别结果;将各轮对话语句的语义嵌入向量输入内部反转识别子网络,输出内部反转识别结果;将各轮对话语句的语义嵌入向量输入轮次识别子网络,输出轮次识别结果;基于掩码识别结果、内部反转识别结果及轮次识别结果对多轮对话识别模型进行训练。本发明实施例提供的多轮对话识别模型的训练方法,基于掩码识别结果、内部反转识别结果及轮次识别结果对多轮对话识别模型进行训练,可以提高训练后的多轮对话识别模型的准确性。
实施例二
图3是本发明实施例二提供的一种多轮对话识别模型的训练装置的结构示意图。多轮对话识别模型包括:特征提取子网络、掩码识别子网络、内部反转识别子网络及轮次识别子网络,如图3所示,该装置包括:
多轮对话样本获取模块310,用于对初始多轮对话进行预处理,获得多轮对话样本;其中,初始多轮对话包括多轮对话语句,每轮对话语句包括多个字符;预处理的方式包括如下至少一项:对初始多轮对话的字符进行掩码处理、对多轮对话的对话语句进行内部反转以及对多轮对话的对话语句的轮次进行互换;
嵌入向量输出模块320,用于将多轮对话样本输入特征提取子网络,输出嵌入向量;其中,嵌入向量包括各轮对话语句的语义嵌入向量和各字符的字符嵌入向量;
掩码识别结果输出模块330,用于将嵌入向量输入掩码识别子网络,输出掩码识别结果;
内部反转识别结果340,用于将各轮对话语句的语义嵌入向量输入内部反转识别子网络,输出内部反转识别结果;
轮次识别结果输出模块350,用于将各轮对话语句的语义嵌入向量输入轮次识别子网络,输出轮次识别结果;
训练模块360,用于基于掩码识别结果、内部反转识别结果及轮次识别结果对多轮对话识别模型进行训练。
可选的,多轮对话样本获取模块310,还用于:
从初始多轮对话中选择一轮或者多轮对话语句,确定为第一待处理对话语句;
将第一待处理对话语句中连续设定数量的字符替换为设定掩码。
可选的,多轮对话样本获取模块310,还用于:
从初始多轮对话中选择一轮或者多轮对话语句,确定为第二待处理对话语句;
将第二待处理对话语句中的任意两个子语句互换位置。
可选的,多轮对话样本获取模块310,还用于:
从初始多轮对话中任意选择两轮对话语句;
将选择的两轮对话语句的轮次互换。
可选的,训练模块360,还用于:
根据掩码识别结果和掩码真实结果确定第一损失函数;
根据内部反转识别结果和内部反转真实结果确定第二损失函数;
根据轮次识别结果和轮次真实结果确定第三损失函数;
基于第一损失函数、第二损失函数和第三损失函数对多轮对话识别模型进行训练。
可选的,训练模块360,还用于:
将第一损失函数、第二损失函数和第三损失函数进行累加,获得目标损失函数;
基于目标损失函数对多轮对话识别模型进行训练。
可选的,掩码识别结果为掩码对应的预测语义信息的概率;内部反转识别结果为对话语句内部是否反转的概率;轮次识别结果为对话语句属于各个轮次的概率。
上述装置可执行本发明前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明前述所有实施例所提供的方法。
实施例三
图4示出了可以用来实施本发明的实施例的电子设备10的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图4所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如多轮对话识别模型的训练方法。
在一些实施例中,多轮对话识别模型的训练方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的多轮对话识别模型的训练方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行多轮对话识别模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (10)

1.一种多轮对话识别模型的训练方法,其特征在于,多轮对话识别模型包括:特征提取子网络、掩码识别子网络、内部反转识别子网络及轮次识别子网络;所述方法包括:
对初始多轮对话进行预处理,获得多轮对话样本;其中,所述初始多轮对话包括多轮对话语句,每轮对话语句包括多个字符;所述预处理的方式包括如下至少一项:对所述初始多轮对话的字符进行掩码处理、对所述多轮对话的对话语句进行内部反转以及对所述多轮对话的对话语句的轮次进行互换;
将所述多轮对话样本输入所述特征提取子网络,输出嵌入向量;其中,所述嵌入向量包括各轮对话语句的语义嵌入向量和各字符的字符嵌入向量;
将所述嵌入向量输入所述掩码识别子网络,输出掩码识别结果;
将所述各轮对话语句的语义嵌入向量输入所述内部反转识别子网络,输出内部反转识别结果;
将所述各轮对话语句的语义嵌入向量输入所述轮次识别子网络,输出轮次识别结果;
基于所述掩码识别结果、内部反转识别结果及所述轮次识别结果对所述多轮对话识别模型进行训练。
2.根据权利要求1所述的方法,其特征在于,对所述初始多轮对话的字符进行掩码处理,包括:
从所述初始多轮对话中选择一轮或者多轮对话语句,确定为第一待处理对话语句;
将所述第一待处理对话语句中连续设定数量的字符替换为设定掩码。
3.根据权利要求1所述的方法,其特征在于,对所述多轮对话的对话语句进行内部反转,包括:
从所述初始多轮对话中选择一轮或者多轮对话语句,确定为第二待处理对话语句;
将所述第二待处理对话语句中的任意两个子语句互换位置。
4.根据权利要求1所述的方法,其特征在于,对所述多轮对话的对话语句的轮次进行互换,包括:
从所述初始多轮对话中任意选择两轮对话语句;
将选择的两轮对话语句的轮次互换。
5.根据权利要求1所述的方法,其特征在于,基于所述掩码识别结果、内部反转识别结果及所述轮次识别结果对所述多轮对话识别模型进行训练,包括:
根据所述掩码识别结果和掩码真实结果确定第一损失函数;
根据所述内部反转识别结果和内部反转真实结果确定第二损失函数;
根据所述轮次识别结果和轮次真实结果确定第三损失函数;
基于所述第一损失函数、所述第二损失函数和所述第三损失函数对所述多轮对话识别模型进行训练。
6.根据权利要求5所述的方法,其特征在于,基于所述第一损失函数、所述第二损失函数和所述第三损失函数对所述多轮对话识别模型进行训练,包括:
将所述第一损失函数、所述第二损失函数和所述第三损失函数进行累加,获得目标损失函数;
基于所述目标损失函数对所述多轮对话识别模型进行训练。
7.根据权利要求5所述的方法,其特征在于,所述掩码识别结果为掩码对应的预测语义信息的概率;所述内部反转识别结果为所述对话语句内部是否反转的概率;所述轮次识别结果为对话语句属于各个轮次的概率。
8.一种多轮对话识别模型的训练装置,其特征在于,多轮对话识别模型包括:特征提取子网络、掩码识别子网络、内部反转识别子网络及轮次识别子网络;所述装置包括:
多轮对话样本获取模块,用于对初始多轮对话进行预处理,获得多轮对话样本;其中,所述初始多轮对话包括多轮对话语句,每轮对话语句包括多个字符;所述预处理的方式包括如下至少一项:对所述初始多轮对话的字符进行掩码处理、对所述多轮对话的对话语句进行内部反转以及对所述多轮对话的对话语句的轮次进行互换;
嵌入向量输出模块,用于将所述多轮对话样本输入所述特征提取子网络,输出嵌入向量;其中,所述嵌入向量包括各轮对话语句的语义嵌入向量和各字符的字符嵌入向量;
掩码识别结果输出模块,用于将所述嵌入向量输入所述掩码识别子网络,输出掩码识别结果;
内部反转识别结果,用于将所述各轮对话语句的语义嵌入向量输入所述内部反转识别子网络,输出内部反转识别结果;
轮次识别结果输出模块,用于将所述各轮对话语句的语义嵌入向量输入所述轮次识别子网络,输出轮次识别结果;
训练模块,用于基于所述掩码识别结果、内部反转识别结果及所述轮次识别结果对所述多轮对话识别模型进行训练。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的多轮对话识别模型的训练方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-7中任一项所述的多轮对话识别模型的训练方法。
CN202210889552.7A 2022-07-27 2022-07-27 多轮对话识别模型的训练方法、装置、设备及存储介质 Pending CN115358243A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210889552.7A CN115358243A (zh) 2022-07-27 2022-07-27 多轮对话识别模型的训练方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210889552.7A CN115358243A (zh) 2022-07-27 2022-07-27 多轮对话识别模型的训练方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN115358243A true CN115358243A (zh) 2022-11-18

Family

ID=84031778

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210889552.7A Pending CN115358243A (zh) 2022-07-27 2022-07-27 多轮对话识别模型的训练方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN115358243A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116127328A (zh) * 2023-04-13 2023-05-16 北京轮子科技有限公司 一种对话状态识别模型的训练方法、装置、介质及设备
CN116204616A (zh) * 2022-12-29 2023-06-02 南京百珏科技有限公司 基于语义训练算法的人工智能问答方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116204616A (zh) * 2022-12-29 2023-06-02 南京百珏科技有限公司 基于语义训练算法的人工智能问答方法
CN116127328A (zh) * 2023-04-13 2023-05-16 北京轮子科技有限公司 一种对话状态识别模型的训练方法、装置、介质及设备
CN116127328B (zh) * 2023-04-13 2023-08-25 北京轮子科技有限公司 一种对话状态识别模型的训练方法、装置、介质及设备

Similar Documents

Publication Publication Date Title
CN113553864B (zh) 翻译模型的训练方法、装置、电子设备及存储介质
CN112466288B (zh) 语音识别方法、装置、电子设备及存储介质
CN115358243A (zh) 多轮对话识别模型的训练方法、装置、设备及存储介质
CN114416943B (zh) 对话模型的训练方法、装置、电子设备及存储介质
CN113129870A (zh) 语音识别模型的训练方法、装置、设备和存储介质
CN113407698B (zh) 意图识别模型的训练与意图识别的方法、装置
CN115309877B (zh) 对话生成方法、对话模型训练方法及装置
CN114360557B (zh) 语音音色转换方法、模型训练方法、装置、设备和介质
CN114548110A (zh) 语义理解方法、装置、电子设备及存储介质
CN112786108B (zh) 分子理解模型的训练方法、装置、设备和介质
CN112559885A (zh) 地图兴趣点的训练模型确定方法、装置及电子设备
US20220358955A1 (en) Method for detecting voice, method for training, and electronic devices
CN113553412A (zh) 问答处理方法、装置、电子设备和存储介质
CN115640520A (zh) 跨语言跨模态模型的预训练方法、设备和存储介质
CN114861637A (zh) 拼写纠错模型生成方法和装置、拼写纠错方法和装置
CN116662484A (zh) 一种文本正则化方法、装置、设备以及存储介质
CN114758649B (zh) 一种语音识别方法、装置、设备和介质
CN113468857B (zh) 风格转换模型的训练方法、装置、电子设备以及存储介质
CN114841172A (zh) 文本匹配双塔模型的知识蒸馏方法、装置及程序产品
CN115357710A (zh) 表格描述文本生成模型的训练方法、装置及电子设备
CN114067805A (zh) 声纹识别模型的训练与声纹识别方法及装置
CN115080739A (zh) 用于训练对话模型的方法以及用于输出应答信息的方法
CN114898742A (zh) 流式语音识别模型的训练方法、装置、设备和存储介质
CN113886543A (zh) 生成意图识别模型的方法、装置、介质及程序产品
CN113641724A (zh) 知识标签挖掘方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination