CN113535930B - 模型训练方法、装置及存储介质 - Google Patents

模型训练方法、装置及存储介质 Download PDF

Info

Publication number
CN113535930B
CN113535930B CN202111084783.2A CN202111084783A CN113535930B CN 113535930 B CN113535930 B CN 113535930B CN 202111084783 A CN202111084783 A CN 202111084783A CN 113535930 B CN113535930 B CN 113535930B
Authority
CN
China
Prior art keywords
dialogue
training
model
samples
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111084783.2A
Other languages
English (en)
Other versions
CN113535930A (zh
Inventor
戴音培
李永彬
孙健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Damo Institute Hangzhou Technology Co Ltd
Original Assignee
Alibaba Damo Institute Hangzhou Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Damo Institute Hangzhou Technology Co Ltd filed Critical Alibaba Damo Institute Hangzhou Technology Co Ltd
Priority to CN202111084783.2A priority Critical patent/CN113535930B/zh
Publication of CN113535930A publication Critical patent/CN113535930A/zh
Application granted granted Critical
Publication of CN113535930B publication Critical patent/CN113535930B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本申请实施例提供一种模型训练方法、装置及存储介质,其中,模型训练方法包括:获得多个对话样本的困难度;根据每个对话样本的困难度对多个对话样本进行分组,得到至少一个对话样本组;按照预设的困难度顺序,将至少一个对话样本组加入训练集合中,并利用训练集合中的对话样本对对话模型进行训练。通过将对话样本根据困难度进行分组,按照预设的困难度顺序,加入训练集合中进行训练,提高了对话模型训练的效果,进而提高了对话模型的准确率。

Description

模型训练方法、装置及存储介质
技术领域
本申请实施例涉及人工智能技术领域,尤其涉及一种模型训练方法、装置及存储介质。
背景技术
随着人工智能的发展,许多设备都可以通过神经网络模型实现和用户进行问答对话。对话状态跟踪(Dialog State Tracking,DST)模型是任务导向型对话中的重要模型,它可以根据对话历史,输出表示对话状态的槽值对,也可以说是将对话进行分类。在模型应用之前,需要利用样本数据对模型进行训练,训练效果的好坏也决定了模型分类的准确性。相关技术中,对DST模型进行训练时,利用对话数据进行随机训练,影响训练效果,进而影响模型的准确率。
发明内容
有鉴于此,本申请实施例提供一种模型训练方法、装置及存储介质,以至少部分解决上述问题。
根据本申请实施例的第一方面,提供了一种模型训练方法,包括:获得多个对话样本的困难度;根据每个对话样本的困难度对多个对话样本进行分组,得到至少一个对话样本组;按照预设的困难度顺序,将至少一个对话样本组加入训练集合中,并利用训练集合中的对话样本对对话模型进行训练。
根据本申请实施例的第二方面,提供了一种模型训练装置,包括:困难度模块,用于获得多个对话样本的困难度;分组模块,用于根据每个对话样本的困难度对多个对话样本进行分组,得到至少一个对话样本组;训练模块,用于按照预设的困难度顺序,将至少一个对话样本组加入训练集合中,并利用训练集合中的对话样本对对话模型进行训练。
根据本申请实施例的第三方面,提供了一种电子设备,包括:处理器、存储器、通信接口和通信总线,处理器、存储器和通信接口通过通信总线完成相互间的通信;存储器用于存放至少一可执行指令,可执行指令使处理器执行如第一方面的模型训练方法对应的操作。
根据本申请实施例的第四方面,提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时,实现如第一方面的模型训练方法。
根据本申请实施例的第五方面,提供了一种计算机程序产品,该计算机程序产品被处理器执行时,实现如第一方面的模型训练方法。
本申请实施例提供的模型训练方法、装置及存储介质,获得多个对话样本的困难度;根据每个对话样本的困难度对多个对话样本进行分组,得到至少一个对话样本组;按照预设的困难度顺序,将至少一个对话样本组加入训练集合中,并利用训练集合中的对话样本对对话模型进行训练。通过将对话样本根据困难度进行分组,按照预设的困难度顺序,加入训练集合中进行训练,提高了对话模型训练的效果,进而提高了对话模型的准确率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请实施例中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本申请实施例一提供的一种模型训练方法的场景示意图;
图2为本申请实施例一提供的一种模型训练方法的流程图;
图3为本申请实施例一提供的一种模型训练方法的架构图;
图4为本申请实施例二提供的一种模型训练装置的结构图;
图5为本申请实施例三提供的一种电子设备的结构图。
具体实施方式
为了使本领域的人员更好地理解本申请实施例中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请实施例一部分实施例,而不是全部的实施例。基于本申请实施例中的实施例,本领域普通技术人员所获得的所有其他实施例,都应当属于本申请实施例保护的范围。
下面结合本申请实施例附图进一步说明本申请实施例具体实现。
实施例一
本申请实施例一提供一种模型训练方法,应用于电子设备,为了便于理解,对本申请实施例一所提供的模型训练方法的应用场景进行说明,参照图1所示,图1为本申请实施例一提供的一种模型训练方法的场景示意图。图1所示的场景中包括电子设备101,电子设备101可以是执行本申请实施例一提供的模型训练方法的设备。
电子设备101可以是智能手机、平板电脑、笔记本电脑、车载终端等终端设备,电子设备101也可以是服务器等网络设备,当然,此处只是示例性说明,并不代表本申请局限于此。
电子设备101可以接入网络,通过网络与云端连接,并进行数据交互,或者,电子设备101可以是云端的设备。本申请中,网络包括局域网(英文:Local Area Network,LAN)、广域网(英文:Wide Area Network,WAN)、移动通信网络;如万维网(英文:World Wide Web,WWW)、长期演进(英文:Long Term Evolution,LTE)网络、2G网络(英文:2th GenerationMobile Network)、3G网络(英文:3th Generation Mobile Network),5G网络(英文:5thGeneration Mobile Network)等。云端可以包括通过网络连接的各种设备,例如,服务器、中继设备、端到端(英文:Device-to-Device,D2D)设备等。当然,此处只是示例性说明,并不代表本申请局限于此。
结合图1所示的场景,详细说明本申请实施例一提供的模型训练方法,需要说明的是,图1只是本申请实施例一提供的模型训练方法的一种应用场景,并不代表该模型训练方法必须应用于图1所示的场景,具体可以应用于电子设备,参照图2所示,图2为本申请实施例一提供的一种模型训练方法的流程图,该方法包括以下步骤:
步骤201、获得多个对话样本的困难度。
需要说明的是,一个对话样本对应一个困难度,示例性地,困难度越高,说明越难以分类,也可以说困难度越高,该对话样本输出的槽值对准确性越低,即分类越不准确。
可选地,在一种实现方式中,获得多个对话样本的困难度,包括:利用打分模型对每个对话样本进行困难度打分,得到对话样本的困难度。
可选地,在另一种实现方式中,获得多个对话样本的困难度,包括:根据预设对话模型的准确率,和/或,困难度打分策略,分别对每个对话样本进行困难度打分,得到对话样本的困难度。需要说明的是,这两种实现方式可以结合起来,即根据预设对话模型的准确率,和/或,困难度打分策略,利用打分模型对每个对话样本进行困难度打分,得到对话样本的困难度。示例性地,可以只根据对话模型的准确率进行困难度打分,也可以值根据困难度打分策略进行困难度打分,也可以根据对话模型的准确率以及困难度打分策略进行困难度打分。此处,列举两个具体示例分别说明如何根据对话模型的准确率以及困难度打分策略进行打分。
可选地,在第一个示例中,获得多个对话样本的困难度,包括:将对话样本输入对话模型,得到预测结果;根据预测结果的准确性确定对话样本的困难度,预测结果越准确的对话样本困难度越低。可选地,可以将测试集、验证集、训练集综合起来,将几个集合的对话样本一起进行困难度打分,例如,可以将所有的对话样本分为X组,利用X-1组输入对话模型,利用剩余的1组进行准确率验证,通过这种交叉验证的方式确定对话样本的准确率,并确定困难度。
可选地,在第二个示例中,获得多个对话样本的困难度,包括:根据对话样本中当前对话语句的对话轮次、当前对话语句的单词数量、对话样本中包含的实体数目以及新增的槽位数目,计算对话样本的困难度。需要说明的是,可选地,四种得分可以按照以下策略确定,1)根据当前对话语句的对话轮次确定第一分值,第一分值= min{1, 当前轮数/7};2)根据当前对话语句的对话轮次确定第二分值,第二分值= min{1,当前用户语句单词数/50};3)根据当前对话语句的对话轮次确定第三分值,第三分值= min{1,对话历史中提到的实体数目/4};4)根据当前对话语句的对话轮次确定第四分值,第四分值= min{1,新增的槽位数目/6},当然,此处只是示例性说明。
还需要说明的是,在一种实现方式中,将第一个示例得到的困难度和第二个示例得到的困难度进行加权求和,将计算结果作为最终的困难度。例如,可以根据公式
Figure 808682DEST_PATH_IMAGE001
进行加权求和,其中,
Figure 623054DEST_PATH_IMAGE002
表示最终计算得到的困难度,
Figure 445516DEST_PATH_IMAGE003
表示根据第一个示例得到的困难度,
Figure 712550DEST_PATH_IMAGE004
表示第二个示例中的第m分值,m为大于0小于等于4的整数,
Figure 973767DEST_PATH_IMAGE005
表示第一个示例得到的困难度的权重,
Figure 642646DEST_PATH_IMAGE006
表示第二个示例中的第m分值的权重。当然,此处只是示例性说明。结合对话模型的准确率和困难度打分策略确定对话样本的困难度,充分考虑了模型分类的困难程度以及对话样本本身的复杂程度,确定的困难度更加准确。
结合上述说明,可选地,在步骤201之前,还可以利用预训练样本对对话模型的编码器进行预训练。预训练样本包含用于进行预训练的样本数据,预训练样本也可以作为对话样本,即对话样本包含预训练样本,本申请中,预训练指的是对对话模型的编码器进行训练。对话模型的编码器用于对对话数据进行编码,也可以说是进行特征提取。对话模型用于根据对话数据,生成表示对话状态的槽值对,即对对话数据进行分类。在任务导向型对话系统中,系统需要通过和用户多轮交互,确定用户想要的实体和属性,并在后端知识表中搜索结果,因此对话本体通常设计成各种属性和该属性可取的值,即槽和槽值,对话本体指定一个对话模型可以理解的知识语义范围。对话状态可以理解为一种语义标签,可以通过槽值对的形式表达,记录了对话数据中用户表达出的对某些属性的喜好。比如对话数据是“我想找个便宜的中餐馆”,则该对话数据对应的曹植对可以是“价格=便宜,类型=中餐”。当然,此处只是示例性说明。
可选地,在一种具体实现方式中,对话模型至少包括编码器,方法还包括:利用预训练样本对编码器进行预训练;具体的,利用预训练样本对编码器进行预训练,包括:将预训练样本输入对话模型的编码器中得到编码数据;将编码数据输入预设的预训练分类模型,并计算损失函数值,根据计算得到的损失函数值调整编码器,以减少损失函数值。对编码器的训练,以减少损失函数值为目的,调整编码器中的参数。例如,编码器可以由矩阵构成,编码器中的参数即为矩阵中的数值。基于该实现方式,此处列举两个具体示例分别对编码器和预训练分类模型进行说明。
可选地,在第一个示例中,预训练样本包括预训练槽样本和预训练对话样本,编码器包括槽编码器和对话编码器,将预训练样本输入对话模型的编码器中得到编码数据,包括:将预训练槽样本输入槽编码器得到槽编码数据,将预训练对话样本输入对话编码器得到对话编码数据,编码数据包括槽编码数据和对话编码数据。需要说明的是,预训练槽样本指的是用于进行预训练的槽样本数据,预训练对话样本指的是用于进行预训练的对话样本数据,槽编码器用于对预训练槽样本进行编码,对话编码器用于对预训练对话样本进行编码。示例性地,槽编码器可以将预训练槽样本编码成一个向量es,对话编码器可以将一个预训练对话样本编码成一组向量Et=[et 1, et 2, et 3, ……],其中et i表示预训练对话样本中的第i个对话语句进行编码得到的向量,i为大于0的整数。示例性地,在一种具体的实现方式中,编码器可以包括循环神经网络(Recurrent Neural Network,R NN)模型,对于RNN模型,槽编码器是将RNN模型的首尾隐状态的拼接向量作为es,对话编码器输出的Et=[et 1, et 2,et 3, ……]为RNN模型的序列隐状态向量。在另一种具体的实现方式中,编码器可以包括Transformer模型,对于Transformer模型,槽编码器是将Transformer模型的第一个输出向量作为es,对话编码器输出的Et=[et 1, et 2, et 3, ……]为Transformer模型的序列隐状态向量。当然,此处只是示例性说明。
可选地,基于第一个示例,在第二个示例中,对预训练分类模型进行说明,预训练分类模型可以包括序列二分类模型、槽分类模型以及掩码语言模型中的至少一项,在一种具体的实现方式中,预训练分类模型包括序列二分类模型、槽分类模型以及掩码语言模型,将编码数据输入预设的预训练分类模型,并计算损失函数值,根据计算得到的损失函数值调整编码器,以减少损失函数值,包括:将槽编码数据和对话编码数据输入序列二分类模型,并计算第一损失函数值;将槽编码数据和对话编码数据输入槽分类模型,并计算第二损失函数值;将槽编码数据和对话编码数据输入掩码语言模型,并计算第三损失函数值;将第一损失函数值、第二损失函数值以及第三损失函数值进行加权求和得到损失函数值,根据损失函数值调整编码器,以减少损失函数值。需要说明的是,序列二分类模型用于判断将预训练槽样本进行编码得到的向量es以及将预训练对话样本进行编码得到的向量Et是否相关;槽分类模型用于将es和Et经过注意力(attention)机制处理后,对输入的槽进行分类,可选地,类别可以包括增加、删除、改动、无操作等;掩码语言模型(Masked LanguageModel,MLM)用于将es和Et进行掩码处理后进行预测。结合第一个示例和第二个示例,利用预训练槽样本和预训练对话样本对槽编码器和对话编码器进行预训练,能够利用对话数据的本体结构信息对编码器进行优化,而且具有通用性,能够适应各种对话模型的训练。
步骤202、根据每个对话样本的困难度对多个对话样本进行分组,得到至少一个对话样本组。
其中,一个对话样本组对应一个困难度的区间。需要说明的是,每个对话样本组对应的困难度的区间可以不重叠。示例性地,对于10个对话样本组,第1个对话样本组对应的困难度的区间是(0, 1],第2个对话样本组对应的困难度的区间是(1, 2],以此类推,第10个对话样本组对应的困难度的区间是(9, 10],当然,此处只是示例性说明。
步骤204、按照预设的困难度顺序,将所述至少一个对话样本组加入训练集合中,并利用所述训练集合中的对话样本对对话模型进行训练。
需要说明的是,对话样本组可以是分批次加入训练集合中的,在训练集合中每增加一个对话样本组,就对对话模型进行一次或多次训练,一次训练指的是将训练集合当前包含的所有对话样本全部输入对话模型完成训练的过程。可选地,预设的困难度顺序可以是按照困难度从小到大的顺序,可以将至少一个对话样本组按照困难度从小到大的顺序分批次加入训练集合中,并利用训练集合中的对话样本对对话模型进行训练。可选地,在一种实现方式中,对话样本组的数量为N个,N为大于0的整数;按照预设的困难度顺序,将至少一个对话样本组加入训练集合中,并利用训练集合中的对话样本对对话模型进行训练,包括:将第n个对话样本组包含的对话样本加入训练集合中,n为对话样本组的编号,且n为大于0小于N的整数,编号越小的对话样本组,困难度越低;利用训练集合中的对话样本对对话模型进行训练,再将第n+1个对话样本组包含的对话样本加入训练集合中,直至所有的对话样本组都加入训练集合中,并完成训练。将对话样本组按照由简单到困难的次序分批次加入训练集合中,并利用训练集合中包含的对话样本对对话模型进行训练,可以提高对话模型的训练效果。
可选地,结合上述步骤201-204,还可以对对话样本进行扩充,示例性地,该方法还包括:将对话样本进行槽替换、槽值替换、或者调整对话样本中的对话语句,以得到扩充的对话样本,并利用扩充的对话样本对对话模型进行训练。其中,槽替换指的是将对话样本中的对话语句中的槽改成其他的槽;槽值替换指的是将对话样本中的对话语句中的某个槽的值改成该槽的其他值;调整对话样本中的对话语句可以是选取两个对话状态一致的对话样本,将对话样本中包含的多个对话语句进行交错组合,得到两个新的对话样本。当然,以上只是示例性说明。扩充对话样本可以进一步提高对话模型的训练效果。
结合上述步骤201-204所描述的模型训练方法,此处列举一个具体的应用场景进行说明。参照图3所示,图3为本申请实施例一提供的一种模型训练方法的架构图。首先,对对话数据(即对话样本)的结构进行说明如下:
问:您好,我是***机器人,请问您需要什么帮助;
答:我想找个便宜的中餐馆吃饭。
此时,当前对话语句的槽值对:餐馆价格=便宜,餐馆类型=中餐;对话数据的槽值对:餐馆价格=便宜,餐馆类型=中餐。
问:好的,为您推荐上海人家,位置在朝阳区望京。
答:好的,我还需要定个酒店,就在餐馆附近。
此时,当前对话语句的槽值对:餐馆名称=上海人家,餐馆位置=望京,酒店位置=望京;对话数据的槽值对:餐馆价格=便宜,餐馆类型=中餐,餐馆名称=上海人家,餐馆位置=望京,酒店位置=望京。
问:为您找个7天酒店,您需要预定吗;
答:需要,谢谢。
此时,当前对话语句的槽值对:酒店名称=7天酒店;对话数据的槽值对:餐馆价格=便宜,餐馆类型=中餐,餐馆名称=上海人家,餐馆位置=望京,酒店位置=望京,酒店名称=7天酒店。
以上对话数据可以形成3个对话样本,当然,此处只是示例性说明。结合图3所示的架构,第一部分,对编码器进行预训练,将预训练样本中包含的预训练槽样本和预训练对话样本分别输入槽编码器和对话编码器,槽编码器和对话编码器输出的编码数据,输入预训练分类模型进行分类,根据分类结果调整编码器的参数;第二部分,对对话模型进行训练,将对话样本进行困难度打分,根据困难度将对话样本分为N组,依次按照困难度由小到大的顺序编号,将第1个对话样本组加入训练集合中,然后利用训练集合中的对话样本对对话模型进行训练,直到模型收敛或者训练次数达到预设次数,然后将第2个对话样本组加入训练集合中,利用训练集合中的对话样本对对话模型进行训练,以此类推,直到所有的对话样本组加入到训练集合中完成训练,其中,预设次数可以大于等于1,例如,预设次数可以是1、2、3、4、5、6等,训练一次指的是将训练集合中所有的对话样本输入对话模型中一次,进行训练的过程,需要说明的是,当所有的对话样本组加入到训练集合中后,可以再训练6次;第三部分,对对话样本进行扩充增强,可以将对话模型预测错的对话样本进行扩充增强,将扩充后的对话样本加入到训练集合中,再利用训练集合中的对话样本对对话模型进行训练。
本申请实施例提供的模型训练方法,获得多个对话样本的困难度;根据每个对话样本的困难度对多个对话样本进行分组,得到至少一个对话样本组;按照预设的困难度顺序,将至少一个对话样本组加入训练集合中,并利用训练集合中的对话样本对对话模型进行训练。通过将对话样本根据困难度进行分组,按照预设的困难度顺序,加入训练集合中进行训练,提高了对话模型训练的效果,进而提高了对话模型的准确率。
实施例二
基于上述实施例一所描述的方法,本申请实施例二提供一种模型训练装置,用于执行上述实施例一所描述的方法,参照图4所示,模型训练装置40,包括:
困难度模块401,用于获得多个对话样本的困难度;
分组模块402,用于根据每个对话样本的困难度对多个对话样本进行分组,得到至少一个对话样本组;
训练模块403,用于按照预设的困难度顺序,将至少一个对话样本组加入训练集合中,并利用训练集合中的对话样本对对话模型进行训练。
可选地,在一种具体示例中,对话模型至少包括编码器,模型训练装置40还包括预训练模块401,用于利用预训练样本对编码器进行预训练;具体用于将预训练样本输入对话模型的编码器中得到编码数据;将编码数据输入预设的预训练分类模型,并计算损失函数值,根据计算得到的损失函数值调整编码器,以减少损失函数值。
可选地,在一种具体示例中,预训练样本包括预训练槽样本和预训练对话样本,编码器包括槽编码器和对话编码器,预训练模块401,用于将预训练槽样本输入槽编码器得到槽编码数据,将预训练对话样本输入对话编码器得到对话编码数据,编码数据包括槽编码数据和对话编码数据。
可选地,在一种具体示例中,预训练分类模型包括序列二分类模型、槽分类模型以及掩码语言模型,预训练模块401,用于将槽编码数据和对话编码数据输入序列二分类模型,并计算第一损失函数值;将槽编码数据和对话编码数据输入槽分类模型,并计算第二损失函数值;将槽编码数据和对话编码数据输入掩码语言模型,并计算第三损失函数值;将第一损失函数值、第二损失函数值以及第三损失函数值进行加权求和得到损失函数值,根据损失函数值调整编码器,以减少损失函数值。
可选地,在一种具体示例中,困难度模块401,用于根据预设对话模型的准确率,和/或,困难度打分策略,分别对每个对话样本进行困难度打分,得到对话样本的困难度。
可选地,在一种具体示例中,困难度模块401,用于将对话样本输入对话模型,得到预测结果;根据预测结果的准确性确定对话样本的困难度,预测结果越准确的对话样本困难度越低。
可选地,在一种具体示例中,困难度模块401,用于根据对话样本中当前对话语句的对话轮次、当前对话语句的单词数量、对话样本中包含的实体数目以及新增的槽位数目,计算对话样本的困难度。
可选地,在一种具体示例中,训练模块403,还用于将对话样本进行槽替换、槽值替换、或者调整对话样本中的对话语句,以得到扩充的对话样本,并利用扩充的对话样本对对话模型进行训练。
可选地,在一种具体示例中,至少一个对话样本组的数量为N个,N为大于0的整数;训练模块403,用于将第n个对话样本组包含的对话样本加入训练集合中,n为对话样本组的编号,且n为大于0小于N的整数,编号越小的对话样本组,困难度越低;利用训练集合中的对话样本对对话模型进行训练,再将第n+1个对话样本组包含的对话样本加入训练集合中,直至所有的对话样本组都加入训练集合中,并完成训练。
本申请实施例提供的模型训练装置,获得多个对话样本的困难度;根据每个对话样本的困难度对多个对话样本进行分组,得到至少一个对话样本组;按照预设的困难度顺序,将至少一个对话样本组加入训练集合中,并利用训练集合中的对话样本对对话模型进行训练。通过将对话样本根据困难度进行分组,按照预设的困难度顺序,加入训练集合中进行训练,提高了对话模型训练的效果,进而提高了对话模型的准确率。
实施例三
基于上述实施例一所描述的方法,本申请实施例三提供一种电子设备,用于执行上述实施例一所描述的方法,参照图5,示出了根据本申请实施例三的一种电子设备的结构示意图,本申请具体实施例并不对电子设备的具体实现做限定。
如图5所示,该电子设备50可以包括:处理器(processor)502、通信接口(Communications Interface)504、存储器(memory)506、以及通信总线508。
其中:
处理器502、通信接口504、以及存储器506通过通信总线508完成相互间的通信。
通信接口504,用于与其它电子设备或服务器进行通信。
处理器502,用于执行程序510,具体可以执行上述模型训练方法实施例中的相关步骤。
具体地,程序510可以包括程序代码,该程序代码包括计算机操作指令。
处理器502可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本申请实施例的一个或多个集成电路。智能设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器506,用于存放程序510。存储器506可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序510具体可以用于使得处理器502执行以实现实施例一中所描述的模型训练方法。程序510中各步骤的具体实现可以参见上述模型训练方法实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
本申请实施例提供的电子设备,获得多个对话样本的困难度;根据每个对话样本的困难度对多个对话样本进行分组,得到至少一个对话样本组;按照预设的困难度顺序,将至少一个对话样本组加入训练集合中,并利用训练集合中的对话样本对对话模型进行训练。通过将对话样本根据困难度进行分组,按照预设的困难度顺序,加入训练集合中进行训练,提高了对话模型训练的效果,进而提高了对话模型的准确率。
实施例四
基于上述实施例一所描述的方法,本申请实施例四提供一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现如实施例一所描述的方法。
实施例五
基于上述实施例一所描述的方法,本申请实施例四提供一种计算机程序产品,该计算机程序产品被处理器执行时实现如实施例一所描述的方法。
需要指出,根据实施的需要,可将本申请实施例中描述的各个部件/步骤拆分为更多部件/步骤,也可将两个或多个部件/步骤或者部件/步骤的部分操作组合成新的部件/步骤,以实现本申请实施例的目的。
上述根据本申请实施例的方法可在硬件、固件中实现,或者被实现为可存储在记录介质(诸如CD ROM、RAM、软盘、硬盘或磁光盘)中的软件或计算机代码,或者被实现通过网络下载的原始存储在远程记录介质或非暂时机器可读介质中并将被存储在本地记录介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件(诸如ASIC或FPGA)的记录介质上的这样的软件处理。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件(例如,RAM、ROM、闪存等),当软件或计算机代码被计算机、处理器或硬件访问且执行时,实现在此描述的导航方法。此外,当通用计算机访问用于实现在此示出的导航方法的代码时,代码的执行将通用计算机转换为用于执行在此示出的导航方法的专用计算机。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请实施例的范围。
以上实施方式仅用于说明本申请实施例,而并非对本申请实施例的限制,有关技术领域的普通技术人员,在不脱离本申请实施例的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本申请实施例的范畴,本申请实施例的专利保护范围应由权利要求限定。

Claims (12)

1.一种模型训练方法,其中,包括:
获得多个对话样本的困难度;
根据每个对话样本的困难度对所述多个对话样本进行分组,得到至少一个对话样本组;
按照预设的困难度顺序,将所述至少一个对话样本组加入训练集合中,并利用所述训练集合中的对话样本对对话模型进行训练,其中,对话模型用于根据对话数据,生成表示对话状态的槽值对,即对对话数据进行分类。
2.根据权利要求1所述的方法,其中,所述对话模型至少包括编码器,所述方法还包括:利用预训练样本对所述编码器进行预训练;
具体的,所述利用预训练样本对所述编码器进行预训练,包括:
将所述预训练样本输入所述对话模型的编码器中得到编码数据;
将所述编码数据输入预设的预训练分类模型,并计算损失函数值,根据计算得到的损失函数值调整所述编码器,以减少所述损失函数值。
3.根据权利要求2所述的方法,其中,所述预训练样本包括预训练槽样本和预训练对话样本,所述编码器包括槽编码器和对话编码器,所述将所述预训练样本输入所述对话模型的编码器中得到编码数据,包括:
将所述预训练槽样本输入所述槽编码器得到槽编码数据,将预训练对话样本输入所述对话编码器得到对话编码数据,所述编码数据包括所述槽编码数据和所述对话编码数据。
4.根据权利要求3所述的方法,其中,所述预训练分类模型包括序列二分类模型、槽分类模型以及掩码语言模型,所述将所述编码数据输入预设的预训练分类模型,并计算损失函数值,根据计算得到的损失函数值调整所述编码器,以减少所述损失函数值,包括:
将所述槽编码数据和所述对话编码数据输入所述序列二分类模型,并计算第一损失函数值;
将所述槽编码数据和所述对话编码数据输入所述槽分类模型,并计算第二损失函数值;
将所述槽编码数据和所述对话编码数据输入所述掩码语言模型,并计算第三损失函数值;
将所述第一损失函数值、所述第二损失函数值以及所述第三损失函数值进行加权求和得到所述损失函数值,根据所述损失函数值调整所述编码器,以减少所述损失函数值。
5.根据权利要求1所述的方法,其中,所述获得多个对话样本的困难度,包括:
根据所述对话模型的准确率,和/或,困难度打分策略,分别对每个对话样本进行困难度打分,得到所述对话样本的困难度。
6.根据权利要求1所述的方法,其中,所述获得多个对话样本的困难度,包括:
将对话样本输入所述对话模型,得到预测结果;
根据所述预测结果的准确性确定所述对话样本的困难度,预测结果越准确的对话样本困难度越低。
7.根据权利要求1所述的方法,其中,所述获得多个对话样本的困难度,包括:
根据所述对话样本中当前对话语句的对话轮次、所述当前对话语句的单词数量、所述对话样本中包含的实体数目以及新增的槽位数目,计算所述对话样本的困难度。
8.根据权利要求1所述的方法,其中,所述方法还包括:
将所述对话样本进行槽替换、槽值替换、或者调整所述对话样本中的对话语句,以得到扩充的对话样本,并利用所述扩充的对话样本对所述对话模型进行训练。
9.根据权利要求1-8任一项所述的方法,其中,所述对话样本组的数量为N个,N为大于0的整数;所述按照预设的困难度顺序,将所述至少一个对话样本组加入训练集合中,并利用所述训练集合中的对话样本对对话模型进行训练,包括:
将第n个对话样本组包含的对话样本加入所述训练集合中,n为对话样本组的编号,且n为大于0小于N的整数,编号越小的对话样本组,困难度越低;
利用所述训练集合中的对话样本对所述对话模型进行训练,再将第n+1个对话样本组包含的对话样本加入所述训练集合中,直至所有的对话样本组都加入所述训练集合中,并完成训练。
10.一种模型训练装置,包括:
困难度模块,用于获得多个对话样本的困难度;
分组模块,用于根据每个对话样本的困难度对所述多个对话样本进行分组,得到至少一个对话样本组;
训练模块,用于按照预设的困难度顺序,将所述至少一个对话样本组加入训练集合中,并利用所述训练集合中的对话样本对对话模型进行训练,其中,对话模型用于根据对话数据,生成表示对话状态的槽值对,即对对话数据进行分类。
11.一种电子设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-9中任一项所述的模型训练方法对应的操作。
12.一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1-9中任一所述的模型训练方法对应的操作。
CN202111084783.2A 2021-09-16 2021-09-16 模型训练方法、装置及存储介质 Active CN113535930B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111084783.2A CN113535930B (zh) 2021-09-16 2021-09-16 模型训练方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111084783.2A CN113535930B (zh) 2021-09-16 2021-09-16 模型训练方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN113535930A CN113535930A (zh) 2021-10-22
CN113535930B true CN113535930B (zh) 2022-03-04

Family

ID=78092671

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111084783.2A Active CN113535930B (zh) 2021-09-16 2021-09-16 模型训练方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN113535930B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114997182A (zh) * 2022-06-08 2022-09-02 阿里巴巴(中国)有限公司 对话语篇分析及模型训练方法、电子设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574105B (zh) * 2015-12-14 2019-05-28 北京锐安科技有限公司 一种文本分类模型的确定方法
US11631488B2 (en) * 2019-09-16 2023-04-18 International Business Machines Corporation Dialogue generation via hashing functions
CN111428008B (zh) * 2020-06-11 2020-09-29 北京百度网讯科技有限公司 用于训练模型的方法、装置、设备以及存储介质
CN112966754B (zh) * 2021-03-10 2023-11-07 中国平安人寿保险股份有限公司 样本筛选方法、样本筛选装置及终端设备

Also Published As

Publication number Publication date
CN113535930A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
US20230100376A1 (en) Text sentence processing method and apparatus, computer device, and storage medium
WO2021159632A1 (zh) 智能问答方法、装置、计算机设备及计算机存储介质
CN108319599B (zh) 一种人机对话的方法和装置
CN110516253B (zh) 中文口语语义理解方法及系统
WO2020155619A1 (zh) 带情感的机器聊天方法、装置、计算机设备及存储介质
CN111753076B (zh) 对话方法、装置、电子设备及可读存储介质
CN112528637B (zh) 文本处理模型训练方法、装置、计算机设备和存储介质
JP7430820B2 (ja) ソートモデルのトレーニング方法及び装置、電子機器、コンピュータ可読記憶媒体、コンピュータプログラム
CN113535930B (zh) 模型训练方法、装置及存储介质
CN111046674A (zh) 语义理解方法、装置、电子设备和存储介质
CN116384405A (zh) 文本处理方法,文本分类方法及情感识别方法
CN111091011B (zh) 领域预测方法、领域预测装置及电子设备
CN114358019A (zh) 意图预测模型的训练方法及系统
CN111813941A (zh) 结合rpa和ai的文本分类方法、装置、设备及介质
CN116737888B (zh) 对话生成模型的训练方法和答复文本的确定方法、装置
CN115934920B (zh) 针对人机对话的模型训练方法及相关装置
CN117453899B (zh) 一种基于大模型的智能对话系统、方法与电子设备
US20230042234A1 (en) Method for training model, device, and storage medium
CN112885338B (zh) 语音识别方法、设备、计算机可读存储介质及程序产品
CN117332090B (zh) 一种敏感信息识别方法、装置、设备和存储介质
EP3893143A1 (en) Corpus processing method, apparatus and storage medium
CN108804627B (zh) 信息获取方法及装置
CN116737888A (zh) 对话生成模型的训练方法和答复文本的确定方法、装置
CN114676696A (zh) 用于生成词语特征向量的方法、装置、服务器、电子设备及存储介质
CN117494761A (zh) 信息处理及模型训练方法、装置、设备、介质、程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant