CN115730607A - 对话检测模型训练方法及装置 - Google Patents
对话检测模型训练方法及装置 Download PDFInfo
- Publication number
- CN115730607A CN115730607A CN202211465242.9A CN202211465242A CN115730607A CN 115730607 A CN115730607 A CN 115730607A CN 202211465242 A CN202211465242 A CN 202211465242A CN 115730607 A CN115730607 A CN 115730607A
- Authority
- CN
- China
- Prior art keywords
- dialogue
- sample
- historical
- dialog
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
本说明书提供对话检测模型训练方法及装置,其中所述对话检测模型训练方法包括:对多个历史对话序列进行调整处理,获得历史对话样本,并基于所述历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型;将所述历史对话样本中包含关键词的对话样本作为正对话样本,并存储至正对话样本集合,以及在所述历史对话样本中筛选负对话样本,并存储至负对话样本集合;在所述负对话样本集合和所述正对话样本集合中提取待处理对话样本,并对所述待处理对话样本进行标注处理,获得标注对话样本;基于所述标注对话样本对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
Description
技术领域
本说明书涉及计算机技术领域,特别涉及一种对话检测模型训练方法。本说明书同时涉及一种对话检测模型训练装置,一种对话序列检测方法,一种对话序列检测装置,一种计算设备,以及一种计算机可读存储介质。
背景技术
随着互联网技术的发展,线上服务逐渐走进人们的学习和生活。线上交流模式会产生大量的对话数据,通过对这些对话数据进行检测,即可确定服务方在提供咨询、问题解决等服务的过程中是否出现不合规的服务方式或服务用语等。
现有技术中,在对对话数据进行合规性检测时,通常使用人工阅读对话数据,以及关键词检索的方法。然而人工阅读的方式需要耗费大量的人力资源,且准确率较低;关键词检索的方法直接基于对话数据进行关键词检测,具有较大的局限性,误召回概率高,预测准确度低,因此,亟需一种对话检测模型训练方法以解决上述问题。
发明内容
有鉴于此,本说明书实施例提供了一种对话检测模型训练方法。本说明书同时涉及一种对话检测模型训练装置,一种对话序列检测方法,一种对话序列检测装置,一种计算设备,以及一种计算机可读存储介质,以解决现有技术中存在的技术缺陷。
根据本说明书实施例的第一方面,提供了一种对话检测模型训练方法,包括:
对多个历史对话序列进行调整处理,获得历史对话样本,并基于所述历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型;
将所述历史对话样本中包含关键词的对话样本作为正对话样本,并存储至正对话样本集合,以及在所述历史对话样本中筛选负对话样本,并存储至负对话样本集合;
在所述负对话样本集合和所述正对话样本集合中提取待处理对话样本,并对所述待处理对话样本进行标注处理,获得标注对话样本;
基于所述标注对话样本对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
根据本说明书实施例的第二方面,提供了一种对话检测模型训练装置,包括:
预训练模块,被配置为对多个历史对话序列进行调整处理,获得历史对话样本,并基于所述历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型;
存储模块,被配置为将所述历史对话样本中包含关键词的对话样本作为正对话样本,并存储至正对话样本集合,以及在所述历史对话样本中筛选负对话样本,并存储至负对话样本集合;
提取模块,被配置为在所述负对话样本集合和所述正对话样本集合中提取待处理对话样本,并对所述待处理对话样本进行标注处理,获得标注对话样本;
训练模块,被配置为基于所述标注对话样本对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
根据本说明书实施例的第三方面,提供了一种对话序列检测方法,包括:
获取待检测对话序列;
对所述待检测对话序列进行调整处理,获得待检测对话文本;
将所述待检测对话文本输入至目标对话检测模型进行检测,获得所述待检测对话序列的检测信息。
根据本说明书实施例的第四方面,提供了一种对话序列检测装置,包括:
获取模块,被配置为获取待检测对话序列;
处理模块,被配置为对所述待检测对话序列进行调整处理,获得待检测对话文本;
检测模块,被配置为将所述待检测对话文本输入至目标对话检测模型进行检测,获得所述待检测对话序列的检测信息。
根据本说明书实施例的第五方面,提供了一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,以实现所述对话检测模型训练的步骤。
根据本说明书实施例的第六方面,提供了一种计算机可读存储介质,其存储有计算机可执行指令,该指令被处理器执行时实现所述对话检测模型训练方法的步骤。
本说明书提供的对话检测模型训练方法,对多个历史对话序列进行调整处理,获得历史对话样本,并基于所述历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型;将所述历史对话样本中包含关键词的对话样本作为正对话样本,并存储至正对话样本集合,以及在所述历史对话样本中筛选负对话样本,并存储至负对话样本集合;在所述负对话样本集合和所述正对话样本集合中提取待处理对话样本,并对所述待处理对话样本进行标注处理,获得标注对话样本;基于所述标注对话样本对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
本说明书一实施例,通过基于多个历史对话序列对初始对话检测模型进行预训练,能够让模型学习到对话序列中语句的语言特性。再根据正对话样本集合和负对话样本集合中的对话样本对中间对话检测模型进行训练,获得训练完成的目标对话检测模型。进而实现了在预训练的基础上,结合正对话样本和负对话样本再次进行模型训练,提高模型的预测准确度。
附图说明
图1是本说明书一实施例提供的一种样本构建方法的结构示意图;
图2是本说明书一实施例提供的一种对话检测模型训练方法的流程图;
图3是本说明书一实施例提供的一种对话检测模型训练方法的示意图;
图4是本说明书一实施例提供的一种应用于对话质检的对话检测模型训练方法的处理流程图;
图5是本说明书一实施例提供的一种对话检测模型训练装置的结构示意图;
图6是本说明书一实施例提供的一种对话序列检测方法的流程图;
图7是本说明书一实施例提供的一种对话序列检测装置的结构示意图;
图8是本说明书一实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本说明书。但是本说明书能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本说明书内涵的情况下做类似推广,因此本说明书不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本说明书一个或多个实施例涉及的名词术语进行解释。
预训练语言模型:通过大量无标注的语言文本进行语言模型的训练,得到模型参数,基于模型参数对模型进行初始化,再根据具体任务在现有语言模型的基础上进行模型训练。
BERT(Bidirectional Encoder Representation from Transformers):用于自然语言处理的预训练技术。BERT利用大量的无监督数据预训练一个Transformer堆叠的神经网络,再应用于下游任务中,Transformer可以编码单词双向信息,能够更好地完成文本理解。
对话内容质检:通过自然语言处理技术判断对话中,是否存在违规行为。主要质检内容:违规词语、违规行为、服务态度等。
在本说明书中,提供了一种对话检测模型训练方法,本说明书同时涉及一种对话检测模型训练装置,一种对话序列检测方法,一种对话序列检测装置,一种计算设备,以及一种计算机可读存储介质,在下面的实施例中逐一进行详细说明。
随着计算机技术的发展,线上服务方式越来越被人们接受,服务方可以通过语音、文字等形式与用户进行沟通。线上服务的应用场景包括但不限于商品买卖、师生沟通、教师和家长沟通、咨询服务、租赁服务等。线上服务将会产生大量的对话数据。为了保证服务质量可以对对话内容进行质检,即,通过自然语言处理技术判断对话中是否存在违规词语或违规行为。主要质检内容包括但不限于违规词语、违规行为、服务态度等,在本实施例中,违规词语包括但不限于不文明用语,态度恶劣的词语等;违规行为包括但不限于引导学生打游戏、添加私人联系方式等。
本说明书一实施例,通过基于多个历史对话序列对初始对话检测模型进行预训练,能够让模型学习到对话序列中语句的语言特性。再根据正对话样本集合和负对话样本集合中的对话样本对中间对话检测模型进行训练,获得训练完成的目标对话检测模型。进而实现了在预训练的基础上,结合正对话样本和负对话样本再次进行模型训练,提高模型的预测准确度。
图1是本说明书一实施例提供的一种对话检测模型训练方法的结构示意图,在教师与学生、家长进行沟通,以及客服人员与客户进行沟通等能够产生录音、视频、语音或文字等形式的对话记录的场景下,会产生大量的文字或音频形式的对话数据。如图1所示,在对话数据是教师与学生或家长之间进行沟通产生的对话的情况下,即可将教师与学生或家长之间一对一或一对多的对话作为一个历史对话序列,历史对话序列还可以是在一段时间内,一个聊天群内产生的所有对话数据。则教师与多个家长或学生之间的对话即为多个历史对话序列。获取到语音形式的对话后,可以将语音转换为文字形式的对话序列。对多个历史对话序列进行调整处理,包括对历史对话序列中的噪声数据进行删除或修改,以及对一个历史对话序列中的多个语句进行整合处理,其中,噪声数据包括但不限于对话数据中的表情、符号、空格、空句子、短对话,以及重复出现且重复率达到预设阈值的句子等;整合处理可以是将一个历史对话序列中的多个语句进行拼接处理,整合成一段文本。基于整合后的文本对初始对话检测模型进行预训练,获得中间对话检测模型,使得对话检测模型学习到历史对话序列中对话语句的语言特征。
基于历史对话样本生成正对话样本和负对话样本,可以根据预设的关键词表对历史对话样本进行匹配,确定多个历史对话样本中包含关键词的至少一个正对话样本,并将正对话样本存储置正对话样本集合。其中,关键词是指违规词语,包括但不限于不文明用语、态度恶劣的词语等。对历史对话样本进行随机采样,获得负对话样本,并将负对话样本存储至负对话样本集合,还可以对历史对话样本进行筛选,选择不包含关键词的对话样本为负对话样本。在对中间对话检测模型进行训练时,在负对话样本集合和正对话样本集合中提取对话样本作为待处理对话样本,并对待处理对话样本进行标注处理,获得标注对话样本,基于标注对话样本对中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。实现了在预训练的基础上,结合正对话样本和负对话样本再次进行模型训练,提高模型的预测准确度。
图2示出了根据本说明书一实施例提供的一种对话检测模型训练方法的流程图,具体包括以下步骤:
步骤S202,对多个历史对话序列进行调整处理,获得历史对话样本,并基于所述历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型。
具体的,历史对话序列是指服务方与被服务方之间进行沟通产生的语音、录音或文字等形式的对话数据。服务方包括但不限于教师、卖家、商户、客服人员等,相应的被服务方即为学生、家长、买家等消费者。历史对话序列可以是服务方与被服务方之间,在一段时间内进行一对一沟通产生的对话数据,还可以是服务方与多个被服务方通过沟通群进行沟通产生的对话数据。
其中,调整处理是指对历史对话序列进行数据清洗以及数据预处理,数据清洗在本实施例中是指对对话序列中包含的噪声数据进行的删除或修改。数据预处理可以是对对话序列中包含的语句进行的拼接或整合;噪声数据包括但不限于历史对话序列中包含的表情、符号、空格、空句子、短对话,以及重复出现且重复率达到预设阈值的句子;初始对话检测模型是指是指用于进行预训练的神经网络模型,在本实施例中,中间对话检测模型可以是未训练的BERT模型等神经网络模型。
基于此,在客服人员与用户之间进行对话,产生对话数据时,将客服人员与用户之间一对一沟通的对话数据作为一个历史对话序列,获取多个历史对话序列,分别对每个历史对话序列进行调整处理,获得多个历史对话序列对应的历史对话样本,基于历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型,使得中间对话检测模型学习到历史对话样本中对话语句的语义特征。
实际应用中,在获取多个历史对话序列时,可以将一定时间范围内,多个客服人员与相应的用户之间沟通产生的对话数据作为历史对话序列,还可以获取一位客服人员分别与多位用户之间沟通产生的对话数据作为历史对话序列。例如:以一天或一周为时间范围,获取一天内所有客服人员分别与多位用户之间进行沟通产生的所有对话数据,将这些对话数据作为多个历史对话序列;还可以将一周之内,客服人员A与所有用户对话产生的对话数据作为多个历史对话序列。对多个历史对话序列进行调整处理可以是删除表情符号、空格等噪声数据,对链接以特殊符号进行替换,实现去除初始对话序列中的噪声数据,进而再对去除噪声数据的对话序列按照对话产生的顺序进行拼接获得历史对话样本。
进一步的,考虑到生成的历史对话样本中含有较多的噪声数据,且历史对话样本中每个对话语句的长度不同,因此为了便于后续的模型训练,还需要对对话样本进行去噪和整合处理,具体实现如下:
分别对每个历史对话序列包含的噪声数据进行删除或修改,获得每个历史对话序列的第一历史对话序列;对每个第一历史对话序列进行整合处理,获得历史对话样本。
具体的,噪声数据在本实施例中是指对话数据中的表情、符号、特殊字符、链接、图片等数据,以及重复出现的对话内容等;对于不同的噪声数据对应不同的处理方式,针对对话样本中的表情、符号、空格、空句子、短对话,以及重复出现且重复率达到预设阈值的句子可以进行删除处理,对于链接以及换行符,可以将链接修改为[url],将换行符替换为空格;整合处理是指对对话样本中的多个语句进行的拼接处理,即,按照第一历史对话序列中语句的排列顺序或语句的产生顺序依次对每个语句进行拼接,组成历史对话样本。
基于此,在获取到历史对话序列后,分别对每个历史对话序列包含的噪声数据进行删除或修改,获得每个历史对话序列对应的第一历史对话序列,再按照历史对话序列中,对话语句产生的时间顺序或排列顺序分别对每个第一历史对话序列进行整合处理,即可获得每个历史对话序列对应的历史对话样本,以便于后续基于历史对话样本进行模型训练。
举例说明,在销售人员与买家进行沟通的场景下,为了保证服务质量,优化销售人员的沟通方式,通常会对销售人员与买家进行沟通产生的对话进行质检,检测对话中销售人员的话语中是否出现违规词语。可以采用训练神经网络模型的方法对对话数据进行质检,在模型训练之前,获取销售人员与买家的对话数据,基于对话数据对对话检测模型进行领域预训练,使得模型学习到语义特征。获取到销售人员与买家的对话数据:“销售A:1.您可以点击下方链接查看商品[花朵];销售A:2.‘链接’买家B:1.******;……销售A:30.******;买家B:30.******”。针对上述对话数据,对话数据中包含链接、表情:[花朵]等噪声数据,此时需要将链接替换为[url],将表情删除,再将销售人员与买家之间的对话按照对话顺序进行拼接,整合成一段文本,以便于后续进行模型训练。
综上所述,对历史对话序列包含的噪声数据进行删除和修改,从而实现数据清洗,再对数据清洗后的对话序列进行整合,整合成历史对话样本,进而便于后续进行模型训练。
进一步的,在基于历史对话样本进行模型的预训练时,考虑到历史对话样本可以是多个领域的对话数据,因此为了实现让模型具备识别不同语义的能力,可以通过掩码的方式进行模型训练,具体实现如下:
基于预设掩码比例在所述历史对话样本中确定待处理字单元;按照预设掩码概率对所述历史对话样本中的待处理字单元进行掩码处理,获得待训练对话样本;基于所述待训练对话样本对所述初始对话检测模型进行预训练,获得中间对话检测模型。
具体的,预设掩码比例是指根据模型训练需求预先设置的比值,用于基于掩码比例在历史对话样本中选择待处理字单元;预设掩码概率是指预先设定的概率值,用于基于预设掩码概率对待处理字单元进行掩码处理,相应的,掩码处理是指在待处理字单元中选择与掩码概率对应的一定数量的字单元,以特殊符号替换被选择的字单元,继而进行模型训练,使得模型学习到对话数据的语义特征;中间对话检测模型是指对初始对话检测模型进行预训练后获得的对话检测模型。
基于此,在生成历史对话样本后,基于预设掩码比例在历史对话样本中通过随机选择的方式确定待处理字单元,按照预设掩码概率对历史对话样本中的待处理字单元进行掩码处理,由掩码处理后的对话数据和历史对话样本中未进行掩码处理的对话数据组成待训练对话样本。基于待训练对话样本对初始对话检测模型进行预训练,获得中间对话检测模型。
举例说明,在将销售人员与买家的对话数据整合成一段文本后,基于预设的掩码比例15%,以及预设的掩码概率对初始对话检测模型进行模型训练,在历史对话样本为1000字的文本的情况下,基于掩码比例15%在这1000字的文本中选择150字进行掩码处理。再基于掩码比例8:1:1在150字中选择80%的文字替换为[MASK],10%的文字替换为随机字符,10%的文字保持不变,其中,随机字符包括但不限于文字、符号等字符,对历史对话样本进行掩码处理,获得待训练对话样本,基于待训练对话样本进行模型预训练。如图3中(a)所示,对对话数据“今天你做什么了”进行掩码处理后得到“今天[MASK]做什么了”,将其输入至BERT掩码语言模型进行预测,输出的结果中将“[MASK]”预测为“你、他、她”。在训练时,可以将批大小设置为2048,学习率设置为2e-4,模型预热20000步,训练200000步,最后得到最终模型,为了提高训练效率,训练时可以使用混合精度技术。
综上所述,通过对历史对话样本进行掩码处理,基于掩码处理后的历史对话样本进行对话检测模型的预训练,使得对话检测模型能够学习到历史对话样本的语言特性,从而使得对话质检的准确度更高。
步骤S204,将所述历史对话样本中包含关键词的对话样本作为正对话样本,并存储至正对话样本集合,以及在所述历史对话样本中筛选负对话样本,并存储至负对话样本集合。
具体的,在上述对多个历史对话序列进行调整处理,获得历史对话样本,基于历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型之后,即可将历史对话样本中包含关键词的对话样本作为正对话样本,存储至正对话样本集合,以及在历史对话样本中筛选负对话样本,存储至负对话样本集合,以便于后续基于正对话样本集合和负对话样本集合进行模型训练,其中,关键词是指违规词语,包括但不限于不文明用语、态度恶劣的词语等。正对话样本是指多个历史对话样本中包含关键词的历史对话样本,负对话样本是指在多个历史对话样本中随机选择的历史对话样本,作为负对话样本。
基于此,基于预先构建的关键词表对每个历史对话样本进行关键词匹配,将多个历史对话样本中包含关键词的至少两个对话样本作为正对话样本。在多个历史对话样本中随机筛选至少两个历史对话样本作为负对话样本。将正对话样本存储至正对话样本集合,以及将负对话样本存储至负对话样本集合,以便于后续对对话检测模型进行模型训练。
实际应用中,在多个历史对话样本中选择负对话样本时,可以对多个历史对话样本进行随机采样,由于多个历史对话样本中包含关键词的对话样本较少,因此对多个历史对话样本进行随机采样获得的负对话样本均视为合规对话样本。在对多个历史对话样本进行关键词匹配时,可以针对特定的场景发现违规行为,进而对该客服人员的对话数据进行拓展,检测该客服人员与其他用户之间的对话数据中是否存在违规。
进一步的,考虑到在不同的语境下关键词表达的含义可以不同,即,存在包含关键词的合规样本,因此在历史对话样本中选择出包含关键词的样本后,还需要对包含关键词的样本进行进一步的划分,具体实现如下:
将所述历史对话样本中包含关键词的至少两个对话样本作为初始对话样本;根据至少两个初始对话样本的属性信息,将至少两个初始对话样本划分为正对话样本和第一负对话子样本;对所述历史对话样本随机采样处理,获得第二负对话子样本,将所述第一负对话子样本和所述第二负对话子样本作为负对话样本,并将所述负对话样本存储至负对话样本集合,以及将所述正对话样本存储至正对话样本集合。
具体的,初始对话样本是指在历史对话样本中选择的包含关键词的样本;属性信息是指初始对话样本中包含关键词的语句的语义信息,以及结合上下文的语义信息;正对话样本是指初始对话样本中包含关键词,且初始对话样本中包含关键词的语句为违规语句的对话样本,相应的,第一负对话子样本是指初始对话样本中包含关键词,且初始对话样本中包含关键词的语句为非违规语句的对话样本,例如:初始对话样本中包含关键词的语句“我们一起打游戏吧”,其中,“打游戏”为关键词,该语句表达的语义是邀请对方一起打游戏,因此该语句对应的样本为正对话样本;初始对话样本中包含关键词的语句“学生在校期间是不允许打游戏的”,其中,“打游戏”为关键词,该语句表达的语义是学生在校时是不能打游戏的,因此该语句对应的样本为合规样本,即第一负对话子样本;第二负对话子样本是对历史对话样本进行随机采样获得的对话样本,由于获取到的样本为违规样本是小概率事件,所以随机采样获得的样本均视作合规样本。
基于此,基于关键词表对历史对话样本进行筛选,将历史对话样本中包含关键词的至少两个对话样本作为初始对话样本,根据每个初始对话样本的属性信息,将至少两个初始对话样本划分为正对话样本和第一负对话子样本。对历史对话样本随机采样处理,选择设定数量的对话样本作为第二负对话子样本,将第一负对话子样本和第二负对话子样本作为负对话样本,并将负对话样本存储至负对话样本集合,以及将正对话样本存储至正对话样本集合,第一负对话子样本为难负样本,第二负对话子样本为易负样本,正对话样本即为正样本。
需要说明的是,在本实施例中,正样本为包含关键词,且语句为违规语句的样本,例如:样本“您加一下我的私人联系方式”,表达的语义为添加对方的私人联系方式,因此该样本即为包含关键词的违规样本,相应的,样本“我们这边是不允许教师提供私人联系方式的”,表达的语义为拒绝添加私人联系方式,因此该样本为包含关键词的合规样本,即难负样本,易负样本可以为不包含关键词的样本。
举例说明,对初始对话样本1.“***您可以添加我的私人联系方式***”2.“***那我帮您投诉这位销售人员***”3.“***我们的规定是不允许添加私人联系方式的***”等。样本1和样本3均包含关键词“私人联系方式”,样本2包含关键词“投诉”,其中,样本1和样本2为包含关键词的违规样本,即为正样本,样本3为包含关键词的合规样本,即为难负样本。将正样本存储至正样本集合,将难负样本存储至负样本集合,通过随机采样的方式对全部样本进行随机选择获得易负样本,存储至负样本集合。
综上所述,通过将历史对话样本划分为正对话样本、第一负对话子样本以及第二负对话子样本,通过上述样本进行模型训练和模型测试,提高了模型预测的准确度。
进一步的,由于历史对话样本可以是一天或一周之内两个人之间产生的所有对话数据,因此对话数据量较为庞大,在对话数据中只存在一个对话语句包含关键词的情况下,则对全部对话数据进行处理生成初始对话样本则会产生不必要的资源浪费,因此可以将包含关键词的对话语句作为中心对话语句,进而根据中心对话语句确定初始对话样本,具体实现如下:
在所述历史对话样本中确定包含关键词的中心对话语句;基于所述历史对话样本生成包含所述中心对话语句的初始对话样本。
基于此,中心对话语句是指历史对话样本中包含关键词的对话语句,在历史对话样本中多个对话语句包含关键词的情况下,可以将包含关键词的对话语句分别作为中心对话语句,进而基于中心对话语句生成包含中心对话语句的初始对话样本。
实际应用中,可以基于预设关键词表对历史对话样本进行关键词匹配,在历史对话样本中确定包含关键词的对话样本,将每个对话样本中包含关键词的语句作为中心对话语句,进而根据中心对话语句生成初始对话样本。在一个历史对话样本中包含至少两个关键词的情况下,可以选择任意一个包含关键词的语句作为中心对话语句。
综上所述,将历史对话样本中包含关键词的对话语句作为中心对话语句,进而根据历史对话样本生成初始对话样本,从而在后续进行模型训练时能结合中心对话语句的上下文进行训练,提高模型的预测准确度。
进一步的,考虑到历史对话样本包含的对话语句较多,因此不能直接将历史对话样本作为模型训练的样本,考虑到语义特征对模型预测准确度的影响,可以选择历史对话样本中的部分对话语句作为初始对话样本,具体实现如下:
在所述历史对话样本中选择与所述中心对话语句对应的前序对话文本和后续对话文本;将所述前序对话文本、所述后续对话文本与所述中心对话语句进行组合,获得初始对话样本。
具体的,前序对话文本是指历史对话样本中,按照时间顺序排列在中心对话语句之前的对话语句,前序对话文本中的语句的数量可以根据实际需求设定;相应的,后续对话文本是指历史对话样本中,按照时间顺序排列在中心对话语句之后的对话语句,后序对话文本中的语句数量可以根据实际需求设定。
基于此,在历史对话样本中选择与中心对话语句对应的设定语句数量的前序对话语句,以及设定语句数量的后续对话语句,由一定时间范围内,设定语句数量的前序对话语句组成前序对话文本,由设定语句数量的后续对话语句组成后续对话文本。将前序对话文本、后续对话文本与和中心对话语句进行组合,获得初始对话样本。
实际应用中,可以选择一个对话样本中,中心对话语句对应的前10句和后10句,且在12小时内产生的语句作为与中心对话语句关联的语句,进而由中心对话语句、前10句和后10句组成初始对话样本。
沿用上例,销售人员与买家进行沟通,产生对话数据“销售A:1.******;买家B:1.******;……销售A:30.******;买家B:30.******”。在销售A的第15句话包含关键词“投诉”的情况下,将销售A的第15句话作为中心语句,将对话数据中销售A的第15句话之前的10句,以及之后的10句作为关联语句,进而由销售A的第15句话、第15句话之前的10句,以及第15句话之后的10句组成初始对话样本。
综上所述,确定中心对话语句对应的前序对话文本和后续对话文本,由中心对话语句、前序对话文本和后续对话文本组成初始对话样本,进而获得初始对话样本。
步骤S206,在所述负对话样本集合和所述正对话样本集合中提取待处理对话样本,并对所述待处理对话样本进行标注处理,获得标注对话样本。
具体的,在上述将历史对话样本中包含关键词的对话样本作为正对话样本,存储至正对话样本集合,以及在历史对话样本中筛选负对话样本,存储至负对话样本集合后,即可在负对话样本集合和正对话样本集合中提取待处理对话样本,并对待处理对话样本进行标注处理,获得标注对话样本,以便于后续基于标注对话样本对中间对话检测模型进行模型训练,其中,标注处理是指对待处理对话样本中每个语句进行的标注处理,即,为待处理对话样本中每个语句分配标签,为待处理对话样本,包含关键词的语句分配中心标签,为待处理对话样本,除包含关键词的语句之外的语句分配非中心标签,对待处理对话样本中的每个语句进行标注后获得标注对话样本。
基于此,在负对话样本集合和正对话样本集合中提取待处理对话样本,待处理对话样本包含正对话样本集合中的待处理正对话子样本和负对话样本集合中的待处理负对话子样本。对待处理对话样本进行标注处理,分别对初始对话样本中包含的每个对话语句进行标注,获得目标对话样本。
实际应用中,在负对话样本集合和正对话样本集合中提取出待处理对话样本后,对待处理对话样本采用上述处理方式,处理成标注对话样本,再进行模型训练。标注处理可以是将待处理对话样本中待检测的对话语句标注为1,将待处理对话样本中除待检测对话语句之外的语句标注为0,生成标注对话样本。
进一步的,考虑到待处理对话样本中包含的语句数量较多,因此在进行模型训练时,无法确定待处理对话样本中需要进行检测的语句,此时可以分别对待处理对话样本中需要进行检测的中心对话语句,以及其他语句进行标注处理,具体实现如下:
在所述待处理对话样本中确定包含关键词的中心对话语句,以及不包含关键词的关联对话语句;为所述中心对话语句分配第一标识,以及为所述关联对话语句分配第二标识,获得标注对话样本。
具体的,中心对话语句是指待处理对话样本中需要进行违规预测的语句,即,判定中心对话语句是否为违规语句,待处理对话样本中除中心对话语句之外的语句为关联语句,是中心对话语句的上文以及下文;相应的,中心对话语句和关联对话语句分配的标识不同,为中心对话语句分配第一标识,为关联对话语句分配第二标识,其中,第一标识可以为数字或符号,第一标识为1时,第二标识则为0或其他数字,本实施例对标识不作具体限定,能够起到区分中心对话语句和关联对话语句的作用即可。
基于此,对待处理对话样本包含的语句进行标注时,在待处理对话样本中确定包含关键词的中心对话语句,将待处理对话样本中除中心对话语句之外的语句作为关联对话语句,关联对话语句可以为待处理对话样本中不包含关键词的语句。在待处理对话样本为正样本,且正样本中仅包含一个关键词的情况下,则该待处理样本中包含关键词的语句即为中心对话语句,该待处理对话样本中不包含关键词的语句即为关联对话语句;在待处理对话样本为易负样本时,待处理对话样本中需要进行违规检测的语句即为中心对话语句,待处理对话样本中除中心对话语句之外的语句即为关联对话样本,需要说明的是,由于易负样本为在历史对话样本中随机采样获得的,因此需要进行违规检测的语句可以包含关键词,也可以不包含关键词。为中心对话语句分配第一标识,以及为关联对话语句分配第二标识,获得标注对话样本。
沿用上例,对每个语句进行标注获得如图3中(b)所示的对话样本,即,将包含关键词的中心语句标注为1,将其他语句标注为0,将生成的对话样本输入至BERT模型中进行训练,获得每句话的向量表示,即文本表示。
综上所述,对待处理对话样本进行标注处理获得标注对话样本,以便于后续基于处理完成的对话样本进行模型训练,提高了模型的预测效率以及预测准确度。
步骤S208,基于所述标注对话样本对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
具体的,在上述在负对话样本集合和正对话样本集合中提取待处理对话样本,并对待处理对话样本进行标注处理,获得标注对话样本后,即可基于标注对话样本对中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型,其中,训练停止条件可以是模型完成了预设的训练次数、模型的预测精度达到预设的精度阈值、模型的训练时间达到预设的时间范围等;中间对话检测模型可以是未训练的BERT模型等神经网络模型,相应的,目标对话检测模型是指训练完成的对话检测模型,可以直接用于对对话数据进行检测。。
基于此,将标注对话样本输入至中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。实际应用中,对话检测模型可以是神经网络模型,包括但不限于BERT模型。
进一步的,在将标注对话样本输入至中间对话检测模型检测时,考虑到使用较少的对话样本训练的模型可能会达不到预测精度,因此可以使用多个标注对话样本进行模型训练,直到满足训练停止条件,获得目标对话检测模型,具体实现如下:
根据所述标注对话样本的样本类型确定所述标注对话样本的样本标签;将所述标注对话样本输入至所述中间对话检测模型进行检测,获得所述标注对话样本的检测概率;基于所述样本标签、所述检测概率和损失函数对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
具体的,样本类型是指标注对话样本的样本类别,包括正样本类型、难负样本类型和易负样本类型,相应的,样本标签即为与样本类型的对应的标签,正样本类型的标注对话样本对应的样本标签为正样本,难负样本类型的标注对话样本对应的样本标签为难负样本,易负样本类型的标注对话样本对应的样本标签为易负样本。检测概率是指将目标对话样本输入至对话检测模型进行预测获得的该目标对话样本的违规概率;损失函数用于对对话检测模型进行训练,在本实施例中损失函数可以是交叉熵损失函数,也可以是其他损失函数,本实施例对此不作任何限定。
基于此,根据标注对话样本的样本类型确定标注对话样本的样本标签,将标注对话样本输入至中间对话检测模型进行检测,获得标注对话样本的检测概率,进而基于样本标签、检测概率和损失函数对中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型,实现基于正样本集合和负样本集合构成的训练集对中间对话检测模型进行训练。
举例说明,将构建好的待训练对话样本输入经过预训练的BERT模型,得到对话中每个字的向量表示hij∈RL。再使用平均池化,得到每句话的向量表示hi=avgpool(hij),取最终的文本表示hi,经过一次线性变换,再经过损失函数,得到待训练对话样本违规的概率p(c|hi)=sigmoid(Whi),最后使用交叉熵作为损失函数训练模型,交叉熵损失函数公式如下:其中,L表示损失值;N表示样本总数,Pi表示分类正确的概率,W是待学习参数矩阵。本实施例对损失函数的种类不做任何限定。
综上所述,本说明书提供的对话检测模型训练方法,对多个历史对话序列进行调整处理,获得历史对话样本,并基于历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型;将历史对话样本中包含关键词的对话样本作为正对话样本,并存储至正对话样本集合,以及在历史对话样本中筛选负对话样本,并存储至负对话样本集合;在负对话样本集合和正对话样本集合中提取待处理对话样本,并对待处理对话样本进行标注处理,获得标注对话样本;基于标注对话样本对中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
本说明书一实施例,通过基于多个历史对话序列对初始对话检测模型进行预训练,能够让模型学习到对话序列中语句的语言特性。再根据正对话样本集合和负对话样本集合中的对话样本对中间对话检测模型进行训练,获得训练完成的目标对话检测模型。进而实现了在预训练的基础上,结合正对话样本和负对话样本再次进行模型训练,提高模型的预测准确度。
下述结合附图4,以本说明书提供的对话检测模型训练方法在对话质检的应用为例,对所述对话检测模型训练方法进行进一步说明。其中,图4示出了本说明书一实施例提供的一种应用于对话质检的对话检测模型训练方法的处理流程图,具体包括以下步骤:
步骤S402,对多个历史对话序列进行调整处理,获得历史对话样本。
在教师与学生/家长之间进行沟通的场景下,通常情况下会采用线上语音、视频或文字的形式进行沟通,在沟通过程中会产生大量的对话数据,为了保证沟通质量,可以对沟通过程中产生的对话数据进行质检,发现对话数据中包含的违规词语、涉及的违规行为,以及对服务态度、反馈速度进行检测,进而提高服务质量。将教师与家长/学生之间的对话数据作为历史对话序列,历史对话序列还可以是在一定时间范围内产生的对话数据。由督导团队指定关键词表,在大规模对话数据中使用关键词匹配方法查找违规线索。
对用于进行模型预训练的对话序列进行去噪处理,包括但不限于对对话序列中的符号、表情、图片、超链接、空格、空句子、短句子(只包含一个字或一个词语的句子)等进行数据清洗,从而去除噪声数据,获得高质量的对话样本。再对进行数据清洗后的语句按照语句对应的人员,以及语句产生的时间顺序拼接为一段文本,并以[CLS]为开始标志,以[SEP]为句子分割标志和结束标志,获得初始对话样本。
步骤S404,基于预设掩码比例在历史对话样本中确定待处理字单元,根据预设掩码概率对待处理字单元进行掩码处理,获得待训练对话样本。
使用掩码语言模型任务,对于输入的历史对话样本,随机选择15%的字符,对这15%的字符以80%的概率替换为[MASK],10%的概率替换为随机字符,10%的概率保持不变。
步骤S406,基于待训练对话样本对初始对话检测模型进行预训练,获得中间对话检测模型。
进行模型训练时,可以将批大小设置为2048,学习率设置为2e-4,预热20000步,训练200000步,最后得到预训练完成的对话检测模型。为了提高模型的训练效率,训练时可以使用混合精度技术。
步骤S408,在历史对话样本中确定包含关键词的中心对话语句。
在对话检测模型完成预训练后,即基于正样本以及负样本进行模型训练,由督导团队指定关键词表,在大规模对话数据中使用关键词匹配方法查找违规线索。将包含关键词的至少两个对话样本作为初始对话样本。
实际应用中,使用关键词可以针对特定场景发现违规行为,进而对该教师的对话内容进行拓展,检索该教师和其他家长/学生之间的对话数据中是否存在违规,进而继续发现其他场景的违规行为。
步骤S410,在历史对话样本中选择与中心对话语句对应的前序对话文本和后续对话文本,将前序对话文本、后续对话文本与中心对话语句进行组合,获得初始对话样本。
关键词在本实施例中可以是不文明词语、过度承诺词语、引导用户投诉或退课等词语。例如“打游戏”、“退课”、“投诉”、“私人联系方式”等关键词。将初始对话样本中包含关键词的语句作为中心对话语句,进而在历史对话样本中选择与中心对话语句对应的设定语句数量的前序对话文本和后续对话文本,可以选取中心对话语句的前10句和后10句,且不超过12小时的语句,构成初始对话样本,在12小时内的语句不足10句的情况下,可以选择12小时内产生的所有语句,构成初始对话样本。
步骤S412,根据至少两个初始对话样本的属性信息,将至少两个初始对话样本划分为正对话样本和第一负对话子样本。
由于包含关键词的语句可能是违规语句,也可能不是违规语句,因此在确定了包含关键词的初始对话样本后,还需要根据初始对话样本的语义信息确定该初始对话样本是否包含违规语句。例如,语句“您可以加我的私人联系方式”表示的语义信息为引导用户添加教师的私人联系方式,则判定为违规语句,即正样本;语句“我们是不允许教师添加学生的私人联系方式的”表示的语义信息为教师拒绝添加私人联系方式,则判定为非违规语句,即难负样本。
步骤S414,对历史对话样本随机采样处理,获得第二负对话子样本,将第一负对话子样本和第二负对话子样本作为负对话样本存储至负对话样本集合,以及将正对话样本存储至正对话样本集合。
在全量对话数据中随机采样一些关键词以外的语句。由于违规是小概率事件,所以这些语句均视作合规样本,记为易负样本。由难负样本和易负样本组成了负样本,存储至现有的负样本集合,将正样本存储至正样本集合,再分别将正样本集合和负样本集合中的样本划分为训练集和测试集,以便于后续基于负样本集合和正样本集合进行模型训练,以及测试。
步骤S416,在负对话样本集合和正对话样本集合中提取待处理对话样本,并对待处理对话样本进行标注处理,获得标注对话样本。
在负对话样本集合和正对话样本集合中提取待处理对话样本,对待处理对话样本中的语句进行标注,将待预测的语句标注为1,其他语句标注为0获得目标对话样本。
步骤S418,基于标注对话样本对中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
将目标对话样本输入至对话检测模型得到每个字的向量表示,再使用平均池化,得到每个语句的向量表示,获得最终的文本表示,再经过一次线性变换,以及激活函数函数,得到违规的概率。使用交叉熵损失函数训练对话检测模型模型,直至获得满足训练停止条件的目标对话检测模型。
综上所述,本说明书一实施例,通过基于多个历史对话序列对初始对话检测模型进行预训练,能够让模型学习到对话序列中语句的语言特性。再根据正对话样本集合和负对话样本集合中的对话样本对中间对话检测模型进行训练,获得训练完成的目标对话检测模型。进而实现了在预训练的基础上,结合正对话样本和负对话样本再次进行模型训练,提高模型的预测准确度。
与上述方法实施例相对应,本说明书还提供了对话检测模型训练装置实施例,图5示出了本说明书一实施例提供的一种对话检测模型训练装置的结构示意图。如图5所示,该装置包括:
预训练模块502,被配置为对多个历史对话序列进行调整处理,获得历史对话样本,并基于所述历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型;
存储模块504,被配置为将所述历史对话样本中包含关键词的对话样本作为正对话样本,并存储至正对话样本集合,以及在所述历史对话样本中筛选负对话样本,并存储至负对话样本集合;
提取模块506,被配置为在所述负对话样本集合和所述正对话样本集合中提取待处理对话样本,并对所述待处理对话样本进行标注处理,获得标注对话样本;
训练模块508,被配置为基于所述标注对话样本对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
一个可选地实施例中,所述预训练模块502,进一步被配置为:
分别对每个历史对话序列包含的噪声数据进行删除或修改,获得每个历史对话序列的第一历史对话序列;对每个第一历史对话序列进行整合处理,获得历史对话样本。
一个可选地实施例中,所述预训练模块502,进一步被配置为:
基于预设掩码比例在所述历史对话样本中确定待处理字单元;按照预设掩码概率对所述历史对话样本中的待处理字单元进行掩码处理,获得待训练对话样本;基于所述待训练对话样本对所述初始对话检测模型进行预训练,获得中间对话检测模型。
一个可选地实施例中,所述生成模块504,进一步被配置为:
将所述历史对话样本中包含关键词的至少两个对话样本作为初始对话样本;根据至少两个初始对话样本的属性信息,将至少两个初始对话样本划分为正对话样本和第一负对话子样本;对所述历史对话样本随机采样处理,获得第二负对话子样本,将所述第一负对话子样本和所述第二负对话子样本作为负对话样本,并将所述负对话样本存储至负对话样本集合,以及将所述正对话样本存储至正对话样本集合。
一个可选地实施例中,所述生成模块504,进一步被配置为:
在所述历史对话样本中确定包含关键词的中心对话语句;基于所述历史对话样本生成包含所述中心对话语句的初始对话样本。
一个可选地实施例中,所述生成模块504,进一步被配置为:
在所述历史对话样本中选择与所述中心对话语句对应的前序对话文本和后续对话文本;将所述前序对话文本、所述后续对话文本与所述中心对话语句进行组合,获得初始对话样本。
一个可选地实施例中,所述提取模块506,进一步被配置为:
在所述待处理对话样本中确定包含关键词的中心对话语句,以及不包含关键词的关联对话语句;为所述中心对话语句分配第一标识,以及为所述关联对话语句分配第二标识,获得标注对话样本。
一个可选地实施例中,所述训练模块508,进一步被配置为:
根据所述标注对话样本的样本类型确定所述标注对话样本的样本标签;将所述标注对话样本输入至所述中间对话检测模型进行检测,获得所述标注对话样本的检测概率;基于所述样本标签、所述检测概率和损失函数对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
综上所述,本说明书提供的对话检测模型训练装置,对多个历史对话序列进行调整处理,获得历史对话样本,并基于历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型;将历史对话样本中包含关键词的对话样本作为正对话样本,并存储至正对话样本集合,以及在历史对话样本中筛选负对话样本,并存储至负对话样本集合;在负对话样本集合和正对话样本集合中提取待处理对话样本,并对待处理对话样本进行标注处理,获得标注对话样本;基于标注对话样本对中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
本说明书一实施例,通过基于多个历史对话序列对初始对话检测模型进行预训练,能够让模型学习到对话序列中语句的语言特性。再根据正对话样本集合和负对话样本集合中的对话样本对中间对话检测模型进行训练,获得训练完成的目标对话检测模型。进而实现了在预训练的基础上,结合正对话样本和负对话样本再次进行模型训练,提高模型的预测准确度。
上述为本实施例的一种对话检测模型训练装置的示意性方案。需要说明的是,该对话检测模型训练装置的技术方案与上述的对话检测模型训练方法的技术方案属于同一构思,对话检测模型训练装置的技术方案未详细描述的细节内容,均可以参见上述对话检测模型训练方法的技术方案的描述。
图6示出了根据本说明书一实施例提供的一种对话序列检测方法的流程图,具体包括以下步骤:
步骤S602,获取待检测对话序列;
步骤S604,对所述待检测对话序列进行调整处理,获得待检测对话文本;
步骤S606,将所述待检测对话文本输入至目标对话检测模型进行检测,获得所述待检测对话序列的检测信息。
实际应用中,在进行对话序列的违规性检测时,获取待检测对话序列,对待检测对话序列进行调整处理,获得待检测对话文本,其中,调整处理包括对待检测对话序列进行数据清洗和数据预处理,数据清洗包括但不限于去除待检测对话序列中的表情、符号、空句子等数据预处理包括但不限于对待检测对话序列中包含的句子进行拼接处理。将待检测对话文本输入至目标对话检测模型进行检测,获得所述待检测对话序列的检测信息,实现对待检测对话序列的违规性进行检测。
综上所述,通过获取待检测对话序列,对待检测对话序列进行调整处理,获得待检测对话文本,将待检测对话文本输入至目标对话检测模型进行检测,获得待检测对话序列的检测信息。进而实现对待检测对话序列的对话质量进行检测,发现对话序列中的违规语句,通过目标对话检测模型进行质量检测,提高了质量检测效率和准确率。
与上述方法实施例相对应,本说明书还提供了对话序列检测装置实施例,图7示出了本说明书一实施例提供的一种对话序列检测装置的结构示意图。如图7所示,该装置包括:
获取模块702,被配置为获取待检测对话序列;
处理模块704,被配置为对所述待检测对话序列进行调整处理,获得待检测对话文本;
检测模块706,被配置为将所述待检测对话文本输入至目标对话检测模型进行检测,获得所述待检测对话序列的检测信息。
综上所述,通过获取待检测对话序列,对待检测对话序列进行调整处理,获得待检测对话文本,将待检测对话文本输入至目标对话检测模型进行检测,获得待检测对话序列的检测信息。进而实现对待检测对话序列的对话质量进行检测,发现对话序列中的违规语句,通过目标对话检测模型进行质量检测,提高了质量检测效率和准确率。
上述为本实施例的一种对话检测模型训练装置的示意性方案。需要说明的是,该对话检测模型训练装置的技术方案与上述的对话检测模型训练方法的技术方案属于同一构思,对话检测模型训练装置的技术方案未详细描述的细节内容,均可以参见上述对话检测模型训练方法的技术方案的描述。
图8示出了根据本说明书一实施例提供的一种计算设备800的结构框图。该计算设备800的部件包括但不限于存储器810和处理器820。处理器820与存储器810通过总线830相连接,数据库850用于保存数据。
计算设备800还包括接入设备840,接入设备840使得计算设备800能够经由一个或多个网络860通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备840可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本说明书的一个实施例中,计算设备800的上述部件以及图8中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图8所示的计算设备结构框图仅仅是出于示例的目的,而不是对本说明书范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备800可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备800还可以是移动式或静止式的服务器。
其中,处理器820用于执行如下计算机可执行指令,该计算机可执行指令被处理器执行时实现上述对话检测模型训练方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的对话检测模型训练方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述对话检测模型训练方法的技术方案的描述。
本说明书一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现上述对话检测模型训练方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的对话检测模型训练方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述对话检测模型训练方法的技术方案的描述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本说明书并不受所描述的动作顺序的限制,因为依据本说明书,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本说明书所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本说明书优选实施例只是用于帮助阐述本说明书。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本说明书的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本说明书。本说明书仅受权利要求书及其全部范围和等效物的限制。
Claims (12)
1.一种对话检测模型训练方法,其特征在于,包括:
对多个历史对话序列进行调整处理,获得历史对话样本,并基于所述历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型;
将所述历史对话样本中包含关键词的对话样本作为正对话样本,并存储至正对话样本集合,以及在所述历史对话样本中筛选负对话样本,并存储至负对话样本集合;
在所述负对话样本集合和所述正对话样本集合中提取待处理对话样本,并对所述待处理对话样本进行标注处理,获得标注对话样本;
基于所述标注对话样本对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
2.根据权利要求1所述的方法,其特征在于,对多个历史对话序列进行调整处理,获得历史对话样本,包括:
分别对每个历史对话序列包含的噪声数据进行删除或修改,获得每个历史对话序列的第一历史对话序列;
对每个第一历史对话序列进行整合处理,获得历史对话样本。
3.根据权利要求1所述的方法,其特征在于,所述基于所述历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型,包括:
基于预设掩码比例在所述历史对话样本中确定待处理字单元;
按照预设掩码概率对所述历史对话样本中的待处理字单元进行掩码处理,获得待训练对话样本;
基于所述待训练对话样本对所述初始对话检测模型进行预训练,获得中间对话检测模型。
4.根据权利要求1所述的方法,其特征在于,所述将所述历史对话样本中包含关键词的对话样本作为正对话样本,并存储至正对话样本集合,以及在所述历史对话样本中筛选负对话样本,并存储至负对话样本集合,包括:
将所述历史对话样本中包含关键词的至少两个对话样本作为初始对话样本;
根据至少两个初始对话样本的属性信息,将至少两个初始对话样本划分为正对话样本和第一负对话子样本;
对所述历史对话样本随机采样处理,获得第二负对话子样本,将所述第一负对话子样本和所述第二负对话子样本作为负对话样本,并将所述负对话样本存储至负对话样本集合,以及将所述正对话样本存储至正对话样本集合。
5.根据权利要求4所述的方法,其特征在于,所述将所述历史对话样本中包含关键词的至少两个对话样本作为初始对话样本,包括:
在所述历史对话样本中确定包含关键词的中心对话语句;
基于所述历史对话样本生成包含所述中心对话语句的初始对话样本。
6.根据权利要求5所述的方法,其特征在于,所述基于所述历史对话样本生成包含所述中心对话语句的初始对话样本,包括:
在所述历史对话样本中选择与所述中心对话语句对应的前序对话文本和后续对话文本;
将所述前序对话文本、所述后续对话文本与所述中心对话语句进行组合,获得初始对话样本。
7.根据权利要求1所述的方法,其特征在于,所述对所述待处理对话样本进行标注处理,获得标注对话样本,包括:
在所述待处理对话样本中确定包含关键词的中心对话语句,以及不包含关键词的关联对话语句;
为所述中心对话语句分配第一标识,以及为所述关联对话语句分配第二标识,获得标注对话样本。
8.根据权利要求1所述的方法,其特征在于,所述基于所述标注对话样本对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型,包括:
根据所述标注对话样本的样本类型确定所述标注对话样本的样本标签;
将所述标注对话样本输入至所述中间对话检测模型进行检测,获得所述标注对话样本的检测概率;
基于所述样本标签、所述检测概率和损失函数对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
9.一种对话序列检测方法,其特征在于,包括:
获取待检测对话序列;
对所述待检测对话序列进行调整处理,获得待检测对话文本;
将所述待检测对话文本输入至权利要求1-8任意一项所述方法中的目标对话检测模型进行检测,获得所述待检测对话序列的检测信息。
10.一种对话检测模型训练装置,其特征在于,包括:
预训练模块,被配置为对多个历史对话序列进行调整处理,获得历史对话样本,并基于所述历史对话样本对初始对话检测模型进行预训练,获得中间对话检测模型;
存储模块,被配置为将所述历史对话样本中包含关键词的对话样本作为正对话样本,并存储至正对话样本集合,以及在所述历史对话样本中筛选负对话样本,并存储至负对话样本集合;
提取模块,被配置为在所述负对话样本集合和所述正对话样本集合中提取待处理对话样本,并对所述待处理对话样本进行标注处理,获得标注对话样本;
训练模块,被配置为基于所述标注对话样本对所述中间对话检测模型进行训练,直至获得满足训练停止条件的目标对话检测模型。
11.一种计算设备,其特征在于,包括存储器和处理器;所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,以实现权利要求1至8或9任意一项所述方法的步骤。
12.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1至8或9任意一项所述方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211465242.9A CN115730607A (zh) | 2022-11-22 | 2022-11-22 | 对话检测模型训练方法及装置 |
PCT/CN2023/130536 WO2024109546A1 (zh) | 2022-11-22 | 2023-11-08 | 对话检测模型训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211465242.9A CN115730607A (zh) | 2022-11-22 | 2022-11-22 | 对话检测模型训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115730607A true CN115730607A (zh) | 2023-03-03 |
Family
ID=85297239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211465242.9A Pending CN115730607A (zh) | 2022-11-22 | 2022-11-22 | 对话检测模型训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115730607A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024109546A1 (zh) * | 2022-11-22 | 2024-05-30 | 北京猿力未来科技有限公司 | 对话检测模型训练方法及装置 |
-
2022
- 2022-11-22 CN CN202211465242.9A patent/CN115730607A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024109546A1 (zh) * | 2022-11-22 | 2024-05-30 | 北京猿力未来科技有限公司 | 对话检测模型训练方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110008399B (zh) | 一种推荐模型的训练方法及装置、一种推荐方法及装置 | |
CN111177393B (zh) | 一种知识图谱的构建方法、装置、电子设备及存储介质 | |
WO2022095380A1 (zh) | 基于ai的虚拟交互模型生成方法、装置、计算机设备及存储介质 | |
CN111090987A (zh) | 用于输出信息的方法和装置 | |
CN110781663B (zh) | 文本分析模型的训练方法及装置、文本分析方法及装置 | |
Oraby et al. | " How May I Help You?" Modeling Twitter Customer ServiceConversations Using Fine-Grained Dialogue Acts | |
CN111581966A (zh) | 一种融合上下文特征方面级情感分类方法和装置 | |
CN110609886A (zh) | 一种文本分析方法及装置 | |
CN113076423A (zh) | 数据处理方法及装置、数据查询方法及装置 | |
CN115269836A (zh) | 意图识别方法及装置 | |
CN115391520A (zh) | 一种文本情感分类方法、系统、装置及计算机介质 | |
CN115730607A (zh) | 对话检测模型训练方法及装置 | |
CN114443846A (zh) | 一种基于多层级文本异构图的分类方法、装置及电子设备 | |
CN110969005A (zh) | 一种确定实体语料之间的相似性的方法及装置 | |
CN115712712A (zh) | 样本构建方法及装置 | |
CN117349402A (zh) | 一种基于机器阅读理解的情绪原因对识别方法及系统 | |
CN115934904A (zh) | 文本处理方法以及装置 | |
CN114356860B (zh) | 对话生成方法及装置 | |
Purba et al. | A hybrid convolutional long short-term memory (CNN-LSTM) based natural language processing (NLP) model for sentiment analysis of customer product reviews in Bangla | |
CN115757723A (zh) | 文本处理方法及装置 | |
CN115292492A (zh) | 意图分类模型的训练方法、装置、设备及存储介质 | |
WO2024109546A1 (zh) | 对话检测模型训练方法及装置 | |
Ho et al. | A hybrid model for aspect-based sentiment analysis on customer feedback: research on the mobile commerce sector in Vietnam. | |
CN114722164A (zh) | 一种智能评论回复方法及装置 | |
CN111340329A (zh) | 演员评估方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 100102 unit F01, 5th floor, building 1, yard 8, Guangshun South Street, Chaoyang District, Beijing Applicant after: Beijing Ape Power Technology Co.,Ltd. Address before: 100102 unit F01, 5th floor, building 1, yard 8, Guangshun South Street, Chaoyang District, Beijing Applicant before: Beijing ape force Education Technology Co.,Ltd. |
|
CB02 | Change of applicant information |