CN116384411B - 基于外呼机器人的用户意图识别模型的训练方法和装置 - Google Patents
基于外呼机器人的用户意图识别模型的训练方法和装置 Download PDFInfo
- Publication number
- CN116384411B CN116384411B CN202310651480.7A CN202310651480A CN116384411B CN 116384411 B CN116384411 B CN 116384411B CN 202310651480 A CN202310651480 A CN 202310651480A CN 116384411 B CN116384411 B CN 116384411B
- Authority
- CN
- China
- Prior art keywords
- text
- template
- training
- text vector
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 118
- 238000000034 method Methods 0.000 title claims abstract description 61
- 239000013598 vector Substances 0.000 claims abstract description 211
- 230000003993 interaction Effects 0.000 claims abstract description 26
- 230000008569 process Effects 0.000 claims abstract description 24
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 13
- 210000002569 neuron Anatomy 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013145 classification model Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提供了一种基于外呼机器人的用户意图识别模型的训练方法和装置、电子设备及存储介质,涉及人工智能技术领域。该方法获取用户与外呼机器人交互过程中用户的原始文本信息;对原始文本信息进行向量化处理,生成原始文本向量和语义相似文本向量;设计提示模板,生成提示模板文本;对提示模板文本进行向量化处理,生成模板文本向量;将原始文本向量和语义相似文本向量,分别与模板文本向量进行拼接处理,得到多个拼接后的文本向量;将多个拼接后的文本向量输入预先构建的预训练语言模型,对预训练语言模型进行训练,得到训练后的用户意图识别模型。本实施例能够实现小样本学习训练模型,降低数据标注成本,提高模型训练的效率。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种基于外呼机器人的用户意图识别模型的训练方法和装置、电子设备及存储介质。
背景技术
随着人工智能技术的飞速发展,外呼机器人对话技术渗透并应用到各行各业。通常,可以由外呼中心通过机器人与用户对话,发现用户的意图和需求。目前,外呼机器人与人类交互的形式多是根据先验知识和业务逻辑设计规则来驱动机器人对话,即每个机器人节点话术下配置N(N为正整数)个意图,然后与用户交流时,将用户语音转义成文本然后经过一个文本分类模型预测出用户的真实意图,再根据模型识别的意图与节点话术下配置的意图做匹配,最后根据匹配上的意图配置的跳转逻辑跳转到相应节点,完成一轮人机对话。例如,当用户说:“我不清楚呀”,分类模型识别为“不确定”,机器人回复:“不着急,我带您一步一步操作,有不懂的您直接打断我就好”。一般文本分类模型严重依赖人工去给大量文本打标签,然后通过一个预训练模型对文本进行编码,最后接一个全连接层进行多分类对模型进行训练。但是对于垂直领域可用的有标签训练数据是很难收集的,那么如何在样本量较少的情况下训练模型成为亟需解决的技术问题。
发明内容
鉴于上述问题,提出了本申请以便提供一种克服上述问题或者至少部分地解决上述问题的基于外呼机器人的用户意图识别模型的训练方法和装置、电子设备及存储介质。所述技术方案如下:
第一方面,提供了一种基于外呼机器人的用户意图识别模型的训练方法,包括:
获取用户与外呼机器人交互过程中用户的原始文本信息;
对所述原始文本信息进行向量化处理,生成原始文本向量和语义相似文本向量;
设计提示模板,生成提示模板文本;
对所述提示模板文本进行向量化处理,生成模板文本向量;
将所述原始文本向量和所述语义相似文本向量,分别与所述模板文本向量进行拼接处理,得到多个拼接后的文本向量;
将所述多个拼接后的文本向量输入预先构建的预训练语言模型,对所述预训练语言模型进行训练,得到训练后的用户意图识别模型。
在一种可能的实现方式中,对所述原始文本信息进行向量化处理,生成原始文本向量和语义相似文本向量,包括:
将所述原始文本信息经过预设的神经网络的第一编码模块,生成原始文本向量;
将所述原始文本信息经过预设的神经网络的第二编码模块,生成语义相似文本向量,其中所述第二编码模块是在所述第一编码模块中随机关闭掉一个或多个神经元的连接得到。
在一种可能的实现方式中,设计提示模板,生成提示模板文本,包括:
构建样本的原始标签的映射集;
基于所述原始标签的映射集,设计提示模板,生成提示模板文本。
在一种可能的实现方式中,对所述提示模板文本进行向量化处理,生成模板文本向量,包括:
将所述提示模板文本经过预设的神经网络的第一编码模块,生成模板文本向量。
在一种可能的实现方式中,若所述模板文本向量包括多个,将所述原始文本向量和所述语义相似文本向量,分别与所述模板文本向量进行拼接处理,得到多个拼接后的文本向量,包括:
根据所述原始文本向量对应的原始标签,在多个所述模板文本向量查找与所述原始文本向量对应的原始标签匹配的目标模板文本向量;
将所述原始文本向量与所述目标模板文本向量拼接,以及将所述语义相似文本向量与所述目标模板文本向量拼接,得到多个拼接后的文本向量。
在一种可能的实现方式中,将所述多个拼接后的文本向量输入预先构建的预训练语言模型,对所述预训练语言模型进行训练,得到训练后的用户意图识别模型,包括:
将所述多个拼接后的文本向量输入预先构建的预训练语言模型,对所述预训练语言模型进行训练,在训练过程中,随机遮蔽所述多个拼接后的文本向量中各拼接后的文本向量的词语,所述预训练语言模型通过对被遮蔽的词语进行预测得到预测结果,将预测结果与所述各拼接后的文本向量对应的标签数据进行比对,进而根据比对结果对预训练语言模型的参数进行调整,得到训练后的用户意图识别模型。
在一种可能的实现方式中,在得到训练后的用户意图识别模型之后,所述方法还包括:
响应于外呼机器人的外呼对话,获取用户交互文本;
将所述用户交互文本输入到训练后的用户意图识别模型,识别用户意图;
根据识别出的用户意图生成回复句子,将回复句子作为所述用户交互文本的回复内容。
第二方面,提供了一种基于外呼机器人的用户意图识别模型的训练装置,包括:
获取单元,用于获取用户与外呼机器人交互过程中用户的原始文本信息;
第一生成单元,用于对所述原始文本信息进行向量化处理,生成原始文本向量和语义相似文本向量;
第二生成单元,用于设计提示模板,生成提示模板文本;
第三生成单元,用于对所述提示模板文本进行向量化处理,生成模板文本向量;
拼接单元,用于将所述原始文本向量和所述语义相似文本向量,分别与所述模板文本向量进行拼接处理,得到多个拼接后的文本向量;
训练单元,用于将所述多个拼接后的文本向量输入预先构建的预训练语言模型,对所述预训练语言模型进行训练,得到训练后的用户意图识别模型。
在一种可能的实现方式中,所述第一生成单元还用于:
将所述原始文本信息经过预设的神经网络的第一编码模块,生成原始文本向量;
将所述原始文本信息经过预设的神经网络的第二编码模块,生成语义相似文本向量,其中所述第二编码模块是在所述第一编码模块中随机关闭掉一个或多个神经元的连接得到。
在一种可能的实现方式中,所述第二生成单元还用于:
构建样本的原始标签的映射集;
基于所述原始标签的映射集,设计提示模板,生成提示模板文本。
在一种可能的实现方式中,所述第三生成单元还用于:
将所述提示模板文本经过预设的神经网络的第一编码模块,生成模板文本向量。
在一种可能的实现方式中,若所述模板文本向量包括多个,所述拼接单元还用于:
根据所述原始文本向量对应的原始标签,在多个所述模板文本向量查找与所述原始文本向量对应的原始标签匹配的目标模板文本向量;
将所述原始文本向量与所述目标模板文本向量拼接,以及将所述语义相似文本向量与所述目标模板文本向量拼接,得到多个拼接后的文本向量。
在一种可能的实现方式中,所述训练单元还用于:
将所述多个拼接后的文本向量输入预先构建的预训练语言模型,对所述预训练语言模型进行训练,在训练过程中,随机遮蔽所述多个拼接后的文本向量中各拼接后的文本向量的词语,所述预训练语言模型通过对被遮蔽的词语进行预测得到预测结果,将预测结果与所述各拼接后的文本向量对应的标签数据进行比对,进而根据比对结果对预训练语言模型的参数进行调整,得到训练后的用户意图识别模型。
在一种可能的实现方式中,所述装置还包括:
识别回复单元,用于响应于外呼机器人的外呼对话,获取用户交互文本;将所述用户交互文本输入到训练后的用户意图识别模型,识别用户意图;根据识别出的用户意图生成回复句子,将回复句子作为所述用户交互文本的回复内容。
第三方面,提供了一种电子设备,该电子设备包括处理器和存储器,其中,所述存储器中存储有计算机程序,所述处理器被配置为运行所述计算机程序以执行上述任一项所述的基于外呼机器人的用户意图识别模型的训练方法。
第四方面,提供了一种存储介质,所述存储介质存储有计算机程序,其中,所述计算机程序被配置为运行时执行上述任一项所述的基于外呼机器人的用户意图识别模型的训练方法。
借由上述技术方案,本申请实施例提供的基于外呼机器人的用户意图识别模型的训练方法和装置、电子设备及存储介质,该方法可以获取用户与外呼机器人交互过程中用户的原始文本信息;对原始文本信息进行向量化处理,生成原始文本向量和语义相似文本向量;设计提示模板,生成提示模板文本;对提示模板文本进行向量化处理,生成模板文本向量;将原始文本向量和语义相似文本向量,分别与模板文本向量进行拼接处理,得到多个拼接后的文本向量;将多个拼接后的文本向量输入预先构建的预训练语言模型,对预训练语言模型进行训练,得到训练后的用户意图识别模型。本实施例基于原始文本信息生成原始文本向量和语义相似文本向量,能够增加样本数据量;并将原始文本向量和语义相似文本向量,分别与模板文本向量进行拼接处理,得到多个拼接后的文本向量,进而利用多个拼接后的文本向量训练预训练语言模型,能够实现小样本学习训练模型,降低数据标注成本,提高模型训练的效率;之后,可以利用训练后的用户意图识别模型能够准确得到用户意图,让外呼机器人可以精确响应用户请求。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1示出了本申请实施例提供的基于外呼机器人的用户意图识别模型的训练方法的流程图;
图2示出了本申请另一实施例提供的基于外呼机器人的用户意图识别模型的训练方法的流程图;
图3示出了本申请实施例提供的基于外呼机器人的用户意图识别模型的训练装置的结构图;
图4示出了本申请另一实施例提供的基于外呼机器人的用户意图识别模型的训练装置的结构图;
图5示出了本申请实施例提供的一种电子设备的结构图。
具体实施方式
下面将参照附图更详细地描述本申请的示例性实施例。虽然附图中显示了本申请的示例性实施例,然而应当理解,可以以各种形式实现本申请而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本申请,并且能够将本申请的范围完整的传达给本领域的技术人员。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”及其变体要被解读为意味着“包括但不限于”的开放式术语。
为了解决上述技术问题,本申请实施例提供了一种基于外呼机器人的用户意图识别模型的训练方法,如图1所示,该基于外呼机器人的用户意图识别模型的训练方法可以包括以下步骤S101至S106:
步骤S101,获取用户与外呼机器人交互过程中用户的原始文本信息。
该步骤中,用户与外呼机器人交互过程中,可以直接获取用户输入的原始文本信息,也可以将用户语音转化成用户的原始文本信息,本实施例对此不作限制。
步骤S102,对原始文本信息进行向量化处理,生成原始文本向量和语义相似文本向量。
步骤S103,设计提示模板,生成提示模板文本。
步骤S104,对提示模板文本进行向量化处理,生成模板文本向量。
步骤S105,将原始文本向量和语义相似文本向量,分别与模板文本向量进行拼接处理,得到多个拼接后的文本向量。
步骤S106,将多个拼接后的文本向量输入预先构建的预训练语言模型,对预训练语言模型进行训练,得到训练后的用户意图识别模型。
本实施例基于原始文本信息生成原始文本向量和语义相似文本向量,能够增加样本数据量;并将原始文本向量和语义相似文本向量,分别与模板文本向量进行拼接处理,得到多个拼接后的文本向量,进而利用多个拼接后的文本向量训练预训练语言模型,能够实现小样本学习训练模型,降低数据标注成本,提高模型训练的效率;之后,可以利用训练后的用户意图识别模型能够准确得到用户意图,让外呼机器人可以精确响应用户请求。
本申请实施例中提供了一种可能的实现方式,上面步骤S102中对原始文本信息进行向量化处理,生成原始文本向量和语义相似文本向量,具体可以包括以下步骤A1和A2:
步骤A1,将原始文本信息经过预设的神经网络的第一编码模块,生成原始文本向量;
步骤A2,将原始文本信息经过预设的神经网络的第二编码模块,生成语义相似文本向量,其中第二编码模块是在第一编码模块中随机关闭掉一个或多个神经元的连接得到。
本实施例增加了原始文本的多样表达,增加了原始文本的相似样本,从而起到一个增量数据量的效果。
本申请实施例中提供了一种可能的实现方式,上面步骤S103设计提示模板,生成提示模板文本,具体可以包括以下步骤B1和B2:
步骤B1,构建样本的原始标签的映射集;
步骤B2,基于原始标签的映射集,设计提示模板,生成提示模板文本。
举例来说,样本的原始标签有“是”、“否”、“不清楚”,则构建样本的原始标签的映射集为“肯定”、“否定”、“未知”;基于原始标签的映射集,设计提示模板,生成提示模板文本可以是“这是一条肯定回复文本”、“这是一条否定回复文本”、“这是一条未知回复文本”等等。需要说明的是,此处例举仅是示意性的,并不对本实施例进行限制。
本申请实施例中提供了一种可能的实现方式,上面步骤S104对提示模板文本进行向量化处理,生成模板文本向量,具体可以包括以下步骤C1:
步骤C1,将提示模板文本经过预设的神经网络的第一编码模块,生成模板文本向量。
本实施例将提示模板文本经过预设的神经网络的第一编码模块,生成模板文本向量,以便后续进行向量的拼接处理。
本申请实施例中提供了一种可能的实现方式,若模板文本向量包括多个,那么步骤S105将原始文本向量和语义相似文本向量,分别与模板文本向量进行拼接处理,得到多个拼接后的文本向量,具体可以包括以下步骤D1和D2:
步骤D1,根据原始文本向量对应的原始标签,在多个模板文本向量查找与原始文本向量对应的原始标签匹配的目标模板文本向量;
步骤D2,将原始文本向量与目标模板文本向量拼接,以及将语义相似文本向量与目标模板文本向量拼接,得到多个拼接后的文本向量。
本实施例基于原始文本向量对应的原始标签,可以匹配到目标模板文本向量,将原始文本向量与目标模板文本向量拼接,以及将语义相似文本向量与目标模板文本向量拼接,得到多个拼接后的文本向量,可以提高拼接处理的准确性和效率。
本申请实施例中提供了一种可能的实现方式,上面步骤S106将多个拼接后的文本向量输入预先构建的预训练语言模型,对预训练语言模型进行训练,得到训练后的用户意图识别模型,具体可以包括以下步骤E1:
步骤E1,将多个拼接后的文本向量输入预先构建的预训练语言模型,对预训练语言模型进行训练,在训练过程中,随机遮蔽多个拼接后的文本向量中各拼接后的文本向量的词语,预训练语言模型通过对被遮蔽的词语进行预测得到预测结果,将预测结果与各拼接后的文本向量对应的标签数据进行比对,进而根据比对结果对预训练语言模型的参数进行调整,得到训练后的用户意图识别模型。
本实施例在训练过程中,通过随机遮蔽多个拼接后的文本向量中各拼接后的文本向量的词语,预训练语言模型通过对被遮蔽的词语进行预测得到预测结果,将预测结果与各拼接后的文本向量对应的标签数据进行比对,进而根据比对结果对预训练语言模型的参数进行调整,得到训练后的用户意图识别模型,能够实现小样本学习训练模型,降低数据标注成本,提高模型训练的效率。
本申请实施例中提供了一种可能的实现方式,在步骤S106得到训练后的用户意图识别模型之后,还可以包括以下步骤F1至F3:
步骤F1,响应于外呼机器人的外呼对话,获取用户交互文本;
步骤F2,将用户交互文本输入到训练后的用户意图识别模型,识别用户意图;
步骤F3,根据识别出的用户意图生成回复句子,将回复句子作为用户交互文本的回复内容。
本实施例可以利用训练后的用户意图识别模型能够准确得到用户意图,让外呼机器人可以精确响应用户请求。
以上介绍了图1所示实施例的各个环节的多种实现方式,下面将通过具体实施例对本申请实施例的基于外呼机器人的用户意图识别模型的训练方法做进一步说明。
在具体实施例中,采用BERT(自然语言处理模型)作为基础模型,预训练语言模型通过预先收集海量无标签文本数据进行无监督学习,预训练过程通常在文本数据中随机mask(遮蔽)句子的词语用来构造监督信息,模型通过对被mask的词语进行预测来学习句子与词语间的关系,预训练语言模型包含大量丰富的文本信息。因此本实施例将文本分类任务改变成适应预训练语言模型的这种形式,充分挖掘大模型中含有的文本信息。
首先,构建原始标签的映射集,例如原始标签中有“是”、“否”、“不清楚”,则可将其映射到一组标签上“肯定”、“否定”、“未知”等。
其次,设计提示模板,例如“这是一条肯定回复文本”、“这是一条否定回复文本”、“这是一条未知回复文本”等等。
再次,将模板信息和原始文本进行组合,这里对原始文本会有一个dropout(退出)处理,dropout是在神经网络中随机关闭掉一些神经元的连接,那么关闭的神经元不同,模型最终的输出也就不一样,为了增加原始文本的多样表达性,且不丢失原有的语义,利用这个形式可以无形中增加文本的相似样本,从而起到一个增量数据量的效果。例如,原始文本是“我已经清楚你说的了”句子向量为E1,经过不同的dropout后将变为语义相似的句子向量E2和E3,则将这些原始句子向量与模板句子向量组合。例如,“我已经清楚你说的了,这是一条MASK MASK回复文本”,其中MASK MASK则用作预训练模型对文本所属类别的预测,这里代表的是“肯定”。
最后,将文本和模板的形式组合起来输入预训练语言模型进行小样本意图识别模型训练。
参见图2所示,获取输入文本和模板文本,同一输入文本经过两次带有dropout机制的编码模块,生成多个相似的文本向量,模板模块经过不带有dropout机制的编码模块,然后将输入文本向量和模板文本向量进行拼接,通过预训练语言模型,进行意图识别训练。
模型推理时,利用原始文本拼接模板信息,例如“我已经清楚你说的了,这是一条MASK MASK回复文本”,模型预测MASK MASK位置的token(标签)结果输出为“肯定”,然后通过标签映射表得到“肯定”对应“是”,则得到用户最终的意图为“是”。
本实施例能够提升外呼机器人响应用户意图覆盖率,提升用户体验,有助于人机更流畅的交互;并且模型泛化性降低了人力标注数据成本,训练数据获取难的问题得到有效解决。
需要说明的是,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。实际应用中,上述所有可能的实施方式可以采用结合的方式任意组合,形成本申请的可能的实施例,在此不再一一赘述。
基于上文各个实施例提供的基于外呼机器人的用户意图识别模型的训练方法,基于同一发明构思,本申请实施例还提供了一种基于外呼机器人的用户意图识别模型的训练装置。
图3是本申请实施例提供的基于外呼机器人的用户意图识别模型的训练装置的结构图。如图3所示,该基于外呼机器人的用户意图识别模型的训练装置具体可以包括获取单元310、第一生成单元320、第二生成单元330、第三生成单元340、拼接单元350和训练单元360。
获取单元310,用于获取用户与外呼机器人交互过程中用户的原始文本信息;
第一生成单元320,用于对所述原始文本信息进行向量化处理,生成原始文本向量和语义相似文本向量;
第二生成单元330,用于设计提示模板,生成提示模板文本;
第三生成单元340,用于对所述提示模板文本进行向量化处理,生成模板文本向量;
拼接单元350,用于将所述原始文本向量和所述语义相似文本向量,分别与所述模板文本向量进行拼接处理,得到多个拼接后的文本向量;
训练单元360,用于将所述多个拼接后的文本向量输入预先构建的预训练语言模型,对所述预训练语言模型进行训练,得到训练后的用户意图识别模型。
本申请实施例中提供了一种可能的实现方式,所述第一生成单元320还用于:
将所述原始文本信息经过预设的神经网络的第一编码模块,生成原始文本向量;
将所述原始文本信息经过预设的神经网络的第二编码模块,生成语义相似文本向量,其中所述第二编码模块是在所述第一编码模块中随机关闭掉一个或多个神经元的连接得到。
本申请实施例中提供了一种可能的实现方式,所述第二生成单元330还用于:
构建样本的原始标签的映射集;
基于所述原始标签的映射集,设计提示模板,生成提示模板文本。
本申请实施例中提供了一种可能的实现方式,所述第三生成单元340还用于:
将所述提示模板文本经过预设的神经网络的第一编码模块,生成模板文本向量。
本申请实施例中提供了一种可能的实现方式,若所述模板文本向量包括多个,所述拼接单元350还用于:
根据所述原始文本向量对应的原始标签,在多个所述模板文本向量查找与所述原始文本向量对应的原始标签匹配的目标模板文本向量;
将所述原始文本向量与所述目标模板文本向量拼接,以及将所述语义相似文本向量与所述目标模板文本向量拼接,得到多个拼接后的文本向量。
本申请实施例中提供了一种可能的实现方式,所述训练单元360还用于:
将所述多个拼接后的文本向量输入预先构建的预训练语言模型,对所述预训练语言模型进行训练,在训练过程中,随机遮蔽所述多个拼接后的文本向量中各拼接后的文本向量的词语,所述预训练语言模型通过对被遮蔽的词语进行预测得到预测结果,将预测结果与所述各拼接后的文本向量对应的标签数据进行比对,进而根据比对结果对预训练语言模型的参数进行调整,得到训练后的用户意图识别模型。
本申请实施例中提供了一种可能的实现方式,如图4所示,上文图3展示的装置还可以包括识别回复单元410,用于响应于外呼机器人的外呼对话,获取用户交互文本;将所述用户交互文本输入到训练后的用户意图识别模型,识别用户意图;根据识别出的用户意图生成回复句子,将回复句子作为所述用户交互文本的回复内容。
基于同一发明构思,本申请实施例还提供了一种电子设备,包括处理器和存储器,存储器中存储有计算机程序,处理器被设置为运行计算机程序以执行上述任意一个实施例的基于外呼机器人的用户意图识别模型的训练方法。
在示例性的实施例中,提供了一种电子设备,如图5所示,图5所示的电子设备500包括:处理器501和存储器503。其中,处理器501和存储器503相连,如通过总线502相连。可选地,电子设备500还可以包括收发器504。需要说明的是,实际应用中收发器504不限于一个,该电子设备500的结构并不构成对本申请实施例的限定。
处理器501可以是CPU(Central Processing Unit,中心处理器),通用处理器,DSP(Digital Signal Processor,数据信号处理器),ASIC(Application SpecificIntegrated Circuit,专用集成电路),FPGA(Field Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器501也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线502可包括一通路,在上述组件之间传送信息。总线502可以是PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(ExtendedIndustry Standard Architecture,扩展工业标准结构)总线等。总线502可以分为地址总线、数据总线、控制总线等。为便于表示,图5中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器503可以是ROM(Read Only Memory,只读存储器)或可存储静态信息和指令的其他类型的静态存储设备,RAM(Random Access Memory,随机存取存储器)或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM(Electrically ErasableProgrammable Read Only Memory,电可擦可编程只读存储器)、CD-ROM(Compact DiscRead Only Memory,只读光盘)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
存储器503用于存储执行本申请方案的计算机程序代码,并由处理器501来控制执行。处理器501用于执行存储器503中存储的计算机程序代码,以实现前述方法实施例所示的内容。
其中,电子设备包括但不限于:移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图5示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
基于同一发明构思,本申请实施例还提供了一种存储介质,该存储介质中存储有计算机程序,其中,计算机程序被设置为运行时执行上述任意一个实施例的基于外呼机器人的用户意图识别模型的训练方法。
所属领域的技术人员可以清楚地了解到,上述描述的系统、装置、模块的具体工作过程,可以参考前述方法实施例中的对应过程,为简洁起见,在此不另赘述。
本领域普通技术人员可以理解:本申请的技术方案本质上或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,其包括若干程序指令,用以使得一电子设备(例如个人计算机,服务器,或者网络设备等)在运行所述程序指令时执行本申请各实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM)、随机存取存储器(RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,实现前述方法实施例的全部或部分步骤可以通过程序指令相关的硬件(诸如个人计算机,服务器,或者网络设备等的电子设备)来完成,所述程序指令可以存储于一计算机可读取存储介质中,当所述程序指令被电子设备的处理器执行时,所述电子设备执行本申请各实施例所述方法的全部或部分步骤。
以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:在本申请的精神和原则之内,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案脱离本申请的保护范围。
Claims (10)
1.一种基于外呼机器人的用户意图识别模型的训练方法,其特征在于,包括:
获取用户与外呼机器人交互过程中用户的原始文本信息;
对所述原始文本信息进行向量化处理,生成原始文本向量和语义相似文本向量;
设计提示模板,生成提示模板文本;
对所述提示模板文本进行向量化处理,生成模板文本向量;
将所述原始文本向量和所述语义相似文本向量,分别与所述模板文本向量进行拼接处理,得到多个拼接后的文本向量;
将所述多个拼接后的文本向量输入预先构建的预训练语言模型,对所述预训练语言模型进行训练,得到训练后的用户意图识别模型。
2.根据权利要求1所述的方法,其特征在于,对所述原始文本信息进行向量化处理,生成原始文本向量和语义相似文本向量,包括:
将所述原始文本信息经过预设的神经网络的第一编码模块,生成原始文本向量;
将所述原始文本信息经过预设的神经网络的第二编码模块,生成语义相似文本向量,其中所述第二编码模块是在所述第一编码模块中随机关闭掉一个或多个神经元的连接得到。
3.根据权利要求1或2所述的方法,其特征在于,设计提示模板,生成提示模板文本,包括:
构建样本的原始标签的映射集;
基于所述原始标签的映射集,设计提示模板,生成提示模板文本。
4.根据权利要求1或2所述的方法,其特征在于,对所述提示模板文本进行向量化处理,生成模板文本向量,包括:
将所述提示模板文本经过预设的神经网络的第一编码模块,生成模板文本向量。
5.根据权利要求1或2所述的方法,其特征在于,若所述模板文本向量包括多个,将所述原始文本向量和所述语义相似文本向量,分别与所述模板文本向量进行拼接处理,得到多个拼接后的文本向量,包括:
根据所述原始文本向量对应的原始标签,在多个所述模板文本向量查找与所述原始文本向量对应的原始标签匹配的目标模板文本向量;
将所述原始文本向量与所述目标模板文本向量拼接,以及将所述语义相似文本向量与所述目标模板文本向量拼接,得到多个拼接后的文本向量。
6.根据权利要求1或2所述的方法,其特征在于,将所述多个拼接后的文本向量输入预先构建的预训练语言模型,对所述预训练语言模型进行训练,得到训练后的用户意图识别模型,包括:
将所述多个拼接后的文本向量输入预先构建的预训练语言模型,对所述预训练语言模型进行训练,在训练过程中,随机遮蔽所述多个拼接后的文本向量中各拼接后的文本向量的词语,所述预训练语言模型通过对被遮蔽的词语进行预测得到预测结果,将预测结果与所述各拼接后的文本向量对应的标签数据进行比对,进而根据比对结果对预训练语言模型的参数进行调整,得到训练后的用户意图识别模型。
7.根据权利要求1或2所述的方法,其特征在于,在得到训练后的用户意图识别模型之后,所述方法还包括:
响应于外呼机器人的外呼对话,获取用户交互文本;
将所述用户交互文本输入到训练后的用户意图识别模型,识别用户意图;
根据识别出的用户意图生成回复句子,将回复句子作为所述用户交互文本的回复内容。
8.一种基于外呼机器人的用户意图识别模型的训练装置,其特征在于,包括:
获取单元,用于获取用户与外呼机器人交互过程中用户的原始文本信息;
第一生成单元,用于对所述原始文本信息进行向量化处理,生成原始文本向量和语义相似文本向量;
第二生成单元,用于设计提示模板,生成提示模板文本;
第三生成单元,用于对所述提示模板文本进行向量化处理,生成模板文本向量;
拼接单元,用于将所述原始文本向量和所述语义相似文本向量,分别与所述模板文本向量进行拼接处理,得到多个拼接后的文本向量;
训练单元,用于将所述多个拼接后的文本向量输入预先构建的预训练语言模型,对所述预训练语言模型进行训练,得到训练后的用户意图识别模型。
9.一种电子设备,其特征在于,包括处理器和存储器,其中,所述存储器中存储有计算机程序,所述处理器被配置为运行所述计算机程序以执行权利要求1至7中任一项所述的基于外呼机器人的用户意图识别模型的训练方法。
10.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被配置为运行时执行权利要求1至7中任一项所述的基于外呼机器人的用户意图识别模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310651480.7A CN116384411B (zh) | 2023-06-05 | 2023-06-05 | 基于外呼机器人的用户意图识别模型的训练方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310651480.7A CN116384411B (zh) | 2023-06-05 | 2023-06-05 | 基于外呼机器人的用户意图识别模型的训练方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116384411A CN116384411A (zh) | 2023-07-04 |
CN116384411B true CN116384411B (zh) | 2023-07-25 |
Family
ID=86963718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310651480.7A Active CN116384411B (zh) | 2023-06-05 | 2023-06-05 | 基于外呼机器人的用户意图识别模型的训练方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116384411B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116911314B (zh) * | 2023-09-13 | 2023-12-19 | 北京中关村科金技术有限公司 | 意图识别模型的训练方法、会话意图识别方法及系统 |
CN116911289B (zh) * | 2023-09-13 | 2024-01-02 | 中电科大数据研究院有限公司 | 政务领域大模型可信文本生成方法、装置及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408278A (zh) * | 2021-06-22 | 2021-09-17 | 平安科技(深圳)有限公司 | 意图识别方法、装置、设备及存储介质 |
WO2022105115A1 (zh) * | 2020-11-17 | 2022-05-27 | 平安科技(深圳)有限公司 | 问答对匹配方法、装置、电子设备及存储介质 |
CN114565104A (zh) * | 2022-03-01 | 2022-05-31 | 腾讯科技(深圳)有限公司 | 语言模型的预训练方法、结果推荐方法及相关装置 |
CN115640394A (zh) * | 2022-09-09 | 2023-01-24 | 平安科技(深圳)有限公司 | 文本分类方法、文本分类装置、计算机设备及存储介质 |
WO2023065544A1 (zh) * | 2021-10-18 | 2023-04-27 | 平安科技(深圳)有限公司 | 意图分类方法、装置、电子设备及计算机可读存储介质 |
CN116259060A (zh) * | 2023-02-17 | 2023-06-13 | 马上消费金融股份有限公司 | 图像分类模型的训练方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111951805A (zh) * | 2020-07-10 | 2020-11-17 | 华为技术有限公司 | 一种文本数据处理方法及装置 |
-
2023
- 2023-06-05 CN CN202310651480.7A patent/CN116384411B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022105115A1 (zh) * | 2020-11-17 | 2022-05-27 | 平安科技(深圳)有限公司 | 问答对匹配方法、装置、电子设备及存储介质 |
CN113408278A (zh) * | 2021-06-22 | 2021-09-17 | 平安科技(深圳)有限公司 | 意图识别方法、装置、设备及存储介质 |
WO2023065544A1 (zh) * | 2021-10-18 | 2023-04-27 | 平安科技(深圳)有限公司 | 意图分类方法、装置、电子设备及计算机可读存储介质 |
CN114565104A (zh) * | 2022-03-01 | 2022-05-31 | 腾讯科技(深圳)有限公司 | 语言模型的预训练方法、结果推荐方法及相关装置 |
CN115640394A (zh) * | 2022-09-09 | 2023-01-24 | 平安科技(深圳)有限公司 | 文本分类方法、文本分类装置、计算机设备及存储介质 |
CN116259060A (zh) * | 2023-02-17 | 2023-06-13 | 马上消费金融股份有限公司 | 图像分类模型的训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116384411A (zh) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kamath et al. | Deep learning for NLP and speech recognition | |
CN116384411B (zh) | 基于外呼机器人的用户意图识别模型的训练方法和装置 | |
US20230080671A1 (en) | User intention recognition method and apparatus based on statement context relationship prediction | |
Wöllmer et al. | Combining long short-term memory and dynamic bayesian networks for incremental emotion-sensitive artificial listening | |
CN110379409B (zh) | 语音合成方法、系统、终端设备和可读存储介质 | |
CN110457449B (zh) | 在线训练模型的方法、装置、设备及存储介质 | |
Kumar et al. | A novel semantic approach for intelligent response generation using emotion detection incorporating NPMI measure | |
Tajane et al. | AI based chat-bot using azure cognitive services | |
CN113505198A (zh) | 关键词驱动的生成式对话回复方法、装置及电子设备 | |
CN114880472A (zh) | 数据处理方法、装置及设备 | |
CN113255328A (zh) | 语言模型的训练方法及应用方法 | |
CN112908315B (zh) | 一种基于声音特征和语音识别的问答意图判断方法 | |
CN112667803A (zh) | 一种文本情感分类方法及装置 | |
US20230351121A1 (en) | Method and system for generating conversation flows | |
Kounte et al. | Analysis of Intelligent Machines using Deep learning and Natural Language Processing | |
CN117496945A (zh) | 语音合成模型的训练方法、语音处理方法及装置 | |
CN109241262B (zh) | 基于关键词生成回复语句的方法及装置 | |
CN116127316A (zh) | 模型的训练方法、文本摘要生成方法及相关设备 | |
Ng et al. | The investigation of different loss functions with capsule networks for speech emotion recognition | |
CN114662496A (zh) | 信息识别方法、装置、设备、存储介质及产品 | |
CN113157920A (zh) | 一种基于机器阅读理解范式的方面级情感分析方法及系统 | |
CN112579768A (zh) | 一种情感分类模型训练方法、文本情感分类方法及装置 | |
Alissa et al. | Sentiment analysis for open domain conversational agent | |
US11966704B1 (en) | Techniques for verifying a veracity of machine learning outputs | |
Segu et al. | Prediction of emotional condition through dialog narratives using deep learning approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |