CN112612894B - 意图识别模型的训练方法、装置、计算机设备和存储介质 - Google Patents
意图识别模型的训练方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN112612894B CN112612894B CN202011594565.9A CN202011594565A CN112612894B CN 112612894 B CN112612894 B CN 112612894B CN 202011594565 A CN202011594565 A CN 202011594565A CN 112612894 B CN112612894 B CN 112612894B
- Authority
- CN
- China
- Prior art keywords
- text
- sensitive
- intention recognition
- recognition model
- intention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本申请涉及人工智能技术领域,提供一种意图识别模型的训练方法、装置、计算机设备和存储介质,方法包括:获取敏感文本及正常文本;基于随机马赛克处理的方式对敏感文本进行文本扩充处理;将指定敏感文本与正常文本作为训练样本,并获取与训练样本对应的上下文文本数据;将训练样本及上下文文本数据作为初始意图识别模型的输入,以意图标签作为初始意图识别模型的输出进行模型训练,得到第一意图识别模型;基于测试样本数据验证第一意图识别模型;若验证通过,将第一意图识别模型作为目标意图识别模型。本申请能缓解样本类别不平衡的问题,增加训练模型的泛化能力。本申请还可以应用于区块链领域,上述目标意图识别模型等数据可以存储于区块链上。
Description
技术领域
本申请涉及人工智能技术领域,具体涉及一种意图识别模型的训练方法、装置、计算机设备和存储介质。
背景技术
目前智能客服系统已经应用在各个领域,包括金融领域,电商领域、通信领域等等。在客服与客户的对话过程中,客户有可能在不经意间透露包含敏感信息的内容,如何确定客户在对话过程中的语音是否具有敏感内容,成为了一个亟需解决的问题。随着深度学习的流行,基于神经网络模型的方法已经成为主流的敏感内容检测方法,即采用预训练的识别模型识别出客户在对话中输入的语音的意图,再基于意图判别出该语音中是否存在敏感内容。然而,由于客户绝大多数时间说的都是正常内容的语音,只有极少部分为带有敏感内容的语音,从而导致用于训练生成识别模型的正负样本存在类别不平衡的问题,进而使得训练生成的识别模型的泛化能力较差,且生成的模型的意图预测效果较差。
发明内容
本申请的主要目的为提供一种意图识别模型的训练方法、装置、计算机设备和存储介质,旨在解决现有的用于训练生成识别模型的正负样本存在类别不平衡的问题,进而使得训练生成的识别模型的泛化能力较差,且生成的模型的意图预测效果较差的技术问题。
本申请提出一种意图识别模型的训练方法,所述方法包括步骤:
基于历史通话录音数据获取敏感文本以及正常文本,其中,所述敏感文本为包含敏感内容的文本,所述正常文本为不包含敏感内容的文本,且所述敏感文本与所述正常文本携带有对应的意图标签;
基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值,其中,所述随机马赛克处理是指以预设概率对文本中的每个字使用特殊符号进行替换处理;
对所述扩充后的敏感文本中除所述敏感文本外的其他文本进行标注处理,得到对应的指定敏感文本,以使所述其他文本携带对应的意图标签;
将所述指定敏感文本与所述正常文本作为训练样本,并获取与所述训练样本对应的上下文文本数据;
将所述训练样本以及与所述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与所述训练样本对应的意图标签作为所述初始意图识别模型的输出,对所述初始意图识别模型进行训练,得到训练完成的第一意图识别模型;
获取预设的测试样本数据,将所述测试样本数据输入至所述第一意图识别模型,接收所述第一意图识别模型输出的与所述测试样本数据对应的识别结果;
基于所述识别结果对所述第一意图识别模型进行验证,判断是否验证通过;
若验证通过,将所述第一意图识别模型作为目标意图识别模型,以通过所述目标意图识别模型对新输入的客户对话文本数据进行意图识别。
可选地,所述基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值的步骤,包括:
获取所述敏感文本的第三数量;
计算所述第三数量与所述第一数量的差值,得到第四数量;
采用随机马赛克处理的方式对所述敏感文本进行处理,基于所述敏感文本生成与所述第四数量相同的多个第一敏感文本;
使用所述第一敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
可选地,所述基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值的步骤,包括:
获取预设文本,其中,所述预设文本为无意义的文本;
使用所述预设文本对所述敏感文本进行拼接处理,得到拼接后的第二敏感文本;
采用随机马赛克处理的方式对所述第二敏感文本进行处理,基于所述第二敏感文本生成与所述第四数量相同的多个第三敏感文本;
使用所述第三敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
可选地,所述基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值的步骤,包括:
获取预设敏感文本,其中,所述预设敏感文本为所有所述敏感文本中的任意一个文本;
从所有所述敏感文本中筛选出与所述预设敏感文本具有相同的意图标签的同类敏感文本;
使用所述同类敏感文本对所述预设敏感文本进行拼接处理,得到拼接后的第四敏感文本;
采用随机马赛克处理的方式对所述第四敏感文本进行处理,基于所述第四敏感文本生成与所述第四数量相同的多个第五敏感文本;
使用所述第五敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
可选地,所述将所述训练样本以及与所述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与所述训练样本对应的意图标签作为所述初始意图识别模型的输出,对所述初始意图识别模型进行训练,得到训练完成的第一意图识别模型的步骤,包括:
将所述训练样本输入至所述初始意图识别模型中的嵌入层,通过所述嵌入层对所述训练样本进行编码处理,将所述训练样本转换为对应的第一特征向量;
将所述第一特征向量作为所述初始意图识别模型中的卷积神经网络层的输入,通过所述卷积神经网络层对所述第一特征向量进行卷积处理后生成对应的第二特征向量;
将所述第二特征向量作为所述初始意图识别模型中的最大池化层的输入,通过所述最大池化层对所述第二特征向量进行池化处理后生成对应的第三特征向量;
将与所述训练样本对应的所述上下文文本数据输入至所述初始意图识别模型中的嵌入层,通过所述嵌入层对所述上下文文本数据进行编码处理,将所述上下文文本数据转换为对应的第四特征向量;
对所述第三特征向量与所述第四特征向量进行拼接处理,生成对应的第五向量;
将所述第五特征向量输入至所述初始意图识别模型中的全连接层,通过预设的softmax函数计算出所述训练样本的目标意图属于与所述训练样本对应的意图标签的概率值;
基于所述概率值,判断预设的损失函数是否收敛;
若所述损失函数收敛,则判定完成训练过程,并得到训练完成的第一意图识别模型。
可选地,所述将所述第一意图识别模型作为目标意图识别模型,以通过所述目标意图识别模型对新输入的客户对话文本数据进行意图识别的步骤之后,包括:
获取用户在通话过程中输入的语音信息;
将所述语音信息转换为对应的文本信息;
对所述文本信息进行预处理,得到处理后的目标文本信息;
获取与所述语音信息对应的上下文语音信息,并将所述上下文语音信息转换为对应的目标上下文文本信息;
将所述目标文本信息与所述目标上下文文本信息输入至所述目标意图识别模型,基于所述目标意图识别模型对所述目标文本信息进行意图识别,获取与所述语音信息对应的目标意图识别结果;
判断所述目标意图识别结果是否属于预设的敏感意图;
若所述目标意图识别结果属于所述敏感意图,生成与所述目标意图识别结果对应的提醒信息。
可选地,所述将所述目标文本信息与所述目标上下文文本信息输入至所述目标意图识别模型,基于所述目标意图识别模型对所述目标文本信息进行意图识别,获取与所述语音信息对应的目标意图识别结果的步骤,包括:
获取预设数量的指定目标意图识别模型,其中,预设数量的所述指定目标意图识别模型均是使用所述训练样本训练生成的,所述预设数量大于1;
将所述目标文本信息与所述目标上下文文本信息分别输入至各所述指定目标意图识别模型中,以通过各所述指定目标意图识别模型分别输出与所述目标文本信息对应的第一意图识别结果;
接收各所述目标意图识别模型分别返回的所述第一意图识别结果;
对所有所述第一意图识别结果进行分析处理,筛选出在所有所述第一意图识别结果中出现次数最多的第二意图识别结果;
将所述第二意图识别结果作为所述目标意图识别结果。
本申请还提供一种意图识别模型的训练装置,包括:
第一获取模块,用于基于历史通话录音数据获取敏感文本以及正常文本,其中,所述敏感文本为包含敏感内容的文本,所述正常文本为不包含敏感内容的文本,且所述敏感文本与所述正常文本携带有对应的意图标签;
第一处理模块,用于基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值,其中,所述随机马赛克处理是指以预设概率对文本中的每个字使用特殊符号进行替换处理;
第二处理模块,用于对所述扩充后的敏感文本中除所述敏感文本外的其他文本进行标注处理,得到对应的指定敏感文本,以使所述其他文本携带对应的意图标签;
第二获取模块,用于将所述指定敏感文本与所述正常文本作为训练样本,并获取与所述训练样本对应的上下文文本数据;
训练模块,用于将所述训练样本以及与所述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与所述训练样本对应的意图标签作为所述初始意图识别模型的输出,对所述初始意图识别模型进行训练,得到训练完成的第一意图识别模型;
第三处理模块,用于获取预设的测试样本数据,将所述测试样本数据输入至所述第一意图识别模型,接收所述第一意图识别模型输出的与所述测试样本数据对应的识别结果;
第一判断模块,用于基于所述识别结果对所述第一意图识别模型进行验证,判断是否验证通过;
确定模块,用于若验证通过,将所述第一意图识别模型作为目标意图识别模型,以通过所述目标意图识别模型对新输入的客户对话文本数据进行意图识别。
本申请还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
本申请还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
本申请中提供的意图识别模型的训练方法、装置、计算机设备和存储介质,具有以下有益效果:
本申请中提供的意图识别模型的训练方法、装置、计算机设备和存储介质,针对现有的用于训练生成识别模型的正负样本存在类别不平衡的问题,本申请通过采用随机马赛克的方式对敏感文本进行文本扩充处理,相当于给敏感内容数据加了随机噪声,以增加不重复的敏感内容的文本数据,可以有效缓解正负样本类别不平衡的问题。进而通过使用扩充后的样本数据来训练模型,有利于增加训练生成的模型的泛化能力,有效提升训练生成的模型的意图预测的效果。使得后续能利用生成的目标意图识别模型来准确快速地实现对于用户输入的语音信息的意图识别,进而根据意图识别结果来快速判别出用户输入的语音信息是否包含有敏感信息。
附图说明
图1是本申请一实施例的意图识别模型的训练方法的流程示意图;
图2是本申请一实施例的意图识别模型的训练装置的结构示意图;
图3是本申请一实施例的计算机设备的结构示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用于解释本申请,并不用于限定本申请。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
参照图1,本申请一实施例的意图识别模型的训练方法,包括:
S1:基于历史通话录音数据获取敏感文本以及正常文本,其中,所述敏感文本为包含敏感内容的文本,所述正常文本为不包含敏感内容的文本,且所述敏感文本与所述正常文本携带有对应的意图标签;
S2:基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值,其中,所述随机马赛克处理是指以预设概率对文本中的每个字使用特殊符号进行替换处理;
S3:对所述扩充后的敏感文本中除所述敏感文本外的其他文本进行标注处理,得到对应的指定敏感文本,以使所述其他文本携带对应的意图标签;
S4:将所述指定敏感文本与所述正常文本作为训练样本,并获取与所述训练样本对应的上下文文本数据;
S5:将所述训练样本以及与所述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与所述训练样本对应的意图标签作为所述初始意图识别模型的输出,对所述初始意图识别模型进行训练,得到训练完成的第一意图识别模型;
S6:获取预设的测试样本数据,将所述测试样本数据输入至所述第一意图识别模型,接收所述第一意图识别模型输出的与所述测试样本数据对应的识别结果;
S7:基于所述识别结果对所述第一意图识别模型进行验证,判断是否验证通过;
S8:若验证通过,将所述第一意图识别模型作为目标意图识别模型,以通过所述目标意图识别模型对新输入的客户对话文本数据进行意图识别。
如上述步骤S1至S8所述,本方法实施例的执行主体为一种意图识别模型的训练装置。在实际应用中,上述意图识别模型的训练装置可以通过虚拟装置,例如软件代码实现,也可以通过写入或集成有相关执行代码的实体装置实现,且可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。本实施例中的意图识别模型的训练装置,能够解决意图识别模型的训练样本不平衡的问题。具体地,首先基于历史通话录音数据获取敏感文本以及正常文本,其中,上述敏感文本为包含敏感内容的文本,上述正常文本为不包含敏感内容的文本,且上述敏感文本与上述正常文本携带有对应的意图标签。敏感文本对应敏感意图,举例地,敏感文本可为包括咒骂内容、抱怨内容、投诉内容等敏感内容的文本。另外,上述历史通话录音数据是指已存储的客户与客服之间的通话录音数据,通过获取上述历史通话录音数据,进而可将历史通话录音数据转换拆分成包含敏感内容的敏感文本,以及不包含敏感内容的正常文本。然后基于随机马赛克处理的方式,按照预设规则对上述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使上述扩充后的敏感文本的第一数量与上述正常文本的第二数量之间的比值等于预设比值,上述随机马赛克处理是指以预设概率对文本中的每个字使用特殊符号进行替换处理。对上述预设概率不作具体限定,例如可设为15%,上述特殊符号可为[MASK],对上述预设比值不作具体限定,优选可设为0.1,通过将扩充后的敏感文本与正常文本的数量比设置为1:10,可以提高模型训练的泛化性。另外,上述预设规则可包括多种情况,例如可直接对上述敏感文本进行随机马赛克处理以进行文本扩充处理;或者可以先使用无意义的文本对敏感文本进行拼接处理,再对拼接文本进行随机马赛克处理以进行文本扩充处理;或者还可以先使用相同意图的其他敏感文本对敏感文本进行拼接处理,再对拼接文本进行随机马赛克处理以进行文本扩充处理,等等。之后对上述扩充后的敏感文本中除上述敏感文本外的其他文本进行标注处理,得到对应的指定敏感文本,以使上述其他文本携带对应的意图标签。其中,上述其他文本的意图标签与生成其他文本对应的敏感文本的意图标签相同。在得到了指定敏感文本后,将上述指定敏感文本与上述正常文本作为训练样本,并获取与上述训练样本对应的上下文文本数据。其中,同样可基于上述历史通话录音数据来获取到与上述训练样本对应的上下文文本数据,上下文文本数据能够体现与上述训练样本对应的对话流程的业务场景。上述上下文文本数据是为了更好地识别训练样本的意图而引入的特征,由于上下文对话数据的主题基本是一致的,因而上下文文本数据能够侧面反映用户意图,对训练样本的意图识别起到良好的辅助作用。后续将上述训练样本以及与上述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与上述训练样本对应的意图标签作为上述初始意图识别模型的输出,对上述初始意图识别模型进行训练,得到训练完成的第一意图识别模型。其中,可以采用cnn模型、lstm模型、transformer模型等作为上述初始意图识别模型。由于cnn模型能够检测类似关键词的信息,并且训练和推理速度极快,适用于高并发场景,优选采用cnn模型作为上述初始意图识别模型。在得到了上述第一意图识别模型后,获取预设的测试样本数据,将上述测试样本数据输入至上述第一意图识别模型,接收上述第一意图识别模型输出的与上述测试样本数据对应的识别结果。其中,上述测试样本数据包含有预先收集的与上述训练样本不同的数据样本,以及与该数据样本对应的上下文数据。并基于上述识别结果对上述第一意图识别模型进行验证,判断是否验证通过。如果验证通过,将上述第一意图识别模型作为目标意图识别模型,以通过上述目标意图识别模型对新输入的客户对话文本数据进行意图识别。其中,如果验证不通过,则会对基于上述模型训练过程对上述初始意图识别模型进行重新训练,直至训练生成满足验证要求的第二意图识别模型,并将该第二意图识别模型作为上述目标意图识别模型。针对现有存在的正负样本类别不平衡的问题,本实施例通过采用随机马赛克的方式对敏感文本进行文本扩充处理,相当于给敏感内容数据加了随机噪声,以增加不重复的敏感内容的文本数据,可以有效缓解正负样本类别不平衡的问题。进而通过使用扩充后的样本数据来训练模型,有利于增加训练生成的模型的泛化能力,有效提升训练生成的模型的意图预测的效果。使得后续能利用生成的目标意图识别模型来准确快速地实现对于用户输入的语音信息的意图识别,进而根据意图识别结果来快速判别出用户输入的语音信息是否包含有敏感信息。
进一步地,本申请一实施例中,上述步骤S2,包括:
S200:获取所述敏感文本的第三数量;
S201:计算所述第三数量与所述第一数量的差值,得到第四数量;
S202:采用随机马赛克处理的方式对所述敏感文本进行处理,基于所述敏感文本生成与所述第四数量相同的多个第一敏感文本;
S203:使用所述第一敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
如上述步骤S200至S203所述,上述基于随机马赛克处理的方式,按照预设规则对上述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使上述扩充后的敏感文本的第一数量与上述正常文本的第二数量之间的比值等于预设比值的步骤,具体可包括:首先获取上述敏感文本的第三数量。然后计算上述第三数量与上述第一数量的差值,得到第四数量。其中,上述第四数量即为需要生成的用于扩充敏感文本的文本数量。之后采用随机马赛克处理的方式对上述敏感文本进行处理,基于上述敏感文本生成与上述第四数量相同的多个第一敏感文本。优选地,采用随机马赛克处理的方式对上述敏感文本进行处理的步骤可包括:从敏感文本中包括的每一个字中随机筛选出一个目标字,然后使用特殊符号对敏感文本中的该目标字进行替换,得到替换后的敏感文本,后续再以上述预设概率对敏感文本中除上述目标字外的其他字进行特殊符号替换处理。举例地,上述特殊符号可为[MASK],如果任意一个敏感文本为“我不想透露”这句话,通过对这句话进行随机马赛克处理后,可得到处理后的敏感文本为“我不[MASK]透露”,通过使用特殊符号对敏感文本中的字进行替换以生成与原本的敏感文本不同的新的文本数据,从而实现了与敏感文本对应的不重复的敏感内容的文本数据的增加。另外,对于基于上述敏感文本生成与上述第四数量相同的多个第一敏感文本的具体生成方式不作限定,例如可从上述敏感文本中选择出一定数量的目标敏感文本,然后分别对该目标敏感文本进行随机马赛克处理,直至生成与上述第四数量相同的多个第一敏感文本。上述一定数量可根据实际需求进行设置,当然还可以采用其他的实现方式,在此不作过多叙述。最后使用上述第一敏感文本对上述敏感文本进行扩充处理,得到上述扩充后的敏感文本。其中,上述扩充后的敏感文本包括上述第一敏感文本与上述敏感文本。由于在通话过程中,客户表达正常内容的语音数量远远大于包含敏感内容的语音数量,针对正负样本类别不平衡的问题,本实施例通过采用随机马赛克的方式对上述敏感文本进行文本扩充处理,相当于给敏感内容数据加了随机噪声,以增加不重复的敏感内容的文本数据,可以有效缓解正负样本类别不平衡的问题,增加训练生成的模型的泛化能力,有利于提升后续训练生成的模型的意图预测的效果。
进一步地,本申请一实施例中,上述步骤S2,包括:
S210:获取预设文本,其中,所述预设文本为无意义的文本;
S211:使用所述预设文本对所述敏感文本进行拼接处理,得到拼接后的第二敏感文本;
S212:采用随机马赛克处理的方式对所述第二敏感文本进行处理,基于所述第二敏感文本生成与所述第四数量相同的多个第三敏感文本;
S213:使用所述第三敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
如上述步骤S210至S213所述,上述基于随机马赛克处理的方式,按照预设规则对上述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使上述扩充后的敏感文本的第一数量与上述正常文本的第二数量之间的比值等于预设比值的步骤,具体可包括:首先获取预设文本,其中,上述预设文本为无意义的文本,该无意义的文本具体可为无意义的语气词。然后使用上述预设文本对上述敏感文本进行拼接处理,得到拼接后的第二敏感文本。其中,由于预设文本为无意义的文本,通过使用上述预设文本对上述敏感文本进行拼接处理,生成的拼接后的第二敏感文本仍然是上述敏感文本对应的敏感意图,即第二敏感文本仍属于包含敏感内容的敏感文本。举例地,如果任一敏感文本为“我不想透露”这句话,预设文本为“什么啊”,则两者拼接后的拼接文本为“什么啊,我不想透露”。之后采用随机马赛克处理的方式对上述第二敏感文本进行处理,基于上述第二敏感文本生成与上述第四数量相同的多个第三敏感文本。举例地,对上述“什么啊,我不想透露”的拼接文本进行随机马赛克处理后,如可得到处理后的拼接文本为“什么啊,我不想透[MASK]”。另外,对于基于上述第二敏感文本生成与上述第四数量相同的多个第三敏感文本的具体生成方式不作限定,例如可从上述第二敏感文本中选择出一定数量的目标第二敏感文本,然后分别对该目标第二敏感文本进行随机马赛克处理,直至生成与上述第四数量相同的多个第三敏感文本。上述一定数量可根据实际需求进行设置,当然还可以采用其他的实现方式,在此不作过多叙述。最后使用上述第三敏感文本对上述敏感文本进行扩充处理,得到上述扩充后的敏感文本。本实施例通过采用随机马赛克的方式对上述敏感文本进行文本扩充处理,相当于给敏感内容数据加了随机噪声,以增加不重复的敏感内容的文本数据,可以有效缓解正负样本类别不平衡的问题,增加训练生成的模型的泛化能力,有利于提升后续训练生成的模型的意图预测的效果。
进一步地,本申请一实施例中,上述步骤S2,包括:
S220:获取预设敏感文本,其中,所述预设敏感文本为所有所述敏感文本中的任意一个文本;
S221:从所有所述敏感文本中筛选出与所述预设敏感文本具有相同的意图标签的同类敏感文本;
S222:使用所述同类敏感文本对所述预设敏感文本进行拼接处理,得到拼接后的第四敏感文本;
S223:采用随机马赛克处理的方式对所述第四敏感文本进行处理,基于所述第四敏感文本生成与所述第四数量相同的多个第五敏感文本;
S224:使用所述第五敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
如上述步骤S220至S224所述,上述基于随机马赛克处理的方式,按照预设规则对上述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使上述扩充后的敏感文本的第一数量与上述正常文本的第二数量之间的比值等于预设比值的步骤,具体可包括:首先获取预设敏感文本,其中,上述预设敏感文本为所有上述敏感文本中的任意一个文本。然后从所有上述敏感文本中筛选出与上述预设敏感文本具有相同的意图标签的同类敏感文本,并使用上述同类敏感文本对上述预设敏感文本进行拼接处理,得到拼接后的第四敏感文本。其中,在分类任务中,如果两个类别相同的句子拼接在一起,其类别还是同一个。使用上述同类敏感文本对上述预设敏感文本进行拼接处理,得到的拼接后的第四敏感文本仍然对应着该预设敏感文本的敏感意图。举例地,假如预设敏感文本为“我不想透露”这句话,则该预设敏感文本的意图标签为抱怨意图,具有与该预设敏感文本的意图标签相同的同类敏感文本为“你好烦啊”,则两者拼接后的拼接文本为“你好烦啊,我不想透露”。之后采用随机马赛克处理的方式对上述第四敏感文本进行处理,基于上述第四敏感文本生成与上述第四数量相同的多个第五敏感文本。举例地,对“你好烦啊,我不想透露”的拼接文本进行随机马赛克处理后,如可得到处理后的拼接文本为“你好烦啊,我[MASK][MASK]透露”。另外,对于基于上述第四敏感文本生成与上述第四数量相同的多个第五敏感文本的具体生成方式不作限定,例如可从上述第四敏感文本中选择出一定数量的目标第四敏感文本,然后分别对该目标第四敏感文本进行随机马赛克处理,直至生成与上述第四数量相同的多个第五敏感文本。上述一定数量可根据实际需求进行设置,当然还可以采用其他的实现方式,在此不作过多叙述。最后使用上述第五敏感文本对上述敏感文本进行扩充处理,得到上述扩充后的敏感文本。本实施例通过采用随机马赛克的方式对上述敏感文本进行文本扩充处理,相当于给敏感内容数据加了随机噪声,以增加不重复的敏感内容的文本数据,可以有效缓解正负样本类别不平衡的问题,增加训练生成的模型的泛化能力,有利于提升后续训练生成的模型的意图预测的效果。
进一步地,本申请一实施例中,上述步骤S5,包括:
S500:将所述训练样本输入至所述初始意图识别模型中的嵌入层,通过所述嵌入层对所述训练样本进行编码处理,将所述训练样本转换为对应的第一特征向量;
S501:将所述第一特征向量作为所述初始意图识别模型中的卷积神经网络层的输入,通过所述卷积神经网络层对所述第一特征向量进行卷积处理后生成对应的第二特征向量;
S502:将所述第二特征向量作为所述初始意图识别模型中的最大池化层的输入,通过所述最大池化层对所述第二特征向量进行池化处理后生成对应的第三特征向量;
S503:将与所述训练样本对应的所述上下文文本数据输入至所述初始意图识别模型中的嵌入层,通过所述嵌入层对所述上下文文本数据进行编码处理,将所述上下文文本数据转换为对应的第四特征向量;
S504:对所述第三特征向量与所述第四特征向量进行拼接处理,生成对应的第五向量;
S505:将所述第五特征向量输入至所述初始意图识别模型中的全连接层,通过预设的softmax函数计算出所述训练样本的目标意图属于与所述训练样本对应的意图标签的概率值;
S506:基于所述概率值,判断预设的损失函数是否收敛;
S507:若所述损失函数收敛,则判定完成训练过程,并得到训练完成的第一意图识别模型。
如上述步骤S500至S507所述,上述将上述训练样本以及与上述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与上述训练样本对应的意图标签作为上述初始意图识别模型的输出,对上述初始意图识别模型进行训练,得到训练完成的第一意图识别模型的步骤,具体可包括:首先将上述训练样本输入至上述初始意图识别模型中的嵌入层,通过上述嵌入层对上述训练样本进行编码处理,将上述训练样本转换为对应的第一特征向量。其中,通过嵌入层对上述训练样本进行编码处理,可以将上述训练样本转换为对应的稠密的词向量,即上述第一特征向量,嵌入层的转化公式为:A=EmbeddingMatrix(x),其中A为第一特征向量,EmbeddingMatrix为词向量表,其内部为V×d的矩阵,V为字的数量,d为词向量的维度,x为训练样本,通过该转化公式可将训练样本中每一个字随机初始化为均值为0,方差为1的向量。然后将上述第一特征向量作为上述初始意图识别模型中的卷积神经网络层的输入,通过上述卷积神经网络层对上述第一特征向量进行卷积处理后生成对应的第二特征向量。其中,在得到第一特征向量A后,将其送入到卷积神经网络层(CNN)中,继续抽取训练样本的特征,假设卷积神经网络层采用的卷积核是宽度为d,高度为h的矩阵ω,对于嵌入层输出的特征矩阵A∈Rsxd,则卷积神经网络层的卷积操作公式可用如下公式表示:μi=f(oi+b1),oi=ω*A[i:i+h-1],i=1,2,···,s-h+1,其中,s表示训练样本的长度,d表示词向量的维度,f是Relu激活函数,b1为偏差项。之后将上述第二特征向量作为上述初始意图识别模型中的最大池化层的输入,通过上述最大池化层对上述第二特征向量进行池化处理后生成对应的第三特征向量。其中,设卷积层抽取训练样本的特征之后得到的第二特征向量为u,然后经过一个最大池化层,得到第三特征向量p1,最大池化层的计算公式为:p1=max(ui),i=1,2,..,s。同时将与上述训练样本对应的上述上下文文本数据输入至上述初始意图识别模型中的嵌入层,通过上述嵌入层对上述上下文文本数据进行编码处理,将上述上下文文本数据转换为对应的第四特征向量。其中,参考嵌入层对于上述训练样本的处理,对于与上述训练样本对应的上下文文本数据,同样使用嵌入层进行编码处理,维度可为5维,生成对应的第四特征向量p2。另外,上述上下文文本数据是为了更好地识别训练样本的意图而引入的特征,由于上下文对话数据的主题基本是一致的,因而上下文文本数据能够侧面反映用户意图,对训练样本的意图识别起到良好的辅助作用。后续对上述第三特征向量与上述第四特征向量进行拼接处理,生成对应的第五向量。其中,可采用公式p=[p1,p2]对上述第三特征向量与上述第四特征向量进行拼接处理,得到第五特征向量p。在得到了第五向量后,再将上述第五特征向量输入至上述初始意图识别模型中的全连接层,通过预设的softmax函数计算出上述训练样本的目标意图属于与上述训练样本对应的意图标签的概率值。其中,可基于公式计算出上述训练样本的目标意图属于与上述训练样本对应的意图标签的概率值,其中,Wp为全连接层中向量p的参数矩阵,b2为偏差项。最后基于上述概率值,判断预设的损失函数是否收敛。其中,上述损失函数为: 为训练样本的目标意图属于与上述训练样本对应的意图标签的概率值,y为训练样本对应的意图标签。另外,判断损失函数收敛的过程包括:指将全连接层中生成的概率值代入至损失函数中,然后判断该损失函数是否达到预设损失值,如果达到该预设损失值则判定损失函数收敛,如果未达到预设损失值则判定损失函数未收敛。如果上述损失函数收敛,则判定完成训练过程,并得到训练完成的第一意图识别模型。其中,如果上述损失函数未收敛,则进一步根据上述损失函数采用反向传播算法调整上述初始意图识别模型的权值和偏置,继续执行上述训练步骤,直至该损失函数收敛,进而完成训练过程。上述反向传播算法可参照现有的算法。本实施通过训练得到训练完成的第一意图识别模型,有利于后续基于该第一意图识别模型进一步确定出满足需求的目标意图识别模型,使得后续能够利用该目标意图识别模型快速准确地实现对于用户输入的语音信息的意图识别。
进一步地,本申请一实施例中,上述步骤S8之后,包括:
S800:获取用户在通话过程中输入的语音信息;
S801:将所述语音信息转换为对应的文本信息;
S802:对所述文本信息进行预处理,得到处理后的目标文本信息;
S803:获取与所述语音信息对应的上下文语音信息,并将所述上下文语音信息转换为对应的目标上下文文本信息;
S804:将所述目标文本信息与所述目标上下文文本信息输入至所述目标意图识别模型,基于所述目标意图识别模型对所述目标文本信息进行意图识别,获取与所述语音信息对应的目标意图识别结果;
S805:判断所述目标意图识别结果是否属于预设的敏感意图;
S806:若所述目标意图识别结果属于所述敏感意图,生成与所述目标意图识别结果对应的提醒信息。
如上述步骤S800至S806所述,在训练生成了上述目标意图识别模型后,可基于该目标意图识别模型对用户在当前通话过程中输入的语音信息进行意图识别处理。具体地,首先获取用户在通话过程中输入的语音信息,并将上述语音信息转换为对应的文本信息。其中,可使用ASR技术将语音信息转化为文本信息。然后对上述文本信息进行预处理,得到处理后的目标文本信息。其中,上述预处理的过程可包括去除标点符号,去除特殊字符,分词,去停用词等处理。之后获取与上述语音信息对应的上下文语音信息,并将上述上下文语音信息转换为对应的目标上下文文本信息。其中,上述上下文语音信息仅包括用户当前输入的语音信息的历史输入信息,即上文语音信息,且对于上下文语音信息的转换过程可参考上述语音信息。另外,上述目标上下文文本信息能够体现当前通话过程的业务场景,能够侧面反映用户意图,对语音信息的意图识别起到良好的辅助作用。后续将上述目标文本信息与上述目标上下文文本信息输入至上述目标意图识别模型,基于上述目标意图识别模型对上述目标文本信息进行意图识别,获取与上述语音信息对应的目标意图识别结果。并判断上述目标意图识别结果是否属于预设的敏感意图。其中,对于上述预设的敏感意图不作具体限定,例如可包括投诉意图、抱怨意图、咒骂意图等。如果上述目标意图识别结果属于上述敏感意图,生成与上述目标意图识别结果对应的提醒信息。其中,上述提醒信息至少包括该语音信息与上述敏感意图。本实施例在接收到用户在通话过程中输入的语音信息后,通过训练生成的目标意图识别模型便能基于输入的目标文本信息与上述目标上下文文本信息,准确地生成与用户输入的语音信息对应的目标意图,能够实现在不同的对话流程中,即使客户说同样的话也能判断不同的意图,有效提高意图识别的准确性与效率。另外,当与用户输入的语音信息包含有敏感意图,则会生成与上述目标意图识别结果对应的提醒信息,以使得后续客服能够基于该提醒信息对用户采取相应的应对措施,以保证业务交流的顺利进行。
进一步地,本申请一实施例中,上述步骤S804,包括:
S8040:获取预设数量的指定目标意图识别模型,其中,预设数量的所述指定目标意图识别模型均是使用所述训练样本训练生成的,所述预设数量大于1;
S8041:将所述目标文本信息与所述目标上下文文本信息分别输入至各所述指定目标意图识别模型中,以通过各所述指定目标意图识别模型分别输出与所述目标文本信息对应的第一意图识别结果;
S8042:接收各所述目标意图识别模型分别返回的所述第一意图识别结果;
S8043:对所有所述第一意图识别结果进行分析处理,筛选出在所有所述第一意图识别结果中出现次数最多的第二意图识别结果;
S8044:将所述第二意图识别结果作为所述目标意图识别结果。
如上述步骤S8040至S8044所述,上述将上述目标文本信息与上述目标上下文文本信息输入至上述目标意图识别模型,基于上述目标意图识别模型对上述目标文本信息进行意图识别,获取与上述语音信息对应的目标意图识别结果的步骤,具体可包括:首先获取预设数量的指定目标意图识别模型,其中,预设数量的上述指定目标意图识别模型均是使用上述训练样本训练生成的,且上述预设数量大于1,例如可设置为3个、4个、5个等。另外,对于输入的相同的目标文本信息,不同的目标意图识别模型对该目标文本信息进行识别后生成的意图识别结果可能并不完全相同。当只使用一个意图识别模型对该目标文本信息进行意图识别时,其所识别出的意图信息的准确率较低,而利用上述预设数量的意图识别模型来分别对目标文本信息进行意图识别,可以提高所得到的与目标文本信息对应的意图识别结果的准确性,避免仅利用一个意图识别模型来对目标文本信息进行意图识别而导致识别误差过大。然后将上述目标文本信息与上述目标上下文文本信息分别输入至各上述指定目标意图识别模型中,以通过各上述指定目标意图识别模型分别输出与上述目标文本信息对应的第一意图识别结果。之后接收各上述目标意图识别模型分别返回的上述第一意图识别结果。最后对所有上述第一意图识别结果进行分析处理,筛选出在所有上述第一意图识别结果中出现次数最多的第二意图识别结果,并将上述第二意图识别结果作为上述目标意图识别结果。本实施例通过使用预设数量的指定目标意图识别模型分别对上述目标文本信息进行意图识别,然后收集各指定目标意图识别模型分别返回的意图识别结果,并将出现次数最多的意图识别结果作为用户最终的意图识别结果,从而可以避免仅利用一个意图识别模型来对目标文本信息进行意图识别而导致识别误差过大,有效地提高了对于目标文本信息的意图识别的准确率。进一步地,上述预设数量优选采用奇数,通过将上述预设数量设置为奇数个,可以避免出现当采用偶数个,例如4个时每两个预测出的意图识别结果相同,而与其余两个预测出的不同的情况,进而导致无法确定出与目标文本信息对应的意图的情况。通过采用奇数个的意图识别模型来对上述目标文本信息进行意图识别,可以保证意图识别模型所预测出的与目标文本信息对应的意图能够更加准确。
本申请实施例中的意图识别模型的训练方法还可以应用于区块链领域,如将上述目标意图识别模型等数据存储于区块链上。通过使用区块链来对上述目标意图识别模型进行存储和管理,能够有效地保证上述目标意图识别模型的安全性与不可篡改性。
上述区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
区块链底层平台可以包括用户管理、基础服务、智能合约以及运营监控等处理模块。其中,用户管理模块负责所有区块链参与者的身份信息管理,包括维护公私钥生成(账户管理)、密钥管理以及用户真实身份和区块链地址对应关系维护(权限管理)等,并且在授权的情况下,监管和审计某些真实身份的交易情况,提供风险控制的规则配置(风控审计);基础服务模块部署在所有区块链节点设备上,用来验证业务请求的有效性,并对有效请求完成共识后记录到存储上,对于一个新的业务请求,基础服务先对接口适配解析和鉴权处理(接口适配),然后通过共识算法将业务信息加密(共识管理),在加密之后完整一致的传输至共享账本上(网络通信),并进行记录存储;智能合约模块负责合约的注册发行以及合约触发和合约执行,开发人员可以通过某种编程语言定义合约逻辑,发布到区块链上(合约注册),根据合约条款的逻辑,调用密钥或者其它的事件触发执行,完成合约逻辑,同时还提供对合约升级注销的功能;运营监控模块主要负责产品发布过程中的部署、配置的修改、合约设置、云适配以及产品运行中的实时状态的可视化输出,例如:告警、监控网络情况、监控节点设备健康状态等。
参照图2,本申请一实施例中还提供了一种意图识别模型的训练装置,包括:
第一获取模块1,用于基于历史通话录音数据获取敏感文本以及正常文本,其中,所述敏感文本为包含敏感内容的文本,所述正常文本为不包含敏感内容的文本,且所述敏感文本与所述正常文本携带有对应的意图标签;
第一处理模块2,用于基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值,其中,所述随机马赛克处理是指以预设概率对文本中的每个字使用特殊符号进行替换处理;
第二处理模块3,用于对所述扩充后的敏感文本中除所述敏感文本外的其他文本进行标注处理,得到对应的指定敏感文本,以使所述其他文本携带对应的意图标签;
第二获取模块4,用于将所述指定敏感文本与所述正常文本作为训练样本,并获取与所述训练样本对应的上下文文本数据;
训练模块5,用于将所述训练样本以及与所述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与所述训练样本对应的意图标签作为所述初始意图识别模型的输出,对所述初始意图识别模型进行训练,得到训练完成的第一意图识别模型;
第三处理模块6,用于获取预设的测试样本数据,将所述测试样本数据输入至所述第一意图识别模型,接收所述第一意图识别模型输出的与所述测试样本数据对应的识别结果;
第一判断模块7,用于基于所述识别结果对所述第一意图识别模型进行验证,判断是否验证通过;
确定模块8,用于若验证通过,将所述第一意图识别模型作为目标意图识别模型,以通过所述目标意图识别模型对新输入的客户对话文本数据进行意图识别。
本实施例中,上述意图识别模型的训练装置中的第一获取模块、第一处理模块、第二处理模块、第二获取模块、训练模块、第三处理模块、第一判断模块与确定模块的功能和作用的实现过程具体详见上述意图识别模型的训练方法中对应步骤S1至S8的实现过程,在此不再赘述。
进一步地,本申请一实施例中,上述第一处理模块,包括:
第一获取单元,用于获取所述敏感文本的第三数量;
第一计算单元,用于计算所述第三数量与所述第一数量的差值,得到第四数量;
第一处理单元,用于采用随机马赛克处理的方式对所述敏感文本进行处理,基于所述敏感文本生成与所述第四数量相同的多个第一敏感文本;
第一扩充单元,用于使用所述第一敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
本实施例中,上述意图识别模型的训练装置中的第一获取单元、第一计算单元、第一处理单元与第一扩充单元的功能和作用的实现过程具体详见上述意图识别模型的训练方法中对应步骤S200至S203的实现过程,在此不再赘述。
进一步地,本申请一实施例中,上述第一处理模块,包括:
第二获取单元,用于获取预设文本,其中,所述预设文本为无意义的文本;
第一拼接单元,用于使用所述预设文本对所述敏感文本进行拼接处理,得到拼接后的第二敏感文本;
第二处理单元,用于采用随机马赛克处理的方式对所述第二敏感文本进行处理,基于所述第二敏感文本生成与所述第四数量相同的多个第三敏感文本;
第二扩充单元,用于使用所述第三敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
本实施例中,上述意图识别模型的训练装置中的第二获取单元、第一拼接单元、第二处理单元与第二扩充单元的功能和作用的实现过程具体详见上述意图识别模型的训练方法中对应步骤S210至S213的实现过程,在此不再赘述。
进一步地,本申请一实施例中,上述第一处理模块,包括:
第三获取单元,用于获取预设敏感文本,其中,所述预设敏感文本为所有所述敏感文本中的任意一个文本;
第一筛选单元,用于从所有所述敏感文本中筛选出与所述预设敏感文本具有相同的意图标签的同类敏感文本;
第二拼接单元,用于使用所述同类敏感文本对所述预设敏感文本进行拼接处理,得到拼接后的第四敏感文本;
第三处理单元,用于采用随机马赛克处理的方式对所述第四敏感文本进行处理,基于所述第四敏感文本生成与所述第四数量相同的多个第五敏感文本;
第三扩充单元,用于使用所述第五敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
本实施例中,上述意图识别模型的训练装置中的第三获取单元、第一筛选单元、第二拼接单元、三处理单元与第三扩充单元的功能和作用的实现过程具体详见上述意图识别模型的训练方法中对应步骤S220至S224的实现过程,在此不再赘述。
进一步地,本申请一实施例中,上述训练模块,包括:
第一转换单元,用于将所述训练样本输入至所述初始意图识别模型中的嵌入层,通过所述嵌入层对所述训练样本进行编码处理,将所述训练样本转换为对应的第一特征向量;
第一生成单元,用于将所述第一特征向量作为所述初始意图识别模型中的卷积神经网络层的输入,通过所述卷积神经网络层对所述第一特征向量进行卷积处理后生成对应的第二特征向量;
第二生成单元,用于将所述第二特征向量作为所述初始意图识别模型中的最大池化层的输入,通过所述最大池化层对所述第二特征向量进行池化处理后生成对应的第三特征向量;
第二转换单元,用于将与所述训练样本对应的所述上下文文本数据输入至所述初始意图识别模型中的嵌入层,通过所述嵌入层对所述上下文文本数据进行编码处理,将所述上下文文本数据转换为对应的第四特征向量;
第三生成单元,用于对所述第三特征向量与所述第四特征向量进行拼接处理,生成对应的第五向量;
第二计算单元,用于将所述第五特征向量输入至所述初始意图识别模型中的全连接层,通过预设的softmax函数计算出所述训练样本的目标意图属于与所述训练样本对应的意图标签的概率值;
判断单元,用于基于所述概率值,判断预设的损失函数是否收敛;
判定单元,用于若所述损失函数收敛,则判定完成训练过程,并得到训练完成的第一意图识别模型。
本实施例中,上述意图识别模型的训练装置中的第一转换单元、第一生成单元、第二生成单元、第二转换单元、第三生成单元、第二计算单元、判断单元与判定单元的功能和作用的实现过程具体详见上述意图识别模型的训练方法中对应步骤S500至S507的实现过程,在此不再赘述。
进一步地,本申请一实施例中,上述意图识别模型的训练装置,包括:
第三获取模块,用于获取用户在通话过程中输入的语音信息;
第一转换模块,用于将所述语音信息转换为对应的文本信息;
第四处理模块,用于对所述文本信息进行预处理,得到处理后的目标文本信息;
第二转换模块,用于获取与所述语音信息对应的上下文语音信息,并将所述上下文语音信息转换为对应的目标上下文文本信息;
识别模块,用于将所述目标文本信息与所述目标上下文文本信息输入至所述目标意图识别模型,基于所述目标意图识别模型对所述目标文本信息进行意图识别,获取与所述语音信息对应的目标意图识别结果;
第二判断模块,用于判断所述目标意图识别结果是否属于预设的敏感意图;
生成模块,用于若所述目标意图识别结果属于所述敏感意图,生成与所述目标意图识别结果对应的提醒信息。
本实施例中,上述意图识别模型的训练装置中的第三获取模块、第一转换模块、第四处理模块、第二转换模块、识别模块、第二判断模块与生成模块的功能和作用的实现过程具体详见上述意图识别模型的训练方法中对应步骤S800至S806的实现过程,在此不再赘述。
进一步地,本申请一实施例中,上述识别模块,包括:
第四获取单元,用于获取预设数量的指定目标意图识别模型,其中,预设数量的所述指定目标意图识别模型均是使用所述训练样本训练生成的,所述预设数量大于1;
输出单元,用于将所述目标文本信息与所述目标上下文文本信息分别输入至各所述指定目标意图识别模型中,以通过各所述指定目标意图识别模型分别输出与所述目标文本信息对应的第一意图识别结果;
接收单元,用于接收各所述目标意图识别模型分别返回的所述第一意图识别结果;
第二筛选单元,用于对所有所述第一意图识别结果进行分析处理,筛选出在所有所述第一意图识别结果中出现次数最多的第二意图识别结果;
确定单元,用于将所述第二意图识别结果作为所述目标意图识别结果。
本实施例中,上述意图识别模型的训练装置中的第四获取单元、输出单元、接收单元、第二筛选单元与确定单元的功能和作用的实现过程具体详见上述意图识别模型的训练方法中对应步骤S8040至S8044的实现过程,在此不再赘述。
参照图3,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏、输入装置和数据库。其中,该计算机设备设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括存储介质、内存储器。该存储介质存储有操作系统、计算机程序和数据库。该内存储器为存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储训练样本与目标意图识别模型。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机设备的显示屏是计算机中必不可少的一种图文输出设备,用于将数字信号转换为光信号,使文字与图形在显示屏的屏幕上显示出来。该计算机设备的输入装置是计算机与用户或其他设备之间进行信息交换的主要装置,用于把数据、指令及某些标志信息等输送到计算机中去。该计算机程序被处理器执行时以实现一种意图识别模型的训练方法。
上述处理器执行上述意图识别模型的训练方法的步骤:
基于历史通话录音数据获取敏感文本以及正常文本,其中,所述敏感文本为包含敏感内容的文本,所述正常文本为不包含敏感内容的文本,且所述敏感文本与所述正常文本携带有对应的意图标签;
基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值,其中,所述随机马赛克处理是指以预设概率对文本中的每个字使用特殊符号进行替换处理;
对所述扩充后的敏感文本中除所述敏感文本外的其他文本进行标注处理,得到对应的指定敏感文本,以使所述其他文本携带对应的意图标签;
将所述指定敏感文本与所述正常文本作为训练样本,并获取与所述训练样本对应的上下文文本数据;
将所述训练样本以及与所述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与所述训练样本对应的意图标签作为所述初始意图识别模型的输出,对所述初始意图识别模型进行训练,得到训练完成的第一意图识别模型;
获取预设的测试样本数据,将所述测试样本数据输入至所述第一意图识别模型,接收所述第一意图识别模型输出的与所述测试样本数据对应的识别结果;
基于所述识别结果对所述第一意图识别模型进行验证,判断是否验证通过;
若验证通过,将所述第一意图识别模型作为目标意图识别模型,以通过所述目标意图识别模型对新输入的客户对话文本数据进行意图识别。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的装置、计算机设备的限定。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种意图识别模型的训练方法,具体为:
基于历史通话录音数据获取敏感文本以及正常文本,其中,所述敏感文本为包含敏感内容的文本,所述正常文本为不包含敏感内容的文本,且所述敏感文本与所述正常文本携带有对应的意图标签;
基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值,其中,所述随机马赛克处理是指以预设概率对文本中的每个字使用特殊符号进行替换处理;
对所述扩充后的敏感文本中除所述敏感文本外的其他文本进行标注处理,得到对应的指定敏感文本,以使所述其他文本携带对应的意图标签;
将所述指定敏感文本与所述正常文本作为训练样本,并获取与所述训练样本对应的上下文文本数据;
将所述训练样本以及与所述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与所述训练样本对应的意图标签作为所述初始意图识别模型的输出,对所述初始意图识别模型进行训练,得到训练完成的第一意图识别模型;
获取预设的测试样本数据,将所述测试样本数据输入至所述第一意图识别模型,接收所述第一意图识别模型输出的与所述测试样本数据对应的识别结果;
基于所述识别结果对所述第一意图识别模型进行验证,判断是否验证通过;
若验证通过,将所述第一意图识别模型作为目标意图识别模型,以通过所述目标意图识别模型对新输入的客户对话文本数据进行意图识别。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM通过多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其它变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种意图识别模型的训练方法,其特征在于,包括:
基于历史通话录音数据获取敏感文本以及正常文本,其中,所述敏感文本为包含敏感内容的文本,所述正常文本为不包含敏感内容的文本,且所述敏感文本与所述正常文本携带有对应的意图标签;
基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值,其中,所述随机马赛克处理是指以预设概率对文本中的每个字使用特殊符号进行替换处理;
对所述扩充后的敏感文本中除所述敏感文本外的其他文本进行标注处理,得到对应的指定敏感文本,以使所述其他文本携带对应的意图标签;
将所述指定敏感文本与所述正常文本作为训练样本,并获取与所述训练样本对应的上下文文本数据;
将所述训练样本以及与所述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与所述训练样本对应的意图标签作为所述初始意图识别模型的输出,对所述初始意图识别模型进行训练,得到训练完成的第一意图识别模型;
获取预设的测试样本数据,将所述测试样本数据输入至所述第一意图识别模型,接收所述第一意图识别模型输出的与所述测试样本数据对应的识别结果;
基于所述识别结果对所述第一意图识别模型进行验证,判断是否验证通过;
若验证通过,将所述第一意图识别模型作为目标意图识别模型,以通过所述目标意图识别模型对新输入的客户对话文本数据进行意图识别。
2.根据权利要求1所述的意图识别模型的训练方法,其特征在于,所述基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值的步骤,包括:
获取所述敏感文本的第三数量;
计算所述第三数量与所述第一数量的差值,得到第四数量;
采用随机马赛克处理的方式对所述敏感文本进行处理,基于所述敏感文本生成与所述第四数量相同的多个第一敏感文本;
使用所述第一敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
3.根据权利要求2所述的意图识别模型的训练方法,其特征在于,所述基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值的步骤,包括:
获取预设文本,其中,所述预设文本为无意义的文本;
使用所述预设文本对所述敏感文本进行拼接处理,得到拼接后的第二敏感文本;
采用随机马赛克处理的方式对所述第二敏感文本进行处理,基于所述第二敏感文本生成与所述第四数量相同的多个第三敏感文本;
使用所述第三敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
4.根据权利要求2所述的意图识别模型的训练方法,其特征在于,所述基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值的步骤,包括:
获取预设敏感文本,其中,所述预设敏感文本为所有所述敏感文本中的任意一个文本;
从所有所述敏感文本中筛选出与所述预设敏感文本具有相同的意图标签的同类敏感文本;
使用所述同类敏感文本对所述预设敏感文本进行拼接处理,得到拼接后的第四敏感文本;
采用随机马赛克处理的方式对所述第四敏感文本进行处理,基于所述第四敏感文本生成与所述第四数量相同的多个第五敏感文本;
使用所述第五敏感文本对所述敏感文本进行扩充处理,得到所述扩充后的敏感文本。
5.根据权利要求1所述的意图识别模型的训练方法,其特征在于,所述将所述训练样本以及与所述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与所述训练样本对应的意图标签作为所述初始意图识别模型的输出,对所述初始意图识别模型进行训练,得到训练完成的第一意图识别模型的步骤,包括:
将所述训练样本输入至所述初始意图识别模型中的嵌入层,通过所述嵌入层对所述训练样本进行编码处理,将所述训练样本转换为对应的第一特征向量;
将所述第一特征向量作为所述初始意图识别模型中的卷积神经网络层的输入,通过所述卷积神经网络层对所述第一特征向量进行卷积处理后生成对应的第二特征向量;
将所述第二特征向量作为所述初始意图识别模型中的最大池化层的输入,通过所述最大池化层对所述第二特征向量进行池化处理后生成对应的第三特征向量;
将与所述训练样本对应的所述上下文文本数据输入至所述初始意图识别模型中的嵌入层,通过所述嵌入层对所述上下文文本数据进行编码处理,将所述上下文文本数据转换为对应的第四特征向量;
对所述第三特征向量与所述第四特征向量进行拼接处理,生成对应的第五特征 向量;
将所述第五特征向量输入至所述初始意图识别模型中的全连接层,通过预设的softmax函数计算出所述训练样本的目标意图属于与所述训练样本对应的意图标签的概率值;
基于所述概率值,判断预设的损失函数是否收敛;
若所述损失函数收敛,则判定完成训练过程,并得到训练完成的第一意图识别模型。
6.根据权利要求1所述的意图识别模型的训练方法,其特征在于,所述将所述第一意图识别模型作为目标意图识别模型,以通过所述目标意图识别模型对新输入的客户对话文本数据进行意图识别的步骤之后,包括:
获取用户在通话过程中输入的语音信息;
将所述语音信息转换为对应的文本信息;
对所述文本信息进行预处理,得到处理后的目标文本信息;
获取与所述语音信息对应的上下文语音信息,并将所述上下文语音信息转换为对应的目标上下文文本信息;
将所述目标文本信息与所述目标上下文文本信息输入至所述目标意图识别模型,基于所述目标意图识别模型对所述目标文本信息进行意图识别,获取与所述语音信息对应的目标意图识别结果;
判断所述目标意图识别结果是否属于预设的敏感意图;
若所述目标意图识别结果属于所述敏感意图,生成与所述目标意图识别结果对应的提醒信息。
7.根据权利要求6所述的意图识别模型的训练方法,其特征在于,所述将所述目标文本信息与所述目标上下文文本信息输入至所述目标意图识别模型,基于所述目标意图识别模型对所述目标文本信息进行意图识别,获取与所述语音信息对应的目标意图识别结果的步骤,包括:
获取预设数量的指定目标意图识别模型,其中,预设数量的所述指定目标意图识别模型均是使用所述训练样本训练生成的,所述预设数量大于1;
将所述目标文本信息与所述目标上下文文本信息分别输入至各所述指定目标意图识别模型中,以通过各所述指定目标意图识别模型分别输出与所述目标文本信息对应的第一意图识别结果;
接收各所述目标意图识别模型分别返回的所述第一意图识别结果;
对所有所述第一意图识别结果进行分析处理,筛选出在所有所述第一意图识别结果中出现次数最多的第二意图识别结果;
将所述第二意图识别结果作为所述目标意图识别结果。
8.一种意图识别模型的训练装置,其特征在于,包括:
第一获取模块,用于基于历史通话录音数据获取敏感文本以及正常文本,其中,所述敏感文本为包含敏感内容的文本,所述正常文本为不包含敏感内容的文本,且所述敏感文本与所述正常文本携带有对应的意图标签;
第一处理模块,用于基于随机马赛克处理的方式,按照预设规则对所述敏感文本进行文本扩充处理,得到扩充后的敏感文本,以使所述扩充后的敏感文本的第一数量与所述正常文本的第二数量之间的比值等于预设比值,其中,所述随机马赛克处理是指以预设概率对文本中的每个字使用特殊符号进行替换处理;
第二处理模块,用于对所述扩充后的敏感文本中除所述敏感文本外的其他文本进行标注处理,得到对应的指定敏感文本,以使所述其他文本携带对应的意图标签;
第二获取模块,用于将所述指定敏感文本与所述正常文本作为训练样本,并获取与所述训练样本对应的上下文文本数据;
训练模块,用于将所述训练样本以及与所述训练样本对应的上下文文本数据作为预设的初始意图识别模型的输入,以与所述训练样本对应的意图标签作为所述初始意图识别模型的输出,对所述初始意图识别模型进行训练,得到训练完成的第一意图识别模型;
第三处理模块,用于获取预设的测试样本数据,将所述测试样本数据输入至所述第一意图识别模型,接收所述第一意图识别模型输出的与所述测试样本数据对应的识别结果;
第一判断模块,用于基于所述识别结果对所述第一意图识别模型进行验证,判断是否验证通过;
确定模块,用于若验证通过,将所述第一意图识别模型作为目标意图识别模型,以通过所述目标意图识别模型对新输入的客户对话文本数据进行意图识别。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011594565.9A CN112612894B (zh) | 2020-12-29 | 2020-12-29 | 意图识别模型的训练方法、装置、计算机设备和存储介质 |
PCT/CN2021/091710 WO2022142041A1 (zh) | 2020-12-29 | 2021-04-30 | 意图识别模型的训练方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011594565.9A CN112612894B (zh) | 2020-12-29 | 2020-12-29 | 意图识别模型的训练方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112612894A CN112612894A (zh) | 2021-04-06 |
CN112612894B true CN112612894B (zh) | 2022-03-18 |
Family
ID=75248862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011594565.9A Active CN112612894B (zh) | 2020-12-29 | 2020-12-29 | 意图识别模型的训练方法、装置、计算机设备和存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112612894B (zh) |
WO (1) | WO2022142041A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112612894B (zh) * | 2020-12-29 | 2022-03-18 | 平安科技(深圳)有限公司 | 意图识别模型的训练方法、装置、计算机设备和存储介质 |
CN113076080B (zh) * | 2021-04-21 | 2022-05-17 | 百度在线网络技术(北京)有限公司 | 模型训练方法和装置、意图识别方法和装置 |
CN113268593A (zh) * | 2021-05-18 | 2021-08-17 | Oppo广东移动通信有限公司 | 意图分类和模型的训练方法、装置、终端及存储介质 |
CN113407922B (zh) * | 2021-07-14 | 2022-06-03 | 上海万向区块链股份公司 | 基于区块链技术的智能意图识别分析系统及方法 |
CN113742399B (zh) * | 2021-09-07 | 2023-10-17 | 天之翼(苏州)科技有限公司 | 基于云边协同的数据溯源方法及系统 |
CN113987569A (zh) * | 2021-10-14 | 2022-01-28 | 武汉联影医疗科技有限公司 | 反爬虫方法、装置、计算机设备和存储介质 |
CN115033676B (zh) * | 2022-06-22 | 2024-04-26 | 支付宝(杭州)信息技术有限公司 | 一种意图识别模型训练及用户意图识别方法及装置 |
CN115346306B (zh) * | 2022-08-26 | 2024-06-11 | 中国银行股份有限公司 | 一种污损纸币识别方法及装置 |
CN116796290B (zh) * | 2023-08-23 | 2024-03-29 | 江西尚通科技发展有限公司 | 一种对话意图识别方法、系统、计算机及存储介质 |
CN117094705B (zh) * | 2023-10-19 | 2024-01-02 | 国网安徽省电力有限公司电力科学研究院 | 一种应用于高压开关柜缺陷预测的方法、系统及设备 |
CN117609462B (zh) * | 2023-11-29 | 2024-07-09 | 广州方舟信息科技有限公司 | 药品问答方法、药品问答机器人、电子设备和存储介质 |
CN117932005B (zh) * | 2024-03-21 | 2024-06-04 | 成都市技师学院(成都工贸职业技术学院、成都市高级技工学校、成都铁路工程学校) | 一种基于人工智能的语音交互方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106897459A (zh) * | 2016-12-14 | 2017-06-27 | 中国电子科技集团公司第三十研究所 | 一种基于半监督学习的文本敏感信息识别方法 |
CN109003624B (zh) * | 2018-06-29 | 2022-02-15 | 北京百度网讯科技有限公司 | 情绪识别方法、装置、计算机设备及存储介质 |
CN111368535B (zh) * | 2018-12-26 | 2024-01-16 | 珠海金山数字网络科技有限公司 | 一种敏感词识别方法、装置及设备 |
CN110175608A (zh) * | 2019-04-16 | 2019-08-27 | 中国平安财产保险股份有限公司 | 一种保险理赔附件处理方法及装置 |
CN110472224B (zh) * | 2019-06-24 | 2023-07-07 | 深圳追一科技有限公司 | 服务质量的检测方法、装置、计算机设备和存储介质 |
KR20190107289A (ko) * | 2019-08-30 | 2019-09-19 | 엘지전자 주식회사 | 인공지능 로봇 및 인공지능 로봇의 음성인식 방법 |
CN110807388B (zh) * | 2019-10-25 | 2021-06-08 | 深圳追一科技有限公司 | 交互方法、装置、终端设备及存储介质 |
CN111161740A (zh) * | 2019-12-31 | 2020-05-15 | 中国建设银行股份有限公司 | 意图识别模型训练方法、意图识别方法以及相关装置 |
CN111324727B (zh) * | 2020-02-19 | 2023-08-01 | 百度在线网络技术(北京)有限公司 | 用户意图识别方法、装置、设备和可读存储介质 |
CN111400495A (zh) * | 2020-03-17 | 2020-07-10 | 重庆邮电大学 | 一种基于模板特征的视频弹幕消费意图识别方法 |
CN111401037B (zh) * | 2020-06-05 | 2020-11-06 | 平安国际智慧城市科技股份有限公司 | 自然语言的生成方法、装置、电子设备及存储介质 |
CN111783434B (zh) * | 2020-07-10 | 2023-06-23 | 思必驰科技股份有限公司 | 提升回复生成模型抗噪能力的方法及系统 |
CN112612894B (zh) * | 2020-12-29 | 2022-03-18 | 平安科技(深圳)有限公司 | 意图识别模型的训练方法、装置、计算机设备和存储介质 |
-
2020
- 2020-12-29 CN CN202011594565.9A patent/CN112612894B/zh active Active
-
2021
- 2021-04-30 WO PCT/CN2021/091710 patent/WO2022142041A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022142041A1 (zh) | 2022-07-07 |
CN112612894A (zh) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112612894B (zh) | 意图识别模型的训练方法、装置、计算机设备和存储介质 | |
WO2021139283A1 (zh) | 基于深度学习技术的知识图谱问答方法、装置及设备 | |
CN113688221B (zh) | 基于模型的话术推荐方法、装置、计算机设备和存储介质 | |
CN111881291A (zh) | 一种文本情感分类方法及系统 | |
CN110704576B (zh) | 一种基于文本的实体关系抽取方法及装置 | |
CN111563144A (zh) | 基于语句前后关系预测的用户意图识别方法及装置 | |
CN112131888B (zh) | 分析语义情感的方法、装置、设备及存储介质 | |
CN113268974B (zh) | 多音字发音标注方法、装置、设备及存储介质 | |
CN112395861A (zh) | 中文文本的纠错方法、装置和计算机设备 | |
CN113254613B (zh) | 对话问答方法、装置、设备及存储介质 | |
CN114386436B (zh) | 文本数据的分析方法、模型训练方法、装置及计算机设备 | |
CN113204968B (zh) | 医学实体的概念识别方法、装置、设备及存储介质 | |
CN113177109B (zh) | 文本的弱标注方法、装置、设备以及存储介质 | |
CN112036172B (zh) | 基于模型的缩写数据的实体识别方法、装置和计算机设备 | |
CN113821587A (zh) | 文本相关性确定方法、模型训练方法、装置及存储介质 | |
CN113704410A (zh) | 情绪波动检测方法、装置、电子设备及存储介质 | |
CN115687934A (zh) | 意图识别方法、装置、计算机设备及存储介质 | |
CN113128196A (zh) | 文本信息处理方法及其装置、存储介质 | |
CN112364136B (zh) | 关键词生成方法、装置、设备及存储介质 | |
CN118262874A (zh) | 一种基于知识图谱的中医诊疗模型数据扩充系统及方法 | |
CN112948582A (zh) | 一种数据处理方法、装置、设备以及可读介质 | |
CN111694936A (zh) | 用于ai智能面试的识别的方法、装置、计算机设备及存储介质 | |
CN113064997B (zh) | 基于bert模型的意图分析方法、装置、设备及介质 | |
CN113627197B (zh) | 文本的意图识别方法、装置、设备及存储介质 | |
CN111883112B (zh) | 基于多模式标识的语义识别方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |