CN114116975A - 一种多意图识别方法及系统 - Google Patents
一种多意图识别方法及系统 Download PDFInfo
- Publication number
- CN114116975A CN114116975A CN202111401877.8A CN202111401877A CN114116975A CN 114116975 A CN114116975 A CN 114116975A CN 202111401877 A CN202111401877 A CN 202111401877A CN 114116975 A CN114116975 A CN 114116975A
- Authority
- CN
- China
- Prior art keywords
- intention
- statement
- obtaining
- network model
- capsule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种多意图识别方法及系统,其中,所述方法包括:获得第一多意图标注数据集;将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练;获得第一待识别数据;将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,获得当前场景意图集合;获得第一判断结果;根据所述第一判断结果,获得第一意图语句和第二意图语句;合并所述第一意图语句和所述第二意图语句,获得回复语句。解决了存在智能外呼语义理解技术是基于任务式的话术流程对话识别单意图,缺少针对用户多意图动态调整后续话术流程,理解用户意图耗时长,导致用户体验不佳的技术问题。
Description
技术领域
本发明涉及消息自然语言处理技术领域,具体涉及一种多意图识别方法及系统。
背景技术
随着人工智能技术在各行各业的加速落地,智能外呼系统应运而生,解决了在大话务量场景需求下传统人力运营呼叫中心人力不足、效率低下等问题,目前已广泛应用于金融、银行、电商等领域。目前多意图识别的现有技术主要有两种:一种是将多意图识别转换为多个单意图识别,如通过句法分析或断句模型将用户输入的语句分为多条子语句,再将每一条子语句依次输入单意图识别模型识别各个子语句的意图;另一种是利用编码器或预训练模型将用户的输入文本转换为句向量,然后将多意图识别问题作为多标签分类问题,利用深度学习的多标签分类模型判别用户的多种意图。
但本申请发明人在实现本申请实施例中发明技术方案的过程中,发现上述技术至少存在如下技术问题:
存在智能外呼语义理解技术是基于任务式的话术流程对话识别单意图,缺少针对用户多意图动态调整后续话术流程,理解用户意图耗时长,导致用户体验不佳的技术问题。
发明内容
针对现有技术中的缺陷,本申请实施例的目的是,通过提供一种多意图识别方法及系统,解决了现有技术中存在智能外呼语义理解技术是基于任务式的话术流程对话识别单意图,缺少针对用户多意图动态调整后续话术流程,理解用户意图耗时长,导致用户体验不佳的技术问题。达到了实现对用户话语的多意图识别,降低了人工标注成本,设计了多意图处理策略,能够对识别出的用户多个意图来动态调整后续的话术流程,减少对话轮次,提高人机交互效率,提升用户体验的技术效果。
第一方面,本申请实施例提供一种多意图识别方法,其中,所述方法包括:获得第一多意图标注数据集;将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练;获得第一待识别数据;将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,所述第一输出结果包括第一预测用户意图集合;根据所述第一预测用户意图集合,获得当前场景意图集合;判断所述当前场景意图集合中各意图之间是否存在依赖关系,获得第一判断结果;根据所述第一判断结果,获得第一意图语句和第二意图语句;合并所述第一意图语句和所述第二意图语句,获得回复语句。
另一方面,本申请还提供了一种多意图识别系统,其中,所述系统包括:第一获得单元,所述第一获得单元用于获得第一多意图标注数据集;第一执行单元,所述第一执行单元用于将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练;第二获得单元,所述第二获得单元用于获得第一待识别数据;第三获得单元,所述第三获得单元用于将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,所述第一输出结果包括第一预测用户意图集合;第四获得单元,所述第四获得单元用于根据所述第一预测用户意图集合,获得当前场景意图集合;第五获得单元,所述第五获得单元用于判断所述当前场景意图集合中各意图之间是否存在依赖关系,获得第一判断结果;第六获得单元,所述第六获得单元用于根据所述第一判断结果,获得第一意图语句和第二意图语句;第七获得单元,所述第七获得单元用于合并所述第一意图语句和所述第二意图语句,获得回复语句。
另一方面,本发明提供了一种多意图识别系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现第一方面所述方法的步骤。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
由于获得第一多意图标注数据集;将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练;获得第一待识别数据;将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,所述第一输出结果包括第一预测用户意图集合;根据所述第一预测用户意图集合,获得当前场景意图集合;判断所述当前场景意图集合中各意图之间是否存在依赖关系,获得第一判断结果;根据所述第一判断结果,获得第一意图语句和第二意图语句;合并所述第一意图语句和所述第二意图语句,获得回复语句的技术方案。本申请实施例通过提供了一种多意图识别方法及系统,达到了实现对用户话语的多意图识别,降低了人工标注成本,设计了多意图处理策略,能够对识别出的用户多个意图来动态调整后续的话术流程,减少对话轮次,提高人机交互效率,提升用户体验的技术效果。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
通过阅读参照以下附图对非限制性实施例所做的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本申请实施例一种多意图识别方法的流程示意图;
图2为本申请实施例一种多意图识别方法中的对胶囊网络模型进行训练的流程示意图;
图3为本申请实施例一种多意图识别方法中的获得第一预测用户意图集合的流程示意图;
图4为本申请实施例一种多意图识别方法中获得当前场景意图集合的流程示意图;
图5为本申请实施例一种多意图识别方法中的获得所述回复语句的流程示意图;
图6为本申请实施例一种多意图识别系统的结构示意图;
图7为本申请实施例示例性电子设备的结构示意图。
附图标记说明:第一获得单元11,第一执行单元12,第二获得单元13,第三获得单元14,第四获得单元15,第五获得单元16,第六获得单元17,第七获得单元18,总线300,接收器301,处理器302,发送器303,存储器304,总线接口305。
具体实施方式
本申请实施例通过提供一种多意图识别方法及系统,解决了现有技术中存在智能外呼语义理解技术是基于任务式的话术流程对话识别单意图,缺少针对用户多意图动态调整后续话术流程,理解用户意图耗时长,导致用户体验不佳的技术问题。达到了实现对用户话语的多意图识别,降低了人工标注成本,设计了多意图处理策略,能够对识别出的用户多个意图来动态调整后续的话术流程,减少对话轮次,提高人机交互效率,提升用户体验的技术效果。
下面,将参考附图详细的描述根据本申请的示例实施例。显然,所描述的实施例仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
随着人工智能技术在各行各业的加速落地,智能外呼系统应运而生,解决了在大话务量场景需求下传统人力运营呼叫中心人力不足、效率低下等问题,目前已广泛应用于金融、银行、电商等领域。目前多意图识别的现有技术主要有两种:一种是将多意图识别转换为多个单意图识别,如通过句法分析或断句模型将用户输入的语句分为多条子语句,再将每一条子语句依次输入单意图识别模型识别各个子语句的意图;另一种是利用编码器或预训练模型将用户的输入文本转换为句向量,然后将多意图识别问题作为多标签分类问题,利用深度学习的多标签分类模型判别用户的多种意图。现有技术中存在智能外呼语义理解技术是基于任务式的话术流程对话识别单意图,缺少针对用户多意图动态调整后续话术流程,理解用户意图耗时长,导致用户体验不佳的技术问题。
针对上述技术问题,本申请提供的技术方案总体思路如下:
本申请实施例提供一种多意图识别方法,其中,所述方法包括:获得第一多意图标注数据集;将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练;获得第一待识别数据;将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,所述第一输出结果包括第一预测用户意图集合;根据所述第一预测用户意图集合,获得当前场景意图集合;判断所述当前场景意图集合中各意图之间是否存在依赖关系,获得第一判断结果;根据所述第一判断结果,获得第一意图语句和第二意图语句;合并所述第一意图语句和所述第二意图语句,获得回复语句。
为了更好地理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
实施例一
如图1所示,本申请实施例提供了一种多意图识别方法,其中,所述方法包括:
步骤S100:获得第一多意图标注数据集;
步骤S200:将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练;
具体而言,所述第一多意图标注数据集为标注过的多种意图的数据资料,包括用户输入话语中的多种意图,例如“这是我的银行卡,但我已经不用这张卡了”,一句话表达了“本人用卡”和“已经不用此卡”两个意图,且所述第一多意图标注数据集可为小型训练标注数据集。胶囊网络(capsule network,CapsNet):胶囊网络将卷积神经网络(CNN)的标量输出特征检测器用矢量输出胶囊代替,并且通过动态路由来代替池化操作。相比于原来的CNN,胶囊网络会通过动态路由过程保留低层特征与高级特征之间的准确位置关系,从而能够更准确地建模文本。动态路由机制主要解决了低层胶囊连接到高层胶囊所需权重大小的问题。将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练。在小型数据集语义上就可以很好地利用训练数据进行模型训练,并且通过利用胶囊网络模型实现对用户话语的多意图识别,能够降低人工标注成本。
步骤S300:获得第一待识别数据;
步骤S400:将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,所述第一输出结果包括第一预测用户意图集合;
步骤S500:根据所述第一预测用户意图集合,获得当前场景意图集合;
具体而言,所述第一待识别数据为任何一个需要识别的数据信息,如可为确认用户身份、确认用户银行卡号等。将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,所述第一输出结果包括第一预测用户意图集合,即输出预测得到的全部用户意图。根据所述第一预测用户意图集合,获得当前场景意图集合,所述当前场景意图集合为当前用户意图集合所应用的场景,如金融、银行、电商等领域的实际应用场景。通过获得场景意图集合,使得在当前场景进行用户意图理解,能够加快理解用户意图的速度以及提高理解的准确率。
步骤S600:判断所述当前场景意图集合中各意图之间是否存在依赖关系,获得第一判断结果;
步骤S700:根据所述第一判断结果,获得第一意图语句和第二意图语句;
进一步的,所述根据所述第一判断结果,获得第一意图语句和第二意图语句,本申请实施例步骤S700还包括:
步骤S710:如果所述第一判断结果为所述当前场景意图集合中各所述意图之间存在依赖关系,根据依赖关系顺序处理并存储所述第一意图语句,其中,所述第一意图语句为最后一个所述意图的回复语句;
步骤S720:如果所述第一判断结果为所述当前场景意图集合中各所述意图之间不存在依赖关系,获得并存储所述第二意图语句,其中,所述第二意图语句为各所述意图的回复语句。
具体而言,对意图间是否存在依赖关系进行判断,获得所述第一判断结果,依赖性即指某一意图的回复语句依赖于另一意图的回复语句。根据所述第一判断结果,分别获得所述第一意图语句和所述第二意图语句,即当所述第一判断结果为所述当前场景意图集合中各所述意图之间存在依赖关系,根据依赖关系顺序处理并存储所述第一意图语句,并且所述第一意图语句为最后一个所述意图的回复语句,例如用户在系统确认银行卡号后说“这是我的银行卡,但我已经不用这张卡了”,则系统通过胶囊网络识别出用户一句话表达了“本人用卡”和“已经不用此卡”两个意图,两个意图都属于同一场景,且“已经不用此卡”意图依赖于“本人用卡”意图,则意图间存在依赖关系,那么系统可直接处理并存储所述第一意图语句,即为“已经不用此卡”意图。若所述第一判断结果为所述当前场景意图集合中各所述意图之间不存在依赖关系,获得并存储所述第二意图语句,其中,所述第二意图语句为各所述意图的回复语句。例如:用户在系统确认银行卡号后说“你是谁?这是我的卡,咋了?”,则系统通过胶囊网络识别出用户一句话表达了“询问对方身份”和“本人用卡”两个意图,根据结构化信息可知“询问对方身份”意图虽不在该流程中但也属于同一场景,且两个意图间不存在依赖关系,那么,获得并存储所述第二意图语句。实现设计多意图处理策略,从而为后续话术流程调整奠定基础。
步骤S800:合并所述第一意图语句和所述第二意图语句,获得回复语句。
进一步的,如图5所示,所述合并所述第一意图语句和所述第二意图语句,获得回复语句,本申请实施例步骤S800还包括:
步骤S810:合并所述第一意图语句和所述第二意图语句,获得第三意图语句;
步骤S820:通过所述知识库的结构化信息获得回复优先级;
步骤S830:根据各意图的回复优先级对所述第三意图语句排序,获得所述回复语句。
具体而言,所述回复语句是通过合并所述第一意图语句和所述第二意图语句获得的,进一步而言,系统合并所述第一意图语句和所述第二意图语句,获得第三意图语句,通过知识库的结构化信息获取回复优先级,并根据各意图的回复优先级排序然后一次输出,即为所述回复语句。达到了通过设计多意图处理策略,能够根据识别出的用户多个意图来动态调整后续的话术流程,减少对话轮次,从而提高人机交互效率,提升用户体验。
进一步的,如图2所示,所述将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练,本申请实施例步骤S200还包括:
步骤S210:将所述第一多意图标注数据集通过预训练模型进行向量化表示,作为所述胶囊网络模型的输入句向量;
步骤S220:将所述输入句向量依次通过胶囊网络模型的卷积层、初级胶囊层、卷积胶囊层和全连接胶囊层进行特征提取,同时利用动态路由机制来学习低层特征到高层特征的映射关系,获得第一输出胶囊;
步骤S230:根据所述第一输出胶囊的范数输出意图标签的概率;
步骤S240:利用间隔损失函数最小化训练数据的损失和,经过有限的迭待次数后得到训练完毕的所述胶囊网络模型。
具体而言,胶囊网络模型训练首先需要将所述第一多意图标注数据集通过预训练模型进行向量化表示,其中预训练模型可以为Bert、AlBert等,将向量化表示后的所述第一多意图标注数据集作为所述胶囊网络模型的输入句向量。将句向量依次通过胶囊网络的卷积层、初级胶囊层、卷积胶囊层和全连接胶囊层进行由浅到深的特征提取,同时利用动态路由机制来学习低层特征到高层特征的映射关系,最终得到输出胶囊,即所述第一输出胶囊,最后用输出胶囊的范数即向量长度,计算输出意图标签的概率,并利用间隔损失函数来最小化训练数据的损失和,经过有限的迭代次数后得到训练完毕的胶囊神经网络模型。进过上述步骤,完成了所述胶囊网络模型训练,能够提高模型输出结果的可靠性和准确性。
进一步的,如图3所示,所述将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,本申请实施例步骤S400还包括:
步骤S410:对所述第一待识别数据进行数据预处理,转换为第一待识别句向量;
步骤S420:通过所述胶囊网络模型对所述第一待识别句向量进行深层特征提取,利用训练好的模型参数计算获得第二输出胶囊;
步骤S430:通过所述第二输出胶囊的范数计算输出所述第二输出胶囊中各意图标签的概率;
步骤S440:获得预定判断阈值;
步骤S450:判断所述概率是否大于所述预定判断阈值,获得第二判断结果;
步骤S460:根据所述第二判断结果,获得所述第一预测用户意图集合。
具体而言,由于所述胶囊网络模型的输入信息需要为向量形式,故需要对所述第一待识别数据进行数据预处理,将所述第一待识别数据中的每一条意图文本转换为第一待识别句向量,通过胶囊网络对句向量进行深层特征提取,利用训练好的模型参数计算得到输出胶囊,即为所述第二输出胶囊。最后用输出胶囊的范数计算输出各意图标签的概率,并设定判断阈值,获得所述预定判断阈值,判断所述概率是否大于所述预定判断阈值,判断结果为获得所述第二判断结果,根据所述第二判断结果,获得所述第一预测用户意图集合,即为通过所述胶囊网络模型预测得到的用户意图集合。
进一步的,如图4所示,所述根据所述第一预测用户意图集合,获得当前场景意图集合,本申请实施例步骤S500还包括:
步骤S510:获得知识库的结构化信息;
步骤S520:根据知识库的结构化信息判断所述第一预测用户意图集合中的各意图是否属于当前场景;
步骤S530:如果第一预测用户意图集合中的所述意图不属于当前场景,去除所述意图;
步骤S540:如果第一预测用户意图集合中的所述意图属于当前场景,保留所述意图,获得所述当前场景意图集合。
具体而言,所述知识库为结构化的知识信息库,可把互联网上的文本内容组织为以实体为基本语义节点的结构图。知识库使得机器能够理解、搜索关键字,从而实现由搜索直接通往答案。根据知识库的结构化信息判断所述第一预测用户意图集合中的各意图是否属于当前场景;如果第一预测用户意图集合中的所述意图属于当前场景保留属于当前场景的意图,如果第一预测用户意图集合中的所述意图不属于当前场景,则去除不属于当前场景的意图,从而获得所述当前场景意图集合。
与现有技术相比,本发明具有如下的有益效果:
1.由于获得第一多意图标注数据集;将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练;获得第一待识别数据;将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,所述第一输出结果包括第一预测用户意图集合;根据所述第一预测用户意图集合,获得当前场景意图集合;判断所述当前场景意图集合中各意图之间是否存在依赖关系,获得第一判断结果;根据所述第一判断结果,获得第一意图语句和第二意图语句;合并所述第一意图语句和所述第二意图语句,获得回复语句的技术方案。本申请实施例通过提供了一种多意图识别方法及系统,达到了实现对用户话语的多意图识别,降低了人工标注成本,设计了多意图处理策略,能够对识别出的用户多个意图来动态调整后续的话术流程,减少对话轮次,提高人机交互效率,提升用户体验的技术效果。
实施例二
基于与前述实施例中一种多意图识别方法同样发明构思,本发明还提供了一种多意图识别系统,如图6所示,所述系统包括:
第一获得单元11,所述第一获得单元11用于获得第一多意图标注数据集;
第一执行单元12,所述第一执行单元12用于将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练;
第二获得单元13,所述第二获得单元13用于获得第一待识别数据;
第三获得单元14,所述第三获得单元14用于将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,所述第一输出结果包括第一预测用户意图集合;
第四获得单元15,所述第四获得单元15用于根据所述第一预测用户意图集合,获得当前场景意图集合;
第五获得单元16,所述第五获得单元16用于判断所述当前场景意图集合中各意图之间是否存在依赖关系,获得第一判断结果;
第六获得单元17,所述第六获得单元17用于根据所述第一判断结果,获得第一意图语句和第二意图语句;
第七获得单元18,所述第七获得单元18用于合并所述第一意图语句和所述第二意图语句,获得回复语句。
进一步的,所述系统还包括:
第二执行单元,所述第二执行单元用于将所述第一多意图标注数据集通过预训练模型进行向量化表示,作为所述胶囊网络模型的输入句向量;
第八获得单元,所述第八获得单元用于将所述输入句向量依次通过胶囊网络模型的卷积层、初级胶囊层、卷积胶囊层和全连接胶囊层进行特征提取,同时利用动态路由机制来学习低层特征到高层特征的映射关系,获得第一输出胶囊;
第三执行单元,所述第三执行单元用于根据所述第一输出胶囊的范数输出意图标签的概率;
第四执行单元,所述第四执行单元用于利用间隔损失函数最小化训练数据的损失和,经过有限的迭待次数后得到训练完毕的所述胶囊网络模型。
进一步的,所述系统还包括:
第五执行单元,所述第五执行单元用于对所述第一待识别数据进行数据预处理,转换为第一待识别句向量;
第九获得单元,所述第九获得单元用于通过所述胶囊网络模型对所述第一待识别句向量进行深层特征提取,利用训练好的模型参数计算获得第二输出胶囊;
第六执行单元,所述第六执行单元用于通过所述第二输出胶囊的范数计算输出所述第二输出胶囊中各意图标签的概率;
第十获得单元,所述第十获得单元用于获得预定判断阈值;
第十一获得单元,所述第十一获得单元用于判断所述概率是否大于所述预定判断阈值,获得第二判断结果;
第十二获得单元,所述第十二获得单元用于根据所述第二判断结果,获得所述第一预测用户意图集合。
进一步的,所述系统还包括:
第十三获得单元,所述第十三获得单元用于获得知识库的结构化信息;
第一判断单元,所述第一判断单元用于根据知识库的结构化信息判断所述第一预测用户意图集合中的各意图是否属于当前场景;
第七执行单元,所述第七执行单元用于如果第一预测用户意图集合中的所述意图不属于当前场景,去除所述意图;
第十四获得单元,所述第十四获得单元用于如果第一预测用户意图集合中的所述意图属于当前场景,保留所述意图,获得所述当前场景意图集合。
进一步的,所述系统还包括:
第八执行单元,所述第八执行单元用于如果所述第一判断结果为所述当前场景意图集合中各所述意图之间存在依赖关系,根据依赖关系顺序处理并存储所述第一意图语句,其中,所述第一意图语句为最后一个所述意图的回复语句;
第十五获得单元,所述第十五获得单元用于如果所述第一判断结果为所述当前场景意图集合中各所述意图之间不存在依赖关系,获得并存储所述第二意图语句,其中,所述第二意图语句为各所述意图的回复语句。
进一步的,所述系统还包括:
第十六获得单元,所述第十六获得单元用于合并所述第一意图语句和所述第二意图语句,获得第三意图语句;
第九执行单元,所述第九执行单元用于通过所述知识库的结构化信息获得回复优先级;
第十七获得单元,所述第十七获得单元用于根据各意图的回复优先级对所述第三意图语句排序,获得所述回复语句。
前述图1实施例一中的一种多意图识别方法的各种变化方式和具体实例同样适用于本实施例的一种多意图识别系统,通过前述对一种多意图识别方法的详细描述,本领域技术人员可以清楚的知道本实施例中一种多意图识别系统的实施方法,所以为了说明书的简洁,在此不再详述。
实施例三
下面参考图7来描述本申请实施例的电子设备。
图7图示了根据本申请实施例的电子设备的结构示意图。
基于与前述实例施中一种多意图识别方法的发明构思,本发明还提供一种多意图识别系统,其上存储有计算机程序,该程序被处理器执行时实现前文所述一种多意图识别系统的任一方法的步骤。
其中,在图7中,总线架构(用总线300来代表),总线300可以包括任意数量的互联的总线和桥,总线300将包括由处理器302代表的一个或多个处理器和存储器304代表的存储器的各种电路链接在一起。总线300还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口305在总线300和接收器301和发送器303之间提供接口。接收器301和发送器303可以是同一个元件,即收发机,提供用于在传输介质上与各种其他系统通信的单元。处理器302负责管理总线300和通常的处理,而存储器304可以被用于存储处理器302在执行操作时所使用的数据。
本申请实施例提供一种多意图识别方法,其中,所述方法包括:获得第一多意图标注数据集;将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练;获得第一待识别数据;将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,所述第一输出结果包括第一预测用户意图集合;根据所述第一预测用户意图集合,获得当前场景意图集合;判断所述当前场景意图集合中各意图之间是否存在依赖关系,获得第一判断结果;根据所述第一判断结果,获得第一意图语句和第二意图语句;合并所述第一意图语句和所述第二意图语句,获得回复语句。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的系统。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令系统的制造品,该指令系统实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.一种多意图识别方法,其中,所述方法包括:
获得第一多意图标注数据集;
将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练;
获得第一待识别数据;
将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,所述第一输出结果包括第一预测用户意图集合;
根据所述第一预测用户意图集合,获得当前场景意图集合;
判断所述当前场景意图集合中各意图之间是否存在依赖关系,获得第一判断结果;
根据所述第一判断结果,获得第一意图语句和第二意图语句;
合并所述第一意图语句和所述第二意图语句,获得回复语句。
2.如权利要求1所述的方法,其中,所述将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练,包括:
将所述第一多意图标注数据集通过预训练模型进行向量化表示,作为所述胶囊网络模型的输入句向量;
将所述输入句向量依次通过胶囊网络模型的卷积层、初级胶囊层、卷积胶囊层和全连接胶囊层进行特征提取,同时利用动态路由机制来学习低层特征到高层特征的映射关系,获得第一输出胶囊;
根据所述第一输出胶囊的范数输出意图标签的概率;
利用间隔损失函数最小化训练数据的损失和,经过有限的迭待次数后得到训练完毕的所述胶囊网络模型。
3.如权利要求1所述的方法,其中,所述将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,包括:
对所述第一待识别数据进行数据预处理,转换为第一待识别句向量;
通过所述胶囊网络模型对所述第一待识别句向量进行深层特征提取,利用训练好的模型参数计算获得第二输出胶囊;
通过所述第二输出胶囊的范数计算输出所述第二输出胶囊中各意图标签的概率;
获得预定判断阈值;
判断所述概率是否大于所述预定判断阈值,获得第二判断结果;
根据所述第二判断结果,获得所述第一预测用户意图集合。
4.如权利要求1所述的方法,其中,所述根据所述第一预测用户意图集合,获得当前场景意图集合,包括:
获得知识库的结构化信息;
根据知识库的结构化信息判断所述第一预测用户意图集合中的各意图是否属于当前场景;
如果第一预测用户意图集合中的所述意图不属于当前场景,去除所述意图;
如果第一预测用户意图集合中的所述意图属于当前场景,保留所述意图,获得所述当前场景意图集合。
5.如权利要求1所述的方法,其中,所述根据所述第一判断结果,获得第一意图语句和第二意图语句,包括:
如果所述第一判断结果为所述当前场景意图集合中各所述意图之间存在依赖关系,根据依赖关系顺序处理并存储所述第一意图语句,其中,所述第一意图语句为最后一个所述意图的回复语句;
如果所述第一判断结果为所述当前场景意图集合中各所述意图之间不存在依赖关系,获得并存储所述第二意图语句,其中,所述第二意图语句为各所述意图的回复语句。
6.如权利要求4所述的方法,其中,所述合并所述第一意图语句和所述第二意图语句,获得回复语句,包括:
合并所述第一意图语句和所述第二意图语句,获得第三意图语句;
通过所述知识库的结构化信息获得回复优先级;
根据各意图的回复优先级对所述第三意图语句排序,获得所述回复语句。
7.一种多意图识别系统,其中,所述系统包括:
第一获得单元,所述第一获得单元用于获得第一多意图标注数据集;
第一执行单元,所述第一执行单元用于将所述第一多意图标注数据集输入胶囊网络模型,对所述胶囊网络模型进行训练;
第二获得单元,所述第二获得单元用于获得第一待识别数据;
第三获得单元,所述第三获得单元用于将所述第一待识别数据输入训练好的所述胶囊网络模型进行预测,获得第一输出结果,所述第一输出结果包括第一预测用户意图集合;
第四获得单元,所述第四获得单元用于根据所述第一预测用户意图集合,获得当前场景意图集合;
第五获得单元,所述第五获得单元用于判断所述当前场景意图集合中各意图之间是否存在依赖关系,获得第一判断结果;
第六获得单元,所述第六获得单元用于根据所述第一判断结果,获得第一意图语句和第二意图语句;
第七获得单元,所述第七获得单元用于合并所述第一意图语句和所述第二意图语句,获得回复语句。
8.一种多意图识别系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现权利要求1-6任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111401877.8A CN114116975A (zh) | 2021-11-19 | 2021-11-19 | 一种多意图识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111401877.8A CN114116975A (zh) | 2021-11-19 | 2021-11-19 | 一种多意图识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114116975A true CN114116975A (zh) | 2022-03-01 |
Family
ID=80371590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111401877.8A Pending CN114116975A (zh) | 2021-11-19 | 2021-11-19 | 一种多意图识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114116975A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117807215A (zh) * | 2024-03-01 | 2024-04-02 | 青岛海尔科技有限公司 | 一种基于模型的语句多意图识别方法、装置及设备 |
-
2021
- 2021-11-19 CN CN202111401877.8A patent/CN114116975A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117807215A (zh) * | 2024-03-01 | 2024-04-02 | 青岛海尔科技有限公司 | 一种基于模型的语句多意图识别方法、装置及设备 |
CN117807215B (zh) * | 2024-03-01 | 2024-05-24 | 青岛海尔科技有限公司 | 一种基于模型的语句多意图识别方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110704641B (zh) | 一种万级意图分类方法、装置、存储介质及电子设备 | |
CN112100349B (zh) | 一种多轮对话方法、装置、电子设备及存储介质 | |
CN111062217B (zh) | 语言信息的处理方法、装置、存储介质及电子设备 | |
CN110727779A (zh) | 基于多模型融合的问答方法及系统 | |
CN111046656B (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
CN115292463B (zh) | 一种基于信息抽取的联合多意图检测和重叠槽填充的方法 | |
WO2021073179A1 (zh) | 命名实体的识别方法和设备、以及计算机可读存储介质 | |
CN112507704A (zh) | 多意图识别方法、装置、设备及存储介质 | |
CN113326702B (zh) | 语义识别方法、装置、电子设备及存储介质 | |
CN113486170B (zh) | 基于人机交互的自然语言处理方法、装置、设备及介质 | |
CN114676255A (zh) | 文本处理方法、装置、设备、存储介质及计算机程序产品 | |
CN111368544A (zh) | 命名实体识别方法及装置 | |
CN111738018A (zh) | 一种意图理解方法、装置、设备及存储介质 | |
CN112115702A (zh) | 意图识别方法、装置、对话机器人和计算机可读存储介质 | |
CN111984780A (zh) | 多意图识别模型训练方法和多意图识别方法及相关装置 | |
CN112434142A (zh) | 一种标记训练样本的方法、服务器、计算设备及存储介质 | |
CN112232070A (zh) | 自然语言处理模型构建方法、系统、电子设备及存储介质 | |
CN111737990A (zh) | 一种词槽填充方法、装置、设备及存储介质 | |
CN113239694B (zh) | 一种基于论元短语的论元角色识别的方法 | |
JP2020135689A (ja) | モデル学習システム、意図解釈システム、モデル学習方法およびモデル学習用プログラム | |
CN114116975A (zh) | 一种多意图识别方法及系统 | |
CN110020024B (zh) | 一种科技文献中链接资源的分类方法、系统、设备 | |
CN111680514B (zh) | 信息处理和模型训练方法、装置、设备及存储介质 | |
CN112257432A (zh) | 一种自适应意图识别方法、装置及电子设备 | |
CN116186219A (zh) | 一种人机对话交互方法方法、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 100000 floors 1-3, block a, global creative Plaza, No. 10, Furong street, Chaoyang District, Beijing Applicant after: Bairong Zhixin (Beijing) Technology Co.,Ltd. Address before: 100000 floors 1-3, block a, global creative Plaza, No. 10, Furong street, Chaoyang District, Beijing Applicant before: Bairong Zhixin (Beijing) credit investigation Co.,Ltd. |