CN114330358A - 意图识别方法、装置、计算机设备及存储介质 - Google Patents
意图识别方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN114330358A CN114330358A CN202111414848.5A CN202111414848A CN114330358A CN 114330358 A CN114330358 A CN 114330358A CN 202111414848 A CN202111414848 A CN 202111414848A CN 114330358 A CN114330358 A CN 114330358A
- Authority
- CN
- China
- Prior art keywords
- intention
- vectors
- decoding
- labels
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 239000013598 vector Substances 0.000 claims abstract description 428
- 238000003062 neural network model Methods 0.000 claims abstract description 13
- 239000011159 matrix material Substances 0.000 claims description 39
- 230000007246 mechanism Effects 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 13
- 238000002372 labelling Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000001502 supplementing effect Effects 0.000 claims description 6
- 230000000875 corresponding effect Effects 0.000 description 79
- 230000008569 process Effects 0.000 description 21
- 230000006870 function Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 10
- 238000013145 classification model Methods 0.000 description 5
- 230000008451 emotion Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明公开了一种意图识别方法、装置、计算机设备及存储介质,其中,方法部分包括:获取用户输入的待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量;获取意图识别模型,意图识别模型为根据预设训练样本集训练获得的神经网络模型,训练样本集中的每一输入样本对应一个意图标签链,意图标签链包括意图层级不同的多个标准意图标签;将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签;根据多个意图识别标签确定待识别文本的意图;本发明的意图识别模型,能够充分挖掘出不同层级意图之间的关联关系,提高了意图识别模型的识别精度,进而提高了对用户意图识别的准确性。
Description
技术领域
本发明涉及语言处理领域,尤其涉及一种意图识别方法、装置、计算机设备及存储介质。
背景技术
在自然语言处理领域中,用户意图理解作为语义理解的重要一环,对用户意图表达信息的挖掘具有重要意义。而智能对话系统是自然语言处理中的一项非常具有挑战的任务,在对话系统中,需要根据用户输入的信息准确识别出用户意图,从而根据用户意图为客户提供对应的信息。
在实际意图识别过程中,一般是采用多类别分类模型对用户输入的信息进行不同类别的意图识别,这种方式直接将用户意图平铺开来,进行多标签的意图分类处理,从而识别出不同属性的多个用户意图。但在实际场景中,用户输入的信息所包含为多个意图,多个意图之间可能具有关联性,多个意图可能具有上下层级的关系,还可以细分为同一属性意图下的不同细分类别,例如情感标签下包括高兴和不高兴两个标签。但采用传统的多类别分类模型,无法识别出不同意图标签之间的关系,每个意图标签之间相互独立互不影响,导致识别出的用户意图不够准确。
发明内容
本发明提供一种意图识别方法、装置、计算机设备及存储介质,以解决采用传统多类别分类模型进行意图识别,无法识别出不同意图标签之间的关系,导致识别出的用户意图不够准确的问题。
提供一种意图识别方法,其特征在于,包括:
获取用户输入的待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量;
获取意图识别模型,意图识别模型为根据预设训练样本集训练获得的神经网络模型,训练样本集中的每一输入样本对应一个意图标签链,意图标签链包括意图层级不同的多个标准意图标签;
将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签;
根据多个意图识别标签确定待识别文本的意图。
进一步地,将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签,包括:
将多个字向量输入意图识别模型中进行向量转换,以获得待识别文本的上下文向量,以及多个字向量对应的隐态编码向量;
将上下文向量进行多次解码循环,以获得每一解码循环的隐态解码向量,上一解码循环的输出为下一解码循环的输入;
对多个隐态编码向量、每一解码循环的隐态解码向量进行基于注意力机制的处理,以获得多个目标向量;
依次对多个目标向量进行意图预测,以获得多个意图识别标签。
进一步地,对多个隐态编码向量、每一解码循环的隐态解码向量进行基于注意力机制的处理,以获得多个目标向量,包括:
基于软注意力机制,对当前解码循环的隐态解码向量与多个隐态编码向量进行处理,得到当前解码循环对应的注意力向量,以获得多个注意力向量;
将各注意力向量与当前解码循环的隐态解码向量进行拼接,以获得多个拼接向量;
将多个拼接向量作为多个目标向量。
进一步地,基于软注意力机制,对当前解码循环的隐态解码向量和多个隐态编码向量,对当前解码循环对应的注意力向量,以获得多个注意力向量,包括:
根据当前解码循环的隐态解码向量对多个隐态编码向量进行加权求和,以获得初始权重矩阵;
对初始权重矩阵进行归一化处理,以获得目标权重矩阵;
根据目标权重矩阵对多个隐态编码向量进行加权求和,以获得当前解码循环对应的注意力向量;
遍历所有解码循环的隐态解码向量,以获得多个注意力向量。
进一步地,根据多个意图识别标签确定待识别文本的意图,包括:
将多个意图识别标签拼接为目标意图标签;
将目标意图标签作为待识别文本的意图,以召回目标意图标签对应的标准文本。
进一步地,意图识别模型通过如下方式获取:
获取训练样本集,并对输入样本进行字向量编码,以获得输入样本的多个字符向量;
将多个字符向量输入包含初始参数的预设模型中,以通过预设模型对输入样本进行意图预测,得到意图层级不同的多个预测标签;
根据多个预测标签与多个标准意图标签,确定预设模型的总损失值;
在总损失值未达到预设收敛条件时,迭代更新预设模型的初始参数,直至总损失值达到预设收敛条件时,将收敛之后的预设模型记录为意图识别模型。
进一步地,获取训练样本集包括:
获取多个输入样本,并对输入样本进行多层级意图标注,以获得输入样本的多个标准意图标签;
确定输入样本对应的意图标签数量是否小于预设数量;
若小于预设数量,则根据输入样本中最小一级的标准意图标签,对输入样本的多个标准意图标签进行补充,直至输入样本对应的意图标签数量为预设数量;
将标注有多个标准意图标签的所有输入样本汇总为训练样本集。
提供一种意图识别装置,包括:
编码模块,用于获取用户输入的待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量;
获取模块,用于获取意图识别模型,意图识别模型为根据预设训练样本集训练获得的神经网络模型,训练样本集中的输入样本对应一个意图标签链,意图标签链包括意图层级不同的多个标准意图标签;
输入模块,用于将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签;
确定模块,用于根据多个意图识别标签确定待识别文本的意图。
提供一种计算机设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述意图识别方法的步骤。
提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述意图识别方法的步骤。
上述意图识别方法、装置、计算机设备及存储介质所提供的一个方案中,通过获取用户输入的待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量,然后获取意图识别模型,意图识别模型为根据预设训练样本集训练获得的神经网络模型,训练样本集中的每一输入样本对应一个意图标签链,意图标签链包括意图层级不同的多个标准意图标签,再将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签,最后根据多个意图识别标签确定待识别文本的意图;本发明通过输入样本的多个标准意图标签,描述输入样本中各层级意图之间关联关系,使得根据训练样本集训练获得的意图识别模型,能够充分挖掘出不同层级意图之间的关联关系,以使输出的多个意图识别标签之间相互关联,从而提高了意图识别模型的识别精度,进而提高了对用户意图识别的准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中意图识别方法的一应用环境示意图;
图2是本发明一实施例中意图识别方法的一流程示意图;
图3是图2中步骤S30的一实现流程示意图;
图4是本发明一实施例中意图识别装置的一结构示意图;
图5是本发明一实施例中计算机设备的一结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的意图识别方法,可应用在如图1的应用环境中,其中,终端设备通过网络与服务器进行通信。
其中,服务器获取用户通过终端设备发送的待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量,然后获取意图识别模型,意图识别模型为根据预设训练样本集训练获得的神经网络模型,训练样本集中的输入样本对应一个意图标签链,意图标签链包括意图层级不同的多个标准意图标签,再将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签,最后根据多个意图识别标签确定待识别文本的意图,以根据待识别文本的意图召回对应的标准文本;本实施例通过输入样本的多个标准意图标签,描述输入样本中各层级意图之间关联关系,使得根据训练样本集训练获得的意图识别模型,能够充分挖掘出不同层级意图之间的关联关系,以使输出的多个意图识别标签之间相互关联,从而提高了意图识别模型的识别精度,进而提高了对用户意图识别的准确性,使得召回的标准文本更加准确,最终进一步提高了系统的人工智能化,提高了用户体验。
其中,训练样本集、意图识别模型、待识别文本和标准文本等相关数据存储在服务器的数据库中,在需要对用户意图进行识别时,直接从服务器的数据库获取相关数据,提高对客户意图进行识别的效率。
其中,终端设备可以但不限于各种个人计算机、笔记本电脑、智能手机、机器人、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种意图识别方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
S10:获取待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量。
用户通过终端设备输入待识别文本后,服务器获取待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量。
其中,对待识别文本进行编码,以获得待识别文本的多个字向量的过程中,需要将待识别文本进行字项切分,获得待识别文本的多个字符,然后将待识别文本的每个字符进行向量编码,以获得待识别文本的多个字向量,各字向量按照待识别文本中各字符的顺序构成字向量序列。
其中,为保证每个字向量的准确性并便于后续计算,可以将待识别文本的多个字符进行一位有效编码(One-Hot编码),以用二进制向量表示每个字符,从而获得用0-1向量表示的待识别文本的字向量序列。
例如,待识别文本为1~n个字符,则待识别文本经过one-hot编码后,生成按各字符顺序排列的多个字向量i1~in,其中,多个字向量i1~in构成待识别文本的字向量序列,向量序列为0-1的向量表示为:
[[0,0,…,1,…,0],[0,0,..,1,…,0,0],…,[0,0,0,0,…,1,0,0]。
S20:获取意图识别模型,意图识别模型为根据预设训练样本集训练获得的神经网络模型。
在获取用户输入的待识别文本之后,需要获取意图识别模型。其中,意图识别模型为根据预设训练样本集训练获得并预存的神经网络模型,该神经网络模型是基于Seq2Seq(Sequence to Sequence)模型改进够的模型。其中,训练样本集中的每一输入样本对应一个意图标签链,意图标签链包括意图层级不同的多个标准意图标签。即每个输入样本均包含意图层级不同的多个标准意图标签:第一级意图标签……第N级意图标签,多个标准意图标签构成了意图层级细化的意图标签链。其中,N为意图标签链中标准意图标签的数量,可以根据实际需求确定意图标签链中标准意图标签的数量。
以情绪分类任务为例,最高层级的意图标签为情绪,情绪下包含高兴和不高兴两种意图标签,高兴或者不高兴下包含产品服务和产品质量两种意图标签,则输入样本的意图标签可能是情绪-高兴-产品服务(或产品质量),多个标准意图标签分别为意图层级依次细化的情绪、高兴、产品服务(或产品质量);输入样本的意图标签可能是也可能是情绪-不高兴-产品服务(或产品质量),其中,多个标准意图标签分别为意图层级依次细化的情绪、高兴、产品服务(或产品质量),各层级意图标签之间具有关联性。
通过上述例子可知,本实施例中,可以通过意图标签链的形式,表述多个标准意图标签中各层级标准意图标签之间具有关联性。
本实施例中,意图标签链的具体标准意图标签仅为示例性说明,意图标签链中的各标准意图标签还可以是其他标签,意图标签链中标准意图标签的数量还可以是其他,在此不再赘述。
S30:将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签。
在对待识别文本进行编码,以获得待识别文本的多个字向量之后,将多个字向量组成的字向量序列,输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签。
其中,意图识别模型基于传统seq2seq模型进行改进获得的意图识别模型,意图识别模型包括编码模块、解码模块和分类模块。
在将多个字向量组成的字向量序列,输入意图识别模型之后,编码模块对输入的多个字向量进行编码处理,编码模块输出两个结果:用于表征待识别文本的上下文向量和各字向量对应的隐态编码向量;将上下文向量输入解码模块进行循环解码,获得每一解码循环的隐态解码向量;基于注意力机制,根据每一解码循环的隐态解码向量对多个隐态编码向量进行处理,获得每个隐态解码向量对应的注意力向量;然后每个将隐态解码向量与各自对应的注意力向量进行拼接,得到多个拼接向量,将得到的多个拼接向量依次输入分类模块进行意图分类识别,获得多个意图识别标签。多个意图识别标签构成意图层级依次降低的识别意图标签链,各意图识别标签的意图层级随意图识别标签的输出顺序降低。
由上述描述可知,在解码过程中,每个隐态解码向量的计算,均融合了上一解码循环中获得解码信息,即在意图识别标签识别过程中,将高层级的意图识别标签信息融合至低层级的意图识别标签计算过程,以引导低层级意图识别标签的识别,提高了低层级意图识别标签的准确性,通过考虑各意图识别标签之间具有关联性,进而提高各意图识别标签的准确性。
S40:根据多个意图识别标签确定待识别文本的意图。
在获得多个意图识别标签之后,根据多个意图识别标签确定待识别文本的意图,即确定用户的意图。可以将最低层级的意图识别标签作为用户的主要意图,并将其他意图识别标签作为辅助意图,从而根据主要意图和辅助意图召回标准文本推送给用户;也可以将多个意图识别标签拼接为一个目标意图标签,将该目标意图标签作为待识别文本的意图,从而召回目标意图标签对应的标准文本以推送给用户。
本实施例中,通过获取用户输入的待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量,然后获取意图识别模型,意图识别模型为根据预设训练样本集训练获得的模型,训练样本集中的每一输入样本对应一个意图标签链,意图标签链包括意图层级不同的多个标准意图标签,再将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签,最后根据多个意图识别标签确定待识别文本的意图;通过输入样本的多个标准意图标签,描述输入样本中各层级意图之间关联关系,使得根据训练样本集训练获得的意图识别模型,能够充分挖掘出不同层级意图之间的关联关系,以使输出的多个意图识别标签之间相互关联,从而提高了意图识别模型的识别精度,进而提高了对用户意图识别的准确性。
同时,在意图识别标签识别过程中,将高层级的意图识别标签信息融合至低层级的意图识别标签计算过程,以引导低层级意图识别标签的识别,不仅提高了低层级意图识别标签的准确性,还提高了意图识别标签的识别效率。
在一实施例中,步骤S40中,即根据多个意图识别标签确定待识别文本的意图,具体包括如下步骤:
S41:将多个意图识别标签拼接为目标意图标签。
S42:将目标意图标签作为待识别文本的意图,以召回目标意图标签对应的标准文本。
在获得多个意图识别标签之后,将多个意图识别标签拼接为目标意图标签,然后将目标意图标签作为待识别文本的意图,以召回目标意图标签对应的标准文本,将多个意图识别标签合并为一个目标意图标签,确保用户每个层级的意图均能考虑到,增加了目标意图标签的准确性,进而提高召回到的标准文本的准确性,能够有效提高用户体验。
在一实施例中,如图3所示,步骤S30中,即将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签,具体包括如下步骤:
S31:将多个字向量输入意图识别模型中进行向量转换,以获得待识别文本的上下文向量,以及多个字向量对应的隐态编码向量。
在获得待识别文本的多个字向量之后,将多个字向量按照字符顺序输入意图识别模型的编码模块中,以对多个字向量进行向量转换,从而获得待识别文本的上下文向量,以及多个字向量对应的隐态编码向量。其中,编码模块包括隐藏层和输出层,待识别文本的上下文向量用于表征整个待识别文本,由编码模块的输出层输出;多个字向量对应的隐态编码向量由编码模块的隐藏层输出。
例如,待识别文本的多个字向量为i1~in,则经过编码模块处理后,获得的用于表征整个待识别文本的上下文向量为ht,编码模块中隐藏层输出的多个隐态编码向量为O1~On。
由用户的待识别文本的长度不确定,为了更好地对待识别文本进行编码以获得准确的编码向量,本实施例中的编码模块可以为Bi-LSTM模型。
S32:将上下文向量进行多次解码循环,以获得每一解码循环的隐态解码向量。
在获取用于表征待识别文本的上下文向量之后,将上下文向量输入意图识别模型的解码模块中,以对上下文向量进行循环解码,从而获得每一个解码循环的隐态解码向量,其中,该隐态解码向量由解码模块中的隐藏层输出。
其中,上一解码循环中解码模块的输出(该输出为解码模块中的输出层的输出)为下一解码循环中解码模块的输入,直至获得多个解码循环的隐态解码向量,多个隐态解码向量用w1~wk表示,k为大于1的整数。
将上一解码循环中解码模块的输出(该输出为解码模块中的输出层的输出)为下一解码循环中解码模块的输入,可以将高层级的意图信息有效的传递到低层级意图识别当中,以辅助低层级意图的识别,提高各层级意图识别标签之间的关联性,并提升意图识别的效率。
每一循环解码的隐态解码向量通过如下公式计算获得:
pt=tanh(W[pt-1]);
wt=softmax(Vpt+c);
其中,pt为第t解码循环中解码模块的输出,其中,解码模块的初始输入p0为编码模块输出的上下文向量;wt为第t解码循环输出的隐态解码向量,t∈[1,k];tanh为双曲正切函数;softmax为归一化指数函数;W、V和c均为意图识别模型的超参数。
S33:对多个隐态编码向量、每一解码循环的隐态解码向量进行基于注意力机制的处理,以获得多个目标向量。
在获得每一个解码循环的隐态解码向量后,对多个隐态编码向量、每一解码循环的隐态解码向量进行基于注意力机制的处理,以获得多个目标向量,使得多个隐态编码向量、每一解码循环的隐态解码向量之间能够充分融合,提高目标向量的准确性,进而提高意图识别标签的准确性。
S35:依次对多个目标向量进行意图预测,以获得多个意图识别标签。
在获得多个拼接向量之后,依次将多个目标向量输入意图识别模型的预测模块中,以对每个目标向量进行意图预测,从而获得多个意图识别标签。
本实施例中,通过将多个字向量输入意图识别模型的编码模块中,以获得待识别文本的上下文向量,以及多个字向量对应的隐态编码向量;将上下文向量输入意图识别模型的解码模块中进行多次解码循环,以获得每一解码循环的隐态解码向量,上一解码循环的输出为下一解码循环的输入;对多个所述隐态编码向量、所述每一解码循环的隐态解码向量进行基于注意力机制的处理,以获得多个目标向量;依次将多个目标向量输入意图识别模型的预测模块中进行意图预测,以获得多个意图识别标签,细化了将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签的具体步骤,基于注意力机制,将多个隐态编码向量、每一解码循环的隐态解码向量进行融合,使得解码信息和编码信息充分融合,从而获得准确性的目标向量,提高了目标向量的准确性。
在一实施例中,步骤S32中,将上下文向量输入意图识别模型的解码模块中进行多次解码循环,以获得每一解码循环的隐态解码向量,包括:
在获得待识别文本的上下文向量之后,先将上下文向量输入至解码模块进行解码,以获得解码模块在第一解码循环的隐态解码向量;然后获取第一个注意力向量,可以基于soft-attention机制,对第一解码循环的隐态解码向量和多个隐态编码向量进行处理,以获得第一个注意力向量;在获得第一个注意力向量之后,将第一个注意力向量与第一解码循环的隐态解码向量进行拼接,获得第一个拼接向量,即获得第一个目标向量。
在获得第一个拼接向量之后,将第一解码循环中解码模块的输出和第一个拼接向量,为第二解码循环中解码模块的输入,以获得解码模块在第二解码循环的隐态解码向量,进而根据第二解码循环的隐态解码向量获得当前解码循环对应的拼接向量,即第二个拼接向量;
将上一拼接向量与上一解码循环中解码模块的输出,共同作为下一解码循环中解码模块的输入,重复上述步骤获得当前解码循环对应的拼接向量,然后遍历所有的解码循环,直至获得第K解码循环对应的拼接向量(第K个拼接向量),从而获得多个目标向量。其中,K为大于1的整数,且K为多个标准意图标签中的标签数量。
其中,将上一拼接向量与上一解码循环中解码模块的输出,共同作为下一解码循环中解码模块的输入,则每一循环解码的隐态解码向量通过如下公式计算获得:
pt=tanh(W[pt-1,St-1]);
wt=softmax(Vpt+c);
其中,pt为第t解码循环中解码模块的输出,其中,解码模块的初始输入p0为编码模块输出的上下文向量;pt-1第t-1解码循环中解码模块的输出,即pt上一解码循环中解码模块的输出;St-1为第t-1解码循环对应的拼接向量,即上一拼接向量;wt为第t解码循环输出的隐态解码向量,t∈[1,k];tanh为双曲正切函数;softmax为归一化指数函数;W、V和c均为意图识别模型的超参数。
本实施例中,将上一拼接向量与上一解码循环中解码模块的输出,共同作为下一解码循环中解码模块的输入,增加了解码模块的输入信息,进一步将高层级意图标签的信息传递到低层级意图标签的计算中,有效辅助低层级意图标签的识别,进一步提高了意图识别标签的准确性。
在一实施例中,步骤S33中,即对多个隐态编码向量、每一解码循环的隐态解码向量进行基于注意力机制的处理,以获得多个目标向量,具体包括如下步骤:
S331:基于软注意力机制,对当前解码循环的隐态解码向量和多个隐态编码向量进行处理,得到当前解码循环对应的注意力向量,以获得多个所述注意力向量。
在获得每一个解码循环的隐态解码向量后,基于软注意力机制,对当前解码循环的隐态解码向量和多个隐态编码向量进行处理,得到该解码循环对应的注意力向量,遍历所有解码循环,以获得每一解码循环对应的注意力向量,即获得多个的注意力向量。基于注意力机制将解码模块解码得到的隐藏解码向量进与待识别文本的多个隐藏编码向量进行相互融合处理,提高了注意力向量的准确性。
其中,为避免信息丢失而造成注意力向量不够准确性的可能,本实施例中的注意力机制可以是软注意力机制,即soft-attention机制,基于soft-attention机制对每一解码循环的隐态解码向量对多个隐态编码向量进行处理,在突出重点向量的基础上,能够使得每个隐态编码向量均获得相应关注,减少信息丢失的可能,提高了注意力向量的准确性,进而提高了后续拼接向量的准确性。
S332:将各注意力向量与当前解码循环的隐态解码向量进行拼接,以获得多个拼接向量。
在获得每一解码循环对应的注意力向量之后,将该解码循环对应的注意力向量与该解码循环的隐态解码向量进行拼接处理,以获得该解码循环对应的拼接向量。
其中,拼接向量的计算过程如下:
St=tanh(Ws[wt,vt]);
其中,wt为第t解码循环的隐态解码向量,vt为第t解码循环对应的注意力向量,St为第t个拼接向量,即将第t解码循环对应的注意力向量vt与第t解码循环的隐态解码向量wt进行拼接处理后获得的向量;tanh为双曲正切函数;Ws为意图识别模型的超参数。
S333:将多个拼接向量作为多个目标向量。
在获得多个拼接向量之后,将多个拼接向量作为多个目标向量,以便后续进行分类识别。
本实施例中,基于软注意力机制,对当前解码循环的隐态解码向量和多个隐态编码向量进行处理,得到当前解码循环对应的注意力向量,以获得多个所述注意力向量;将各注意力向量与当前解码循环的隐态解码向量进行拼接,以获得多个拼接向量;将多个拼接向量作为多个目标向量,明确了进一步地,基于注意力机制,根据对个隐态编码向量、每一解码循环的隐态解码向量确定多个目标向量,
在一实施例中,步骤S331中,即基于软注意力机制,对当前解码循环的隐态解码向量和多个隐态编码向量进行处理,得到当前解码循环对应的注意力向量,以获得多个注意力向量,具体包括如下步骤:
a.根据当前解码循环的隐态解码向量对多个隐态编码向量进行加权求和,以获得初始权重矩阵。
在获得当前解码循环的隐态解码向量之后,根据当前解码循环的隐态解码向量对多个隐态编码向量进行加权求和,以获得初始权重矩阵。初始权重矩阵包括多个初始权重。
b.对初始权重矩阵进行归一化处理,以获得目标权重矩阵。
在获得初始权重矩阵之后,对初始权重矩阵进行归一化处理,以获得目标权重矩阵,每一解码循环计算一次目标权重矩阵。
其中,目标权重矩阵中包括多个目标权重,每一目标权重对应一个字向量。
c.根据目标权重矩阵对多个隐态编码向量进行加权求和,以获得当前解码循环对应的注意力向量。
在获得对初始权重矩阵进行归一化处理,以获得目标权重矩阵之后,根据目标权重矩阵对多个隐态编码向量进行加权求和,以获得当前解码循环对应的注意力向量。
d.重复步骤a-步骤c,遍历所有解码循环的隐态解码向量,以获得多个注意力向量。
重复步骤a-步骤c,遍历所有解码循环的隐态解码向量,以获得多个注意力向量。
其中,目标权重矩阵的计算公式为:
其中,δtj为第t解码循环对应的目标权重矩阵中第j个字向量的目标权重。
其中,初始权重矩阵中的初始权重通过如下公式计算:
其中,wt为第t解码循环输出的隐态解码向量;Oj为待识别文本中的第j个字向量,j∈[1,n];n为待识别文本中字符的数量,rt为初始权重矩阵中的第t个初始权重。
其中,每一解码循环对应的注意力向量的计算公式为:
其中,vt为第t解码循环对应的注意力向量,δtj为第t解码循环对应的目标权重矩阵中第j个字向量的目标权重;Oj为待识别文本中的第j个字向量,j∈[1,n]。
本实施例中,通过上述步骤a至步骤d,明确了根据当前解码循环的隐态解码向量和多个隐态编码向量,对当前解码循环对应的注意力向量,以获得多个注意力向量的具体过程,基于soft-attention机制对每一解码循环的隐态解码向量对多个隐态编码向量进行处理,在突出重点向量的基础上,能够使得每个隐态编码向量均获得相应关注,减少信息丢失的可能,提高了注意力向量的准确性,进而提高了后续拼接向量的准确性。
在一实施例中,步骤S20之前,需要训练获得意图识别模型,以便在步骤S20中直接获取意图识别模型进行意图识别。其中,意图识别模型通过如下方式训练得到:
S01:获取训练样本集,并对输入样本进行字向量编码,以获得输入样本的多个字符向量。
先获取训练样本集,其中,意图识别模型为根据预设训练样本集训练获得的模型,训练样本集中的输入样本对应一个意图标签链,意图标签链包括意图层级不同的多个标准意图标签。
在获取训练样本集之后,对训练样本集中的输入样本进行字向量编码,以获得输入样本的多个字符向量。多个字符向量的编码过程请参照前文待识别文本的多个字向量的编码过程,在此不再赘述。
S02:将多个字符向量输入包含初始参数的预设模型中,以通过预设模型对输入样本进行意图预测,得到意图层级不同的多个预测标签。
在获得输入样本的多个字符向量之后,将输入样本的多个字符向量输入包含初始参数的预设模型中,以通过预设模型对输入样本进行意图预测,得到意图层级不同的多个预测标签。
S03:根据多个预测标签与多个标准意图标签,确定预设模型的总损失值。
需要理解的是,在对预设模型进行训练的过程中,可以通过标准随机梯度下降算法对预设模型进行训练,使用交叉熵函数作为代价函数。
在获得多个意图预测标签之后,在获得多个预测标签之后,根据多个预测标签与多个标准意图标签,确定预设模型的总损失值。其中,将多个标准意图标签的各标准意图标签,与多个预测标签中的预测标签一一对应,然后根据代价函数计算标准意图标签和标准意图标签对应的预测标签的子损失值,以获得多个子损失值,再根据多个损失值计算预设模型的总损失值。预设模型的总损失值可以为最小化多个代价函数的线性和。
S04:在总损失值未达到预设收敛条件时,迭代更新预设模型的初始参数,直至总损失值达到预设收敛条件时,将收敛之后的预设模型记录为意图识别模型。
在根据多个预测标签与多个标准意图标签,确定预设模型的总损失值之后,确定总损失值是否达到预设收敛条件。当总损失值未达到预设收敛条件时,迭代更新预设模型的初始参数,直至总损失值达到预设收敛条件时,将收敛之后的预设模型记录为意图识别模型。
可以理解的,预设收敛条件可以为总损失值小于预定阈值的条件,也即在总损失值小于预定阈值时,确定总损失值达到预设收敛条件,停止训练;预设收敛条件还可以是总损失值经过预设次数的计算后值很小且不会再下降的条件,也即当总损失值经过预设次数的计算后值很小且不会再下降时,确定总损失值达到预设收敛条件,停止训练,然后将收敛之后的预设模型记录为意图识别模型。
本实施例中,通过获取训练样本集,并对输入样本进行字向量编码,以获得输入样本的多个字符向量;将多个字符向量输入包含初始参数的预设模型中,以通过预设模型对输入样本进行意图预测,得到意图层级不同的多个预测标签;根据多个预测标签与多个标准意图标签,确定预设模型的总损失值;在总损失值未达到预设收敛条件时,迭代更新预设模型的初始参数,直至总损失值达到预设收敛条件时,将收敛之后的预设模型记录为意图识别模型;明确了意图识别模型的获取过程,通过标注有意图标签链的训练样本集训练获得意图识别模型,提高了意图识别模型的算法精度,进而提高了意图识别结果的精确性。此外,本意图识别模型均需要一份训练样本集,并进行一次模型训练过程即可获得,与传统多类别分类模型需要进行多个子模型的分别训练不同,避免了多个分类模型组合所带来的复杂性,训练起来会更高效,同时,还可以减少模型训练所需的样本量,降低模型的训练成本。
在一实施例中,步骤S01中,即获取训练样本集,具体包括如下步骤:
S011:获取多个输入样本,并对输入样本进行多层级意图标注,以获得输入样本的多个标准意图标签。
获取多个输入样本,如对话系统或者搜索引擎等数据库中的用户输入问题。然后对输入样本进行人工的意图识别,并根据识别结果对输入样本进行多层级意图标注,从而获得输入样本的多个标准意图标签,该个标准意图标签构成意图标签链。
S012:确定输入样本对应的意图标签数量是否小于预设数量。
在获得输入样本的多个标准意图标签之后,确定输入样本对应的意图标签数量是否小于预设数量。
例如,预设数量为3,但输入样本的标准意图标签数量为2,或者标准意图标签数量为4、5,则不满足标签数量要求。
本实施例中,预设数量为3仅为示例性要求,在其他实施例中,预设数量还可以是其他根据实际需求确定的数值,如可以为2、4、5等整数。
S013:若小于预设数量,则根据输入样本中最小一级的标准意图标签,对输入样本的多个标准意图标签进行补充,直至输入样本对应的意图标签数量为预设数量。
在确定输入样本对应的意图标签数量是否小于预设数量之后,若输入样本对应的意图标签数量小于预设数量,则根据输入样本中最小一级的标准意图标签,对输入样本的多个标准意图标签进行补充,直至输入样本对应的意图标签数量为预设数量。通过标准意图标签回补的方式,对不同输入样本的多层级标准意图标签进行统一,确保训练样本集中的输入样本一致性,便于后续训练。
在一实施例中,在确定输入样本对应的意图标签数量是否小于预设数量之后,若输入样本对应的意图标签数量大于预设数量,删除多个标准意图标签中最小一级的标准意图标签,以使输入样本对应的意图标签数量为预设数量。通过标准意图标签删除的方式,对不同输入样本的多层级标准意图标签进行统一,确保训练样本集中的输入样本一致性,便于后续训练。
S014:将标注有多个标准意图标签的所有输入样本汇总为训练样本集。
在所有输入样本对应的意图标签数量为预设数量之后,将标注有多个标准意图标签的所有输入样本汇总为训练样本集。
本实施例中,通过获取多个输入样本,并对输入样本进行多层级意图标注,以获得输入样本的多个标准意图标签;确定输入样本对应的意图标签数量是否小于预设数量;若小于预设数量,则根据输入样本中最小一级的标准意图标签,对输入样本的多个标准意图标签进行补充,直至输入样本对应的意图标签数量为预设数量;将标注有多个标准意图标签的所有输入样本汇总为训练样本集,明确了获取训练样本集的具有过程,对不同输入样本的多层级标准意图标签进行统一,确保训练样本集中的输入样本一致性,便于后续训练。
在一实施例中,提供一种意图识别方法,具体包括如下步骤:
SA1:获取包括多个输入样本的训练样本集,根据训练样本集训练获得意图识别模型。
先获取多个输入样本,并对用户输入样本进行多层级意图标注,以获得用户输入样本的多个标准意图标签,形成训练样本集,每一输入样本对应的多个标准意图标签;然后对输入样本进行字向量编码,以获得输入样本的多个字符向量;再将多个字符向量输入包含初始参数的预设模型中,以通过预设模型对用户输入样本进行意图预测,得到意图层级不同的多个预测标签;再根据多个预测标签与多个标准意图标签,确定预设模型的总损失值,在总损失值未达到预设收敛条件时,迭代更新预设模型的初始参数,直至总损失值达到预设收敛条件时,将收敛之后的预设模型记录为意图识别模型。
SA2:获取用户输入的待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量。
在训练获得意图识别模型之后,用户通过终端设备输入待识别文本后,服务器获取待识别文本,然后将待识别文本的多个字符进行一位有效编码(One-Hot编码),以用二进制向量表示每个字符,从而获得用0-1向量表示的待识别文本的字向量序列。
SA3:将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签。
其中,先将多个字向量输入意图识别模型后,先由意图识别模型的,编码模块对多个字向量进行向量转换,以获得待识别文本的上下文向量ht,以及多个字向量对应的隐态编码向量O1~On。其中,编码模块包括隐藏层和输出层,待识别文本的上下文向量由编码模块的输出层输出;多个字向量对应的隐态编码向量由编码模块的隐藏层输出。
在获得待识别文本的上下文向量之后,将上下文向量ht进行多次解码循环,以获得每一解码循环的隐态解码向量:多个隐态解码向量用w1~wk。其中,先将上下文向量输入至解码模块进行解码,以获得解码模块在第一解码循环的隐态解码向量;然后获取第一个注意力向量,可以基于soft-attention机制,对第一解码循环的隐态解码向量和多个隐态编码向量进行处理,以获得第一个注意力向量;在获得第一个注意力向量之后,将第一个注意力向量与第一解码循环的隐态解码向量进行拼接,获得第一个拼接向量,即获得第一个目标向量。在获得第一个拼接向量之后,将第一解码循环中解码模块的输出和第一个拼接向量,为第二解码循环中解码模块的输入,以获得解码模块在第二解码循环的隐态解码向量,进而根据第二解码循环的隐态解码向量获得当前解码循环对应的拼接向量,即第二个拼接向量;将上一拼接向量与上一解码循环中解码模块的输出,共同作为下一解码循环中解码模块的输入,重复上述步骤获得当前解码循环对应的拼接向量,然后遍历所有的解码循环,直至获得第K解码循环对应的拼接向量(第K个拼接向量),从而获得多个目标向量。其中,K为大于1的整数,且K为多个标准意图标签中的标签数量。
其中,将上一拼接向量与上一解码循环中解码模块的输出,共同作为下一解码循环中解码模块的输入,则每一循环解码的隐态解码向量通过如下公式计算获得:
pt=tanh(W[pt-1,St-1]);
wt=softmax(Vpt+c);
其中,pt为第t解码循环中解码模块的输出,其中,解码模块的初始输入p0为编码模块输出的上下文向量;pt-1第t-1解码循环中解码模块的输出,即pt上一解码循环中解码模块的输出;St-1为第t-1解码循环对应的拼接向量,即上一拼接向量;wt为第t解码循环输出的隐态解码向量,t∈[1,k];tanh为双曲正切函数;softmax为归一化指数函数;W、V和c均为意图识别模型的超参数。
在每获得一解码循环的隐态解码向量之后,对多个隐态编码向量O1~On、每一解码循环的隐态解码向量进行基于注意力机制的处理,以获得多个目标向量。
其中,需要先根据当前解码循环的隐态解码向量对多个隐态编码向量进行加权求和,以获得初始权重矩阵,并对初始权重矩阵进行归一化处理,以获得目标权重矩阵,根据目标权重矩阵对多个隐态编码向量进行加权求和,以获得当前解码循环对应的注意力向量。
其中,目标权重矩阵的计算公式为:
其中,δtj为第t解码循环对应的目标权重矩阵中第j个字向量的目标权重。
其中,初始权重矩阵中的初始权重通过如下公式计算:
其中,wt为第t解码循环输出的隐态解码向量;Oj为待识别文本中的第j个字向量,j∈[1,n];n为待识别文本中字符的数量,rt为初始权重矩阵中的第t个初始权重。
其中,每一解码循环对应的注意力向量的计算公式为:
其中,vt为第t解码循环对应的注意力向量,δtj为第t解码循环对应的目标权重矩阵中第j个字向量的目标权重;Oj为待识别文本中的第j个字向量,j∈[1,n]。
然后,将当解码循环对应的注意力向量与当前解码循环的隐态解码向量进行拼接,以获得当前解码循环对应的拼接向量,并将该拼接向量作为当前解码循环对应的目标向量,以便后续对该目标向量进行意图预测,以获得该目标向量对应的意图识别标签。遍历每个解码循环的隐态解码,以获得每一解码循环对应的拼接向量,并进行意图预测,即可获得多个意图识别标签。
其中,拼接向量的计算过程如下:
St=tanh(Ws[wt,vt]);
其中,wt为第t解码循环的隐态解码向量,vt为第t解码循环对应的注意力向量,St为第t个拼接向量,即将第t解码循环对应的注意力向量vt与第t解码循环的隐态解码向量wt进行拼接处理后获得的向量;tanh为双曲正切函数;Ws为意图识别模型的超参数。
SA4:根据多个意图识别标签确定待识别文本的意图。
在获得多个意图识别标签之后,将多个意图识别标签拼接为目标意图标签,然后将目标意图标签作为用户的意图,以召回目标意图标签对应的标准文本,将多个意图识别标签合并为一个目标意图标签,确保用户每个层级的意图均能考虑到,增加了目标意图标签的准确性,进而提高召回到的标准文本的准确性,能够有效提高用户体验。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种意图识别装置,该意图识别装置与上述实施例中意图识别方法一一对应。如图4所示,该意图识别装置包括编码模块401、获取模块402、输入模块403和确定模块404。各功能模块详细说明如下:
编码模块401,用于获取用户输入的待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量;
获取模块402,用于获取意图识别模型,意图识别模型为根据预设训练样本集训练获得的神经网络模型,训练样本集中的每一输入样本对应一个意图标签链,意图标签链包括意图层级不同的多个标准意图标签;
输入模块403,用于将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签;
确定模块404,用于根据多个意图识别标签确定待识别文本的意图。
进一步地,输入模块403具体用于:
将多个字向量输入意图识别模型中进行向量转换,以获得待识别文本的上下文向量,以及多个字向量对应的隐态编码向量;
将上下文向量进行多次解码循环,以获得每一解码循环的隐态解码向量,上一解码循环的输出为下一解码循环的输入;
对多个隐态编码向量、每一解码循环的隐态解码向量进行基于注意力机制的处理,以获得多个目标向量;
依次对多个目标向量进行意图预测,以获得多个意图识别标签。
进一步地,输入模块403具体还用于:
基于软注意力机制,对当前解码循环的隐态解码向量和多个隐态编码向量进行处理,得到当前解码循环对应的注意力向量,以获得多个注意力向量;
将各注意力向量与当前解码循环的隐态解码向量进行拼接,以获得多个拼接向量;
将多个拼接向量作为多个目标向量。
进一步地,输入模块403具体还用于:
根据当前解码循环的隐态解码向量对多个隐态编码向量进行加权求和,以获得初始权重矩阵;
对初始权重矩阵进行归一化处理,以获得目标权重矩阵;
根据目标权重矩阵对多个隐态编码向量进行加权求和,以获得当前解码循环对应的注意力向量;
遍历所有解码循环的隐态解码向量,以获得多个注意力向量。
进一步地,确定模块404具体用于:
将多个意图识别标签拼接为目标意图标签;
将目标意图标签作为待识别文本的意图,以召回目标意图标签对应的标准文本。
进一步地,上述意图识别装置还包括训练模块405,训练模块405具体用于:
获取训练样本集,并对输入样本进行字向量编码,以获得输入样本的多个字符向量;
将多个字符向量输入包含初始参数的预设模型中,以通过预设模型对输入样本进行意图预测,得到意图层级不同的多个预测标签;
根据多个预测标签与多个标准意图标签,确定预设模型的总损失值;
在总损失值未达到预设收敛条件时,迭代更新预设模型的初始参数,直至总损失值达到预设收敛条件时,将收敛之后的预设模型记录为意图识别模型。
进一步地,训练模块405具体还用于:
获取多个输入样本,并对输入样本进行多层级意图标注,以获得输入样本的多个标准意图标签;
确定输入样本对应的意图标签数量是否小于预设数量;
若小于预设数量,则根据输入样本中最小一级的标准意图标签,对输入样本的多个标准意图标签进行补充,直至输入样本对应的意图标签数量为预设数量;
将标注有多个标准意图标签的所有输入样本汇总为训练样本集。
关于意图识别装置的具体限定可以参见上文中对于意图识别方法的限定,在此不再赘述。上述意图识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图5所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储意图识别模型、训练样本集和标准文本等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种意图识别方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
获取用户输入的待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量;
获取意图识别模型,意图识别模型为根据预设训练样本集训练获得的神经网络模型,训练样本集中的输入样本对应一个意图标签链,意图标签链包括意图层级不同的多个标准意图标签;
将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签;
根据多个意图识别标签确定待识别文本的意图。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取用户输入的待识别文本,并对待识别文本进行编码,以获得待识别文本的多个字向量;
获取意图识别模型,意图识别模型为根据预设训练样本集训练获得的神经网络模型,训练样本集中的输入样本对应一个意图标签链,意图标签链包括意图层级不同的多个标准意图标签;
将多个字向量输入意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签;
根据多个意图识别标签确定待识别文本的意图。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种意图识别方法,其特征在于,包括:
获取待识别文本,并对所述待识别文本进行编码,以获得所述待识别文本的多个字向量;
获取意图识别模型,所述意图识别模型为根据预设训练样本集训练获得的神经网络模型,所述训练样本集中的每个输入样本对应一个意图标签链,所述意图标签链包括意图层级不同的多个标准意图标签;
将所述多个字向量输入所述意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签;
根据所述多个意图识别标签确定所述待识别文本的意图。
2.如权利要求1所述的意图识别方法,其特征在于,所述将所述多个字向量输入所述意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签,包括:
将所述多个字向量输入所述意图识别模型进行向量转换中,以获得所述待识别文本的上下文向量,以及多个所述字向量对应的隐态编码向量;
将所述上下文向量进行多次解码循环,以获得每一解码循环的隐态解码向量,上一解码循环的输出为下一解码循环的输入;
对多个所述隐态编码向量、所述每一解码循环的隐态解码向量进行基于注意力机制的处理,以获得多个目标向量;
依次对所述多个目标向量进行意图预测,以获得所述多个意图识别标签。
3.如权利要求2所述的意图识别方法,其特征在于,所述对多个所述隐态编码向量、所述每一解码循环的隐态解码向量进行基于注意力机制的处理,以获得多个目标向量,包括:
基于软注意力机制,对当前解码循环的隐态解码向量和多个所述隐态编码向量进行处理,得到当前解码循环对应的注意力向量,以获得多个所述注意力向量;
将各所述注意力向量与当前解码循环的所述隐态解码向量进行拼接,以获得多个拼接向量;
将多个拼接向量作为所述多个目标向量。
4.如权利要求3所述的意图识别方法,其特征在于,所述基于软注意力机制,对当前解码循环的隐态解码向量和多个所述隐态编码向量进行处理,得到当前解码循环对应的注意力向量,以获得多个所述注意力向量,包括:
根据当前解码循环的隐态解码向量对多个所述隐态编码向量进行加权求和,以获得初始权重矩阵;
对所述初始权重矩阵进行归一化处理,以获得目标权重矩阵;
根据所述目标权重矩阵对多个所述隐态编码向量进行加权求和,以获得当前解码循环对应的注意力向量;
遍历所有解码循环的隐态解码向量,以获得多个所述注意力向量。
5.如权利要求1所述的意图识别方法,其特征在于,所述根据所述多个意图识别标签确定所述待识别文本的意图,包括:
将所述多个意图识别标签拼接为目标意图标签;
将所述目标意图标签作为所述待识别文本的意图,以召回所述目标意图标签对应的标准文本。
6.如权利要求1-5任一项所述的意图识别方法,其特征在于,所述意图识别模型通过如下方式获取:
获取训练样本集,并对所述输入样本进行字向量编码,以获得所述输入样本的多个字符向量;
将所述多个字符向量输入包含初始参数的预设模型中,以通过所述预设模型对所述输入样本进行意图预测,得到意图层级不同的多个预测标签;
根据所述多个预测标签与所述多个标准意图标签,确定所述预设模型的总损失值;
在所述总损失值未达到预设收敛条件时,迭代更新所述预设模型的初始参数,直至所述总损失值达到所述预设收敛条件时,将收敛之后的所述预设模型记录为所述意图识别模型。
7.如权利要求6所述的意图识别方法,其特征在于,所述获取训练样本集包括:
获取多个所述输入样本,并对所述输入样本进行多层级意图标注,以获得所述输入样本的多个标准意图标签;
确定所述输入样本对应的意图标签数量是否小于预设数量;
若小于所述预设数量,则根据所述输入样本中最小一级的标准意图标签,对所述输入样本的多个标准意图标签进行补充,直至所述输入样本对应的意图标签数量为所述预设数量;
将标注有所述多个标准意图标签的所有输入样本汇总为所述训练样本集。
8.一种意图识别装置,其特征在于,包括:
编码模块,用于获取待识别文本,并对所述待识别文本进行编码,以获得所述待识别文本的多个字向量;
获取模块,用于获取意图识别模型,所述意图识别模型为根据预设训练样本集训练获得的神经网络模型,所述训练样本集中的每个输入样本对应一个意图标签链,所述意图标签链包括意图层级不同的多个标准意图标签;
输入模块,用于将所述多个字向量输入所述意图识别模型进行多层级的意图识别,以获得意图层级不同的多个意图识别标签;
确定模块,用于根据所述多个意图识别标签确定所述待识别文本的意图。
9.一种计算机设备,包括存储器和处理器,所述存储器上存储有计算机程序,其特征在于,所述处理器用于执行所述计算机程序时实现如权利要求1至7任一项所述意图识别方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述意图识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111414848.5A CN114330358A (zh) | 2021-11-25 | 2021-11-25 | 意图识别方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111414848.5A CN114330358A (zh) | 2021-11-25 | 2021-11-25 | 意图识别方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114330358A true CN114330358A (zh) | 2022-04-12 |
Family
ID=81046737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111414848.5A Pending CN114330358A (zh) | 2021-11-25 | 2021-11-25 | 意图识别方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114330358A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109657229A (zh) * | 2018-10-31 | 2019-04-19 | 北京奇艺世纪科技有限公司 | 一种意图识别模型生成方法、意图识别方法及装置 |
CN110287283A (zh) * | 2019-05-22 | 2019-09-27 | 中国平安财产保险股份有限公司 | 意图模型训练方法、意图识别方法、装置、设备及介质 |
CN110580335A (zh) * | 2018-06-07 | 2019-12-17 | 阿里巴巴集团控股有限公司 | 用户意图的确定方法及装置 |
CN112749761A (zh) * | 2021-01-22 | 2021-05-04 | 上海机电工程研究所 | 基于注意力机制和循环神经网络的敌方作战意图识别方法及系统 |
CN113377936A (zh) * | 2021-05-25 | 2021-09-10 | 杭州搜车数据科技有限公司 | 智能问答方法、装置及设备 |
CN113408278A (zh) * | 2021-06-22 | 2021-09-17 | 平安科技(深圳)有限公司 | 意图识别方法、装置、设备及存储介质 |
-
2021
- 2021-11-25 CN CN202111414848.5A patent/CN114330358A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110580335A (zh) * | 2018-06-07 | 2019-12-17 | 阿里巴巴集团控股有限公司 | 用户意图的确定方法及装置 |
CN109657229A (zh) * | 2018-10-31 | 2019-04-19 | 北京奇艺世纪科技有限公司 | 一种意图识别模型生成方法、意图识别方法及装置 |
CN110287283A (zh) * | 2019-05-22 | 2019-09-27 | 中国平安财产保险股份有限公司 | 意图模型训练方法、意图识别方法、装置、设备及介质 |
CN112749761A (zh) * | 2021-01-22 | 2021-05-04 | 上海机电工程研究所 | 基于注意力机制和循环神经网络的敌方作战意图识别方法及系统 |
CN113377936A (zh) * | 2021-05-25 | 2021-09-10 | 杭州搜车数据科技有限公司 | 智能问答方法、装置及设备 |
CN113408278A (zh) * | 2021-06-22 | 2021-09-17 | 平安科技(深圳)有限公司 | 意图识别方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112732911B (zh) | 基于语义识别的话术推荐方法、装置、设备及存储介质 | |
CN110598206A (zh) | 文本语义识别方法、装置、计算机设备和存储介质 | |
JP2020520492A (ja) | 文書要約自動抽出方法、装置、コンピュータ機器及び記憶媒体 | |
CN110569500A (zh) | 文本语义识别方法、装置、计算机设备和存储介质 | |
CN112214604A (zh) | 文本分类模型的训练方法、文本分类方法、装置及设备 | |
CN110852110B (zh) | 目标语句提取方法、问题生成方法以及信息处理设备 | |
WO2022198750A1 (zh) | 语义识别方法 | |
CN111859916B (zh) | 古诗关键词提取、诗句生成方法、装置、设备及介质 | |
CN112766319B (zh) | 对话意图识别模型训练方法、装置、计算机设备及介质 | |
CN112699686B (zh) | 基于任务型对话系统的语义理解方法、装置、设备及介质 | |
CN110377733B (zh) | 一种基于文本的情绪识别方法、终端设备及介质 | |
CN115599901B (zh) | 基于语义提示的机器问答方法、装置、设备及存储介质 | |
CN110399472B (zh) | 面试提问提示方法、装置、计算机设备及存储介质 | |
CN109885830A (zh) | 语句释义方法、装置、计算机设备 | |
CN112732884A (zh) | 目标回答语句生成方法、装置、计算机设备和存储介质 | |
CN115795038A (zh) | 基于国产化深度学习框架的意图识别方法和装置 | |
CN112214966A (zh) | 基于深度神经网络的实体及关系联合抽取方法 | |
CN112052329A (zh) | 文本摘要生成方法、装置、计算机设备及可读存储介质 | |
CN113806646A (zh) | 序列标注系统及序列标注模型的训练系统 | |
CN112667803A (zh) | 一种文本情感分类方法及装置 | |
CN111898339A (zh) | 基于约束解码的古诗生成方法、装置、设备及介质 | |
CN115309862A (zh) | 基于图卷积网络和对比学习的因果关系识别方法及装置 | |
CN114330358A (zh) | 意图识别方法、装置、计算机设备及存储介质 | |
CN117371447A (zh) | 命名实体识别模型的训练方法、装置及存储介质 | |
CN114638229A (zh) | 笔录数据的实体识别方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |