CN114330364B - 模型训练方法、意图识别方法、装置和电子设备 - Google Patents
模型训练方法、意图识别方法、装置和电子设备 Download PDFInfo
- Publication number
- CN114330364B CN114330364B CN202111614262.3A CN202111614262A CN114330364B CN 114330364 B CN114330364 B CN 114330364B CN 202111614262 A CN202111614262 A CN 202111614262A CN 114330364 B CN114330364 B CN 114330364B
- Authority
- CN
- China
- Prior art keywords
- model
- intention
- sub
- probability
- semantic vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 97
- 238000000034 method Methods 0.000 title claims abstract description 85
- 239000013598 vector Substances 0.000 claims description 180
- 230000006870 function Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 29
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 27
- 238000004590 computer program Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 5
- 238000000605 extraction Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种模型训练方法、意图识别方法、装置和电子设备,涉及人工智能领域,尤其涉及智能搜索领域。具体实现方案为:模型训练方法,包括:获取第一样本,所述第一样本包括第一文本、第一标签、第二标签和第三标签,所述第一标签用于表征所述第一文本为第一意图的概率,所述第二标签用于表征所述第一文本为第二意图的概率,所述第三标签用于表征所述第一文本为第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图;将所述第一样本输入第一模型进行训练,得到训练后的目标模型。本公开可以提高训练得到的目标模型对意图识别的效果。
Description
技术领域
本公开涉及人工智能领域,尤其涉及智能搜索领域,具体涉及一种模型训练方法、意图识别方法、装置和电子设备。
背景技术
目前,文本识别广泛应用于电商领域,通过识别用户搜索词的意图,以向用户展示与搜索词对应的结果内容。在基于用户的搜索词生成的样本空间中,约有12%以上的意图为对企业(to business,tob)意图,其中,tob意图具体是指直接或潜在购买企业商品或服务的意图。所述tob意图主要包括三类,第一类为5103意图:即搜索商品、搜索商贸服务和商务寻址等方面的意图;第二类为5534意图:即搜索商品的具体内容、搜索商贸服务的具体内容和搜索商务寻址的具体内容等方面的意图,其中,所述具体内容可以是产品优缺点、产品排行榜、产品具体性能等内容;第三类为5359意图:即寻找具体厂家的意图。在整个样本空间中,所述5103意图的样本数量约占2.5%,所述5534意图的样本数量约占7%以上。现有技术中,通常是基于具有5103意图的样本对模型进行训练,得到特定模型,然后,基于该特定模型识别搜索词的意图为5103意图的概率。
发明内容
本公开提供了一种模型训练方法、意图识别方法、装置和电子设备。
根据本公开的第一方面,提供了一种模型训练方法,包括:
获取第一样本,所述第一样本包括第一文本、第一标签、第二标签和第三标签,所述第一标签用于表征所述第一文本为第一意图的概率,所述第二标签用于表征所述第一文本为第二意图的概率,所述第三标签用于表征所述第一文本为第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图;
将所述第一样本输入第一模型进行训练,得到训练后的目标模型;
其中,所述目标模型包括第一子模型和第二子模型,所述第一子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第一意图的概率;所述第二子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述第一文本为所述第三意图的概率。
根据本公开的第二方面,提供了一种意图识别方法,包括:
获取搜索词;
将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率;
其中,所述目标模型包括第一子模型和第二子模型,所述第一子模型用于对所述搜索词进行识别,并输出所述搜索词为第一意图的概率;所述第二子模型用于对所述搜索词进行识别,并输出所述搜索词为第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述搜索词为所述第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图。
根据本公开的第三方面,提供了一种模型训练装置,包括:
第一获取模块,用于获取第一样本,所述第一样本包括第一文本、第一标签、第二标签和第三标签,所述第一标签用于表征所述第一文本为第一意图的概率,所述第二标签用于表征所述第一文本为第二意图的概率,所述第三标签用于表征所述第一文本为第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图;
训练模块,用于将所述第一样本输入第一模型进行训练,得到训练后的目标模型;
其中,所述目标模型包括第一子模型和第二子模型,所述第一子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第一意图的概率;所述第二子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述第一文本为所述第三意图的概率。
根据本公开的第四方面,提供了一种意图识别装置,包括:
第二获取模块,用于获取搜索词;
识别模块,用于将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率;
其中,所述目标模型包括第一子模型和第二子模型,所述第一子模型用于对所述搜索词进行识别,并输出所述搜索词为第一意图的概率;所述第二子模型用于对所述搜索词进行识别,并输出所述搜索词为第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述搜索词为所述第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图。
根据本公开的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面或第二方面中所述的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据第一方面或第二方面中所述的方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据第一方面或第二方面中所述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开实施例提供的一种模型训练方法的流程图;
图2是本公开实施例中提供的一种模型框架的示意图;
图3是本公开实施例提供的一种意图识别方法的流程图;
图4是本公开实施例提供的一种模型训练装置的结构示意图;
图5是本公开实施例提供的一种意图识别装置的结构示意图;
图6是本公开实施例提供用于实现内存管理方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
请参见图1,图1是本公开一实施例提供的一种模型训练方法的流程图。如图1所示,所述方法包括以下步骤:
步骤S101、获取第一样本,所述第一样本包括第一文本、第一标签、第二标签和第三标签,所述第一标签用于表征所述第一文本为第一意图的概率,所述第二标签用于表征所述第一文本为第二意图的概率,所述第三标签用于表征所述第一文本为第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图;
步骤S102、将所述第一样本输入第一模型进行训练,得到训练后的目标模型;
其中,所述第一模型包括第一子模型和第二子模型,所述第一子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第一意图的概率;所述第二子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述第一文本为所述第三意图的概率。
上述第三意图可以是tob意图,所述tob意图包括以下三类子意图:第一类为5103意图:即搜索商品、搜索商贸服务和商务寻址等方面的意图,例如,当用户的搜索词为“包子机”时,由于所述“包子机”为商品,因此,可以确定所述搜索词对应的意图为5103意图;或者,当用户的搜索词为“会计代理”时,由于“会计代理”属于商贸服务,因此,可以确定所述搜索词对应的意图为5103意图。此外,当用户的搜索词为“商品名称+与寻址相关的关键词”或者“服务名称+与寻址相关的关键词”时,可以确定所述搜索词对应的意图为5103意图,其中,所述与寻址相关的关键词可以包括:在哪、位置、地址等关键词。第二类为5534意图:即搜索商品的具体内容、搜索商贸服务的具体内容和搜索商务寻址的具体内容等方面的意图,其中,所述具体内容可以是产品优缺点、产品排行榜、产品具体性能等内容,例如,用户的搜索词为“A品牌的包子机好不好时”、“A品牌的包子机的设备参数”、“包子机厂家排行榜”、“会计代理”服务机构排行榜等内容时,可以确定所述搜索词对应的意图为5534意图。第三类为5359意图:即寻找具体厂家的意图,即用户输入的搜索词为具体厂家的名称时,确定所述搜索词对应的意图为5359意图。
上述第一意图可以为5534意图,上述第二意图可以为5103意图。在基于用户的搜索词生成的样本空间中,tob意图的样本数量约占12%以上、5534意图的样本数量约占7%以上、5103意图的样本数量约占2.5%。可见,5103意图的样本数量在整个样本空间中的占比相对较少,即5103意图的样本在整个样本空间中存在样本稀疏的问题。此外,5103意图的样本通常仅包括一个产品的名称,因此5103意图的样本的文本长度通常较短,即5103意图的样本中所携带的信息较少,且当文本长度较短时,同一文本的名称可能具有不同的含义,例如,“苹果”的意图既可能是手机,还可能是指水果,因此,模型在直接学习5103样本的意图时,通常需要制定较为复杂的规则才能完成对5103样本的意图识别。可见,在基于5103意图的样本训练5103意图识别模型的过程中,由于存在样本稀疏、样本的文本长度较短、模型规则复杂等问题,所训练的得到的模型对5103意图的识别效果通常较差。
此外,由于在样本空间中,5534意图的样本的数量为5103意图的样本的数量的两倍以上,且5534意图的样本实际为5103意图的样本的内容版,因此,5534意图的样本的文本长度相比于5103意图的样本的文本长度要长。因此,基于5534意图的样本训练5534意图识别模型的任务相对简单,且训练得到的模型的精度更高。
同理,由于tob意图的样本数量约占样本空间的所有样本中的12%以上,即tob意图的样本数量为5103意图的样本的数倍,因此,tob意图的样本不存在样本稀疏的问题,且tob意图的样本中的大多数样本的文本长度较长,因此,基于tob意图的样本训练得到的tob意图识别模型的精度较高。
基于此,本公开实施例中,通过在目标模型中训练一个主任务和两个辅助任务,其中,所述主任务为5103意图识别任务(即第二子模型);所述两个辅助任务包括:5534意图识别任务(即第一子模型)和tob意图识别任务(即目标模型)。并可以在样本空间中获取大量5103意图的样本、5534意图的样本和tob意图的样本对模型进行训练。这样,训练得的目标模型可以同时识别搜索词为5103意图的概率、5534意图的概率和tob意图的概率,而当所输入的搜索词的意图不是5359意图时,P(y=’5359’|x)=0时,5103意图的概率即为:tob意图的概率减去5534意图的概率。即:
P(y=’5103’|x)=P(y=’tob’|x)-P(y=’5534’|x)
其中,所述x为搜索词,所述P(y=’5103’|x)为搜索词x的意图为5103意图的概率,P(y=’tob’|x)为搜索词x的意图为tob意图的概率,P(y=’5534’|x)为搜索词x的意图为5534意图的概率。
由于5103意图识别的结果为tob意图识别结果和5534意图识别结果的差值,因此,可以通过提高目标模型对tob意图和5534意图识别的准确性,即可提高目标模型对5103意图识别的结果的准确性。
而tob意图的样本和5534意图样本均不存在样本稀疏、文本长度较短、以及训练规则复杂等问题,因此,采用大量tob意图的样本和5534意图样本对目标模型进行训练之后,目标模型对tob意图和5534意图具有较好的识别效果,相应地,目标模型对5103意图识别的效果也将随之提高。
具体地,上述第一文本可以是样本空间中的搜索词,且所述第一文本的意图为所述5359意图之外的其他意图,例如,可以预先过滤所述样本空间中意图为5359意图的样本。这样,任意一个第一样本均满足P(y=’5359’|x)=0,也即任意一个第一样本均满足:
P(y=’5103’|x)=P(y=’tob’|x)-P(y=’5534’|x)
可以理解的是,上述第一模型也包括所述第一子模型和第二子模型,由于所述第一样本包括第一意图、第二意图和第三意图对应的标签,因此,在基于第一样本对第一模型进行训练的过程中,所述第一子模型对第一意图的识别能力、所述第二子模型对第二意图的识别能力,以及,所述第一模型对第三意图的识别能力均会提升。
上述获取第一样本可以是获取多个第一样本,所述多个第一样本中,不同第一样本中的第一文本可以不同,所述多个第一样本对应的多个第一文本可以包括:tob意图的文本、5534意图的文本、5103意图的文本,以及,非tob意图的文本。由于基于tob意图的样本对第一模型进行训练得到目标模型之后,可以使得目标模型对tob意图具有较好的识别效果;且基于5534意图的样本对第一模型进行训练得到目标模型之后,可以使得目标模型对5534意图具有较好的识别效果。因此,在经过大量第一样本对第一模型进行训练得到目标模型之后,目标模型对tob意图和5534意图具有较好的识别效果,相应地,目标模型对5103意图识别的效果也将随之提高。从而可以克服基于5103意图的样本直接对5103意图识别模型进行训练的过程中,存在的样本稀疏、样本的文本长度较短、模型规则复杂等问题。
该实施方式中,由于目标模型在对文本进行识别的过程中,可以分别识别出文本为第一意图、第二意图和第三意图的三个概率值,且该三个概率值满足:第一意图的概率值与第二意图的概率值之和等于第三概率值的关系。因此,当基于第一样本对第一模型进行训练,使得训练得到的目标模型对第一意图和第三意图均具有较好的识别效果时,目标模型对第二意图的识别效果也将相应提高,这样,在第二意图的样本质量较差的情况下,也可以使得训练得到的目标模型对第二意图具有较好的识别效果。
可选地,所述将所述第一样本输入第一模型进行训练,得到训练后的目标模型之前,所述方法还包括:
获取第二样本,所述第二样本包括第二文本和第四标签,所述第四标签用于表征所述第二文本为所述第二意图的概率;
将所述第二样本输入预先构建的初始模型进行训练,得到训练后的所述第一模型,所述初始模型包括所述第一子模型和所述第二子模型。
其中,所述第二文本可以为上述第一文本,当所述第二文本为所述第一文本时,所述第二样本与第一样本的区别在于,所述第一样本对文本同时设置了tob意图的标签、5534意图的标签和5103意图的标签;而第二样本对文本仅设置了5103意图的标签。此外,所述第二文本也可以是除所述第一文本之外的其他文本,例如,所述第二文本可以是tob意图的文本、5534意图的文本、5103意图的文本,以及,非tob意图的文本等。
由于在整个样本空间中,第二意图的样本数量占比较小,即在样本空间中存在样本不均衡的问题,因此,若直接将大量第一样本对所构建的模型进行训练,可能导致因输入的样本中真实文本为第二意图的样本数量较少,使得训练得到的目标模型对第一意图具有偏向性,进而可能导致训练得到的目标模型倾向于将文本的意图识别为第一意图。
可以理解的是,上述基于第二样本对初始模型进行训练的过程可以是:获取大量不同的第二样本,并分别将大量第二样本输入初始模型进行训练,这样,可以使得第二子模型能够具有对第二意图进行识别的先验知识。
该实施方式中,通过预先构建初始模型,并先基于具有第二意图标签的第二样本对初始模型进行训练,以使训练得到的第一模型具有对第二意图进行识别的先验知识。然后,基于第一样本对第一模型进行训练得到目标模型,这样,即便输入的各个第一样本中,存在样本不均衡的问题,也可以避免训练得到的目标模型对第一意图具有偏向性的问题,从而可以进一步提高训练得到的目标模型对意图识别效果。
可选地,所述将所述第二样本输入预先构建的初始模型进行训练,包括:
基于预先构建的第一损失函数利用所述第二子模型的输出和所述第四标签,对所述第二子模型的参数进行优化。
在本公开一个实施例中,所述第一损失函数L(θ5103)可以表示为:
其中,l为交叉熵损失函数;yi表示第四标签所指示的第二文本为第二意图的概率(即第二文本的真实意图);f(xi;θ5103)表示第二子模型对第二文本进行意图识别输出的第二文本为第二意图的概率(即第二文本的预测意图);θ5103为第二子模型的网络参数。
该实施方式中,通过基于上述第一损失函数对第二子模型的参数进行优化,这样,可以提高模型对第二意图的识别效果,以使训练得到的第一模型具有对第二意图进行识别的先验知识。
可选地,所述将所述第一样本输入第一模型进行训练,得到训练后的目标模型,包括:
将所述第一样本输入第一模型进行训练,得到训练后的第二模型;
获取第三样本,所述第三样本包括第三文本、第五标签和第六标签,所述第五标签用于表征所述第三文本为所述第一意图的概率,所述第六标签用于表征所述第三文本为所述第三意图的概率;
将所述第三样本输入所述第二模型进行训练,得到训练后的目标模型。
具体地,由于在对第一模型进行训练的过程中,可以通过提高模型对第一意图和第三意图识别的效果,以间接提高模型对第二意图的识别效果。因此,本公开实施例中,在基于第一样本对第一模型进行训练,得到第二模型之后,通过进一步采用具有第一意图标签和第三意图标签的第三样本对第二模型进一步训练,这样,可以进一步提高训练得到的目标模型对第一意图和第三意图的识别的精度,从而可以进一步提高目标模型对第二意图识别的精度。
在本公开一个实施例中,在构建初始模型之后,可以分三个阶段对初始模型进行训练,第一阶段采用上述第二样本对初始模型进行训练,得到第一模型;第二阶段采用第一样本对第一模型进行训练,得到第二模型;第三阶段采用第三样本对第二模型进行训练,得到目标模型。其中,在第二阶段的训练过程中,可以逐渐减少输入的样本中包括第二标签的样本数量,以从所述第二阶段过渡到所述第三阶段,具体地,所述第二阶段输入的样本中各个类型的样本的占比可以通过如下表达式表示:
P(y=’tob’|x)=P(y=’5534’|x)+(1-ɑ)P(y=’5103’|x)
其中,P(y=’tob’|x)表示输入的样本中,具有tob意图标签(即第三标签)的样本数量占比,P(y=’5534’|x)表示输入的样本中,具有5534意图标签(即第一标签)的样本数量占比,P(y=’5103’|x)表示输入的样本中,具有5103意图标签(即第二标签)的样本数量占比。所述ɑ的初始值为0,在模型训练的过程中,所述ɑ的取值逐渐增大,直至所述ɑ的取值为1。如此,在模型训练的初期,可以由具有5103意图标签的样本强化第二子模型对第二意图识别的能力,随着第二子模型对5103意图识别能力的提高,可以逐渐减少5103意图的样本的数量,以使第二子模型能够独立完成对第二意图的识别过程。
该实施方式中,在基于第一样本对第一模型进行训练,得到第二模型之后,进一步采用具有第一意图标签和第三意图标签的第三样本对第二模型进一步训练,这样,可以进一步提高训练得到的目标模型对第一意图和第三意图的识别的精度,从而可以进一步提高目标模型对第二意图识别的精度。
可选地,所述将所述第三样本输入所述第二模型进行训练,包括:
基于预先构建的第二损失函数利用所述第一子模型的输出、所述第二模型的输出、所述第五标签和所述第六标签,对所述第二模型的参数进行优化。
在本公开一个实施例中,所述第二损失函数L(θ5103,θ5534)可以表示为:
其中,表示第二模型对第三意图进行识别的损失函数;表示第二模型中的第一子模型对第一意图进行识别的损失函数;l为交叉熵损失函数;yi’表示第六标签所指示的第三文本为第三意图的概率;yi表示第五标签所指示的第三文本为第一意图的概率;f(xi;θ5103)+f(xi;θ5534))表示第二模型对第三文本进行识别输出的第三文本为第三意图的概率;f(xi;θ5534)表示第一子模型对第三文本进行识别输出的第三文本为第一意图的概率;θ5103表示第二子模型的网络参数,θ5534表示第一子模型的网络参数。
该实施方式中,通过基于上述第二损失函数对第二模型的参数进行优化,这样,可以进一步提高模型对第一意图和第三意图的识别效果,从而进一步提高目标模型对第二意图识别的效果。
可选地,所述第一模型还包括第三子模型,所述第一子模型和所述第二子模型分别包括n+1个节点,所述第三子模型包括n个节点,所述n为大于1的整数;
所述第一子模型的第1个节点用于在所述第一文本中,提取与所述第一意图对应的语义特征,并输出第1个第一语义向量,所述第二子模型的第1个节点用于在所述第一文本中,提取与所述第二意图对应的语义特征,并输出第1个第二语义向量,所述第三子模型的第1个节点用于提取所述第1个第一语义向量和所述第1个第二语义向量的公共语义向量,并输出第1个公共语义向量;
所述第一子模型的第i个节点用于根据所述第一子模型的第i-1节点输出的第一语义向量和所述第三子模型的第i-1个节点输出的公共语义向量,计算得到第i个第一语义向量;所述第二子模型的第i节点用于根据所述第二子模型的第i-1节点输出的第二语义向量和所述第三子模型的第i-1个节点输出的公共语义向量,计算得到第i个第二语义向量;所述第三子模型的第i个节点用于提取所述第i个第一语义向量和所述第i个第二语义向量的公共语义向量,并输出第i个公共语义向量,所述i为大于1且小于n+1的整数;
所述第一子模型的第n+1个节点用于根据所述第一子模型的第n个节点输出的第一语义向量和所述第三子模型的第n个节点输出的公共语义向量,计算得到第一文本为所述第一意图的概率;所述第二子模型的第n+1个节点用于根据所述第二子模型的第n个节点输出的第二语义向量和所述第三子模型的第n个节点输出的公共语义向量,计算得到第一文本为所述第二意图的概率。
请参见图2,为本公开实施例提供的一种模型框架的示意图,基于该模型框架可以实现本公开实施例提供的模型训练方法实施例中的各个过程。
具体地,请进一步参见图2,当第一文本输入模型框架之后,所述第一子模型的第1个节点在所述第一文本中,提取与所述第一意图对应的语义特征,并输出第1个第一语义向量,所述第二子模型的第1个节点用于在所述第一文本中,提取与所述第二意图对应的语义特征,并输出第1个第二语义向量。由于第一意图为第二意图的内容版本,例如,当所述第二意图为“榨汁机”时,所述第一意图可以为“榨汁机品牌排行榜”,可见,第一意图与第二意图在语义上存在一定的共性,相应地,所述第1个第一语义向量与第1个第二语义向量在语义上也将存在一定的共性。
基于此,本公开实施例中,为了使模型能够更好的区分第一意图与第二意图,在模型框架中增设第三子模型。请进一步参见图2,所述第一子模型的第1个节点提取到第1个第一语义向量,所述第二子模型的第1个节点提取到第1个第二语义向量之后,第三子模型的第1个节点提取所述第1个第一语义向量和所述第1个第二语义向量的公共语义向量,并输出第1个公共语义向量。这样,可以将所述第1个第一语义向量和第1个公共语义向量输入所述第一子模型的第2个节点。第一子模型的第2个节点可以根据所述第1个公共语义向量将所述第1个第一语义向量分解为公共部分和私有部分,并可以分别为公共部分和私有部分设置不同的权重,例如,可以使公共部分的权重小于私有部分的权重,以降低公共意图对意图识别过程中的影响。使得第一子模型的第2个节点输出的第2个第一语义向量更能够体现出第一文本中的第一意图对应的语义特征。
相应地,可以将所述第1个第二语义向量和第1个公共语义向量输入所述第二子模型的第2个节点。第二子模型的第2个节点可以根据所述第1个公共语义向量将所述第1个第二语义向量分解为公共部分和私有部分,并可以分别为公共部分和私有部分设置不同的权重,例如,可以使公共部分的权重小于私有部分的权重,以降低公共意图对意图识别过程中的影响。使得第二子模型的第2个节点输出的第2个第二语义向量更能够体现出第一文本中的第二意图对应的语义特征。
相应地,第三子模型的第2个节点提取所述第2个第一语义向量和所述第2个第二语义向量的公共语义向量,并输出第2个公共语义向量。然后,将第2个第一语义向量和第2个公共语义向量输入,第一子模型的第3个节点,并将第2个第二语义向量和第2个公共语义向量输入,第二子模型的第3个节点。如此,由下至上逐层传递,直至所述第一子模型的第n+1个子节点接收到第n个第一语义向量和第n个公共语义向量,以及,所述第二子模型的第n+1个子节点接收到第n个第二语义向量和第n个公共语义向量时,所述第一子模型的第n+1个节点根据所述第一子模型的第n个节点输出的第一语义向量和所述第三子模型的第n个节点输出的公共语义向量,计算得到第一文本为所述第一意图的概率;所述第二子模型的第n+1个节点根据所述第二子模型的第n个节点输出的第二语义向量和所述第三子模型的第n个节点输出的公共语义向量,计算得到第一文本为所述第二意图的概率。由于上述过程中,通过引入第三子模型,使得模型能够更好的区分语义向量中的公共部分和私有部分,并可以弱化公共部分对意图识别过程的影响、以强化私有部分对意图识别过程的影响,从而使得模型能够更好的区分第一意图和第二意图。
请进一步参见图2,所述模型框架还包括连接节点,所述第一子模型的第n+1个子节点和所述第二子模型的第n+1个子节点分别与所述连接节点连接,且所述连接节点用于接收:所述第一子模型的第n+1个子节点输出的概率值和所述第二子模型的第n+1个子节点输出的概率值,且所述连接节点还用于计算所接收到的两个概率值之和,得到第一文本为所述第三意图的概率。从而实现基于一个模型实现三个意图识别的过程。
此外,上述模型框架可以使用ernie2.0训练出的词向量进行初始化。由于ernie2.0是基于大规模中文语料进行训练,而且支持效果相比于其他的预训模型而言效果更佳。因此,可以提高对模型框架的初始化效果。同时,由于5103意图对应的文本过短,如果直接使用lstm或者textcnn,会使得句子语义信息不够丰富,需要使用强大的特征提取网络提取特征,因此,本公开实施例中采用transformer的encoder部分作为提取句子语义模块,以提高对语义特征的提取效果。
该实施方式中,通过在模型框架中增设第三子模型,以通过第三子模型提取第一子模型和第二子模型提取的语义向量中的公共语义向量。这样,可以使得模型能够更好的区分语义向量中的公共部分和私有部分,并可以弱化公共部分对意图识别过程的影响、以强化私有部分对意图识别过程的影响,从而使得模型能够更好的区分第一意图和第二意图。
可选地,所述第一子模型的第i个节点内预配置有第一权重值和第二权重值,所述第一权重值与所述第一语义向量相对应,所述第二权重值与所述公共语义向量相对应;所述第二子模型的第i个节点内预配置有第三权重值和第四权重值,所述第三权重值与所述第二语义向量相对应,所述第四权重值与所述公共语义向量相对应;
所述第一子模型的第i个节点用于根据所述第一子模型的第i-1个节点输出的第一语义向量、所述第三子模型的第i-1个节点输出的公共语义向量、所述第一权重值和所述第二权重值,计算得到第i个第一语义向量;
所述第二子模型的第i个节点用于根据所述第二子模型的第i-1个节点输出的第二语义向量、所述第三子模型的第i-1个节点输出的公共语义向量、所述第三权重值和所述第四权重值,计算得到第i个第二语义向量。
具体地,所述第一子模型的第i个节点可以计算所述第一权重值与所述第i-1个第一语义向量的乘积,得到第一子向量,同时,所述第一子模型的第i个节点可以计算所述第二权重值与第i-1个公共语义向量的乘积,得到第二子向量,然后,可以计算所述第一子向量与第二子向量之和,得到第i个第一语义向量。
相应地,所述第二子模型的第i个节点可以计算所述第三权重值与所述第i-1个第二语义向量的乘积,得到第三子向量,同时,所述第二子模型的第i个节点可以计算所述第四权重值与第i-1个公共语义向量的乘积,得到第四子向量,然后,可以计算所述第三子向量与第四子向量之和,得到第i个第二语义向量。
例如,在本公开一个实施例中,可以采用如下公式表征所述第一子模型的第i个节点或第二子模型的第i个节点基于上一层的输入计算得到第i个第一语义向量或第i个第二语义向量的过程:
Eprivate i=W(x)i-1[Eprivate i-1,Epulic i-1]
W(x)i-1=Softmax(Wx)
其中,所述Eprivate i表示第i个第一语义向量,W为参数,x表示上一层的输入,W(x)i-1表示权重,且所述W(x)i-1包括上述第一权重值和第二权重值,所述Eprivate i-1表示第i-1个第一语义向量,Epulic i-1表示第i-1个公共语义向量;或者,
所述Eprivate i表示第i个第二语义向量,W为参数,x表示上一层的输入,W(x)i-1表示权重,且所述W(x)i-1包括上述第三权重值和第四权重值,所述Eprivate i-1表示第i-1个第二语义向量,Epulic i-1表示第i-1个公共语义向量。
可以理解的是,所述第一子模型的各个节点的权重W(x)可以不同,且在基于损失函数对模型参数进行优化的过程中,可以分别对各个节点的权重W(x)进行优化。
该实施方式中,通过在第一子模型的各个节点中预配置与公共部分和私有部分对应的权重,以及,在第二子模型的各个节点中预配置与公共部分和私有部分对应的权重,这样,第一子模型和第二子模型的各个节点,可以结合本节点预配置的权重参数和上一层的输入进行计算,以得到本节点的私有语义向量。从而有利于使模型能够更好的区分第一意图和第二意图。
可选地,所述将所述第一样本输入第一模型进行训练,包括:
基于预先构建的第三损失函数利用所述第一子模型的输出、所述第一模型的输出、所述第一标签和所述第三标签,对所述第一模型的参数进行优化。
在本公开一个实施例中,所述第三损失函数L(θ5103,θ5534)可以表示为:
其中,表示第二模型对第三意图进行识别的损失函数;表示第二模型中的第一子模型对第一意图进行识别的损失函数;l为交叉熵损失函数;yi’表示第三标签所指示的第一文本为第三意图的概率;yi表示第一标签所指示的第一文本为第一意图的概率;f(xi;θ5103)+f(xi;θ5534))表示第一模型对第一文本进行识别输出的第一文本为第三意图的概率;f(xi;θ5534)表示第一子模型对第一文本进行识别输出的第一文本为第一意图的概率;θ5103表示第二子模型的网络参数,θ5534表示第一子模型的网络参数。
该实施方式中,通过基于上述第三损失函数对第一模型的参数进行优化,这样,可以进一步提高模型对第一意图和第三意图的识别效果,从而进一步提高目标模型对第二意图识别的效果。
可选地,所述获取第一样本,包括:
获取初始样本集,所述初始样本集包括文本意图为所述第三意图的样本;
基于预设字典对所述初始样本集中,文本意图为第四意图的样本进行过滤处理,得到过滤之后的目标样本集,其中,所述第四意图为所述第三意图的子意图;
从所述目标样本集中获取所述第一样本。
具体地,所述第四意图可以为5359意图,由于所述第四意图为所述tob意图的子意图,因此,若输入的第一样本中,包括具有第四意图的样本,将导致模型对同一样本进行识别确定的三个概率值不满足:第一意图的概率值与第二意图的概率值之和等于第三概率值的关系。从而影响模型的训练效果。基于此,本公开实施例中,通过在获取第一样本之前,对样本空间中文本意图为第四意图的样本进行过滤处理,以避免所获取到的第一样本中包括具有第四意图的样本。
上述预设字典可以是预先构建的厂家字典,所述厂家字典可以包括所能够获取到的所有厂家的名称。由于5359意图为寻找具体厂家的意图,因此,当文本的意图为5359意图时,文本的内容通常为具体厂家的名称,因此,可以根据所述厂家字典确定所述文本的意图是否为5359意图。从而可以实现基于所述预设字典对所述初始样本集中,文本意图为第四意图的样本进行过滤处理,得到过滤之后的目标样本集的过程。
该实施方式中,通过在获取第一样本之前,对样本空间中文本意图为第四意图的样本进行过滤处理,以避免所获取到的第一样本中包括具有第四意图的样本。从而避免在模型训练过程中,因具有第四意图的样本,而导致模型训练效果较差的问题。
请参见图3,为本公开另一实施例提供的一种意图识别方法的流程示意图,所述方法包括以下步骤:
步骤S301、获取搜索词;
步骤S302、将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率;
其中,所述目标模型包括第一子模型和第二子模型,所述第一子模型用于对所述搜索词进行识别,并输出所述搜索词为第一意图的概率;所述第二子模型用于对所述搜索词进行识别,并输出所述搜索词为第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述搜索词为所述第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图。
其中,目标模型为基于上述实施例中提供的模型训练方法训练得到的模型。且所述目标模型中的第一子模型和第二子模型对搜索词的意图识别过程,与上述实施例中各个模型的第一子模型和第二子模型的意图识别过程相同,且能实现相同的有益效果,为避免重复,在此不再予以赘述。
该实施方式中,由于基于上述模型训练方法训练得到的目标模型对文本的第二意图具有较好的识别效果,因此,通过采用所述目标模型作为搜索词的第二意图识别模型,有利于提高对搜索词的意图识别效果。
可选地,所述将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率之前,所述方法还包括:
基于预设字典确定所述搜索词的意图是否为第四意图,所述第四意图为所述第三意图的子意图;
在所述搜索词的意图为所述第四意图的情况下,输出所述搜索词的意图为所述第四意图;
所述将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率,包括:
在所述搜索词的意图不为所述第四意图的情况下,将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率。
具体地,所述第四意图可以为5359意图,由于所述第四意图为所述tob意图的子意图,因此,若输入的搜索词为具有第四意图的搜索词,将导致目标模型对搜索词进行意图识别确定的三个概率值不满足:第一意图的概率值与第二意图的概率值之和等于第三概率值的关系。从而影响模型的识别效果。
上述预设字典可以是预先构建的厂家字典,所述厂家字典可以包括所能够获取到的所有厂家的名称。由于5359意图为寻找具体厂家的意图,因此,当文本的意图为5359意图时,文本的内容通常为具体厂家的名称,因此,可以根据所述厂家字典确定所述文本的意图是否为5359意图。
该实施方式中,在基于目标模型对搜索词进行意图识别之前,通过先基于预设字典确定所述搜索词的意图是否为第四意图,在所述搜索词的意图为所述第四意图的情况下,输出所述搜索词的意图为所述第四意图;在所述搜索词的意图不为所述第四意图的情况下,将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率。如此,可以避免因输入目标模型的搜索词为具有第四意图的搜索词,而导致目标模型的识别结果不准确的问题。
可选地,所述将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率,包括:
将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第一意图的概率、所述搜索词为第二意图的概率和所述搜索词为第三意图的概率。
该实施方式中,由于目标模型在对搜索词进行意图识别的过程中,可以分别确定:搜索词为第一意图的概率、搜索词为第二意图的概率、以及搜索词为第三意图的概率。因此,在通过所述目标模型对搜索词进行意图识别的过程中,可以使所述目标模型同时输出搜索词为第一意图的概率、所述搜索词为第二意图的概率和所述搜索词为第三意图的概率。这样,仅需基于一个意图识别模型,即可识别同一搜索词分别为三种意图的概率,有利于简化意图识别的过程。
请参见图4,为本公开实施例提供的一种模型训练装置400的结构示意图,所述模型训练装置400包括:
第一获取模块401,用于获取第一样本,所述第一样本包括第一文本、第一标签、第二标签和第三标签,所述第一标签用于表征所述第一文本为第一意图的概率,所述第二标签用于表征所述第一文本为第二意图的概率,所述第三标签用于表征所述第一文本为第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图;
训练模块402,用于将所述第一样本输入第一模型进行训练,得到训练后的目标模型;
其中,所述目标模型包括第一子模型和第二子模型,所述第一子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第一意图的概率;所述第二子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述第一文本为所述第三意图的概率。
可选地,所述第一获取模块401,还用于获取第二样本,所述第二样本包括第二文本和第四标签,所述第四标签用于表征所述第二文本为所述第二意图的概率;
所述训练模块402,还用于将所述第二样本输入预先构建的初始模型进行训练,得到训练后的所述第一模型,所述初始模型包括所述第一子模型和所述第二子模型。
可选地,所述训练模块402,具体用于基于预先构建的第一损失函数利用所述第二子模型的输出和所述第四标签,对所述第二子模型的参数进行优化。
可选地,所述训练模块,包括:
第一训练子模块,用于将所述第一样本输入第一模型进行训练,得到训练后的第二模型;
第一获取子模块,用于获取第三样本,所述第三样本包括第三文本、第五标签和第六标签,所述第五标签用于表征所述第三文本为所述第一意图的概率,所述第六标签用于表征所述第三文本为所述第三意图的概率;
第二训练子模块,用于将所述第三样本输入所述第二模型进行训练,得到训练后的目标模型。
可选地,所述第二训练子模块,用于基于预先构建的第二损失函数利用所述第一子模型的输出、所述第二模型的输出、所述第五标签和所述第六标签,对所述第二模型的参数进行优化。
可选地,所述第一模型还包括第三子模型,所述第一子模型和所述第二子模型分别包括n+1个节点,所述第三子模型包括n个节点,所述n为大于1的整数;
所述第一子模型的第1个节点用于在所述第一文本中,提取与所述第一意图对应的语义特征,并输出第1个第一语义向量,所述第二子模型的第1个节点用于在所述第一文本中,提取与所述第二意图对应的语义特征,并输出第1个第二语义向量,所述第三子模型的第1个节点用于提取所述第1个第一语义向量和所述第1个第二语义向量的公共语义向量,并输出第1个公共语义向量;
所述第一子模型的第i个节点用于根据所述第一子模型的第i-1节点输出的第一语义向量和所述第三子模型的第i-1个节点输出的公共语义向量,计算得到第i个第一语义向量;所述第二子模型的第i节点用于根据所述第二子模型的第i-1节点输出的第二语义向量和所述第三子模型的第i-1个节点输出的公共语义向量,计算得到第i个第二语义向量;所述第三子模型的第i个节点用于提取所述第i个第一语义向量和所述第i个第二语义向量的公共语义向量,并输出第i个公共语义向量,所述i为大于1且小于n+1的整数;
所述第一子模型的第n+1个节点用于根据所述第一子模型的第n个节点输出的第一语义向量和所述第三子模型的第n个节点输出的公共语义向量,计算得到第一文本为所述第一意图的概率;所述第二子模型的第n+1个节点用于根据所述第二子模型的第n个节点输出的第二语义向量和所述第三子模型的第n个节点输出的公共语义向量,计算得到第一文本为所述第二意图的概率。
可选地,所述第一子模型的第i个节点内预配置有第一权重值和第二权重值,所述第一权重值与所述第一语义向量相对应,所述第二权重值与所述公共语义向量相对应;所述第二子模型的第i个节点内预配置有第三权重值和第四权重值,所述第三权重值与所述第二语义向量相对应,所述第四权重值与所述公共语义向量相对应;
所述第一子模型的第i个节点用于根据所述第一子模型的第i-1个节点输出的第一语义向量、所述第三子模型的第i-1个节点输出的公共语义向量、所述第一权重值和所述第二权重值,计算得到第i个第一语义向量;
所述第二子模型的第i个节点用于根据所述第二子模型的第i-1个节点输出的第二语义向量、所述第三子模型的第i-1个节点输出的公共语义向量、所述第三权重值和所述第四权重值,计算得到第i个第二语义向量。
可选地,所述训练模块,用于基于预先构建的第三损失函数利用所述第一子模型的输出、所述第一模型的输出、所述第一标签和所述第三标签,对所述第一模型的参数进行优化。
可选地,所述第一获取模块401,包括:
第二获取子模块,用于获取初始样本集,所述初始样本集包括文本意图为所述第三意图的样本;
过滤子模块,用于基于预设字典对所述初始样本集中,文本意图为第四意图的样本进行过滤处理,得到过滤之后的目标样本集,其中,所述第四意图为所述第三意图的子意图;
第三获取子模块,用于从所述目标样本集中获取所述第一样本。
需要说明地,本实施例提供的模型训练装置400能够实现上述模型训练方法实施例的全部技术方案,因此至少能够实现上述全部技术效果,此处不再赘述。
请参见图5,为本公开实施例提供的一种意图识别装置500的结构示意图,所述意图识别装置500,包括:
第二获取模块501,用于获取搜索词;
识别模块502,用于将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率;
其中,所述目标模型包括第一子模型和第二子模型,所述第一子模型用于对所述搜索词进行识别,并输出所述搜索词为第一意图的概率;所述第二子模型用于对所述搜索词进行识别,并输出所述搜索词为第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述搜索词为所述第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图。
可选地,所述装置还包括:
确定模块,用于基于预设字典确定所述搜索词的意图是否为第四意图,所述第四意图为所述第三意图的子意图;
输出模块,用于在所述搜索词的意图为所述第四意图的情况下,输出所述搜索词的意图为所述第四意图;
所述识别模块502,用于在所述搜索词的意图不为所述第四意图的情况下,将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率。
可选地,所述识别模块502,用于将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第一意图的概率、所述搜索词为第二意图的概率和所述搜索词为第三意图的概率。
需要说明地,本实施例提供的意图识别装置500能够实现上述意图识别方法实施例的全部技术方案,因此至少能够实现上述全部技术效果,此处不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,电子设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
电子设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如模型训练方法或意图识别方法。例如,在一些实施例中,模型训练方法或意图识别方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,执行上文描述的模型训练方法或意图识别方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行模型训练方法或意图识别方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (22)
1.一种模型训练方法,包括:
获取第一样本,所述第一样本包括第一文本、第一标签、第二标签和第三标签,所述第一标签用于表征所述第一文本为第一意图的概率,所述第二标签用于表征所述第一文本为第二意图的概率,所述第三标签用于表征所述第一文本为第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图;
将所述第一样本输入第一模型进行训练,得到训练后的目标模型;
其中,所述目标模型包括第一子模型和第二子模型,所述第一子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第一意图的概率;所述第二子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述第一文本为所述第三意图的概率;
所述将所述第一样本输入第一模型进行训练,得到训练后的目标模型之前,所述方法还包括:
获取第二样本,所述第二样本包括第二文本和第四标签,所述第四标签用于表征所述第二文本为所述第二意图的概率;
将所述第二样本输入预先构建的初始模型进行训练,得到训练后的所述第一模型,所述初始模型包括所述第一子模型和所述第二子模型;
所述将所述第一样本输入第一模型进行训练,得到训练后的目标模型,包括:
将所述第一样本输入第一模型进行训练,得到训练后的第二模型;
获取第三样本,所述第三样本包括第三文本、第五标签和第六标签,所述第五标签用于表征所述第三文本为所述第一意图的概率,所述第六标签用于表征所述第三文本为所述第三意图的概率;
将所述第三样本输入所述第二模型进行训练,得到训练后的目标模型。
2.根据权利要求1所述的方法,其中,所述将所述第二样本输入预先构建的初始模型进行训练,包括:
基于预先构建的第一损失函数利用所述第二子模型的输出和所述第四标签,对所述第二子模型的参数进行优化。
3.根据权利要求1所述的方法,其中,所述将所述第三样本输入所述第二模型进行训练,包括:
基于预先构建的第二损失函数利用所述第一子模型的输出、所述第二模型的输出、所述第五标签和所述第六标签,对所述第二模型的参数进行优化。
4.根据权利要求1所述的方法,其中,所述第一模型还包括第三子模型,所述第一子模型和所述第二子模型分别包括n+1个节点,所述第三子模型包括n个节点,所述n为大于1的整数;
所述第一子模型的第1个节点用于在所述第一文本中,提取与所述第一意图对应的语义特征,并输出第1个第一语义向量,所述第二子模型的第1个节点用于在所述第一文本中,提取与所述第二意图对应的语义特征,并输出第1个第二语义向量,所述第三子模型的第1个节点用于提取所述第1个第一语义向量和所述第1个第二语义向量的公共语义向量,并输出第1个公共语义向量;
所述第一子模型的第i个节点用于根据所述第一子模型的第i-1节点输出的第一语义向量和所述第三子模型的第i-1个节点输出的公共语义向量,计算得到第i个第一语义向量;所述第二子模型的第i节点用于根据所述第二子模型的第i-1节点输出的第二语义向量和所述第三子模型的第i-1个节点输出的公共语义向量,计算得到第i个第二语义向量;所述第三子模型的第i个节点用于提取所述第i个第一语义向量和所述第i个第二语义向量的公共语义向量,并输出第i个公共语义向量,所述i为大于1且小于n+1的整数;
所述第一子模型的第n+1个节点用于根据所述第一子模型的第n个节点输出的第一语义向量和所述第三子模型的第n个节点输出的公共语义向量,计算得到第一文本为所述第一意图的概率;所述第二子模型的第n+1个节点用于根据所述第二子模型的第n个节点输出的第二语义向量和所述第三子模型的第n个节点输出的公共语义向量,计算得到第一文本为所述第二意图的概率。
5.根据权利要求4所述的方法,其中,所述第一子模型的第i个节点内预配置有第一权重值和第二权重值,所述第一权重值与所述第一语义向量相对应,所述第二权重值与所述公共语义向量相对应;所述第二子模型的第i个节点内预配置有第三权重值和第四权重值,所述第三权重值与所述第二语义向量相对应,所述第四权重值与所述公共语义向量相对应;
所述第一子模型的第i个节点用于根据所述第一子模型的第i-1个节点输出的第一语义向量、所述第三子模型的第i-1个节点输出的公共语义向量、所述第一权重值和所述第二权重值,计算得到第i个第一语义向量;
所述第二子模型的第i个节点用于根据所述第二子模型的第i-1个节点输出的第二语义向量、所述第三子模型的第i-1个节点输出的公共语义向量、所述第三权重值和所述第四权重值,计算得到第i个第二语义向量。
6.根据权利要求1所述的方法,其中,所述将所述第一样本输入第一模型进行训练,包括:
基于预先构建的第三损失函数利用所述第一子模型的输出、所述第一模型的输出、所述第一标签和所述第三标签,对所述第一模型的参数进行优化。
7.根据权利要求1所述的方法,其中,所述获取第一样本,包括:
获取初始样本集,所述初始样本集包括文本意图为所述第三意图的样本;
基于预设字典对所述初始样本集中,文本意图为第四意图的样本进行过滤处理,得到过滤之后的目标样本集,其中,所述第四意图为所述第三意图的子意图;
从所述目标样本集中获取所述第一样本。
8.一种意图识别方法,包括:
获取搜索词;
将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率;
其中,所述目标模型为基于权利要求1-7中任意一项所述的模型训练方法训练得到的模型,所述目标模型包括第一子模型和第二子模型,所述第一子模型用于对所述搜索词进行识别,并输出所述搜索词为第一意图的概率;所述第二子模型用于对所述搜索词进行识别,并输出所述搜索词为第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述搜索词为所述第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图。
9.根据权利要求8所述的方法,其中,所述将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率之前,所述方法还包括:
基于预设字典确定所述搜索词的意图是否为第四意图,所述第四意图为所述第三意图的子意图;
在所述搜索词的意图为所述第四意图的情况下,输出所述搜索词的意图为所述第四意图;
所述将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率,包括:
在所述搜索词的意图不为所述第四意图的情况下,将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率。
10.根据权利要求8所述的方法,其中,所述将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率,包括:
将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第一意图的概率、所述搜索词为第二意图的概率和所述搜索词为第三意图的概率。
11.一种模型训练装置,包括:
第一获取模块,用于获取第一样本,所述第一样本包括第一文本、第一标签、第二标签和第三标签,所述第一标签用于表征所述第一文本为第一意图的概率,所述第二标签用于表征所述第一文本为第二意图的概率,所述第三标签用于表征所述第一文本为第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图;
训练模块,用于将所述第一样本输入第一模型进行训练,得到训练后的目标模型;
其中,所述目标模型包括第一子模型和第二子模型,所述第一子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第一意图的概率;所述第二子模型用于对所述第一文本进行识别,并输出所述第一文本为所述第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述第一文本为所述第三意图的概率;
所述第一获取模块,还用于获取第二样本,所述第二样本包括第二文本和第四标签,所述第四标签用于表征所述第二文本为所述第二意图的概率;
所述训练模块,还用于将所述第二样本输入预先构建的初始模型进行训练,得到训练后的所述第一模型,所述初始模型包括所述第一子模型和所述第二子模型;
所述训练模块,包括:
第一训练子模块,用于将所述第一样本输入第一模型进行训练,得到训练后的第二模型;
第一获取子模块,用于获取第三样本,所述第三样本包括第三文本、第五标签和第六标签,所述第五标签用于表征所述第三文本为所述第一意图的概率,所述第六标签用于表征所述第三文本为所述第三意图的概率;
第二训练子模块,用于将所述第三样本输入所述第二模型进行训练,得到训练后的目标模型。
12.根据权利要求11所述的装置,其中,所述训练模块,具体用于基于预先构建的第一损失函数利用所述第二子模型的输出和所述第四标签,对所述第二子模型的参数进行优化。
13.根据权利要求11所述的装置,其中,所述第二训练子模块,用于基于预先构建的第二损失函数利用所述第一子模型的输出、所述第二模型的输出、所述第五标签和所述第六标签,对所述第二模型的参数进行优化。
14.根据权利要求11所述的装置,其中,所述第一模型还包括第三子模型,所述第一子模型和所述第二子模型分别包括n+1个节点,所述第三子模型包括n个节点,所述n为大于1的整数;
所述第一子模型的第1个节点用于在所述第一文本中,提取与所述第一意图对应的语义特征,并输出第1个第一语义向量,所述第二子模型的第1个节点用于在所述第一文本中,提取与所述第二意图对应的语义特征,并输出第1个第二语义向量,所述第三子模型的第1个节点用于提取所述第1个第一语义向量和所述第1个第二语义向量的公共语义向量,并输出第1个公共语义向量;
所述第一子模型的第i个节点用于根据所述第一子模型的第i-1节点输出的第一语义向量和所述第三子模型的第i-1个节点输出的公共语义向量,计算得到第i个第一语义向量;所述第二子模型的第i节点用于根据所述第二子模型的第i-1节点输出的第二语义向量和所述第三子模型的第i-1个节点输出的公共语义向量,计算得到第i个第二语义向量;所述第三子模型的第i个节点用于提取所述第i个第一语义向量和所述第i个第二语义向量的公共语义向量,并输出第i个公共语义向量,所述i为大于1且小于n+1的整数;
所述第一子模型的第n+1个节点用于根据所述第一子模型的第n个节点输出的第一语义向量和所述第三子模型的第n个节点输出的公共语义向量,计算得到第一文本为所述第一意图的概率;所述第二子模型的第n+1个节点用于根据所述第二子模型的第n个节点输出的第二语义向量和所述第三子模型的第n个节点输出的公共语义向量,计算得到第一文本为所述第二意图的概率。
15.根据权利要求14所述的装置,其中,所述第一子模型的第i个节点内预配置有第一权重值和第二权重值,所述第一权重值与所述第一语义向量相对应,所述第二权重值与所述公共语义向量相对应;所述第二子模型的第i个节点内预配置有第三权重值和第四权重值,所述第三权重值与所述第二语义向量相对应,所述第四权重值与所述公共语义向量相对应;
所述第一子模型的第i个节点用于根据所述第一子模型的第i-1个节点输出的第一语义向量、所述第三子模型的第i-1个节点输出的公共语义向量、所述第一权重值和所述第二权重值,计算得到第i个第一语义向量;
所述第二子模型的第i个节点用于根据所述第二子模型的第i-1个节点输出的第二语义向量、所述第三子模型的第i-1个节点输出的公共语义向量、所述第三权重值和所述第四权重值,计算得到第i个第二语义向量。
16.根据权利要求11所述的装置,其中,所述训练模块,用于基于预先构建的第三损失函数利用所述第一子模型的输出、所述第一模型的输出、所述第一标签和所述第三标签,对所述第一模型的参数进行优化。
17.根据权利要求11所述的装置,其中,所述第一获取模块,包括:
第二获取子模块,用于获取初始样本集,所述初始样本集包括文本意图为所述第三意图的样本;
过滤子模块,用于基于预设字典对所述初始样本集中,文本意图为第四意图的样本进行过滤处理,得到过滤之后的目标样本集,其中,所述第四意图为所述第三意图的子意图;
第三获取子模块,用于从所述目标样本集中获取所述第一样本。
18.一种意图识别装置,包括:
第二获取模块,用于获取搜索词;
识别模块,用于将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率;
其中,所述目标模型为基于权利要求1-7中任意一项所述的模型训练方法训练得到的模型,所述目标模型包括第一子模型和第二子模型,所述第一子模型用于对所述搜索词进行识别,并输出所述搜索词为第一意图的概率;所述第二子模型用于对所述搜索词进行识别,并输出所述搜索词为第二意图的概率;所述目标模型用于计算所述第一子模型输出的概率和所述第二子模型输出的概率之和,得到所述搜索词为所述第三意图的概率,所述第一意图和所述第二意图属于所述第三意图中的子意图。
19.根据权利要求18所述的装置,其中,所述装置还包括:
确定模块,用于基于预设字典确定所述搜索词的意图是否为第四意图,所述第四意图为所述第三意图的子意图;
输出模块,用于在所述搜索词的意图为所述第四意图的情况下,输出所述搜索词的意图为所述第四意图;
所述识别模块,用于在所述搜索词的意图不为所述第四意图的情况下,将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第二意图的概率。
20.根据权利要求18所述的装置,其中,所述识别模块,用于将所述搜索词输入目标模型进行意图识别,得到所述目标模型输出的所述搜索词为第一意图的概率、所述搜索词为第二意图的概率和所述搜索词为第三意图的概率。
21.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的模型训练方法,或者,执行权利要求8-10中任一项所述的意图识别方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的模型训练方法,或者,执行权利要求8-10中任一项所述的意图识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111614262.3A CN114330364B (zh) | 2021-12-27 | 2021-12-27 | 模型训练方法、意图识别方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111614262.3A CN114330364B (zh) | 2021-12-27 | 2021-12-27 | 模型训练方法、意图识别方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114330364A CN114330364A (zh) | 2022-04-12 |
CN114330364B true CN114330364B (zh) | 2022-11-11 |
Family
ID=81012153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111614262.3A Active CN114330364B (zh) | 2021-12-27 | 2021-12-27 | 模型训练方法、意图识别方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114330364B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110377727A (zh) * | 2019-06-06 | 2019-10-25 | 深思考人工智能机器人科技(北京)有限公司 | 一种基于多任务学习的多标签文本分类方法和装置 |
CN110580335A (zh) * | 2018-06-07 | 2019-12-17 | 阿里巴巴集团控股有限公司 | 用户意图的确定方法及装置 |
CN111079841A (zh) * | 2019-12-17 | 2020-04-28 | 深圳奇迹智慧网络有限公司 | 目标识别的训练方法、装置、计算机设备和存储介质 |
CN111626063A (zh) * | 2020-07-28 | 2020-09-04 | 浙江大学 | 一种基于投影梯度下降和标签平滑的文本意图识别方法及系统 |
CN112905893A (zh) * | 2021-03-22 | 2021-06-04 | 北京百度网讯科技有限公司 | 搜索意图识别模型的训练方法、搜索意图识别方法及装置 |
CN113407698A (zh) * | 2021-06-30 | 2021-09-17 | 北京百度网讯科技有限公司 | 意图识别模型的训练与意图识别的方法、装置 |
CN113641896A (zh) * | 2021-07-23 | 2021-11-12 | 北京三快在线科技有限公司 | 一种模型训练以及推荐概率预测方法及装置 |
CN113657092A (zh) * | 2021-06-30 | 2021-11-16 | 北京声智科技有限公司 | 识别标签的方法、装置、设备以及介质 |
CN113806501A (zh) * | 2021-04-06 | 2021-12-17 | 京东科技控股股份有限公司 | 意图识别模型的训练方法、意图识别方法和设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113343028B (zh) * | 2021-05-31 | 2022-09-02 | 北京达佳互联信息技术有限公司 | 意图确定模型的训练方法和装置 |
-
2021
- 2021-12-27 CN CN202111614262.3A patent/CN114330364B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110580335A (zh) * | 2018-06-07 | 2019-12-17 | 阿里巴巴集团控股有限公司 | 用户意图的确定方法及装置 |
CN110377727A (zh) * | 2019-06-06 | 2019-10-25 | 深思考人工智能机器人科技(北京)有限公司 | 一种基于多任务学习的多标签文本分类方法和装置 |
CN111079841A (zh) * | 2019-12-17 | 2020-04-28 | 深圳奇迹智慧网络有限公司 | 目标识别的训练方法、装置、计算机设备和存储介质 |
CN111626063A (zh) * | 2020-07-28 | 2020-09-04 | 浙江大学 | 一种基于投影梯度下降和标签平滑的文本意图识别方法及系统 |
CN112905893A (zh) * | 2021-03-22 | 2021-06-04 | 北京百度网讯科技有限公司 | 搜索意图识别模型的训练方法、搜索意图识别方法及装置 |
CN113806501A (zh) * | 2021-04-06 | 2021-12-17 | 京东科技控股股份有限公司 | 意图识别模型的训练方法、意图识别方法和设备 |
CN113407698A (zh) * | 2021-06-30 | 2021-09-17 | 北京百度网讯科技有限公司 | 意图识别模型的训练与意图识别的方法、装置 |
CN113657092A (zh) * | 2021-06-30 | 2021-11-16 | 北京声智科技有限公司 | 识别标签的方法、装置、设备以及介质 |
CN113641896A (zh) * | 2021-07-23 | 2021-11-12 | 北京三快在线科技有限公司 | 一种模型训练以及推荐概率预测方法及装置 |
Non-Patent Citations (2)
Title |
---|
Meta-Learning with Task-Adaptive Loss Function for Few-shot Learning;Sungyong Baik 等;《https://arxiv.org/abs/2110.03909》;20211008;全文 * |
小样本学习(Few-shot learning)综述(三);丹尼尔小博士;《https://zhuanlan.zhihu.com/p/359357738》;20210323;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114330364A (zh) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113807098B (zh) | 模型训练方法和装置、电子设备以及存储介质 | |
CN112560481B (zh) | 语句处理方法、设备和存储介质 | |
CN113836314B (zh) | 知识图谱构建方法、装置、设备以及存储介质 | |
CN114579104A (zh) | 数据分析场景的生成方法、装置、设备及存储介质 | |
CN112989235A (zh) | 基于知识库的内链构建方法、装置、设备和存储介质 | |
CN113407610A (zh) | 信息抽取方法、装置、电子设备和可读存储介质 | |
CN112506359A (zh) | 输入法中候选长句的提供方法、装置及电子设备 | |
CN112906368B (zh) | 行业文本增量方法、相关装置及计算机程序产品 | |
CN114048315A (zh) | 确定文档标签的方法、装置、电子设备和存储介质 | |
CN112699237A (zh) | 标签确定方法、设备和存储介质 | |
CN114818736B (zh) | 文本处理方法、用于短文本的链指方法、装置及存储介质 | |
US20240221727A1 (en) | Voice recognition model training method, voice recognition method, electronic device, and storage medium | |
CN114330364B (zh) | 模型训练方法、意图识别方法、装置和电子设备 | |
CN115454261A (zh) | 输入法候选词生成方法、装置、电子设备及可读存储介质 | |
CN113239273B (zh) | 用于生成文本的方法、装置、设备以及存储介质 | |
CN114328855A (zh) | 文档查询方法、装置、电子设备和可读存储介质 | |
CN114417862A (zh) | 文本匹配方法、文本匹配模型的训练方法和装置 | |
CN114490969A (zh) | 基于表格的问答方法、装置以及电子设备 | |
CN114254028A (zh) | 事件属性抽取方法、装置、电子设备和存储介质 | |
CN112989805A (zh) | 一种文本检测方法、装置、设备及存储介质 | |
CN112861512A (zh) | 数据处理方法、装置、设备以及存储介质 | |
CN113032540B (zh) | 人机交互方法、装置、设备和存储介质 | |
CN116244432B (zh) | 语言模型的预训练方法、装置及电子设备 | |
CN116069914B (zh) | 训练数据的生成方法、模型训练方法以及装置 | |
CN114898754B (zh) | 解码图生成、语音识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |