CN117093682A - 意图识别方法、装置、计算机设备及存储介质 - Google Patents
意图识别方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN117093682A CN117093682A CN202310834962.6A CN202310834962A CN117093682A CN 117093682 A CN117093682 A CN 117093682A CN 202310834962 A CN202310834962 A CN 202310834962A CN 117093682 A CN117093682 A CN 117093682A
- Authority
- CN
- China
- Prior art keywords
- historical
- target
- target scene
- intention recognition
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000012549 training Methods 0.000 claims abstract description 131
- 239000013598 vector Substances 0.000 claims description 142
- 230000000875 corresponding effect Effects 0.000 claims description 114
- 238000012545 processing Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 14
- 230000002596 correlated effect Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种意图识别方法,该方法包括通过预设训练模型对历史对话数据进行相关性预测,得到问答相关标签;通过与同一历史对话数据对应的历史问题、历史回答和问答相关标签对预设训练模型进行迭代训练,得到意图识别模型;通过目标场景问题、目标场景回答以及目标场景标签对意图识别模型进行微调,得到目标意图识别模型;基目标意图识别模型对待识别问题进行意图识别,得到意图识别结果。本发明通过大量无标注的历史对话数据对预设训练模型进行预训练,通过目标场景数据微调即可应用到目标场景中,从而使得意图识别模型的具有极强的泛化性,通过目标意图识别模型对待识别问题进行意图识别,提高了目标意图识别模型的意图识别准确率。
Description
技术领域
本发明涉及自然语言技术领域,尤其涉及一种意图识别方法、装置、计算机设备及存储介质。
背景技术
随着人工智能的发展,大数据感知、人工智能客服等智能技术不断深入人们的日常生活,无论是大数据感知中的意图识别还是人工智能客服的多轮对话场景,都需要对输入进行意图识别然后做出相关的回答。因此,对输入问题的意图进行准确识别是非常关键的。
现有技术中,通常是采用人工在线客服服务平台,依靠人工服务解决客户咨询问题,而客服人员则通过对内部知识库的查询得到相应客服答案进行问题解答。或者通过智能问答系统实现的自动化客服系统,通过对用户咨询内容进行分词或语义分析与知识库内容进行匹配,由于没有考虑到场景中回答和问题之间的相关性,意图识别的准确率不高,会导致查询效率低并出现答非所问的情况,严重影响用户的体验。
发明内容
本发明实施例提供一种意图识别方法、装置、计算机设备及存储介质,以解决现有技术中没有考虑到场景中回答和问题之间的相关性,导致意图识别的准确率较低的问题。
一种意图识别方法,包括:
获取历史无标数据集,所述历史无标数据集包括至少一个历史对话数据,所述历史对话数据包括历史问题和与所述历史问题对应的历史回答;
获取预设训练模型,通过所述预设训练模型对所有所述历史问题和所有所述历史回答进行相关性预测,得到问答相关标签;所述问答相关标签用于表征所述历史问题和所述历史回答是否相关;
通过与同一所述历史对话数据对应的所述历史问题、所述历史回答和所述问答相关标签对所述预设训练模型进行迭代训练,得到意图识别模型;
获取目标场景数据集,所述目标场景数据集包括至少一个目标场景数据,以及与所述目标场景数据对应的目标场景标签;所述目标场景数据包括目标场景问题和目标场景回答;
通过所有所述目标场景问题、所有所述目标场景回答以及所述目标场景标签对所述意图识别模型进行微调,得到目标意图识别模型;
获取至少一个待识别问题,基于所述目标意图识别模型对所有所述待识别问题进行意图识别,得到与各所述待识别问题对应的意图识别结果。
一种意图识别装置,包括:
数据获取模块,用于获取历史无标数据集,所述历史无标数据集包括至少一个历史对话数据,所述历史对话数据包括历史问题和与所述历史问题对应的历史回答;
标签预测模块,用于获取预设训练模型,通过所述预设训练模型对所有所述历史问题和所有所述历史回答进行相关性预测,得到问答相关标签;所述问答相关标签用于表征所述历史问题和所述历史回答是否相关;
模型训练模块,用于通过与同一所述历史对话数据对应的所述历史问题、所述历史回答和所述问答相关标签对所述预设训练模型进行迭代训练,得到意图识别模型;
目标数据获取模块,用于获取目标场景数据集,所述目标场景数据集包括至少一个目标场景数据,以及与所述目标场景数据对应的目标场景标签;所述目标场景数据包括目标场景问题和目标场景回答;
模型微调模块,用于通过所有所述目标场景问题、所有所述目标场景回答以及所述目标场景标签对所述意图识别模型进行微调,得到目标意图识别模型;
识别结果模块,用于获取至少一个待识别问题,基于所述目标意图识别模型对所有所述待识别问题进行意图识别,得到与各所述待识别问题对应的意图识别结果。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述意图识别方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述意图识别方法。
本发明提供一种意图识别方法、装置、计算机设备及存储介质,该方法通过预设训练模型对所有历史对话数据进行预测,从而实现了对问答相关标签的获取,进而确定了历史对话数据中历史问题和历史回答是否相关,以及充分利用无标注的历史对话数据,提升了预设训练模型意图识别的效果。通过与同一历史对话数据对应的历史问题、历史回答以及问答相关标签对所述预设训练模型进行迭代训练,从而实现了对意图识别模型的确定,进而通过迭代训练,提升了意图识别模型的意图识别准确率。通过目标场景数据进行微调即可应用到目标场景中,从而使得意图识别模型的具有极强的泛化性,进而提高了目标意图识别模型的识别准确率。通过目标意图识别模型对目标场景中待识别问题进行意图识别,从而实现了对意图识别结果的确定,进而确保了意图识别结果的准确性。进一步地,通过将目标场景数据和预训练时数据设置为一致,即包括目标场景问题、目标场景回答以及目标场景标签,从而减少了预训练阶段和微调阶段之间的差距,进而提升了目标意图识别模型的识别效果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中意图识别方法的应用环境示意图;
图2是本发明一实施例中意图识别方法的流程图;
图3是本发明一实施例中意图识别方法步骤S20的流程图;
图4是本发明一实施例中意图识别方法步骤S50的流程图;
图5是本发明一实施例中意图识别装置的原理框图;
图6是本发明一实施例中计算机设备的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的意图识别方法,该意图识别方法可应用如图1所示的应用环境中。具体地,该意图识别方法应用在意图识别装置中,该意图识别装置包括如图1所示的客户端和服务器,客户端与服务器通过网络进行通信,用于解决现有技术中没有考虑到场景中回答和问题之间的相关性,导致意图识别的准确率较低的问题。其中,该服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。客户端又称为用户端,是指与服务器对应,为客户提供分类服务的程序。客户端可安装在但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备上。
在一实施例中,如图2所示,提供一种意图识别方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
S10:获取历史无标数据集,所述历史无标数据集包括至少一个历史对话数据,所述历史对话数据包括历史问题和与所述历史问题对应的历史回答。
可理解地,历史对话数据可以是从不同的客户端上获取得到,也可以是从不同的数据库中采集得到预先准备好的。进而根据获取的所有历史对话数据构建历史无标数据集。一个历史对话数据包括一个历史问题和与历史问题对应的历史回答,在不同应用场景下该历史问题和历史回答的内容不同。示例性地,在智能问答的应用场景下,该历史问题和历史回答可以为:您对公司培训是否满意?回答为:满意。此时,即可以对无标注的历史对话数据进行意图识别,从历史对话数据中抽取出语义并分类从而得到意图识别结果。在保险的应用场景下,该历史问题和历史回答可以为:这份保险多少钱?回答为:这份车险3000元。此时,即可以对无标注的历史对话数据进行意图识别,从历史对话数据中抽取出语义并分类从而得到意图识别结果。
S20:获取预设训练模型,通过所述预设训练模型对所有所述历史问题和所有所述历史回答进行相关性预测,得到问答相关标签;所述问答相关标签用于表征所述历史问题和所述历史回答是否相关。
可理解地,问答相关标签用于表征历史问题和历史回答是否相关,例如,您对公司的培训满意吗?回答:这份车险三千元,得到表征历史问题和历史回答不相关的问答相关标签。预设训练模型为提前设置用于意图识别的模型。
具体地,在得到历史无标数据集之后,从数据库中调取预设训练模型,将所有历史对话数据输入到预设训练模型中,也即将与同一历史对话数据对应的历史问题和历史回答构成的二元组输入到预设训练模型。通过预设训练模型分别对所有二元组中的历史问题和历史回答进行相关性预测,即通过预设训练模型的输入层对历史问题和历史回答进行编码处理,也即将历史问题和历史回答按照问题在前回答在后的顺序连接在一起,得到一组历史文本,再采用独热编码方式对历史文本进行编码处理,从而得到输入向量。通过预设训练模型的语义层对输入向量进行语义提取,也即通过注意力机制从输入向量中提取主要内容,从而得到语义向量。通过预设训练模型的分类层对语义向量进行预测,也即将语义向量和历史回答的输入向量进行比较,从而得到与历史对话数据对应的问答相关标签。
S30,通过与同一所述历史对话数据对应的所述历史问题、所述历史回答和所述问答相关标签对所述预设训练模型进行迭代训练,得到意图识别模型。
可理解地,意图识别模型为通过大量无标注的历史对话数据训练得到的。该收敛条件可以为预测损失值小于设定阈值的条件,还可以为预测损失值经过了500次计算后值为很小且不会再下降的条件,停止训练。
具体地,在得到所有问答相关标签之后,将与同一历史对话数据对应的历史问题、历史回答以及问答相关标签进行关联,构造出一个三元组。并将历史对话数据中的二元组中的历史问题随机替换为另一个历史对话数据中的历史问题,加上二元组中的历史回答,以及用于表征不相关的问答相关标签,构造出另一个三元组。如此构造出至少两个三元组(一组历史问题和历史回答相关的,一组历史问题和历史回答不相关的)。将构造的所有三元组输入到预设训练模型中,也即对每个三元组中的历史问题和历史回答进行意图识别,从而得到预测标签。再通过与同一三元组对应的预测标签和问答相关标签对预设训练模型的损失值进行计算,得到预设训练模型的预测损失值。进一步地,判断预测损失值是否达到收敛条件,在预测损失值未达到预设的收敛条件时,根据该预测损失值调整预设训练模型的初始参数,并将所有三元组重新输入到调整初始参数的预设训练模型中,通过三元组对调整初始参数的预设训练模型重新迭代训练,得到与调整初始参数的预设训练模型对应的预测损失值。如此,使得预设训练模型输出的结果不断向准确地结果靠拢,让预测准确率越来越高,直至将收敛后的预设训练模型记录为意图识别模型。
S40,获取目标场景数据集,所述目标场景数据集包括至少一个目标场景数据,以及与所述目标场景数据对应的目标场景标签;所述目标场景数据包括目标场景问题和目标场景回答。
可理解地,目标场景数据为某个具体场景下的对话数据,例如在智能问答的应用场景下,目标场景数据可以是某个具体场景下工作人员和客户之间的对话。目标场景数据可以是从不同的客户端上发送到服务器的,也可以是从不同的数据库中采集得到。进而根据获取的所有目标对话数据构建目标场景数据集,其中,目标场景数据集为有标注的数据。目标场景数据包括目标场景问题和目标场景回答,以及与目标场景数据对应的目标场景标签,其中,目标场景问题、目标场景标签和目标场景回答构成一个三元组,从而对意图识别模型进行微调,减少了预训练阶段和微调阶段之间的间隙。目标场景标签用于表征与目标场景标签对应的目标场景数据的意图。
S50,通过所有所述目标场景问题、所有所述目标场景回答以及所述目标场景标签对所述意图识别模型进行微调,得到目标意图识别模型。
可理解地,目标意图识别模型为通过对意图识别模型进行微调得到的,用于某一个具体场景中的模型。目标意图识别模型和意图识别模型的区别在于分类层不同。
具体地,在得到目标场景数据集之后,将所有目标场景问题、所有目标场景回答和目标场景标签均输入到意图识别模型中,对意图识别模型的参数进行调整,从而是使得意图识别模型更符合该目标场景。先将同一个目标场景数据的目标场景问题和目标场景回答进行拼接,得到一组目标文本。并通过意图识别模型的输入层对目标文本进行编码处理,也即采用独热编码方式进行编码,从而得到目标输入向量。再通过语义层对目标输入向量中的语义进行提取,也即通过注意力机制对目标输入向量进行语义提取,得到目标语义向量。并通过分类层对目标语义向量进行意图识别,从而得到目标预测标签。进一步地,通过损失函数计算所有与同一目标场景数据对应的目标预测标签和目标场景标签进行比较,即可确定意图识别模型的模型损失值。判断模型损失值是否达到收敛条件,在模型损失值未达到预设的收敛条件时,根据该模型损失值调整意图识别模型的初始参数,使得调整初始参数的意图识别模型的模型损失值达到预设的收敛条件,并将收敛的意图识别模型记录为目标意图识别模型。
S60,获取至少一个待识别问题,基于所述目标意图识别模型对所有所述待识别问题进行意图识别,得到与各所述待识别问题对应的意图识别结果
可理解地,待识别问题为目标场景下的需要进行意图识别的问题。待识别数据可以从不同的数据库中采集得到的,也可以是从客户端发送到服务器中。意图识别结果为对待识别问题进行意图得到的结果。
具体地,调取微调好的目标实体识别模型,将所有待识别问题均输入到目标意图识别模型中,通过目标意图识别模型的输入层分别对所有待识别问题进行编码处理,也即采用独热编码的方式对待识别问题进行编码,从而得到与各待识别问题对应的输入向量。再通过目标意图识别模型的语义层对输入向量进行语义提取,也即通过注意力机制对输入向量中的重要内容进行提取,从而得到与各待识别问题对应的语义向量。最后通过目标意图识别模型的更新分类层对语义向量进行意图识别,从而得到意图识别结果。如此,通过该方式即可得到所有待识别问题的意图识别结果。
在本发明实施例中的一种意图识别方法,该方法通过预设训练模型对所有历史对话数据进行预测,从而实现了对问答相关标签的获取,进而确定了历史对话数据中历史问题和历史回答是否相关,以及充分利用无标注的历史对话数据,提升了预设训练模型意图识别的效果。通过与同一历史对话数据对应的历史问题、历史回答以及问答相关标签对所述预设训练模型进行迭代训练,从而实现了对意图识别模型的确定,进而通过迭代训练,提升了意图识别模型的意图识别准确率。通过目标场景数据进行微调即可应用到目标场景中,从而使得意图识别模型的具有极强的泛化性,进而提高了目标意图识别模型的识别准确率。通过目标意图识别模型对目标场景中待识别问题进行意图识别,从而实现了对意图识别结果的确定,进而确保了意图识别结果的准确性。进一步地,通过将目标场景数据和预训练时数据设置为一致,即包括目标场景问题、目标场景回答以及目标场景标签,从而减少了预训练阶段和微调阶段之间的差距,进而提升了目标意图识别模型的识别效果。
在一实施例中,如图3所示,步骤S20中,也即通过所述预设训练模型对所有所述历史问题和所有所述历史回答进行相关性预测,得到问答相关标签,包括:
S201,通过所述预设训练模型的输入层对所述历史问题和所述历史回答进行编码处理,得到与所述历史对话数据对应的输入向量。
可理解地,输入向量为预设训练模型的输入层对历史对话数据进行处理得到的。
具体地,在得到历史无标数据集之后,将所有历史对话数据中的历史问题和历史回答按照问题在前回答在后的顺序连接在一起,得到与各个历史对话数据对应的历史文本。通过预设训练模型的输入层分别对每个历史文本进行分词,也即将历史文本划分为一个字符一个字符的,并将标点符号作为一个字符进行分割,在历史文本第一个字符之前增加CLS标志位作为开始标志,在历史问题和历史回答之间增加SEP标志位,用于区分历史问题和历史回答,并在历史回答的最后一个字符之后增加SEP标志位作为结束标志。进一步地,对每个字符和标志位的位置进行标注,该位置标注功能是通过学习得到的。将每个字符和和标志位向量化后,也即采用独热编码方式进行编码,并对所有向量按照与字符和标志位对应的位置进行拼接,从而得到与各历史对话数据对应的输入向量。
S202,通过所述预设训练模型的语义层对所有所述输入向量进行语义提取,得到与所述历史对话数据对应的语义向量。
可理解地,语义向量为用于表征历史对话数据的特征。
具体地,在得到所有输入向量之后,通过预设训练模型的语义层对所有输入向量进行语义提取,即通过多组注意力机制进行语义提取,也即通过多组注意力机制分别对输入向量中的Q向量,K向量,V向量进行计算,也即使用点积法计算输入向量中的Q向量和K向量之间的相关性得分,即用Q中的每一个向量与K中的每一个向量计算点积,并对Q向量和K向量之间的相关性得分进行归一化,得到得分向量。然后通过softmax函数将输入向量对应的得分向量转换成[0,1]之间的概率分布,并根据输入向量的概率分布,然后乘上对应的Values值,得到注意力结果。最后将不同组的注意力结果拼接起来,对注意力向量进行平均池化,从而得到与历史对话数据对应的语义向量。
S203,通过所述预设训练模型的分类层对所有所述语义向量进行预测处理,得到与所述历史对话数据对应的问答相关标签。
具体地,通过预设训练模型的分类层对所有语义向量进行预测处理,也即对语义向量进行非线性变换,也即通过分类层中的隐藏单元以不同的权重对所有语义向量进行预测,输出意图识别向量。通过计算意图识别向量和历史回答之间的相似度,通过相似度值和预设相似度阈值的比较,即可得到与历史对话数据对应的问答相关标签。
本发明实施例通过预设训练模型对历史对话数据进行编码,实现了对输入向量的确定。通过对所有输入向量进行语义提取,实现了对语义向量的提取。通过对所有语义向量进行预测,从而实现了对表征历史问题和历史回答是否相关的问答相关标签的预测,进而实现了后续通过无标注数据对预设训练模型的迭代训练。
在一实施例中,步骤S203中,也即通过所述预设训练模型的分类层对所有所述语义向量进行预测处理,得到与所述历史对话数据对应的问答相关标签,包括:
S2031,对所述语义向量和与所述历史回答对应的输入向量进行相似度处理,得到相似度值。
可理解地,相似度值为语义向量和与历史回答对应的输入向量之间的欧式距离或余弦相似度,或者通过其他计算相似度的方法进行计算得到。
具体地,在得到语义向量之后,将所有语义向量输入到分类层中进行预测,即通过分类层中的隐藏单元以不同的权重对所有语义向量进行预测,输出意图识别向量,也即将与同一历史对话数据对应的意图识别向量和与该历史对话数据对应的输入向量进行相似度处理,也即通过计算得到与该历史对话数据对应的意图识别向量和与该历史对话数据对应的输入向量之间的余弦相似度,并将计算得到的意图识别向量和与该历史对话数据对应的输入向量之间的余弦相似度确定为相似度值。
S2032,当所述相似度值大于或等于预设相似度阈值时,所述问答相关标签表征所述历史问题和所述历史回答相关。
S2033,当所述相似度值小于预设相似度阈值时,所述问答相关标签表征所述历史问题和所述历史回答不相关。
具体地,调取预设相似度阈值,将所有与历史对话数据对应的相似度值依次和预设相似度阈值进行比较,当相似度值大于或等于预设相似度阈值时,也即当语义向量和与该历史对话数据对应的输入向量之间的余弦相似度大于或等于预设阈值,从而得到表征历史问题和历史回答相关的问答相关标签。当相似度值小于预设相似度阈值时,也即当语义向量和与该历史对话数据对应的输入向量之间的余弦相似度小于预设阈值,从而得到表征历史问题和历史回答不相关的问答相关标签。如此,通过上述方式即可得到所有与历史对话数据对应的问答相关标签。
本发明实施例通过计算语义向量和历史回答的输入向量之间的相似度,从而实现了对两个向量之间的相似度值的确定。当相似度值大于或等于预设相似度阈值时,实现了对表征历史问题和历史回答相关的问答相关标签确定。当相似度值小于预设相似度阈值时,实现了对表征历史问题和历史回答不相关的问答相关标签确定,从而确保了后续意图识别模型有较高的预测准确率。
在一实施例中,步骤S30中,也即通过与同一所述历史对话数据对应的所述历史问题、所述历史回答和所述问答相关标签对所述预设训练模型进行迭代训练,得到意图识别模型,包括:
S301,通过所述预设训练模型对所有所述历史对话数据进行预测,得到预测标签。
可理解地,预测标签为对历史问题、历史回答和问答相关标签进行相关性预测得到的,即预测标签为预设训练模型预测的概率。
具体地,在得到问答相关标签之后,将历史对话数据和与历史对话数据对应的问答相关标签输入到预设训练模型中,并根据历史对话数据和与历史对话数据对应的问答相关标签构造出一个三元组(问题、回答和标签)。通过预设训练模型的输入层对所有三元组进行编码处理,也即增加CLS标志位和SEP标志位,并将三元组和标志位以向量的形式进行表示,也即采用独热编码方式进行编码,从而得到与各历史对话数据对应的输入向量。再通过预设训练模型的语义层对历史对话数据中的意图进行语义提取,也即通过注意力机制对历史对话数据中的意图进行提取,从而得到语义向量。然后通过预设训练模型的分类层对语义向量进行意图识别,得到与历史对话数据对应的预测标签。如此通过上述方式即可得到所有与历史对话数据对应的预测标签。
S302,根据与同一所述历史对话数据对应的所述历史问题、所述历史回答、所述问答相关标签以及所述预测标签,确定所述预设训练模型的预测损失值。
可理解地,预测损失值是预设训练模型在对历史问题和历史回答进行预测过程中生成的。预测损失计算公式为:y表示标签的向量,类别为C,预训练C=2,当yj=1时,表示标签为第j类,Pj为预测概率。
具体地,在得到预测标签之后,将每个历史对话数据对应的预测标签按照历史无标数据集中历史对话数据的顺序进行排列,进而将与历史对话数据对应的问答相关标签,与序列相同的历史对话数据的预测标签进行比较;也即按照历史对话数据排序,将位于第一的历史对话数据对应的问答相关标签,与位于第一的历史对话数据对应的预测标签进行比较,通过损失函数计算问答相关标签与预测标签之间的损失值;进而将位于第二的历史对话数据对应的问答相关标签,与位于第二的历史对话数据对应的预测标签进行比较,直至预测标签与问答相关标签比较完成,即可确定预设训练模型的预测损失值。
S303,在所述预测损失值未达到预设的收敛条件时,迭代更新所述预设训练模型中的初始参数,直至所述预测损失值达到所述收敛条件时,将收敛之后的所述预设训练模型记录为意图识别模型。
可理解地,该收敛条件可以为预测损失值小于设定阈值的条件,还可以为预测损失值经过了500次计算后值为很小且不会再下降的条件,停止训练。
具体地,在确定预设训练模型的预测损失值之后,判断预测损失值是否达到收敛条件,在预测损失值未达到预设的收敛条件时,通过该预测损失值调整预设训练模型的初始参数,并将所有三元组重新输入至调整初始参数的预设训练模型中,通过三元组对调整初始参数的预设训练模型重新训练,得到与调整初始参数的预设训练模型对应的预测损失值。并在该预测损失值未达到预设的收敛条件时,根据该预测损失值再次调整预设识别模型的初始参数,使得再次调整初始参数的预设训练模型的预测损失值达到预设的收敛条件。如此,使得预设训练模型输出的结果可以不断向准确地结果靠拢,让模型的预测准确率越来越高,直至预设训练模型的预测损失值均达到预设的收敛条件时,将收敛之后的预设训练模型记录为意图识别模型。
本发明实施例通过大量的历史对话数据对预设训练模型进行训练,并通过损失函数计算预测标签和问答相关标签之间的预测损失值。并根据预测损失值对预设训练模型的初始参数进行调整,直至模型收敛,从而实现了对意图识别模型的获取,进而确保了意图识别模型有较高的预测准确率。
在一实施例中,如图4所示,步骤S50中,也即通过所有所述目标场景问题、所有所述目标场景回答以及所述目标场景标签对所述意图识别模型进行微调,得到目标意图识别模型,包括:
S501,通过所述意图识别模型对所述目标场景问题和所述目标场景回答进行标签预测,得到目标预测标签。
可理解地,目标预测标签用于表征预测得到的目标场景数据的意图。
具体地,在得到目标场景数据集之后,通过意图识别模型的输入层对目标文本进行编码处理,也即在目标文本第一个字符之间增加CLS标志位,在目标场景问题和目标场景回答之间增加SEP标志位,并将目标场景回答最后一个字符之后增加SEP标志位,在对该目标文本以向量形式表示,也即采用独热编码方式进行编码,从而得到目标输入向量。通过语义层对目标输入向量中的语义进行提取,也即通过注意力机制对目标输入向量进行语义提取,得到目标语义向量。并通过分类层对目标语义向量进行意图识别,该分类层的意图类别数量和意图识别模型不同,从而得到目标预测标签。
S502,根据与同一个所述目标场景数据对应的所述目标场景标签和目标预测标签,确定所述意图识别模型的场景损失值。
可理解地,场景损失值为在对意图识别模型进行微调的过程中生成的。
具体地,在得到目标预测标签之后,将每个历史对话数据对应的目标预测标签按照历史无标数据集中历史对话数据的顺序进行排列,进而将与历史对话数据对应的目标场景标签,与序列相同的历史对话数据的目标预测标签进行比较;也即按照历史对话数据排序,将位于第一的历史对话数据对应的目标场景标签,与位于第一的历史对话数据对应的目标预测标签进行比较,通过损失函数计算目标场景标签与目标预测标签之间的损失值;进而将位于第二的历史对话数据对应的目标场景标签,与位于第二的历史对话数据对应的目标预测标签进行比较,直至所有目标预测标签与目标场景标签比较完成,即可确定预设训练模型的场景损失值。
S503,在所述场景损失值达到预设收敛条件时,将收敛之后的意图识别模型确定为目标意图识别模型。
具体地,在得到场景损失值之后,判断模型损失值是否达到收敛条件,在模型损失值未达到预设的收敛条件时,根据该模型损失值调整意图识别模型的初始参数,并将所有目标场景数据重新输入至调整初始参数后的意图识别模型中,通过目标场景数据重新对调整初始参数的意图识别模型重新训练,得到与调整初始参数的意图识别模型对应的模型损失值,使得调整初始参数的预设训练模型的模型损失值达到预设的收敛条件。如此,使得意图识别模型输出的结果可以不断向准确地结果靠拢,让预测准确率越来越高,直至将收敛的意图识别模型记录为目标意图识别模型。
本发明实施例通过目标场景数据对意图识别场景进行微调,从而使得意图识别模型的意图识别更符合目标场景。通过使得目标场景数据包括目标场景问题、目标场景回答以及目标场景标签,从而减少了预训练阶段和微调阶段之间的差距,进而提升了目标意图识别模型的意图识别效果。
在一实施例中,步骤S501中,也即,通过所述意图识别模型对所述目标场景问题和所述目标场景回答进行标签预测,得到目标预测标签,包括:
S5011,将意图识别模型的分类层的分类类别数量设置为目标意图场景的预设类别数量,得到更新意图识别模型。
S5012,通过所述更新意图识别模型的输入层对所述目标场景问题和所述目标场景回答进行编码处理,得到与所述目标场景数据对应的目标输入向量。
可理解地,更新意图识别模型为对意图识别模型中分类层的分类类别数量更新为目标场景的预设类别数量得到的。预设类别数量为根据每个具体场景进行设置的与目标场景关联。
具体地,在得到目标场景数据集之后,根据目标场景数据集,从数据库中调取与该目标场景对应的预设类别数量,并将意图识别模型的分类层的分类类别数量更新为预设类别数量,即可得到更新意图识别模型。先将同一个目标场景数据的目标场景问题和目标场景回答按照问题在前回答在后的方式进行拼接,得到一组目标文本。如此即可得到与各目标场景数据对应的目标文本。将所有目标文本输入到更新意图识别模型中,通过更新意图识别模型的输入层对目标场景问题和目标场景回答进行编码处理,也即在目标文本第一个字符之间增加CLS标志位,在目标场景问题和目标场景回答之间增加SEP标志位,并将目标场景回答最后一个字符之后增加SEP标志位,在对该目标文本以向量形式表示,并采用独热编码方式进行编码,从而得到与各目标场景数据对应的目标输入向量。
S5013,通过所述更新意图识别模型的语义层对所有所述目标输入向量进行语义提取,得到与所述目标场景数据对应的目标语义向量。
S5014,通过所述更新意图识别模型的分类层对所有所述目标语义向量进行意图识别处理,得到与所述目标场景数据对应的目标预测标签。
可理解地,目标语义向量为根据更新意图识别模型对目标输入向量进行语义提取得到的,即目标文本中的重要内容。
具体地,在得到目标输入向量之后,通过更新意图识别模型的语义层对所有目标输入向量进行语义提取,也即通过多组注意力机制分别对输入向量中的Q向量,K向量,V向量进行计算,得到得分向量。再将输入向量对应的得分向量转换成[0,1]之间的概率分布,然后乘上对应的Values值,得到注意力结果。将不同组的注意力结果拼接起来,得到注意力向量,对注意力向量进行平均池化,从而得到与各目标场景数据对应的目标语义向量。进一步地,通过更新意图识别模型的分类层对所有目标语义向量进行意图识别处理,即通过分类层中的隐藏单元以不同的权重对所有语义向量进行意图识别,输出意图向量,也即通过关系式(P=softmax(SW+b),W、b均为可学习的模型参数)对意图向量进行计算,并将概率最大的意图向量确定为与目标场景数据对应的目标预测标签。
本发明实施例通过对意图识别模型进行更新,从而使得意图识别模型的意图识别更符合目标场景,进而实现了对更新意图识别模型的确定。通过更新意图识别模型对目标场景数据进行意图识别,从而实现了对目标预测标签的确定,进而确保了所有目标预测标签的准确率。
应理解,上述实施例中各步骤的序号的大小并不意味着执的行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种意图识别装置,该意图识别装置与上述实施例意图识别方法一一对应。如图5所示,该意图识别装置包括数据获取模块11、标签预测模块12、模型训练模块13、目标数据获取模块14、模型微调模块15和识别结果模块16。各功能模块详细说明如下:
数据获取模块11,用于获取历史无标数据集,所述历史无标数据集包括至少一个历史对话数据,所述历史对话数据包括历史问题和与所述历史问题对应的历史回答;
标签预测模块12,用于获取预设训练模型,通过所述预设训练模型对所有所述历史问题和所有所述历史回答进行相关性预测,得到问答相关标签;所述问答相关标签用于表征所述历史问题和所述历史回答是否相关;
模型训练模块13,用于通过与同一所述历史对话数据对应的所述历史问题、所述历史回答和所述问答相关标签对所述预设训练模型进行迭代训练,得到意图识别模型;
目标数据获取模块14,用于获取目标场景数据集,所述目标场景数据集包括至少一个目标场景数据,以及与所述目标场景数据对应的目标场景标签;所述目标场景数据包括目标场景问题和目标场景回答;
模型微调模块15,用于通过所有所述目标场景问题、所有所述目标场景回答以及所述目标场景标签对所述意图识别模型进行微调,得到目标意图识别模型;
识别结果模块16,用于获取至少一个待识别问题,基于所述目标意图识别模型对所有所述待识别问题进行意图识别,得到与各所述待识别问题对应的意图识别结果。
在一实施例中,所述标签预测模块12包括:
输入向量单元,用于通过所述预设训练模型的输入层对所述历史问题和所述历史回答进行编码处理,得到与所述历史对话数据对应的输入向量;
语义向量单元,用于通过所述预设训练模型的语义层对所有所述输入向量进行语义提取,得到与所述历史对话数据对应的语义向量;
相关标签单元,用于通过所述预设训练模型的分类层对所有所述语义向量进行预测处理,得到与所述历史对话数据对应的问答相关标签。
在一实施例中,所述问答相关标签包括:
比较单元,用于对所述语义向量和与所述历史回答对应的输入向量进行相似度处理,得到相似度值;
相关单元,用于当所述相似度值大于或等于预设相似度阈值时,所述问答相关标签表征所述历史问题和所述历史回答相关;
不相关单元,用于当所述相似度值小于预设相似度阈值时,所述问答相关标签表征所述历史问题和所述历史回答不相关。
在一实施例中,所述模型训练模块13包括:
标签预测单元,用于通过所述预设训练模型对所有所述历史对话数据进行预测,得到预测标签;
损失预测单元,用于根据与同一所述历史对话数据对应的所述历史问题、所述历史回答、所述问答相关标签以及所述预测标签,确定所述预设训练模型的预测损失值;
模型收敛单元,用于在所述预测损失值未达到预设的收敛条件时,迭代更新所述预设训练模型中的初始参数,直至所述预测损失值达到所述收敛条件时,将收敛之后的所述预设训练模型记录为意图识别模型。
在一实施例中,所述模型微调模块15包括:
目标标签预测单元,用于通过所述意图识别模型对所述目标场景问题和所述目标场景回答进行标签预测,得到;
场景损失值单元,用于根据与同一个所述目标场景数据对应的所述目标场景标签和目标预测标签,确定所述意图识别模型的场景损失值;
目标模型单元,用于在所述场景损失值达到预设收敛条件时,将收敛之后的意图识别模型确定为目标意图识别模型。
在一实施例中,所述目标标签预测单元包括:
更新单元,用于将意图识别模型的分类层的分类类别数量设置为目标意图场景的预设类别数量,得到更新意图识别模型;
目标输入向量单元,用于通过所述更新意图识别模型的输入层对所述目标场景问题和所述目标场景回答进行编码处理,得到与所述目标场景数据对应的目标输入向量;
目标语义向量单元,用于通过所述更新意图识别模型的语义层对所有所述目标输入向量进行语义提取,得到与所述目标场景数据对应的目标语义向量;
目标预测标签单元,用于通过所述更新意图识别模型的分类层对所有所述目标语义向量进行意图识别处理,得到与所述目标场景数据对应的目标预测标签。
关于意图识别装置的具体限定可以参见上文中对于意图识别方法的限定,在此不再赘述。上述意图识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储上述实施例意图识别方法所用到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。所述计算机程序被处理器执行时实现上述意图识别方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述意图识别方法。
在一个实施例中,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述意图识别方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围内。
Claims (10)
1.一种意图识别方法,其特征在于,包括:
获取历史无标数据集,所述历史无标数据集包括至少一个历史对话数据,所述历史对话数据包括历史问题和与所述历史问题对应的历史回答;
获取预设训练模型,通过所述预设训练模型对所有所述历史问题和所有所述历史回答进行相关性预测,得到问答相关标签;所述问答相关标签用于表征所述历史问题和所述历史回答是否相关;
通过与同一所述历史对话数据对应的所述历史问题、所述历史回答和所述问答相关标签对所述预设训练模型进行迭代训练,得到意图识别模型;
获取目标场景数据集,所述目标场景数据集包括至少一个目标场景数据,以及与所述目标场景数据对应的目标场景标签;所述目标场景数据包括目标场景问题和目标场景回答;
通过所有所述目标场景问题、所有所述目标场景回答以及所述目标场景标签对所述意图识别模型进行微调,得到目标意图识别模型;
获取至少一个待识别问题,基于所述目标意图识别模型对所有所述待识别问题进行意图识别,得到与各所述待识别问题对应的意图识别结果。
2.如权利要求1所述的意图识别方法,其特征在于,所述通过所述预设训练模型对所有所述历史问题和所有所述历史回答进行相关性预测,得到问答相关标签,包括:
通过所述预设训练模型的输入层对所述历史问题和所述历史回答进行编码处理,得到与所述历史对话数据对应的输入向量;
通过所述预设训练模型的语义层对所有所述输入向量进行语义提取,得到与所述历史对话数据对应的语义向量;
通过所述预设训练模型的分类层对所有所述语义向量进行预测处理,得到与所述历史对话数据对应的问答相关标签。
3.如权利要求2所述的意图识别方法,其特征在于,所述通过所述预设训练模型的分类层对所有所述语义向量进行预测处理,得到与所述历史对话数据对应的问答相关标签,包括:
对所述语义向量和与所述历史回答对应的输入向量进行相似度处理,得到相似度值;
当所述相似度值大于或等于预设相似度阈值时,所述问答相关标签表征所述历史问题和所述历史回答相关;
当所述相似度值小于预设相似度阈值时,所述问答相关标签表征所述历史问题和所述历史回答不相关。
4.如权利要求1所述的意图识别方法,其特征在于,所述通过与同一所述历史对话数据对应的所述历史问题、所述历史回答和所述问答相关标签对所述预设训练模型进行迭代训练,得到意图识别模型,包括:
通过所述预设训练模型对所有所述历史对话数据进行预测,得到预测标签;
根据与同一所述历史对话数据对应的所述历史问题、所述历史回答、所述问答相关标签以及所述预测标签,确定所述预设训练模型的预测损失值;
在所述预测损失值未达到预设的收敛条件时,迭代更新所述预设训练模型中的初始参数,直至所述预测损失值达到所述收敛条件时,将收敛之后的所述预设训练模型记录为意图识别模型。
5.如权利要求1所述的意图识别方法,其特征在于,所述通过所有所述目标场景问题、所有所述目标场景回答以及所述目标场景标签对所述意图识别模型进行微调,得到目标意图识别模型,包括:
通过所述意图识别模型对所述目标场景问题和所述目标场景回答进行标签预测,得到目标预测标签;
根据与同一个所述目标场景数据对应的所述目标场景标签和目标预测标签,确定所述意图识别模型的场景损失值;
在所述场景损失值达到预设收敛条件时,将收敛之后的意图识别模型确定为目标意图识别模型。
6.如权利要求5所述的意图识别方法,其特征在于,所述通过所述意图识别模型对所述目标场景问题和所述目标场景回答进行标签预测,得到目标预测标签,包括:
将意图识别模型的分类层的分类类别数量设置为目标意图场景的预设类别数量,得到更新意图识别模型;
通过所述更新意图识别模型的输入层对所述目标场景问题和所述目标场景回答进行编码处理,得到与所述目标场景数据对应的目标输入向量;
通过所述更新意图识别模型的语义层对所有所述目标输入向量进行语义提取,得到与所述目标场景数据对应的目标语义向量;
通过所述更新意图识别模型的分类层对所有所述目标语义向量进行意图识别处理,得到与所述目标场景数据对应的目标预测标签。
7.一种意图识别装置,其特征在于,包括:
数据获取模块,用于获取历史无标数据集,所述历史无标数据集包括至少一个历史对话数据,所述历史对话数据包括历史问题和与所述历史问题对应的历史回答;
标签预测模块,用于获取预设训练模型,通过所述预设训练模型对所有所述历史问题和所有所述历史回答进行相关性预测,得到问答相关标签;所述问答相关标签用于表征所述历史问题和所述历史回答是否相关;
模型训练模块,用于通过与同一所述历史对话数据对应的所述历史问题、所述历史回答和所述问答相关标签对所述预设训练模型进行迭代训练,得到意图识别模型;
目标数据获取模块,用于获取目标场景数据集,所述目标场景数据集包括至少一个目标场景数据,以及与所述目标场景数据对应的目标场景标签;所述目标场景数据包括目标场景问题和目标场景回答;
模型微调模块,用于通过所有所述目标场景问题、所有所述目标场景回答以及所述目标场景标签对所述意图识别模型进行微调,得到目标意图识别模型;
识别结果模块,用于获取至少一个待识别问题,基于所述目标意图识别模型对所有所述待识别问题进行意图识别,得到与各所述待识别问题对应的意图识别结果。
8.如权利要求7所述的意图识别装置,其特征在于,所述标签预测模块,包括:
输入向量单元,用于通过所述预设训练模型的输入层对所述历史问题和所述历史回答进行编码处理,得到与所述历史对话数据对应的输入向量;
语义向量单元,用于通过所述预设训练模型的语义层对所有所述输入向量进行语义提取,得到与所述历史对话数据对应的语义向量;
相关标签单元,用于通过所述预设训练模型的分类层对所有所述语义向量进行预测处理,得到与所述历史对话数据对应的问答相关标签。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述意图识别方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述意图识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310834962.6A CN117093682A (zh) | 2023-07-07 | 2023-07-07 | 意图识别方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310834962.6A CN117093682A (zh) | 2023-07-07 | 2023-07-07 | 意图识别方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117093682A true CN117093682A (zh) | 2023-11-21 |
Family
ID=88772548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310834962.6A Pending CN117093682A (zh) | 2023-07-07 | 2023-07-07 | 意图识别方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117093682A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117493530A (zh) * | 2023-12-27 | 2024-02-02 | 苏州元脑智能科技有限公司 | 资源需求分析方法、装置、电子设备以及存储介质 |
-
2023
- 2023-07-07 CN CN202310834962.6A patent/CN117093682A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117493530A (zh) * | 2023-12-27 | 2024-02-02 | 苏州元脑智能科技有限公司 | 资源需求分析方法、装置、电子设备以及存储介质 |
CN117493530B (zh) * | 2023-12-27 | 2024-03-22 | 苏州元脑智能科技有限公司 | 资源需求分析方法、装置、电子设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10963637B2 (en) | Keyword extraction method, computer equipment and storage medium | |
CN113157863B (zh) | 问答数据处理方法、装置、计算机设备及存储介质 | |
CN109829629B (zh) | 风险分析报告的生成方法、装置、计算机设备和存储介质 | |
CN110909137A (zh) | 基于人机交互的信息推送方法、装置和计算机设备 | |
CN110569500A (zh) | 文本语义识别方法、装置、计算机设备和存储介质 | |
CN113094578B (zh) | 基于深度学习的内容推荐方法、装置、设备及存储介质 | |
CN111859916B (zh) | 古诗关键词提取、诗句生成方法、装置、设备及介质 | |
CN110457585B (zh) | 负面文本的推送方法、装置、系统及计算机设备 | |
CN112766319A (zh) | 对话意图识别模型训练方法、装置、计算机设备及介质 | |
CN110750523A (zh) | 数据标注方法、系统、计算机设备和存储介质 | |
CN112699923A (zh) | 文档分类预测方法、装置、计算机设备及存储介质 | |
CN110362798B (zh) | 裁决信息检索分析方法、装置、计算机设备和存储介质 | |
CN114139551A (zh) | 意图识别模型的训练方法及装置、意图识别的方法及装置 | |
CN115495553A (zh) | 查询文本排序方法、装置、计算机设备及存储介质 | |
CN115827819A (zh) | 一种智能问答处理方法、装置、电子设备及存储介质 | |
CN113254613A (zh) | 对话问答方法、装置、设备及存储介质 | |
CN117093682A (zh) | 意图识别方法、装置、计算机设备及存储介质 | |
CN112101042A (zh) | 文本情绪识别方法、装置、终端设备和存储介质 | |
CN112395887A (zh) | 对话应答方法、装置、计算机设备和存储介质 | |
CN110377618B (zh) | 裁决结果分析方法、装置、计算机设备和存储介质 | |
US11481389B2 (en) | Generating an executable code based on a document | |
WO2023134085A1 (zh) | 问题答案的预测方法、预测装置、电子设备、存储介质 | |
CN115203372A (zh) | 文本意图分类方法、装置、计算机设备及存储介质 | |
CN115240676A (zh) | 智能外呼方法、装置、计算机设备及存储介质 | |
CN114969544A (zh) | 基于热点数据的推荐内容生成方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |