CN117610580A - 基于大模型的指令识别方法、装置、电子设备及存储介质 - Google Patents
基于大模型的指令识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN117610580A CN117610580A CN202311494834.8A CN202311494834A CN117610580A CN 117610580 A CN117610580 A CN 117610580A CN 202311494834 A CN202311494834 A CN 202311494834A CN 117610580 A CN117610580 A CN 117610580A
- Authority
- CN
- China
- Prior art keywords
- target
- large model
- instruction
- slot
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012937 correction Methods 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 9
- 238000003058 natural language processing Methods 0.000 abstract description 6
- 238000013135 deep learning Methods 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本公开提出一种基于大模型的指令识别方法、装置、电子设备及存储介质,涉及计算机技术领域,尤其涉及大模型、自然语言处理、深度学习等人工智能技术领域,可应用于任务型对话系统等。具体实现方案为:接收指令识别请求,其中,识别请求中包括待识别的输入语句及输入语句所属应用的类型;获取与应用的类型关联的目标提示信息及目标大模型;将输入语句及目标提示信息输入目标大模型,以获取目标大模型输出的至少一个槽位值集合;基于至少一个槽位值集合,确定输入语句对应的目标指令。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及大模型、自然语言处理、深度学习等人工智能技术领域,具体涉及一种基于大模型的指令识别方法、装置、电子设备及存储介质。
背景技术
意图识别和槽位填充是任务型对话系统的关键组成部分,而在各类应用中如何对用户输入进行意图识别和槽位填充,来识别指令并执行相应操作,是提高应用智能化的关键。
发明内容
本公开旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本公开的目的在于提出一种基于大模型的指令识别方法、装置、电子设备及存储介质,提高了指令识别的效率和准确性,进一步提高了应用的性能。
根据本公开第一方面,提供了一种基于大模型的指令识别方法,包括:
接收指令识别请求,其中,所述识别请求中包括待识别的输入语句及所述输入语句所属应用的类型;
获取与所述应用的类型关联的目标提示信息及目标大模型;
将所述输入语句及所述目标提示信息输入所述目标大模型,以获取所述目标大模型输出的至少一个槽位值集合;
基于所述至少一个槽位值集合,确定所述输入语句对应的目标指令。
根据本公开第二方面,提供了一种基于大模型的指令识别装置,包括:
接收模块,用于接收指令识别请求,其中,所述识别请求中包括待识别的输入语句及所述输入语句所属应用的类型;
第一获取模块,用于获取与所述应用的类型关联的目标提示信息及目标大模型;
第二获取模块,用于将所述输入语句及所述目标提示信息输入所述目标大模型,以获取所述目标大模型输出的至少一个槽位值集合;
确定模块,用于基于所述至少一个槽位值集合,确定所述输入语句对应的目标指令。
根据本公开第三方面,提供了一种用于指令识别的大模型的训练方法,包括:
获取种子语料集,其中,所述种子语料集中包括种子输入语句及所述种子输入语句关联的目标槽位值集合:
将所述种子输入语句及第一提示信息,输入第一大模型,以获取所述第一大模型生成的与所述种子输入语句关联的多个参考输入语句;
分别将所述参考输入语句或所述种子输入语句,及预设的提示信
息,输入到第二大模型,以获取所述第二大模型输出的预测槽位值集合;
基于所述预测槽位值集合与所述目标槽位值集合间的差异,对所述第二大模型进行微调,以获取用于指令识别的大模型。
根据本公开第四方面,提供了一种基于大模型的指令识别装置,包括:
第三获取模块,用于获取种子语料集,其中,所述种子语料集中包括种子输入语句及所述种子输入语句关联的目标槽位值集合:
第四获取模块,用于将所述种子输入语句及第一提示信息,输入第一大模型,以获取所述第一大模型生成的与所述种子输入语句关联的多个参考输入语句;
第五获取模块,用于分别将所述参考输入语句或所述种子输入语句,及预设的提示信息,输入到第二大模型,以获取所述第二大模型输出的预测槽位值集合;
第六获取模块,用于基于所述预测槽位值集合与所述目标槽位值集合间的差异,对所述第二大模型进行微调,以获取用于指令识别的大模型。
根据本公开的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面所述的基于大模型的指令识别方法,以及如第三方面所述的用于指令识别的大模型的训练方法。
根据本公开第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如第一方面所述的基于大模型的指令识别方法,以及如第三方面所述的用于指令识别的大模型的训练方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机指令,所述计算机指令在被处理器执行时实现如第一方面所述的基于大模型的指令识别方法,以及如第三方面所述的用于指令识别的大模型的训练方法的步骤。
本公开提供的基于大模型的指令识别方法、装置、电子设备及存储介质,存在如下有益效果:
本公开中,通过利用当前场景关联的提示信息和大模型,获取输入语句对应的槽位值集合,进而再确定目标指令,提高了指令识别的效率和准确性,进一步提高了应用的性能。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
本公开上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,附图用于更好地理解本方案,不构成对本公开的限定,其中:
图1是根据本公开一实施例提出的基于大模型的指令识别方法的流程示意图;
图2是根据本公开一实施例提出的用于指令识别的大模型的训练方法的流程示意图;
图3是根据本公开一实施例提出的基于大模型的指令识别装置的结构示意图;
图4是根据本公开一实施例提出的用于指令识别的大模型的训练装置的结构示意图;
图5示出了适于用来实现本公开实施方式的示例性电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开实施例涉及大模型、自然语言处理、深度学习等人工智能技术领域。
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
大语言模型(Large Language Model,LLM),即大模型,是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等,是通向人工智能的一条重要途径。
自然语言处理(Natural Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。
深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
下面参考附图描述本公开实施例的基于大模型的指令识别方法、装置、电子设备及存储介质。
其中,需要说明的是,本实施例的基于大模型的指令识别方法的执行主体为基于大模型的指令识别装置,用于指令识别的大模型的训练方法的执行主体为用于指令识别的大模型的训练装置,上述两个装置均可以由软件和/或硬件的方式实现,且可以配置在电子设备中,电子设备可以包括但不限于终端、服务器端等。本公开实施例中以基于大模型的指令识别装置,用于指令识别的大模型的训练装置被配置到指令识别系统中为例来进行说明。
图1是根据本公开一实施例提出的基于大模型的指令识别方法的流程示意图。
如图1所示,该基于大模型的指令识别方法,包括:
S101:接收指令识别请求。
其中,识别请求中包括待识别的输入语句及输入语句所属应用的类型。
本公开实施例中,基于大模型的指令识别系统可以应用在不同类型应用的指令功能中,在接收到包含用户意图的输入语句之后,可以基于所属应用的类型,进行针对性的指令识别,使得应用可以根据识别到的指令,更准确快速地获得响应结果。
S102:获取与应用的类型关联的目标提示信息及目标大模型。
其中,目标提示信息(prompt),是用于引导目标大模型,基于输入语句来输出指令中各槽值的文本。目标大模型,是通过基于应用类型关联的语料数据,对初始大模型进行微调后获取的。
本公开实施例中,可以预先设置应用的类型与目标提示信息间的关联关系表,以及与目标大模型的对应关系,然后根据所属应用的类型,就可以分别查找到目标提示信息和目标大模型。或者,也可以在确定关联的目标大模型之后,根据应用的类型关联的目标槽位的类型,修改预设的提示信息模板,来获取引用类型关联的目标提示信息。
可选地,可以获取与应用的类型关联的目标槽位的类型及目标大模型,然后基于目标槽位的类型,生成目标提示信息。
其中,目标槽位的类型可以为指令类别、指令细节、指令对象、指令对象位置以及指令内容中的至少一项。
本公开实施例中,指令类别对应输入语句中的用户意图,例如字体颜色、背景色、字号等;指令细节为输入语句对应指令的细节,如“背景色设为红色”指令的细节为“红色”;指令对象为输入语句对应的指令操作的粒度,如“把第一段加粗”的指令对象为“段落”;指令对象位置为指令对象的具体位置,如“把第一段加粗”的指令对象位置为“1”,“把第二页字体变成宋体”的指令对象位置为“2”;指令内容为更细粒度的指令内容,如“把第一段的关键词加粗”的指令内容是“关键词”。由此,通过将目标槽位分为多种类型,可以更有条理的描述输入语句对应的目标指令中的内容。
举例来说,应用为文本编辑器,关联的目标槽位包含指令类别,指令细节,指令对象,指令对象位置,以及指令内容,则将关联的目标槽位填入到提示信息模板之后,可以生成目标提示信息为“编辑指令是一种五元指令(指令类别,指令细节,指令对象,指令对象位置,指令内容),指令类别有以下x种:……(此处为意图集合),那么{输入语句}的编辑指令是什么?请以(x,x,x,x,x),(x,x,x,x,x),...的格式输出。”
本公开实施例中,根据应用的类型关联的目标槽位的类型,来生成目标提升信息,可以使得生成的目标提示信息更加适用于当前应用场景,保证了识别到的目标指令的高可用性。
S103:将输入语句及目标提示信息输入目标大模型,以获取目标大模型输出的至少一个槽位值集合。
其中,槽位值,是指在输入语句中,目标槽位对应的值。
在本公开中,输入语句中可能包含多个意图,将输入语句及目标提示信息输入目标大模型后,目标大模型可以先基于目标提示信息中的意图集合,来识别输入语句中包含的意图数量,然后基于每一个意图输出一个槽位值集合,各槽位值集合间可以使用指定的符号分割,比如逗号。
可选地,可以将输入语句及目标提示信息输入目标大模型,以获取目标大模型的输出数据,然后对输出数据进行识别,将输出数据中每个预设符号组内的数据,确定为一个槽位值集合。
其中,预设符号,是用于标识一组数据为一个槽位值集合的符号,可以是小括号“()”等等,本公开对此不做限定。
举例来说,输入语句为“把第一段的关键词的字体颜色变成红色,把第二段的关键词加粗”,目标提示信息为“编辑指令是一种五元指令(指令类别,指令细节,指令对象,指令对象位置,指令内容),指令类别有以下x种:……(此处为意图集合)那么{输入语句}的编辑指令是什么?请以(x,x,x,x,x),(x,x,x,x,x),...的格式输出”。将输入语句和目标提示信息输入到目标大模型后,目标大模型输出数据为“(字体颜色,红色,段落,1,关键词),(加粗,段落,2,关键词)”,则获取的两个槽位值集合为(字体颜色,红色,段落,1,关键词)和(加粗,段落,2,关键词)。
本公开实施例中,基于预设符号,确定目标大模型输出数据中的多个槽位值集合,可以将不同意图对应的槽位值区分开,进一步提高多意图指令的识别的准确性。
S104:基于至少一个槽位值集合,确定输入语句对应的目标指令。
本公开实施例中,可以分别将每一个槽位值集合中包含的值填充到指令模板中,来分别确定输入语句对应的多个目标指令。或者,也可以对多个槽位值集合进行排序等操作,确定输入语句对应的一个目标指示。
可选地,在槽位值集合为多个的情况下,可以根据应用的类型,确定多个槽位值集合中每个槽位值集合的优先级,及待填充的指令模板。然后基于优先级,利用多个槽位值集合对指令模板进行槽位填充,以获取输入语句对应的目标指令。
本公开实施例中,在槽位值集合为多个的情况下,可以根据各个槽位值集合中的槽位值与应用类型相关程度,来确定槽位值集合的优先级。例如,在文本编辑器的应用中,指令类别为字体颜色的槽位值集合的优先级,要高于指令类别为图片尺寸的槽位值集合;而在幻灯片编辑器中,指令类别为图片尺寸的槽位值集合的优先级,要高于指令类别为字体颜色的槽位值集合。
之后,根据优先级从高到低的顺序,利用槽位值集合对待填充的指令模板进行填充,直到完成全部槽位值集合的填充,则可以得到输入语句对应的目标指令。从而,可以避免与应用相关度较低的槽位值集合对指令生成的干扰,提高了目标指令的准确性和高可执行性,使得应用基于目标指令进行响应的效率更高。
本实施例中,首先接收指令识别请求,获取与应用的类型关联的目标提示信息及目标大模型,将输入语句及目标提示信息输入目标大模型,以获取目标大模型输出的至少一个槽位值集合,基于至少一个槽位值集合,确定输入语句对应的目标指令。由此,通过利用当前场景关联的提示信息和大模型,获取输入语句对应的槽位值集合,进而再确定目标指令,提高了指令识别的效率和准确性,进一步提高了应用的性能。
图2是本公开一实施例提出的用于指令识别的大模型的训练方法的流程示意图。
如图2所示,该用于指令识别的大模型的训练方法,包括:
S201:获取种子语料集。
其中,种子语料集中包括种子输入语句及种子输入语句关联的目标槽位值集合。
S202:将种子输入语句及第一提示信息,输入第一大模型,以获取第一大模型生成的与种子输入语句关联的多个参考输入语句。
其中,第一提示信息(prompt),是用于引导大模型基于种子输入语句,生成参考输入语句对语料集进行扩充的文本或指令。例如,可以为“模仿这个指令语句,帮我生成50个类似指令语句”等,本公开对此不做限定。
S203:分别将参考输入语句或种子输入语句,及预设的提示信息,输入到第二大模型,以获取第二大模型输出的预测槽位值集合。
其中,第二大模型与第一大模型不是同一个模型。
可选地,可以根据目标槽位值集合,来确定预设的提示信息。
本公开实施例中,可以根据输入语句关联的目标槽位值集合,确定预设的提示信息中包含的目标槽位的类型,从而可以确定预设的提示信息。从而,保证了用于预测槽位值集合的提示信息的可靠性。
需要说明的是,由于大模型生成的参考输入语句可能存在不准确、逻辑不连贯等问题,因此在利用参考输入语句获取预测槽位值集合之前,需要对参考输入语句进行筛选,选出可用部分。
可选地,可以根据每个参考输入语句与种子输入语句间的相似度,对多个参考输入语句进行过滤,以获取过滤后的参考输入语句。然后,可以分别将过滤后的参考输入语句或种子输入语句,及预设的提示信息,输入到第二大模型,以获取第二大模型输出的预测槽位值集合。
本公开实施例中,可以计算参考输入语句与种子输入语句间的相似度,删除对应相似度低于相似度阈值的参考输入语句,获取到过滤后的参考输入语句。之后再将过滤后的参考输入语句及预设的提示信息输入到第二大模型,获取对应的预测槽位值集合。从而,可以减少大模型训练中的噪声,不仅减少了模型训练的时间和资源浪费,还进一步提高了模型预测结果的可靠性。
需要说明的是,也可以将参考输入语句输入到模型(如大模型等)中,对语义连贯性、合理性等进行评分,过滤评分较低的参考输入语句,来获取过滤后的参考输入语句等等,本公开对此不做限定。
S204:基于预测槽位值集合与目标槽位值集合间的差异,对第二大模型进行微调,以获取用于指令识别的大模型。
本公开实施例中,预测槽位值集合与目标槽位值集合间的差异,可以包括槽位值集合的数量差异,以及槽位值集合中对应槽位值间的文本差异等。可以分别基于各项差异对第二大模型进行微调,或者也可以基于各项差异,确定修成梯度对对第二大模型进行微调。
可选地,可以先基于预测槽位值集合的第一数量与目标槽位值集合的第二数量间的第一差异,确定第一修正梯度,以及基于预测槽位值集合中包含的各第一槽位值,与目标槽位值集合中包含的各第二槽位值间的第二差异,确定第二修正梯度。然后基于第一修正梯度及第二修正梯度,确定目标修正梯度,再基于目标修正梯度,对第二大模型进行微调,以获取用于指令识别的大模型。
本公开实施例中,可以根据目标应用的类型,确定第一差异和第二差异对应的权重对,然后将第一修正梯度及第二修正梯度分别乘以对应权重,再相加来确定目标修正梯度。之后,再基于目标修正梯度,对第二大模型进行微调,以获取用于指令识别的目标大模型。从而,使得大模型更适用于不同的指令识别的应用场景,进一步提高了大模型的可靠性和鲁棒性。
需要说明的是,在对第二大模型进行调整时,可以根据具体情况和数据集等进行多次迭代。
本实施例中,首先获取种子语料集,然后将语料集中的种子输入语句及第一提示信息,输入第一大模型,以获取第一大模型生成的与种子输入语句关联的多个参考输入语句,然后再分别将参考输入语句或种子输入语句,及预设的提示信息,输入到第二大模型,以获取第二大模型输出的预测槽位值集合,之后基于预测槽位值集合与目标槽位值集合间的差异,对第二大模型进行微调,以获取用于指令识别的大模型。由此,提高了大模型对于指令识别的可靠性和鲁棒性,为提高指令识别的效率提供了条件。
图3是本公开一实施例提出的基于大模型的指令识别装置的结构示意图。
如图3所示,该基于大模型的指令识别装置300,包括:
接收模块301,用于接收指令识别请求,其中,识别请求中包括待识别的输入语句及输入语句所属应用的类型;
第一获取模块302,用于获取与应用的类型关联的目标提示信息及目标大模型;
第二获取模块303,用于将输入语句及目标提示信息输入目标大模型,以获取目标大模型输出的至少一个槽位值集合;
确定模块304,用于基于至少一个槽位值集合,确定输入语句对应的目标指令。
在一些实施例中,其中,第一获取模块302,具体用于:
获取与应用的类型关联的目标槽位的类型及目标大模型;
基于目标槽位的类型,生成目标提示信息。
在一些实施例中,其中,目标槽位的类型为以下中的至少一项:指令类别,指令细节,指令对象,指令对象位置,以及指令内容。
在一些实施例中,其中,第二获取模块303,具体用于:
将输入语句及目标提示信息输入目标大模型,以获取目标大模型的输出数据;
对输出数据进行识别,将输出数据中每个预设符号组内的数据,确定为一个槽位值集合。
在一些实施例中,其中,确定模块304,具体用于:
在槽位值集合为多个的情况下,根据应用的类型,确定多个槽位值集合中每个槽位值集合的优先级,及待填充的指令模板;
基于优先级,利用多个槽位值集合对指令模板进行槽位填充,以获取输入语句对应的目标指令。
需要说明的是,前述对基于大模型的指令识别方法的解释说明也适用于本实施例的基于大模型的指令识别装置,此处不再赘述。
本实施例中,首先接收指令识别请求,获取与应用的类型关联的目标提示信息及目标大模型,将输入语句及目标提示信息输入目标大模型,以获取目标大模型输出的至少一个槽位值集合,基于至少一个槽位值集合,确定输入语句对应的目标指令。由此,通过利用当前场景关联的提示信息和大模型,获取输入语句对应的槽位值集合,进而再确定目标指令,提高了指令识别的效率和准确性,进一步提高了应用的性能。
图4是本公开一实施例提出的用于指令识别的大模型的训练装置的结构示意图。
如图4所示,该用于指令识别的大模型的训练装置400,包括:
第三获取模块401,用于获取种子语料集,其中,种子语料集中包括种子输入语句及种子输入语句关联的目标槽位值集合:
第四获取模块402,用于将种子输入语句及第一提示信息,输入第一大模型,以获取第一大模型生成的与种子输入语句关联的多个参考输入语句;
第五获取模块403,用于分别将参考输入语句或种子输入语句,及预设的提示信息,输入到第二大模型,以获取第二大模型输出的预测槽位值集合;
第六获取模块404,用于基于预测槽位值集合与目标槽位值集合间的差异,对第二大模型进行微调,以获取用于指令识别的大模型。
在一些实施例中,其中,第五获取模块403,具体用于:
根据每个参考输入语句与种子输入语句间的相似度,对多个参考输入语句进行过滤,以获取过滤后的参考输入语句;
分别将过滤后的参考输入语句或种子输入语句,及预设的提示信息,输入到第二大模型,以获取第二大模型输出的预测槽位值集合。
在一些实施例中,其中,第六获取模块404,具体用于:
基于预测槽位值集合的第一数量与目标槽位值集合的第二数量间的第一差异,确定第一修正梯度;
基于预测槽位值集合中包含的各第一槽位值,与目标槽位值集合中包含的各第二槽位值间的第二差异,确定第二修正梯度;
基于第一修正梯度及第二修正梯度,确定目标修正梯度;
基于目标修正梯度,对第二大模型进行微调,以获取用于指令识别的大模型。
在一些实施例中,其中,第三获取模块401,还用于:
根据目标槽位值集合,确定预设的提示信息。
需要说明的是,前述对用于指令识别的大模型的训练方法的解释说明也适用于本实施例的用于指令识别的大模型的训练装置,此处不再赘述。
本实施例中,首先获取种子语料集,然后将语料集中的种子输入语句及第一提示信息,输入第一大模型,以获取第一大模型生成的与种子输入语句关联的多个参考输入语句,然后再分别将参考输入语句或种子输入语句,及预设的提示信息,输入到第二大模型,以获取第二大模型输出的预测槽位值集合,之后基于预测槽位值集合与目标槽位值集合间的差异,对第二大模型进行微调,以获取用于指令识别的大模型。由此,提高了大模型对于指令识别的可靠性和鲁棒性,为提高指令识别的效率提供了条件。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图5示出了可以用来实施本公开的实施例的示例电子设备500的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,设备500包括计算单元501,其可以根据存储在只读存储器(ROM)502中的计算机程序或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序,来执行各种适当的动作和处理。在RAM 503中,还可存储设备500操作所需的各种程序和数据。计算单元501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如基于大模型的指令识别方法。例如,在一些实施例中,基于大模型的指令识别方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序加载到RAM 503并由计算单元501执行时,可以执行上文描述的基于大模型的指令识别方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行基于大模型的指令识别方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网及区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本公开的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。在本公开的描述中,所使用的词语“如果”及“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“在……情况下”。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (21)
1.一种基于大模型的指令识别方法,包括:
接收指令识别请求,其中,所述识别请求中包括待识别的输入语句及所述输入语句所属应用的类型;
获取与所述应用的类型关联的目标提示信息及目标大模型;
将所述输入语句及所述目标提示信息输入所述目标大模型,以获取所述目标大模型输出的至少一个槽位值集合;
基于所述至少一个槽位值集合,确定所述输入语句对应的目标指令。
2.如权利要求1所述的方法,其中,所述获取与所述应用的类型关联的目标提示信息及目标大模型,包括:
获取与所述应用的类型关联的目标槽位的类型及目标大模型;
基于所述目标槽位的类型,生成所述目标提示信息。
3.如权利要求2所述的方法,其中,所述目标槽位的类型为以下中的至少一项:指令类别,指令细节,指令对象,指令对象位置,以及指令内容。
4.如权利要求1所述的方法,其中,所述将所述输入语句及所述目标提示信息输入所述目标大模型,以获取所述目标大模型输出的至少一个槽位值集合,包括:
将所述输入语句及所述目标提示信息输入所述目标大模型,以获取所述目标大模型的输出数据;
对所述输出数据进行识别,将所述输出数据中每个预设符号组内的数据,确定为一个槽位值集合。
5.如权利要求1-4任一所述的方法,其中,所述基于所述至少一个槽位值集合,确定所述输入语句对应的目标指令,包括:
在所述槽位值集合为多个的情况下,根据所述应用的类型,确定所述多个槽位值集合中每个槽位值集合的优先级,及待填充的指令模板;
基于所述优先级,利用所述多个槽位值集合对所述指令模板进行槽位填充,以获取所述输入语句对应的目标指令。
6.一种用于指令识别的大模型的训练方法,包括:
获取种子语料集,其中,所述种子语料集中包括种子输入语句及所述种子输入语句关联的目标槽位值集合:
将所述种子输入语句及第一提示信息,输入第一大模型,以获取所述第一大模型生成的与所述种子输入语句关联的多个参考输入语句;
分别将所述参考输入语句或所述种子输入语句,及预设的提示信息,输入到第二大模型,以获取所述第二大模型输出的预测槽位值集合;
基于所述预测槽位值集合与所述目标槽位值集合间的差异,对所述第二大模型进行微调,以获取用于指令识别的大模型。
7.如权利要求6所述的方法,其中,所述分别将所述参考输入语句或所述种子输入语句,及预设的提示信息,输入到第二大模型,以获取所述第二大模型输出的预测槽位值集合,包括:
根据每个所述参考输入语句与所述种子输入语句间的相似度,对所述多个参考输入语句进行过滤,以获取过滤后的参考输入语句;
分别将所述过滤后的参考输入语句或所述种子输入语句,及预设的提示信息,输入到所述第二大模型,以获取所述第二大模型输出的预测槽位值集合。
8.如权利要求6所述的方法,其中,所述基于所述预测槽位值集合与所述目标槽位值集合间的差异,对所述第二大模型进行微调,以获取用于指令识别的大模型,包括:
基于所述预测槽位值集合的第一数量与所述目标槽位值集合的第二数量间的第一差异,确定第一修正梯度;
基于所述预测槽位值集合中包含的各第一槽位值,与所述目标槽位值集合中包含的各第二槽位值间的第二差异,确定第二修正梯度;
基于所述第一修正梯度及所述第二修正梯度,确定目标修正梯度;
基于所述目标修正梯度,对所述第二大模型进行微调,以获取用于指令识别的大模型。
9.如权利要求6-8任一所述的方法,其中,在所述获取种子语料集之后,还包括:
根据所述目标槽位值集合,确定所述预设的提示信息。
10.一种基于大模型的指令识别装置,包括:
接收模块,用于接收指令识别请求,其中,所述识别请求中包括待识别的输入语句及所述输入语句所属应用的类型;
第一获取模块,用于获取与所述应用的类型关联的目标提示信息及目标大模型;
第二获取模块,用于将所述输入语句及所述目标提示信息输入所述目标大模型,以获取所述目标大模型输出的至少一个槽位值集合;
确定模块,用于基于所述至少一个槽位值集合,确定所述输入语句对应的目标指令。
11.如权利要求10所述的装置,其中,所述第一获取模块,具体用于:
获取与所述应用的类型关联的目标槽位的类型及目标大模型;
基于所述目标槽位的类型,生成所述目标提示信息。
12.如权利要求11所述的装置,其中,所述目标槽位的类型为以下中的至少一项:指令类别,指令细节,指令对象,指令对象位置,以及指令内容。
13.如权利要求10所述的装置,其中,所述第二获取模块,具体用于:
将所述输入语句及所述目标提示信息输入所述目标大模型,以获取所述目标大模型的输出数据;
对所述输出数据进行识别,将所述输出数据中每个预设符号组内的数据,确定为一个槽位值集合。
14.如权利要求10-13任一所述的装置,其中,所述确定模块,具体用于:
在所述槽位值集合为多个的情况下,根据所述应用的类型,确定所述多个槽位值集合中每个槽位值集合的优先级,及待填充的指令模板;
基于所述优先级,利用所述多个槽位值集合对所述指令模板进行槽位填充,以获取所述输入语句对应的目标指令。
15.一种用于指令识别的大模型的训练装置,包括:
第三获取模块,用于获取种子语料集,其中,所述种子语料集中包括种子输入语句及所述种子输入语句关联的目标槽位值集合:
第四获取模块,用于将所述种子输入语句及第一提示信息,输入第一大模型,以获取所述第一大模型生成的与所述种子输入语句关联的多个参考输入语句;
第五获取模块,用于分别将所述参考输入语句或所述种子输入语句,及预设的提示信息,输入到第二大模型,以获取所述第二大模型输出的预测槽位值集合;
第六获取模块,用于基于所述预测槽位值集合与所述目标槽位值集合间的差异,对所述第二大模型进行微调,以获取用于指令识别的大模型。
16.如权利要求15所述的装置,其中,所述第五获取模块,具体用于:
根据每个所述参考输入语句与所述种子输入语句间的相似度,对所述多个参考输入语句进行过滤,以获取过滤后的参考输入语句;
分别将所述过滤后的参考输入语句或所述种子输入语句,及预设的prompt,输入到所述第二大模型,以获取所述第二大模型输出的预测槽位值集合。
17.如权利要求15所述的装置,其中,所述第六获取模块,具体用于:
基于所述预测槽位值集合的第一数量与所述目标槽位值集合的第二数量间的第一差异,确定第一修正梯度;
基于所述预测槽位值集合中包含的各第一槽位值,与所述目标槽位值集合中包含的各第二槽位值间的第二差异,确定第二修正梯度;
基于所述第一修正梯度及所述第二修正梯度,确定目标修正梯度;
基于所述目标修正梯度,对所述第二大模型进行微调,以获取用于指令识别的大模型。
18.如权利要求15-17任一所述的装置,其中,所述第三获取模块,还用于:
根据所述目标槽位值集合,确定所述预设的提示信息。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的基于大模型的指令识别方法,或者权利要求6-9中任一项所述的用于指令识别的大模型的训练方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,其中,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的基于大模型的指令识别方法,或者权利要求6-9中任一项所述的用于指令识别的大模型的训练方法。
21.一种计算机程序产品,其特征在于,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-5中任一项所述的基于大模型的指令识别方法,或者权利要求6-9中任一项所述的用于指令识别的大模型的训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311494834.8A CN117610580A (zh) | 2023-11-09 | 2023-11-09 | 基于大模型的指令识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311494834.8A CN117610580A (zh) | 2023-11-09 | 2023-11-09 | 基于大模型的指令识别方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117610580A true CN117610580A (zh) | 2024-02-27 |
Family
ID=89955335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311494834.8A Pending CN117610580A (zh) | 2023-11-09 | 2023-11-09 | 基于大模型的指令识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117610580A (zh) |
-
2023
- 2023-11-09 CN CN202311494834.8A patent/CN117610580A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6601470B2 (ja) | 自然言語の生成方法、自然言語の生成装置及び電子機器 | |
CN107301170B (zh) | 基于人工智能的切分语句的方法和装置 | |
CN112989235B (zh) | 基于知识库的内链构建方法、装置、设备和存储介质 | |
CN113836314B (zh) | 知识图谱构建方法、装置、设备以及存储介质 | |
CN114841274A (zh) | 语言模型的训练方法、装置、电子设备和存储介质 | |
CN113033194B (zh) | 语义表示图模型的训练方法、装置、设备和存储介质 | |
CN117743577A (zh) | 文本分类方法、装置、电子设备及存储介质 | |
CN117171296A (zh) | 信息获取方法、装置和电子设备 | |
CN113553833B (zh) | 文本纠错的方法、装置及电子设备 | |
CN113641724B (zh) | 知识标签挖掘方法、装置、电子设备及存储介质 | |
CN114490969B (zh) | 基于表格的问答方法、装置以及电子设备 | |
CN116185389A (zh) | 一种代码生成方法、装置、电子设备及介质 | |
CN114168119B (zh) | 代码文件编辑方法、装置、电子设备以及存储介质 | |
CN112860626B (zh) | 一种文档排序方法、装置及电子设备 | |
CN114880498A (zh) | 事件信息展示方法及装置、设备和介质 | |
CN114417862A (zh) | 文本匹配方法、文本匹配模型的训练方法和装置 | |
CN117610580A (zh) | 基于大模型的指令识别方法、装置、电子设备及存储介质 | |
CN113869042A (zh) | 文本标题生成方法、装置、电子设备以及存储介质 | |
CN112989066A (zh) | 数据处理方法和装置、电子设备、计算机可读介质 | |
CN114281981B (zh) | 新闻简报的生成方法、装置和电子设备 | |
CN116069914B (zh) | 训练数据的生成方法、模型训练方法以及装置 | |
CN116127948B (zh) | 待标注文本数据的推荐方法、装置及电子设备 | |
CN116244432B (zh) | 语言模型的预训练方法、装置及电子设备 | |
CN113377921B (zh) | 用于匹配信息的方法、装置、电子设备以及介质 | |
CN113743112B (zh) | 关键词的提取方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |