CN117851598A - 一种大语言模型辅助分类方法、装置、设备及介质 - Google Patents

一种大语言模型辅助分类方法、装置、设备及介质 Download PDF

Info

Publication number
CN117851598A
CN117851598A CN202410053214.9A CN202410053214A CN117851598A CN 117851598 A CN117851598 A CN 117851598A CN 202410053214 A CN202410053214 A CN 202410053214A CN 117851598 A CN117851598 A CN 117851598A
Authority
CN
China
Prior art keywords
text
candidate
category
model
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410053214.9A
Other languages
English (en)
Inventor
沈君宇
张健
韩伟
徐雪帆
穆玉芝
马天明
王建圣
陈运文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daguan Data Co ltd
Original Assignee
Daguan Data Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daguan Data Co ltd filed Critical Daguan Data Co ltd
Priority to CN202410053214.9A priority Critical patent/CN117851598A/zh
Publication of CN117851598A publication Critical patent/CN117851598A/zh
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种大语言模型辅助分类方法、装置、设备及介质。该方法包括:通过分类模型获取待分类文本在各类别上的置信度向量;根据所述置信度向量确定待分类文本的候选类别集;根据所述候选类别集中各候选类别的文本样例对所述候选类别集进行样例补充,得到候选类别样例集;基于提示的固定模板,根据所述候选类别样例集、所述待分类文本、任务描述信息和示例信息构建输入提示;将所述输入提示输入大语言模型,得到所述大语言模型输出的所述待分类文本的预测类别。本发明实施例可以提高少样本学习环境下的文本分类效果。

Description

一种大语言模型辅助分类方法、装置、设备及介质
技术领域
本发明涉及文本分类技术领域,尤其涉及一种大语言模型辅助分类方法、装置、设备及介质。
背景技术
文本分类是自然语言处理(NLP)领域的一个核心任务,它涉及将文本数据自动分配到一个或多个预定义类别。随着数字内容的爆炸性增长,文本分类变得至关重要,因为它帮助组织和管理海量的信息,使之易于访问和分析。从垃圾邮件检测到情感分析,从新闻分类到社交媒体监控,文本分类在许多行业中都有广泛的应用。
在文本分类的实际应用中,经常会遇到少样本的情况,特别是在特定领域或针对罕见事件的分类任务中。由需要大量标记数据来训练有效的分类模型,大量标记数据既昂贵又耗时,导致传统的机器学习方法在小样本分类任务上的表现较差,难以保证文本分类的准确性。
发明内容
本发明提供了一种大语言模型辅助分类方法、装置、设备及介质,以提高少样本学习环境下的文本分类效果。
根据本发明的一方面,提供了一种大语言模型辅助分类方法,包括:
通过分类模型获取待分类文本在各类别上的置信度向量;
根据所述置信度向量确定待分类文本的候选类别集;
根据所述候选类别集中各候选类别的文本样例对所述候选类别集进行样例补充,得到候选类别样例集;
基于提示的固定模板,根据所述候选类别样例集、所述待分类文本、任务描述信息和示例信息构建输入提示;
将所述输入提示输入大语言模型,得到所述大语言模型输出的所述待分类文本的预测类别。
根据本发明的另一方面,提供了一种大语言模型辅助分类装置,包括:
置信度获取模块,用于通过分类模型获取待分类文本在各类别上的置信度向量;
类别筛选模块,用于根据所述置信度向量确定待分类文本的候选类别集;
样例补充模块,用于根据所述候选类别集中各候选类别的文本样例对所述候选类别集进行样例补充,得到候选类别样例集;
提示构建模块,用于基于提示的固定模板,根据所述候选类别样例集、所述待分类文本、任务描述信息和示例信息构建输入提示;
类别确定模块,用于将所述输入提示输入大语言模型,得到所述大语言模型输出的所述待分类文本的预测类别。
根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的大语言模型辅助分类方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的大语言模型辅助分类方法。
本发明实施例通过利用生成式大型语言模型的深度知识库和高级理解能力,在样本数量极为有限的情况下辅助分类模型进行分类,为了应对大型语言模型在输入长度上的限制,特别是在处理拥有众多分类类别的任务时,还采用了优化的输入策略,使得模型能够在不超过其处理能力的情况下,更加准确地理解和分类各个类别,从而在少样本学习环境中实现了令人满意的分类效果。通过这种方式,在保持了模型对复杂和细微语义的高度敏感性的同时,也优化了其在面对大量分类类别时的处理能力。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明一实施例提供的一种大语言模型辅助分类方法的流程图;
图2A是根据本发明又一实施例提供的一种大语言模型辅助分类方法的流程图;
图2B是根据本发明又一实施例提供的一种候选类别样本集的示意图;
图2C是根据本发明又一实施例提供的一种示例信息的示意图;
图2D是根据本发明又一实施例提供的一种输入提示的示意图;
图3是根据本发明又一实施例提供的一种大语言模型辅助分类方法的结构示意图;
图4是实现本发明实施例的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为明确后文本发明实施例的技术效果所在,此处先对本申请的关联技术做出如下简单说明:
在当前的自然语言处理(NLP)领域中,生成式大语言模型(LLM)已成为一种颠覆性的技术。它通过深度学习和大规模数据集,能够理解、解释和生成人类语言。这些大语言模型,通过预训练和微调,在各种NLP任务中表现出卓越性能。
对于使用生成式大语言模型进行分类的情况,一些关联技术中将目标问题提示输入到使用生成式大语言模型预先微调的类别分类模型中,然后将类别分类模型的输出中的至少一个文本分类类别作为目标文本的多类别分类结果。
这种方法的核心在于对生成式大型语言模型进行微调,这通常需要大量的数据样本和相应的计算资源。此外,大型语言模型通常受到输入长度的限制,这在处理包含大量分类类别的少样本分类任务时尤为显著。当分类的类别数量众多,每个类别的描述又相对较长时,整个输入可能会超过模型的长度限制。这会导致模型在理解和处理这些分类类别时的能力受限,进而影响其分类准确性和效率。
在少样本学习的场景下,如果每个分类类别需要详细描述,而类别数量又非常多,这种情况会使得模型难以在单个输入中有效地处理所有类别信息。模型的性能可能会因为无法完整地接收和处理所有必要信息而受到影响。这样,即便是高度先进的大型模型,也可能在准确地理解和分类大量类别方面表现出局限性。
因此,对于拥有大量分类类别的少样本学习任务,寻求优化输入策略或采用更加精简的类别描述,将是提高分类性能的关键。
图1为本发明一实施例提供的一种大语言模型辅助分类方法的流程图,本实施例可适用于通过大语言模型辅助分类模型对待分类文本进行分类的情况,该方法可以由大语言模型辅助分类装置来执行,该装置可以采用硬件和/或软件的形式实现,该装置可配置于具备相应数据处理能力的电子设备中。如图1所示,该方法包括:
S110、通过分类模型获取待分类文本在各类别上的置信度向量。
S120、根据所述置信度向量确定待分类文本的候选类别集。
其中,分类模型是bert类模型。
具体的,本发明的实现分为离线和在线两部分。在线部分对于给定的待分类文本t,使用微调后的分类模型进行前向传播,得到文本t在每个类别上的置信度向量,记为c(t)。
c(t)=[c1(t),c2(t),…,cm(t)]
其中m是类别的数量,c1(t)是待分类文本t在第一个类别上的置信度、c2(t)是待分类文本t在第二个类别上的置信度,其他的以此类推。
比较待分类文本t在不同类别上的置信度,挑选出预设数量的类别,作为候选类别集中的候选类别,即对类别进行初步筛选,来解决大语言模型输入长度受限的问题。
S130、根据所述候选类别集中各候选类别的文本样例对所述候选类别集进行样例补充,得到候选类别样例集。
S140、基于提示的固定模板,根据所述候选类别样例集、所述待分类文本、任务描述信息和示例信息构建输入提示。
S150、将所述输入提示输入大语言模型,得到所述大语言模型输出的所述待分类文本的预测类别。
其中,预测类别是候选类别集中的某一个候选类别
具体的,为每个候选类别提供若干条样例数据,得到候选类别样例集,以增强大预言模型对于类别的理解程度。根据提示的固定模板,将候选类别样例集、待分类文本、任务描述信息和示例信息(few-shot)分别填入模板中的相应位置,得到大语言模型的输入提示。将输入提示输入大语言模型(例如GPT4),让大模型做选择,得到大语言模型输出的待分类文本t的预测类别,从而利用大语言模型强大的理解能力,更好地应对小样本问题。需要说明的是,大语言模型可以选择任何一个大语言模型产品,只需调整相应的提示格式,使其适用于对应的大语言模型即可。
本发明实施例通过利用生成式大型语言模型的深度知识库和高级理解能力,在样本数量极为有限的情况下辅助分类模型进行分类,为了应对大型语言模型在输入长度上的限制,特别是在处理拥有众多分类类别的任务时,还采用了优化的输入策略,使得模型能够在不超过其处理能力的情况下,更加准确地理解和分类各个类别,从而在少样本学习环境中实现了令人满意的分类效果。通过这种方式,在保持了模型对复杂和细微语义的高度敏感性的同时,也优化了其在面对大量分类类别时的处理能力。
可选的,所述通过分类模型获取待分类文本在各类别上的置信度向量之前,还包括:
将训练集输入BERT模型,得到所述BERT模型的模型输出;所述BERT模型的分类层为全连接层;
确定所述模型输出和所述训练集的真实类别的差异,
根据所述差异和优化算法对所述BERT模型和所述BERT模型的分类层进行参数更新,直至所述BERT模型完成训练;
将完成训练的BERT模型确定为分类模型。
具体的,离线又可再分为两个部分,分别为分类模型的(微调)训练和示例信息的构建。分类模型的训练过程如下:
1、获取训练集,训练集表示为D={(x1,y1),(x2,y2),…,(xn,yn)},其中xi是单个样本,yi是其对应的类别集,类别集中含有一个或多个类别。
2、将训练集中样本输入到BERT模型中。BERT模型为每个输入样本中的词(或字)生成一个融合了上下文信息的向量表示。假设BERT的输出为V={v1,v2,…,vL},其中L是输入文本序列的长度。
3、采用一个全连接层作为分类层,该层的任务是将BERT输出的向量V映射到类别的概率分布。设全连接层的输出为O,其计算公式可表示为:
O=softmax(W·V+b)
其中W和b分别是全连接层的权重和偏置。
定义损失函数L来衡量模型输出O与真实类别Y之间的差异,其表达式为:
其中n是类别的数量。
4、通过反向传播算法,计算损失函数L关于模型参数的梯度,并使用梯度下降或其他优化算法(如Adam)来更新BERT模型和分类层的参数。参数更新公式如下:
其中θ表示模型参数,α表示学习率。
5、重复以上步骤,直至模型在验证集上的性能稳定或损失函数值收敛,训练完成的BERT模型即为微调完成的分类模型。
图2A为本发明又一实施例提供的一种大语言模型辅助分类方法的流程图,本实施例在上述实施例的基础上进行了优化改进。如图2A所示,该方法包括:
S210、通过分类模型获取待分类文本在各类别上的置信度向量。
S220、根据置信度大小对所述各类别进行降序排序;将排序在前的预设数量的类别确定为候选类别,得到候选类别集。
具体的,对置信度向量c(t)中的元素进行降序排列,得到排序后的置信度向量c′(t),然后选中排序后的置信度向量c′(t)中预设数量个(前k个)元素对应的类别作为候选类别,可以表示为:
ytop-k={yj|cj(t)∈Top-kelementsofc′(t)}
其中ytop-k为置信度排名前k的候选类别的集合,即候选类别集,cj(t)为文本t属于第j类类别的置信度。即挑选top-k个类别作为文本t的候选类别集,记为yt,candidate
S230、对于所述候选类别集中每一候选类别,从所述分类模型的训练集中随机抽取该候选类别的文本样例;根据得到的各候选类别的文本样例对所述候选类别集进行补充,得到候选类别样例集。
具体的,在候选类别集中,为每个候选类别补充来自训练集的随机抽取的对应类别的文本样例,得到候选类别样例集,记为y′t,candidate
可选的,所述基于提示的固定模板,根据所述候选类别样例集、所述待分类文本、任务描述信息和示例信息构建输入提示之前,还包括:
获取所述分类模型的样本文本的候选类别样本集;
根据所述样本文本的候选类别样本集和所述样本文本的真实类别生成示例信息。
具体的,示例信息的构建过程如下:
1、从训练集D中随机s条样本,记为D′={(x′1,y′1),(x′2,y′2),…,(x′s,y′s)}。
2、获取D′中样本的文本x′i和对应的类别集y′i
3、将文本x′i输入分类模型中,获取文本x′i在每个类别上的置信度向量,记为c(x′i)。
c(x′i)=[c1(x′i),c2(x′i),…,cm(x′i))]
其中m是类别的数量。
4、挑选前k个类别
首先对置信度向量c(x′i)中的元素进行降序排列,得到排序后的置信度向量c′(x′i),然后选中排序后的置信度向量c′(x′i)中前k个元素对应的类别作为候选类别集,可以表示为:
ytop-k={yj|cj(x′i)∈Top-kelementsofc′(x′i)}
其中ytop-k为置信度排名前k的候选类别,cj(x′i)为文本x′i属于第j类类别的置信度。
通过挑选top-k个候选类别获取文本x′i的候选类别集,记为
5、为中的每个类别补充来自训练集的随机抽取的对应类别的文本样例,同样作为类别的补充说明,每个类别补充多个样例,来保证补充说明的多样性和代表性。加入类别补充的候选类别集即为候选类别样本集,记为/>如图2B所示。
6、将文本x′i,候选类别样本集以及文本x′i对应的类别集y′i组合成示例信息,如图2C所示。
可选的,所述任务描述信息包括:背景信息描述、任务的简要介绍、大语言模型的执行操作和期望结果的形式。
具体的,将分类任务的背景信息描述、任务的简要介绍、模型需要执行的操作、期望结果的形式,待分类的文本t,待分类文本t的候选类别样例集以及预先获取的示例信息组合为输入提示(prompt),如图2D所示。
S240、基于提示的固定模板,根据所述候选类别样例集、所述待分类文本、任务描述信息和示例信息构建输入提示。
S250、将所述输入提示输入大语言模型,得到所述大语言模型输出的所述待分类文本的预测类别。
本发明实施例通过预先构建和使用示例信息,提高了大语言模型对分类任务的理解和执行能力。
图3为本发明又一实施例提供的一种大语言模型辅助分类装置的结构示意图。如图3所示,该装置包括:
置信度获取模块310,用于通过分类模型获取待分类文本在各类别上的置信度向量;
类别筛选模块320,用于根据所述置信度向量确定待分类文本的候选类别集;
样例补充模块330,用于根据所述候选类别集中各候选类别的文本样例对所述候选类别集进行样例补充,得到候选类别样例集;
提示构建模块340,用于基于提示的固定模板,根据所述候选类别样例集、所述待分类文本、任务描述信息和示例信息构建输入提示;
类别确定模块350,用于将所述输入提示输入大语言模型,得到所述大语言模型输出的所述待分类文本的预测类别。
本发明实施例所提供的大语言模型辅助分类装置可执行本发明任意实施例所提供的大语言模型辅助分类方法,具备执行方法相应的功能模块和有益效果。
可选的,所述类别筛选模块包括:
类别排序单元,用于根据置信度大小对所述各类别进行降序排序;
类别筛选单元,用于将排序在前的预设数量的类别确定为候选类别,得到候选类别集。
可选的,所述样例补充模块330包括:
样例抽取单元,用于对于所述候选类别集中每一候选类别,从所述分类模型的训练集中随机抽取该候选类别的文本样例;
样例补充单元,用于根据得到的各候选类别的文本样例对所述候选类别集进行补充,得到候选类别样例集。
可选的,所述装置还包括:
样本信息获取模块,用于获取所述分类模型的样本文本的候选类别样本集;
示例信息生成模块,用于根据所述样本文本的候选类别样本集和所述样本文本的真实类别生成示例信息。
可选的,所述装置还包括:
类别预测模块,用于将训练集输入BERT模型,得到所述BERT模型的模型输出;所述BERT模型的分类层为全连接层;
差异确定模块,用于确定所述模型输出和所述训练集的真实类别的差异,
参数更新模块,用于根据所述差异和优化算法对所述BERT模型和所述BERT模型的分类层进行参数更新,直至所述BERT模型完成训练;
模型确定模块,用于将完成训练的BERT模型确定为分类模型。
可选的,所述任务描述信息包括:背景信息描述、任务的简要介绍、大语言模型的执行操作和期望结果的形式。
进一步说明的大语言模型辅助分类装置也可执行本发明任意实施例所提供的大语言模型辅助分类方法,具备执行方法相应的功能模块和有益效果。
图4示出了可以用来实施本发明的实施例的电子设备40的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图4所示,电子设备40包括至少一个处理器41,以及与至少一个处理器41通信连接的存储器,如只读存储器(ROM)42、随机访问存储器(RAM)43等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器41可以根据存储在只读存储器(ROM)42中的计算机程序或者从存储单元48加载到随机访问存储器(RAM)43中的计算机程序,来执行各种适当的动作和处理。在RAM43中,还可存储电子设备40操作所需的各种程序和数据。处理器41、ROM42以及RAM43通过总线44彼此相连。输入/输出(I/O)接口45也连接至总线44。
电子设备40中的多个部件连接至I/O接口45,包括:输入单元46,例如键盘、鼠标等;输出单元47,例如各种类型的显示器、扬声器等;存储单元48,例如磁盘、光盘等;以及通信单元49,例如网卡、调制解调器、无线通信收发机等。通信单元49允许电子设备40通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器41可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器41的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器41执行上文所描述的各个方法和处理,例如大语言模型辅助分类方法。
在一些实施例中,大语言模型辅助分类方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元48。在一些实施例中,计算机程序的部分或者全部可以经由ROM42和/或通信单元49而被载入和/或安装到电子设备40上。当计算机程序加载到RAM43并由处理器41执行时,可以执行上文描述的大语言模型辅助分类方法的一个或多个步骤。备选地,在其他实施例中,处理器41可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行大语言模型辅助分类方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (10)

1.一种大语言模型辅助分类方法,其特征在于,所述方法包括:
通过分类模型获取待分类文本在各类别上的置信度向量;
根据所述置信度向量确定待分类文本的候选类别集;
根据所述候选类别集中各候选类别的文本样例对所述候选类别集进行样例补充,得到候选类别样例集;
基于提示的固定模板,根据所述候选类别样例集、所述待分类文本、任务描述信息和示例信息构建输入提示;
将所述输入提示输入大语言模型,得到所述大语言模型输出的所述待分类文本的预测类别。
2.根据权利要求1所述的方法,其特征在于,所述置信度向量包含所述待分类文本属于各类别的置信度,所述根据所述置信度向量确定待分类文本的候选类别集包括:
根据置信度大小对所述各类别进行降序排序;
将排序在前的预设数量的类别确定为候选类别,得到候选类别集。
3.根据权利要求2所述的方法,其特征在于,所述根据所述候选类别集中各候选类别的文本样例对所述候选类别集进行样例补充,得到候选类别样例集包括:
对于所述候选类别集中每一候选类别,从所述分类模型的训练集中随机抽取该候选类别的文本样例;
根据得到的各候选类别的文本样例对所述候选类别集进行补充,得到候选类别样例集。
4.根据权利要求3所述的方法,其特征在于,所述基于提示的固定模板,根据所述候选类别样例集、所述待分类文本、任务描述信息和示例信息构建输入提示之前,还包括:
获取所述分类模型的样本文本的候选类别样本集;
根据所述样本文本的候选类别样本集和所述样本文本的真实类别生成示例信息。
5.根据权利要求1所述的方法,其特征在于,所述通过分类模型获取待分类文本在各类别上的置信度向量之前,还包括:
将训练集输入BERT模型,得到所述BERT模型的模型输出;所述BERT模型的分类层为全连接层;
确定所述模型输出和所述训练集的真实类别的差异,
根据所述差异和优化算法对所述BERT模型和所述BERT模型的分类层进行参数更新,直至所述BERT模型完成训练;
将完成训练的BERT模型确定为分类模型。
6.根据权利要求1所述的方法,其特征在于,所述任务描述信息包括:背景信息描述、任务的简要介绍、大语言模型的执行操作和期望结果的形式。
7.一种大语言模型辅助分类装置,其特征在于,所述装置包括:
置信度获取模块,用于通过分类模型获取待分类文本在各类别上的置信度向量;
类别筛选模块,用于根据所述置信度向量确定待分类文本的候选类别集;
样例补充模块,用于根据所述候选类别集中各候选类别的文本样例对所述候选类别集进行样例补充,得到候选类别样例集;
提示构建模块,用于基于提示的固定模板,根据所述候选类别样例集、所述待分类文本、任务描述信息和示例信息构建输入提示;
类别确定模块,用于将所述输入提示输入大语言模型,得到所述大语言模型输出的所述待分类文本的预测类别。
8.根据权利要求7所述的装置,其特征在于,所述类别筛选模块包括:
类别排序单元,用于根据置信度大小对所述各类别进行降序排序;
类别筛选单元,用于将排序在前的预设数量的类别确定为候选类别,得到候选类别集。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的大语言模型辅助分类方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-6中任一项所述的大语言模型辅助分类方法。
CN202410053214.9A 2024-01-15 2024-01-15 一种大语言模型辅助分类方法、装置、设备及介质 Pending CN117851598A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410053214.9A CN117851598A (zh) 2024-01-15 2024-01-15 一种大语言模型辅助分类方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410053214.9A CN117851598A (zh) 2024-01-15 2024-01-15 一种大语言模型辅助分类方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN117851598A true CN117851598A (zh) 2024-04-09

Family

ID=90534274

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410053214.9A Pending CN117851598A (zh) 2024-01-15 2024-01-15 一种大语言模型辅助分类方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN117851598A (zh)

Similar Documents

Publication Publication Date Title
CN115293149A (zh) 一种实体关系识别方法、装置、设备及存储介质
CN112560461A (zh) 新闻线索的生成方法、装置、电子设备及存储介质
CN113642727B (zh) 神经网络模型的训练方法和多媒体信息的处理方法、装置
CN114037059A (zh) 预训练模型、模型的生成方法、数据处理方法及装置
CN113240177B (zh) 训练预测模型的方法、预测方法、装置、电子设备及介质
CN117150000B (zh) 一种投标书的生成方法、装置、设备及存储介质
CN116226533A (zh) 基于关联性预测模型的新闻关联推荐方法、装置及介质
CN115665783A (zh) 一种异常指标溯源方法、装置、电子设备及存储介质
CN114610953A (zh) 一种数据分类方法、装置、设备及存储介质
CN114611609A (zh) 一种图网络模型节点分类方法、装置、设备及存储介质
CN117851598A (zh) 一种大语言模型辅助分类方法、装置、设备及介质
CN113886543A (zh) 生成意图识别模型的方法、装置、介质及程序产品
CN115131709B (zh) 视频类别预测方法、视频类别预测模型的训练方法及装置
CN117574146B (zh) 文本分类标注方法、装置、电子设备和存储介质
CN116127948B (zh) 待标注文本数据的推荐方法、装置及电子设备
CN115034388B (zh) 排序模型的量化参数的确定方法、装置及电子设备
CN116151392B (zh) 训练样本生成方法、训练方法、推荐方法以及装置
CN117235611A (zh) 故障检测模型训练、故障检测方法、装置、设备及介质
CN117670554A (zh) 确定数据资产标签的方法、装置、电子设备及存储介质
CN117574168A (zh) 信息报告的生成方法及其装置
CN118035551A (zh) 资源推送方法、装置、电子设备、存储介质及程序产品
CN116595380A (zh) 表格标题分类模型的训练方法及表格标题的分类方法
CN116431809A (zh) 基于银行客服场景下的文本标注方法、装置和存储介质
CN117493527A (zh) 一种金融知识问答方法、装置、设备及存储介质
CN114817611A (zh) 一种草图检索方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination