CN117992598B - 基于大模型的需求响应方法、装置、介质及设备 - Google Patents
基于大模型的需求响应方法、装置、介质及设备 Download PDFInfo
- Publication number
- CN117992598B CN117992598B CN202410407922.8A CN202410407922A CN117992598B CN 117992598 B CN117992598 B CN 117992598B CN 202410407922 A CN202410407922 A CN 202410407922A CN 117992598 B CN117992598 B CN 117992598B
- Authority
- CN
- China
- Prior art keywords
- task
- task list
- language model
- user
- demand information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004044 response Effects 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 32
- 238000004590 computer program Methods 0.000 claims description 10
- 238000007405 data analysis Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 abstract description 13
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 13
- 101150039208 KCNK3 gene Proteins 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 238000009825 accumulation Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 101150083764 KCNK9 gene Proteins 0.000 description 2
- 101100379633 Xenopus laevis arg2-a gene Proteins 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 101150088826 arg1 gene Proteins 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101150026173 ARG2 gene Proteins 0.000 description 1
- 101100005166 Hypocrea virens cpa1 gene Proteins 0.000 description 1
- 101100379634 Xenopus laevis arg2-b gene Proteins 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本申请提供一种基于大模型的需求响应方法、装置、介质及设备,涉及人工智能技术领域,该方法可以触发第一语言模型根据样本任务列表和任务生成规则生成增量任务列表;根据样本任务列表和增量任务列表训练第二语言模型,第一语言模型的参数量大于第二语言模型;部署训练后的第二语言模型,训练后的第二语言模型用于响应用户需求。这样可以在无需部署大体量的第一语言模型的情况下,使得小体量的第二语言模型具备第一语言模型的生成效果,基于第二语言模型可以便于得到高精度需求响应结果,可以同时达到节约用户设备资源和高效精准满足用户需求的效果。
Description
技术领域
本申请涉及人工智能技术领域,具体而言,涉及一种基于大模型的需求响应方法、基于大模型的需求响应装置、计算机可读存储介质及电子设备。
背景技术
传统语言模型的输入通常为结构化数据,传统语言模型用于基于结构化数据生成满足用户需求的结果,该结果可以为分析结果、预测结果、评估结果等任一结果。可见,传统语言模型容易理解结构化数据。但是,传统语言模型在处理自然语言数据(即,非结构化数据)时,存在局限性。
为了实现针对自然语言的处理,大语言模型应运而生,实现为生成式AI,可以理解无序化的数据。在生产生活中,大语言模型都可以起到至关重要的作用。比如说,在生活中,大语言模型可以满足对话聊天、知识问答等需求。在生产中,大语言模型可以满足文案生成、文本修改等需求。可以理解的是,在大语言模型具备强大语言理解能力的前提下,如果能够利用大语言模型实现工作流的生成和执行,则能够大大提升工作效率;其中,工作流指的是用于完成既定目标而制定的有序任务,依序完成这些任务可以实现既定目标。
大语言模型通常具备海量参数,更容易生成满足用户需求的结果,但是由于其体量较大,因此难以部署在配置不高的用户设备上。小参数的语言模型体量小,部署方式灵活部署难度较低但是无法达到大语言模型的生成效果,难以及时满足用户需求。对于用户设备来说,最佳方案在于:部署小参数语言模型同时获得大体量语言模型的生成结果,这样不仅可以节约设备资源,又可以高效满足需求。因此,可以理解的是,如何利用小参数语言模型满足用户大语言模型的响应需求成为了当前亟需解决的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有方案的信息。
发明内容
本申请的目的在于提供一种基于大模型的需求响应方法、基于大模型的需求响应装置、计算机可读存储介质及电子设备,可以触发比第二语言模型参数量更大的第一语言模型基于样本任务列表和任务生成规则生成增量任务列表,基于增量任务列表和样本任务列表训练第二语言模型,提升了第二语言模型的训练量,从而可以提升第二语言模型的生成精度,规避了小体量语言模型的生成精度不佳的问题。进而,对训练后的第二语言模型进行部署,可以便于调用训练后的第二语言模型响应用户需求,可以在无需部署大体量的第一语言模型的情况下,训练出用于生成任务列表的第一语言模型,利用第一语言模型精度高的特性生成用于提升第二语言模型精度的增量任务列表,这样可以使得小体量的第二语言模型具备第一语言模型的生成效果,进而,基于第二语言模型可以实现对于用户需求的精准响应,可以同时达到节约用户设备资源和高效精准满足用户需求的效果。
本申请的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本申请的实践而习得。
根据本申请的一方面,提供一种基于大模型的需求响应方法,该方法包括:
触发第一语言模型根据样本任务列表和任务生成规则生成增量任务列表;
根据样本任务列表和增量任务列表训练第二语言模型;其中,第一语言模型对应的参数量大于第二语言模型对应的参数量;
部署训练后的第二语言模型,训练后的第二语言模型用于响应用户需求。
在本申请的一种示例性实施例中,其中:任务生成规则至少用于限定各业务场景下的任务类型之间的逻辑关系;任务类型包括数据获取任务类型;任务类型还包括数据分析任务类型、数据展示任务类型、模型训练任务类型、预测任务类型中至少一种。
在本申请的一种示例性实施例中,还包括:
响应于任务生成规则调整操作,确定任务生成规则调整操作对应的调整结果;
基于调整结果对增量任务列表进行调整。
在本申请的一种示例性实施例中,基于调整结果对增量任务列表进行调整,包括:
若调整结果表征在任务生成规则中新增任务类型,则在增量任务列表中补充生成新任务类型对应的新任务列表;
若调整结果表征在任务生成规则中删减任务类型,则将增量任务列表中对应于已删减任务类型的任务列表删除;
若调整结果表征修改任务生成规则中的任务间逻辑,则调整增量任务列表中的任务间逻辑。
在本申请的一种示例性实施例中,还包括:
触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表;
执行所述目标任务列表,以得到对应于所述用户需求信息的需求响应结果。
在本申请的一种示例性实施例中,触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表,包括:
响应于输入的用户需求信息,触发训练后的第二语言模型提取用户需求信息的用户意图;其中,用户意图对应的简洁度和标准度高于用户需求信息的简洁度和标准度;
触发训练后的第二语言模型确定用户意图对应的业务场景;
触发训练后的第二语言模型基于业务场景和用户意图,生成对应于用户需求信息的目标任务列表。
在本申请的一种示例性实施例中,执行目标任务列表,以得到对应于用户需求信息的需求响应结果,包括:
结合目标任务列表中各任务之间的逻辑关系,将各任务的描述信息映射为可执行代码;
执行各可执行代码,以得到对应于用户需求信息的需求响应结果。
在本申请的一种示例性实施例中,还包括:
响应于用户输入操作,获取对应于用户输入操作的需求数据;
若需求数据为文本数据,则将需求数据确定为用户需求信息;
若需求数据非文本数据,则将需求数据转换为用户需求信息。
根据本申请的一方面,提供一种基于大模型的需求响应装置,该装置包括:
增量任务列表生成单元,用于触发第一语言模型根据样本任务列表和任务生成规则生成增量任务列表;
模型训练单元,用于根据样本任务列表和增量任务列表训练第二语言模型;其中,第一语言模型对应的参数量大于第二语言模型对应的参数量;
模型部署单元,用于部署训练后的第二语言模型,训练后的第二语言模型用于响应用户需求。
在本申请的一种示例性实施例中,其中:任务生成规则至少用于限定各业务场景下的任务类型之间的逻辑关系;任务类型包括数据获取任务类型;任务类型还包括数据分析任务类型、数据展示任务类型、模型训练任务类型、预测任务类型中至少一种。
在本申请的一种示例性实施例中,还包括:
调整操作响应单元,用于响应于任务生成规则调整操作,确定任务生成规则调整操作对应的调整结果;基于调整结果对增量任务列表进行调整。
在本申请的一种示例性实施例中,调整操作响应单元基于调整结果对增量任务列表进行调整,包括:
若调整结果表征在任务生成规则中新增任务类型,则在增量任务列表中补充生成新任务类型对应的新任务列表;
若调整结果表征在任务生成规则中删减任务类型,则将增量任务列表中对应于已删减任务类型的任务列表删除;
若调整结果表征修改任务生成规则中的任务间逻辑,则调整增量任务列表中的任务间逻辑。
在本申请的一种示例性实施例中,还包括:
目标任务列表生成单元,用于触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表;
任务列表执行单元,用于执行所述目标任务列表,以得到对应于所述用户需求信息的需求响应结果。
在本申请的一种示例性实施例中,目标任务列表生成单元触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表,包括:
响应于输入的用户需求信息,触发训练后的第二语言模型提取用户需求信息的用户意图;其中,用户意图对应的简洁度和标准度高于用户需求信息的简洁度和标准度;
触发训练后的第二语言模型确定用户意图对应的业务场景;
触发训练后的第二语言模型基于业务场景和用户意图,生成对应于用户需求信息的目标任务列表。
在本申请的一种示例性实施例中,任务列表执行单元执行目标任务列表,以得到对应于用户需求信息的需求响应结果,包括:
结合目标任务列表中各任务之间的逻辑关系,将各任务的描述信息映射为可执行代码;
执行各可执行代码,以得到对应于用户需求信息的需求响应结果。
在本申请的一种示例性实施例中,还包括:
需求数据处理单元,用于响应于用户输入操作,获取对应于用户输入操作的需求数据;若需求数据为文本数据,则将需求数据确定为用户需求信息;若需求数据非文本数据,则将需求数据转换为用户需求信息。
根据本申请的一方面,提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任意一项的方法。
根据本申请的一方面,提供一种电子设备,包括:处理器;以及存储器,用于存储处理器的可执行指令;其中,处理器配置为经由执行可执行指令来执行上述任意一项的方法。
本申请示例性实施例可以具有以下部分或全部有益效果:
在本申请的一示例实施方式所提供的基于大模型的需求响应方法中,可以触发比第二语言模型参数量更大的第一语言模型基于样本任务列表和任务生成规则生成增量任务列表,基于增量任务列表和样本任务列表训练第二语言模型,提升了第二语言模型的训练量,从而可以提升第二语言模型的生成精度,规避了小体量语言模型的生成精度不佳的问题。进而,对训练后的第二语言模型进行部署,可以便于调用训练后的第二语言模型响应用户需求,可以在无需部署大体量的第一语言模型的情况下,训练出用于生成任务列表的第一语言模型,利用第一语言模型精度高的特性生成用于提升第二语言模型精度的增量任务列表,这样可以使得小体量的第二语言模型具备第一语言模型的生成效果,进而,基于第二语言模型可以实现对于用户需求的精准响应,可以同时达到节约用户设备资源和高效精准满足用户需求的效果。此外,由于本申请无需部署第一语言模型也可以利用到第一语言模型的特性,因此适用于低配置的设备,具备更为广泛的应用范围。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出了根据本申请的一个实施例的基于大模型的需求响应方法的流程图。
图2示意性示出了根据本申请的另一个实施例的基于大模型的需求响应方法的流程图。
图3示意性示出了根据本申请的一个实施例中的基于大模型的需求响应装置的结构框图。
图4示意性示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本申请的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本申请的各方面变得模糊。
此外,附图仅为本申请的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
请参阅图1,图1示意性示出了根据本申请的一个实施例的基于大模型的需求响应方法的流程图。如图1所示,该基于大模型的需求响应方法可以包括:步骤S110~步骤S130。
步骤S110:触发第一语言模型根据样本任务列表和任务生成规则生成增量任务列表。
步骤S120:根据样本任务列表和增量任务列表训练第二语言模型;其中,第一语言模型对应的参数量大于第二语言模型对应的参数量。
步骤S130:部署训练后的第二语言模型,训练后的第二语言模型用于响应用户需求。
实施图1所示的方法,可以触发比第二语言模型参数量更大的第一语言模型基于样本任务列表和任务生成规则生成增量任务列表,基于增量任务列表和样本任务列表训练第二语言模型,提升了第二语言模型的训练量,从而可以提升第二语言模型的生成精度,规避了小体量语言模型的生成精度不佳的问题。进而,对训练后的第二语言模型进行部署,可以便于调用训练后的第二语言模型响应用户需求,可以在无需部署大体量的第一语言模型的情况下,训练出用于生成任务列表的第一语言模型,利用第一语言模型精度高的特性生成用于提升第二语言模型精度的增量任务列表,这样可以使得小体量的第二语言模型具备第一语言模型的生成效果,进而,基于第二语言模型可以实现对于用户需求的精准响应,可以同时达到节约用户设备资源和高效精准满足用户需求的效果。此外,由于本申请无需部署第一语言模型也可以利用到第一语言模型的特性,因此适用于低配置的设备,具备更为广泛的应用范围。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
在步骤S110中,触发第一语言模型根据样本任务列表和任务生成规则生成增量任务列表。
其中,上述的第一语言模型和下述提到的第二语言模型均属于大语言模型(LargeLanguage Model,LLM),LLM是一种人工智能模型,由具有海量参数的人工神经网络组成,使用自监督学习或半监督学习对大量未标记文本进行训练,旨在理解和生成人类语言。LLM可以基于海量文本数据进行训练,训练后的LLM可以用于执行多方面的任务,如,文本总结、翻译、情感分析等。具体地,LLM包括名为BERT、 RoBERTa、T5、 XLNet、GShard、GPT3、ChatGPT等模型。在本申请中,第一语言模型和第二语言模型具体为上述哪一个模型取决于应用场景和实际用户需求,本申请实施例对此不作限定。
具体地,样本任务列表指的是实现为列表的样本任务集合,本申请可以将一个或多个样本任务列表以及任务生成规则输入第一语言模型;其中,当存在多个样本任务列表时,多个样本任务列表可以对应于不同的业务场景也可以对应于同一业务场景,本申请实施例不作限定。此外,任务生成规则用于为第一语言模型提供生成任务列表的条件,可选的,若第一语言模型为ChatGPT,任务生成规则可以理解为prompt。进而,基于样本任务列表和任务生成规则,第一语言模型可以生成符合任务生成规则且形似样本任务列表的增量任务列表,增量任务列表的数量可以为一个或多个,本申请实施例不作限定。
举例来说,样本任务列表可以表示为:例1={Task1: 获取A模型在车主信用贷产品中近一年的模型精度;Task2: 按照30天为单位计算模型精度,计算平均值;Task3: 画出模型精度的折线图}、例2={Task1: 获取180内的反诈黑名单,Task2: 获取黑名单对应的信用卡、APP和公积金数据,Task3: 训练反诈模型}等。其中,以上述任一例子继续为例进行说明,Task1、Task2、Task3分别表示样本任务列表中依序排列的第一样本任务、第二样本任务、第三样本任务,样本任务列表中限定的样本顺序同时也可以作为样本任务的执行顺序。
举例来说,任务生成规则可以表示为:{你是一个流程设计专家,根据下面给出的信息,设计合理的需求及对应的任务流程。在信用卡风控系统中,有五类任务,分别是数据获取、数据分析、数据展示、模型训练、模型预测。数据获取包含10种功能,分别是AAAA(如,“获取用户基本信息”、“获取用户银行征信”等);数据分析包含20种子任务,分别是AAA(如,“统计量”、“分箱”、“指标计算”等);数据展示包含5种功能,分别是AAA(如,“折线图”、“饼图”、“热力图”等);模型训练....... (如,“训练准入评分卡模型”、“根据评分卡模型输出评分”等);模型预测......。结合不同的任务类型可以设计不同的任务列表满足不同的任务需求,其中“数据获取”必须为第一个任务,其他任务均可衔接在其后,且可以任意排列组合。示例Task:车主信用贷产品中A模型近一年每个月的精度变化,转换为任务列表Task_list={“Task1:获取A模型在车主信用贷产品中近一年的模型精度;Task2:按照30天为单位计算模型精度,计算平均值;Task3:画出模型精度的折线图;}。其中Task是目标需求,Task_list是根据需求分解的任务列表。根据要求和示例,请生成10对Task和对应的Task_list}。
作为一种可选的实施例,其中:任务生成规则至少用于限定各业务场景下的任务类型之间的逻辑关系;任务类型包括数据获取任务类型;任务类型还包括数据分析任务类型、数据展示任务类型、模型训练任务类型、预测任务类型中至少一种。
可见,实施该可选的实施例,可以实现针对各业务场景下的任务类型的限定,以提升本申请的适用范围,从而提升本申请的应用广度。
具体地,业务场景用于限定任务可以所属的业务场景,如,信贷、风控、反诈等。不同业务场景对应的任务生成规则可以部分相同也可以完全不同,本申请实施例不作限定。任务类型之间的逻辑关系可以限定任务类型间的执行顺序、优先级等关系。不同业务场景包含的任务类型的数量可以相同也可以不同,不同业务场景的同一任务类型下的任务数量也可以基于实际情况进行差异化设置。
举例来说,业务场景A包含对应于任务数量为3的数据获取任务类型、对应于任务数量为10的数据分析任务类型、对应于任务数量为4的数据展示任务类型;业务场景B包含对应于任务数量为3的数据获取任务类型、对应于任务数量为5的模型训练任务、对应于任务数量为2的数据展示任务类型。
其中,数据分析任务类型下的任务用于实现,针对数据集/数据表的分析,以达成分析目标。数据展示任务类型用于实现,对生成的数据和/或原始数据进行展示的目的。模型训练任务类型用于实现,基于数据集/数据表训练指定模型的目的。预测任务类型用于实现,基于数据集/数据表生成预测结果以达到预测目标的目的。
在步骤S120中,根据样本任务列表和增量任务列表训练第二语言模型;其中,第一语言模型对应的参数量大于第二语言模型对应的参数量。
具体地,样本任务列表和增量任务列表可以合并为样本集输入第二语言模型,进而可以基于第二语言模型输出的结果和样本集对应的标签之前的损失函数来调整第二语言模型的模型参数,以达到训练第二语言模型的目的。
作为一种可选的实施例,还包括:
响应于用户输入操作,获取对应于用户输入操作的需求数据;
若需求数据为文本数据,则将需求数据确定为用户需求信息;
若需求数据非文本数据,则将需求数据转换为用户需求信息。
可见,实施该可选的实施例,可以响应于用户输入的需求数据并将需求数据统一为用户需求信息,使其适应于第二语言模型,以便提升需求响应效率和需求响应精度。
具体地,用户可以基于用户输入操作输入需求数据,需求数据用于表征用户的意图,但是由于需求数据可能包含冗余内容,因此还可以提取需求数据中的用户意图以实现更为精准的需求响应过程。其中,输入需求数据的方式可以为:键控输入、触控输入、语音输入、手势输入等任一方式。但是,由于第二语言模型为语言模型,因此,如果需求数据为非文本数据,则需要将需求数据转换为用户需求信息;其中,用户需求信息表示为文本形式,用户需求信息具体可以包含字符、符号、数字、图表中至少一种。
在步骤S130中,部署训练后的第二语言模型,训练后的第二语言模型用于响应用户需求。
作为一种可选的实施例,还包括:
步骤S140:触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表;
步骤S150:执行所述目标任务列表,以得到对应于所述用户需求信息的需求响应结果。
可见,实施该可选的实施例,可以基于第二语言模型并根据用户需求信息对应的业务场景生成目标任务列表并执行,以得到对应于用户需求信息的高精度的需求响应结果。
具体地,不同业务场景下的类似用户需求信息可以对应于不同的目标任务列表,因此,第二语言模型在生成目标任务列表时需要参考用户需求信息对应的业务场景。
具体地,需求响应结果可以实现为任一用户所需的形式,举例来说,若用户需求信息={查看今天消费贷产品的线上售前环节中被拦截的申请注册次数},那么需求响应结果={10次}。
作为步骤S140的一种可选的实施例,触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表,包括:
步骤S1401:响应于输入的用户需求信息,触发训练后的第二语言模型提取用户需求信息的用户意图;其中,用户意图对应的简洁度和标准度高于用户需求信息的简洁度和标准度;
步骤S1402:触发训练后的第二语言模型确定用户意图对应的业务场景;
步骤S1403:触发训练后的第二语言模型基于业务场景和用户意图,生成对应于用户需求信息的目标任务列表。
可见,实施该可选的实施例,可以基于训练后的第二语言模型实现精准的用户意图提取,基于精准的用户意图可以生成高精度、可用性强的目标任务列表。
具体地,用户意图可以理解为标准化后的用户需求信息,基于用户意图可以更高效地生成目标任务列表,目标任务列表包含用于满足用户需求信息的任务序列。
举例来说,若用户需求信息={查看今天消费贷产品的线上售前环节中被拦截的申请注册次数},对应的用户意图={给出今天消费贷产品的线上售前中注册失败次数}。若用户需求信息={车主信用贷产品中A模型近一年的表现情况},对应的用户意图={车主信用贷产品中A模型近一年每个月的精度变化}。若用户需求信息={近一个月车贷产品的订单转化率的变化},对应的用户意图={绘制近30天车贷产品的订单转化率的折线图}。若用户需求信息={现有反诈模型的精度不高,需要更新了,根据近半年的反诈黑名单,以及信用卡、APP、公积金数据,进行模型迭代},对应的用户意图={根据近180天的反诈黑名单,结合信用卡、APP和公积金数据,重新训练反诈模型}。
以上述的用户意图={车主信用贷产品中A模型近一年每个月的精度变化}继续为例,基于该用户意图生成的对应于用户需求信息的目标任务列表={Task1: 获取A模型在车主信用贷产品中近一年的模型精度;Task2: 按照30天为单位计算模型精度,计算平均值;Task3: 画出模型精度的折线图}。
以上述的用户意图={根据近180天的反诈黑名单,结合信用卡、APP和公积金数据,重新训练反诈模型}继续为例,基于该用户意图生成的对应于用户需求信息的目标任务列表={Task1: 获取180内的反诈黑名单,Task2: 获取黑名单对应的信用卡、APP和公积金数据,Task3: 训练反诈模型}。
作为步骤S150的一种可选的实施例,执行目标任务列表,以得到对应于用户需求信息的需求响应结果,包括:
步骤S1501:结合目标任务列表中各任务之间的逻辑关系,将各任务的描述信息映射为可执行代码;
步骤S1502:执行各可执行代码,以得到对应于用户需求信息的需求响应结果。
可见,实施该可选的实施例,可以将任务映射为可执行代码并运行各可执行代码,从而实现对于需求的响应。
具体地,各任务的描述信息可以理解为任务的表现形式,例如,Task1的描述信息可以为获取180内的反诈黑名单。可执行代码可以实现为函数/接口(API),本申请实施例不作限定。各可执行代码之间的逻辑关系与各任务之间的逻辑关系一致,依逻辑关系依次执行各可执行代码可以得到计算结果,作为需求响应结果。
以上述的目标任务列表={Task1: 获取180内的反诈黑名单,Task2: 获取黑名单对应的信用卡、APP和公积金数据,Task3: 训练反诈模型}为例。
其中,Task1的映射结果可以表示为:可执行代码={step1=\n\“arg1\”:[\“2024-01-12\”],n\“function1\”:\“get_fraud_data\”,\n\“output1\”:\“result1”,\n\“description1\”:\“获取180内的反诈黑名单\”\n}。
其中,Task2的映射结果可以表示为:可执行代码={step2=\n\“arg1\”:[\“2024-01-12\”],n\“function1\”:\“get_app_data\”,\n\“output1\”:\“result1”,\n\“description1\”:\“获取APP数据\”\n,\n\“arg2\”:[\“result1”],\“function2\”:\“abnormal_procecss\”,\n\“output2\”:\“result2”,\n\“description2\”:\“获取信用卡数据\”\n, \n\“arg3\”:[\“result2”],\“function3\”:\ “standardize_process\”,\n\“output3\”:\“result3”,\n\“description3\”:\“获取公积金数据\”\n}。
其中,Task3的映射方式与Task1和Task2的映射方式相同,此处不再赘述。
作为一种可选的实施例,还包括:
步骤S160:响应于任务生成规则调整操作,确定任务生成规则调整操作对应的调整结果;
步骤S170:基于调整结果对增量任务列表进行调整。
可见,实施该可选的实施例,可以支持用于调整任务生成规则的功能,以确保任务生成规则可以时刻符合用户的要求。
具体地,任务生成规则调整操作用于调整任务生成规则的内容,调整结果可以理解为新任务生成规则。基于新任务生成规则可以对增量任务列表进行自适应调整。
作为步骤S170的一种可选的实施例,基于调整结果对增量任务列表进行调整,包括:
步骤S1701:若调整结果表征在任务生成规则中新增任务类型,则在增量任务列表中补充生成新任务类型对应的新任务列表;
步骤S1702:若调整结果表征在任务生成规则中删减任务类型,则将增量任务列表中对应于已删减任务类型的任务列表删除;
步骤S1703:若调整结果表征修改任务生成规则中的任务间逻辑,则调整增量任务列表中的任务间逻辑。
可见,实施该可选的实施例,可以支持增删改任务生成规则的功能,有利于提升任务生成规则的适应性。
具体地,除了新增任务类型、删减任务类型、修改任务间逻辑的类型之外,调整结果还可以表征其他内容(如,调整已有任务的具体内容),本申请实施例不作限定。
请参阅图2,图2示意性示出了根据本申请的另一个实施例的基于大模型的需求响应方法的流程图。如图2所示,基于大模型的需求响应方法包括:步骤S210~步骤S270。
步骤S210:触发第一语言模型根据样本任务列表和任务生成规则生成增量任务列表;其中,任务生成规则至少用于限定各业务场景下的任务类型之间的逻辑关系;任务类型包括数据获取任务类型;任务类型还包括数据分析任务类型、数据展示任务类型、模型训练任务类型、预测任务类型中至少一种。
步骤S220:响应于任务生成规则调整操作,确定任务生成规则调整操作对应的调整结果。若调整结果表征在任务生成规则中新增任务类型,则在增量任务列表中补充生成新任务类型对应的新任务列表;若调整结果表征在任务生成规则中删减任务类型,则将增量任务列表中对应于已删减任务类型的任务列表删除;若调整结果表征修改任务生成规则中的任务间逻辑,则调整增量任务列表中的任务间逻辑。
步骤S230:根据样本任务列表和增量任务列表训练第二语言模型;其中,第一语言模型对应的参数量大于第二语言模型对应的参数量。
步骤S240:响应于输入的用户需求信息,触发训练后的第二语言模型提取用户需求信息的用户意图;其中,用户意图对应的简洁度和标准度高于用户需求信息的简洁度和标准度。
步骤S250:触发训练后的第二语言模型确定用户意图对应的业务场景,并触发训练后的第二语言模型基于业务场景和用户意图,生成对应于用户需求信息的目标任务列表。
步骤S260:结合目标任务列表中各任务之间的逻辑关系,将各任务的描述信息映射为可执行代码。
步骤S270:执行各可执行代码,以得到对应于用户需求信息的需求响应结果。
需要说明的是,步骤S210~步骤S270与图1所示的各步骤及其实施例相对应,针对步骤S210~步骤S270的具体实施方式,请参阅图1所示的各步骤及其实施例,此处不再赘述。
可见,实施图2所示的方法,可以触发比第二语言模型参数量更大的第一语言模型基于样本任务列表和任务生成规则生成增量任务列表,基于增量任务列表和样本任务列表训练第二语言模型,提升了第二语言模型的训练量,从而可以提升第二语言模型的生成精度,规避了小体量语言模型的生成精度不佳的问题。进而,对训练后的第二语言模型进行部署,可以便于调用训练后的第二语言模型响应用户需求,可以在无需部署大体量的第一语言模型的情况下,训练出用于生成任务列表的第一语言模型,利用第一语言模型精度高的特性生成用于提升第二语言模型精度的增量任务列表,这样可以使得小体量的第二语言模型具备第一语言模型的生成效果,进而,基于第二语言模型可以实现对于用户需求的精准响应,可以同时达到节约用户设备资源和高效精准满足用户需求的效果。此外,由于本申请无需部署第一语言模型也可以利用到第一语言模型的特性,因此适用于低配置的设备,具备更为广泛的应用范围。
请参阅图3,图3示意性示出了根据本申请的一个实施例中的基于大模型的需求响应装置的结构框图。基于大模型的需求响应装置300与图1所示的方法相对应,如图3所示,该基于大模型的需求响应装置300包括:
增量任务列表生成单元301,用于触发第一语言模型根据样本任务列表和任务生成规则生成增量任务列表;
模型训练单元302,用于根据样本任务列表和增量任务列表训练第二语言模型;其中,第一语言模型对应的参数量大于第二语言模型对应的参数量;
模型部署单元303,用于部署训练后的第二语言模型,训练后的第二语言模型用于响应用户需求。
可见,实施图3所示的装置,可以触发比第二语言模型参数量更大的第一语言模型基于样本任务列表和任务生成规则生成增量任务列表,基于增量任务列表和样本任务列表训练第二语言模型,提升了第二语言模型的训练量,从而可以提升第二语言模型的生成精度,规避了小体量语言模型的生成精度不佳的问题。进而,对训练后的第二语言模型进行部署,可以便于调用训练后的第二语言模型响应用户需求,可以在无需部署大体量的第一语言模型的情况下,训练出用于生成任务列表的第一语言模型,利用第一语言模型精度高的特性生成用于提升第二语言模型精度的增量任务列表,这样可以使得小体量的第二语言模型具备第一语言模型的生成效果,进而,基于第二语言模型可以实现对于用户需求的精准响应,可以同时达到节约用户设备资源和高效精准满足用户需求的效果。此外,由于本申请无需部署第一语言模型也可以利用到第一语言模型的特性,因此适用于低配置的设备,具备更为广泛的应用范围。
在本申请的一种示例性实施例中,其中:任务生成规则至少用于限定各业务场景下的任务类型之间的逻辑关系;任务类型包括数据获取任务类型;任务类型还包括数据分析任务类型、数据展示任务类型、模型训练任务类型、预测任务类型中至少一种。
可见,实施该可选的实施例,可以实现针对各业务场景下的任务类型的限定,以提升本申请的适用范围,从而提升本申请的应用广度。
在本申请的一种示例性实施例中,还包括:
调整操作响应单元,用于响应于任务生成规则调整操作,确定任务生成规则调整操作对应的调整结果;基于调整结果对增量任务列表进行调整。
可见,实施该可选的实施例,可以支持用于调整任务生成规则的功能,以确保任务生成规则可以时刻符合用户的要求。
在本申请的一种示例性实施例中,调整操作响应单元基于调整结果对增量任务列表进行调整,包括:
若调整结果表征在任务生成规则中新增任务类型,则在增量任务列表中补充生成新任务类型对应的新任务列表;
若调整结果表征在任务生成规则中删减任务类型,则将增量任务列表中对应于已删减任务类型的任务列表删除;
若调整结果表征修改任务生成规则中的任务间逻辑,则调整增量任务列表中的任务间逻辑。
可见,实施该可选的实施例,可以支持增删改任务生成规则的功能,有利于提升任务生成规则的适应性。
在本申请的一种示例性实施例中,还包括:
目标任务列表生成单元,用于触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表;
任务列表执行单元,用于执行目标任务列表,以得到对应于用户需求信息的需求响应结果。
可见,实施该可选的实施例,可以基于第二语言模型并根据用户需求信息对应的业务场景生成目标任务列表并执行,以得到对应于用户需求信息的高精度的需求响应结果。
在本申请的一种示例性实施例中,目标任务列表生成单元触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表,包括:
响应于输入的用户需求信息,触发训练后的第二语言模型提取用户需求信息的用户意图;其中,用户意图对应的简洁度和标准度高于用户需求信息的简洁度和标准度;
触发训练后的第二语言模型确定用户意图对应的业务场景;
触发训练后的第二语言模型基于业务场景和用户意图,生成对应于用户需求信息的目标任务列表。
可见,实施该可选的实施例,可以基于训练后的第二语言模型实现精准的用户意图提取,基于精准的用户意图可以生成高精度、可用性强的目标任务列表。
在本申请的一种示例性实施例中,任务列表执行单元执行目标任务列表,以得到对应于用户需求信息的需求响应结果,包括:
结合目标任务列表中各任务之间的逻辑关系,将各任务的描述信息映射为可执行代码;
执行各可执行代码,以得到对应于用户需求信息的需求响应结果。
可见,实施该可选的实施例,可以将任务映射为可执行代码并运行各可执行代码,从而实现对于需求的响应。
在本申请的一种示例性实施例中,还包括:
需求数据处理单元,用于响应于用户输入操作,获取对应于用户输入操作的需求数据;若需求数据为文本数据,则将需求数据确定为用户需求信息;若需求数据非文本数据,则将需求数据转换为用户需求信息。
可见,实施该可选的实施例,可以响应于用户输入的需求数据并将需求数据统一为用户需求信息,使其适应于第二语言模型,以便提升需求响应效率和需求响应精度。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
由于本申请的示例实施例的基于大模型的需求响应装置的各个功能模块与上述基于大模型的需求响应方法的示例实施例的步骤对应,因此对于本申请装置实施例中未披露的细节,请参照本申请上述的基于大模型的需求响应方法的实施例。
请参阅图4,图4示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图4示出的电子设备的计算机系统400仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图4所示,计算机系统400包括中央处理单元(CPU)401,其可以根据存储在只读存储器(ROM)402中的程序或者从储存部分408加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM 403中,还存储有系统操作所需的各种程序和数据。CPU401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
以下部件连接至I/O接口405:包括键盘、鼠标等的输入部分406;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分407;包括硬盘等的储存部分408;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分409。通信部分409经由诸如因特网的网络执行通信处理。驱动器410也根据需要连接至I/O接口405。可拆卸介质411,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器410上,以便于从其上读出的计算机程序根据需要被安装入储存部分408。
特别地,根据本申请的实施例,上述参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分409从网络上被下载和安装,和/或从可拆卸介质411被安装。在该计算机程序被中央处理单元(CPU)401执行时,执行本申请的方法和装置中限定的各种功能。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
需要说明的是,本申请所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求指出。
Claims (9)
1.一种基于大模型的需求响应方法,其特征在于,包括:
触发第一语言模型根据样本任务列表和任务生成规则生成增量任务列表;所述任务生成规则至少用于限定各业务场景下的任务类型之间的逻辑关系;
根据所述样本任务列表和所述增量任务列表训练第二语言模型;其中,所述第一语言模型对应的参数量大于所述第二语言模型对应的参数量;
部署训练后的第二语言模型,训练后的第二语言模型用于响应用户需求;
其中,还包括:
触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表;
执行所述目标任务列表,以得到对应于所述用户需求信息的需求响应结果;
其中,执行所述目标任务列表,以得到对应于所述用户需求信息的需求响应结果,包括:
结合所述目标任务列表中各任务之间的逻辑关系,将所述各任务的描述信息映射为可执行代码;
执行各可执行代码,以得到对应于所述用户需求信息的需求响应结果;所述用户需求信息表示为文本形式。
2.根据权利要求1所述的方法,其特征在于,其中:所述任务类型包括数据获取任务类型;所述任务类型还包括数据分析任务类型、数据展示任务类型、模型训练任务类型、预测任务类型中至少一种。
3.根据权利要求1所述的方法,其特征在于,还包括:
响应于任务生成规则调整操作,确定所述任务生成规则调整操作对应的调整结果;
基于所述调整结果对所述增量任务列表进行调整。
4.根据权利要求3所述的方法,其特征在于,基于所述调整结果对所述增量任务列表进行调整,包括:
若所述调整结果表征在所述任务生成规则中新增任务类型,则在所述增量任务列表中补充生成新任务类型对应的新任务列表;
若所述调整结果表征在所述任务生成规则中删减任务类型,则将所述增量任务列表中对应于已删减任务类型的任务列表删除;
若所述调整结果表征修改所述任务生成规则中的任务间逻辑,则调整所述增量任务列表中的任务间逻辑。
5.根据权利要求1所述的方法,其特征在于,触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表,包括:
响应于输入的用户需求信息,触发训练后的第二语言模型提取所述用户需求信息的用户意图;其中,所述用户意图对应的简洁度和标准度高于所述用户需求信息的简洁度和标准度;
触发训练后的第二语言模型确定所述用户意图对应的业务场景;
触发训练后的第二语言模型基于所述业务场景和所述用户意图,生成对应于所述用户需求信息的目标任务列表。
6.根据权利要求1所述的方法,其特征在于,还包括:
响应于用户输入操作,获取对应于所述用户输入操作的需求数据;
若所述需求数据为文本数据,则将所述需求数据确定为用户需求信息;
若所述需求数据非文本数据,则将所述需求数据转换为用户需求信息。
7.一种基于大模型的需求响应装置,其特征在于,包括:
增量任务列表生成单元,用于触发第一语言模型根据样本任务列表和任务生成规则生成增量任务列表;所述任务生成规则至少用于限定各业务场景下的任务类型之间的逻辑关系;
模型训练单元,用于根据所述样本任务列表和所述增量任务列表训练第二语言模型;其中,所述第一语言模型对应的参数量大于所述第二语言模型对应的参数量;
目标任务列表生成单元,用于触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表;
任务列表执行单元,用于执行所述目标任务列表,以得到对应于所述用户需求信息的需求响应结果;
其中,还包括:
目标任务列表生成单元,用于触发训练后的第二语言模型根据用户需求信息对应的业务场景生成目标任务列表;
任务列表执行单元,用于执行所述目标任务列表,以得到对应于所述用户需求信息的需求响应结果;
其中,所述任务列表执行单元执行所述目标任务列表,以得到对应于所述用户需求信息的需求响应结果,包括:
结合所述目标任务列表中各任务之间的逻辑关系,将所述各任务的描述信息映射为可执行代码;
执行各可执行代码,以得到对应于所述用户需求信息的需求响应结果;所述用户需求信息表示为文本形式。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-6任一项所述的方法。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410407922.8A CN117992598B (zh) | 2024-04-07 | 2024-04-07 | 基于大模型的需求响应方法、装置、介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410407922.8A CN117992598B (zh) | 2024-04-07 | 2024-04-07 | 基于大模型的需求响应方法、装置、介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117992598A CN117992598A (zh) | 2024-05-07 |
CN117992598B true CN117992598B (zh) | 2024-07-02 |
Family
ID=90890988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410407922.8A Active CN117992598B (zh) | 2024-04-07 | 2024-04-07 | 基于大模型的需求响应方法、装置、介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117992598B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118551903A (zh) * | 2024-07-30 | 2024-08-27 | 联想新视界(北京)科技有限公司 | 一种服务需求的响应方法、装置及电子设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11276391B2 (en) * | 2020-02-06 | 2022-03-15 | International Business Machines Corporation | Generation of matched corpus for language model training |
CN113515948A (zh) * | 2021-01-11 | 2021-10-19 | 腾讯科技(深圳)有限公司 | 语言模型训练方法、装置、设备及存储介质 |
CN113435500B (zh) * | 2021-06-25 | 2023-05-26 | 竹间智能科技(上海)有限公司 | 一种语言模型构建方法及设备 |
US20230161972A1 (en) * | 2021-11-10 | 2023-05-25 | Koninklijke Philips N.V. | Privacy-preserving text insight mining in a closed domain |
CN114818902A (zh) * | 2022-04-21 | 2022-07-29 | 浪潮云信息技术股份公司 | 基于知识蒸馏的文本分类方法及系统 |
CN116775807A (zh) * | 2023-06-02 | 2023-09-19 | 阿里云计算有限公司 | 自然语言处理、模型训练方法、设备及存储介质 |
CN116756579B (zh) * | 2023-08-22 | 2023-12-12 | 腾讯科技(深圳)有限公司 | 大语言模型的训练方法及基于大语言模型的文本处理方法 |
CN117217197A (zh) * | 2023-08-24 | 2023-12-12 | 腾讯科技(深圳)有限公司 | 词对齐模型的训练方法、装置、电子设备和可读介质 |
CN117574907A (zh) * | 2023-10-09 | 2024-02-20 | 北京宝兰德软件股份有限公司 | 任务执行方法及装置 |
-
2024
- 2024-04-07 CN CN202410407922.8A patent/CN117992598B/zh active Active
Non-Patent Citations (1)
Title |
---|
Text Data Augmentation in Low-Resource Settings via Fine-Tuning of Large Language Models;Jean Kaddour等;ARXIV;20231002;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117992598A (zh) | 2024-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116127020B (zh) | 生成式大语言模型训练方法以及基于模型的搜索方法 | |
CN113836925B (zh) | 预训练语言模型的训练方法、装置、电子设备及存储介质 | |
CN112463968B (zh) | 文本分类方法、装置和电子设备 | |
CN115114439B (zh) | 多任务模型推理、多任务信息处理的方法和装置 | |
CN117992598B (zh) | 基于大模型的需求响应方法、装置、介质及设备 | |
CN113641805A (zh) | 结构化问答模型的获取方法、问答方法及对应装置 | |
CN110222333A (zh) | 一种语音交互方法、装置以及相关设备 | |
CN115062617A (zh) | 基于提示学习的任务处理方法、装置、设备及介质 | |
CN114997329A (zh) | 用于生成模型的方法、装置、设备、介质和产品 | |
CN114357195A (zh) | 基于知识图谱的问答对生成方法、装置、设备及介质 | |
CN113837307A (zh) | 数据相似度计算方法、装置、可读介质及电子设备 | |
CN113609100A (zh) | 数据存储方法、数据查询方法、装置及电子设备 | |
CN115186738B (zh) | 模型训练方法、装置和存储介质 | |
CN116361567B (zh) | 应用于云办公的数据处理方法及系统 | |
WO2023185125A1 (zh) | 产品资源的数据处理方法及装置、电子设备、存储介质 | |
CN115146653B (zh) | 对话剧本构建方法、装置、设备及存储介质 | |
CN114461665B (zh) | 用于生成语句转换模型的方法、装置及计算机程序产品 | |
CN114490969B (zh) | 基于表格的问答方法、装置以及电子设备 | |
CN112948251B (zh) | 软件自动测试方法及装置 | |
CN113806485B (zh) | 一种基于小样本冷启动的意图识别方法、装置及可读介质 | |
CN116450827A (zh) | 一种基于大规模语言模型的事件模板归纳方法和系统 | |
CN110852077B (zh) | 动态调整Word2Vec模型词典的方法、装置、介质及电子设备 | |
CN113886543A (zh) | 生成意图识别模型的方法、装置、介质及程序产品 | |
CN113612777A (zh) | 训练方法、流量分级方法、装置、电子设备以及存储介质 | |
CN113468258A (zh) | 一种异构数据的转换方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |