CN117634496A - 基于大语言模型的信息生成方法、装置、设备和存储介质 - Google Patents

基于大语言模型的信息生成方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN117634496A
CN117634496A CN202311554399.3A CN202311554399A CN117634496A CN 117634496 A CN117634496 A CN 117634496A CN 202311554399 A CN202311554399 A CN 202311554399A CN 117634496 A CN117634496 A CN 117634496A
Authority
CN
China
Prior art keywords
target
target task
task
information
semantic vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311554399.3A
Other languages
English (en)
Inventor
宋燕辉
卢炎杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Draft Co ltd
Original Assignee
Xiamen Draft Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Draft Co ltd filed Critical Xiamen Draft Co ltd
Priority to CN202311554399.3A priority Critical patent/CN117634496A/zh
Publication of CN117634496A publication Critical patent/CN117634496A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本公开的实施例提供的在AI领域下基于大语言模型的信息生成方法、装置、设备和存储介质,包括:响应于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标任务语义向量;基于目标任务语义向量,获取与目标任务语义向量对应的目标文本信息;根据目标操作、目标任务和目标文本信息,确定目标文本内容。由于信息生成系统集成了不同大语言模型的AI能力,即通过不同大语言模型进行文本内容的生成,使得发布一个AI应用只需数分钟的时间,可以在不停服的情况下,根据用户输入的目标任务进行实时优化和调整。

Description

基于大语言模型的信息生成方法、装置、设备和存储介质
技术领域
本公开的实施例涉及信息处理技术领域以及相关技术领域,具体地,涉及适用于一种在AI领域下基于大语言模型的信息生成方法、装置、设备和存储介质。
背景技术
近年来,AI(Artificial Intelligence,人工智能)已成为备受瞩目的热门话题,标志着人工智能时代的全面到来。如何在特定行业垂直领域的业务场景、研发过程中以及研发质量和效能方面有效地应用AI,已经成为广泛思考的议题。
当前市场上存在多种大型语言模型(LLM,Large Language Model),伴随着它们日益涌现的多样能力,AI应用的潜在场景变得更加广泛。然而,选择适用于特定应用的合适大型语言模型,以及基于这些模型提供的技术框架进行AI应用开发,仍然是一项具有极高门槛的任务。在这一背景下,如何有效地将LLM技术与自身的AI需求相结合成为了一项紧迫问题。开发者需要考虑与LLM技术的无缝对接、数据准备、嵌入过程等方面,但这些任务通常低效且难以扩展。
因此,迫切需要一种中间层,作为用户与LLM之间的桥梁,以简化这一过程。
发明内容
本文中描述的实施例提供了一种在AI领域下基于大语言模型的信息生成方法、装置、设备和存储介质,解决现有技术存在的问题。
第一方面,根据本公开的内容,提供了一种在AI领域下基于大语言模型的信息生成方法,包括:
响应于目标对象在目标操作中提交的目标任务,确定与所述目标任务对应的目标任务语义向量;
基于所述目标任务语义向量,获取与所述目标任务语义向量对应的目标文本信息;
根据所述目标操作、所述目标任务和所述目标文本信息,确定目标文本内容。
在本公开的一些实施例中,所述响应于目标对象在目标操作中提交的目标任务,确定与所述目标任务对应的目标任务语义向量,包括:
响应于目标对象在目标操作中提交的目标任务,确定与所述目标操作对应的目标大语言模型;
根据大语言模型与嵌入模型的对应关系,确定所述目标大语言模型对应的目标嵌入模型;
根据所述目标嵌入模型,确定与所述目标任务对应的目标语义向量。
在本公开的一些实施例中,所述响应于目标对象在目标操作中提交的目标任务,确定与所述目标任务对应的目标大语言模型,包括:
响应于目标对象在目标操作中提交的目标任务,获取各大语言模型的属性信息,其中,所述属性信息包括状态信息或位置信息;
根据各大语言模型的属性信息,确定与所述目标任务对应的目标大语言模型。
在本公开的一些实施例中,所述基于所述目标任务语义向量,获取与所述目标任务语义向量对应的目标文本信息,包括:
基于所述目标任务语义向量,从向量数据库中获取与所述目标任务语义向量的匹配值满足预设匹配值的文本信息;
基于各所述文本信息与所述目标任务语义向量的匹配值,对各所述文本信息进行降序排序;
选取前目标数量的文本信息作为所述目标任务对应的目标文本信息。
在本公开的一些实施例中,所述根据所述目标操作、所述目标任务和所述目标文本信息,确定目标文本内容,包括:
获取与所述目标操作对应的模板信息;
基于所述模板信息、所述目标任务和所述目标文本信息,生成目标文本内容。
在本公开的一些实施例中,所述基于所述模板信息、所述目标任务和所述目标文本信息,生成目标文本内容,包括:
基于所述目标任务,对所述目标文本信息进行处理得到目标文本内容;
将所述目标文本内容以所述模板信息的方式进行展示。
在本公开的一些实施例中,所述确定与所述目标任务对应的目标任务语义向量之前,还包括:
对所述目标任务进行预处理,其中,所述预处理包括清洗和加密。
第二方面,根据本公开的内容,提供了一种在AI领域下基于大语言模型的信息生成装置,包括:
目标任务语义向量确定模块,用于响应于目标对象在目标操作中提交的目标任务,确定与所述目标任务对应的目标任务语义向量;
目标文本信息获取模块,用于基于所述目标任务语义向量,获取与所述目标任务语义向量对应的目标文本信息;
目标文本内容确定模块,用于根据所述目标操作、所述目标任务和所述目标文本信息,确定目标文本内容。
第三方面,根据本公开的内容,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,处理器执行计算机程序时实现如以上任意一个实施例中方法的步骤。
第四方面,根据本公开的内容,提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现如以上任意一个实施例中方法的步骤。
本公开实施例提供的在AI领域下基于大语言模型的信息生成方法、装置、设备和存储介质,首先响应于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标任务语义向量;然后基于目标任务语义向量,获取与目标任务语义向量对应的目标文本信息;最后根据目标操作、目标任务和目标文本信息,确定目标文本内容。由于信息生成系统集成了不同大语言模型的AI能力,不同的操作对应不同的大语言模型,当任务生成系统获取到目标操作的目标任务后,根据各大语言模型的属性信息,确定目标任务对应的目标大语言模型,然后基于大语言模型与嵌入模型的关系,选取目标嵌入模型对目标任务进行处理得到目标任务语义向量,实现基于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标文本内容,即通过不同大语言模型进行文本内容的生成,使得发布一个AI应用只需数分钟的时间,可以在不停服的情况下,根据用户输入的目标任务进行实时优化和调整。
上述说明仅是本申请实施例技术方案的概述,为了能够更清楚了解本申请实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本申请实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
为了更清楚地说明本公开的实施例的技术方案,下面将对实施例的附图进行简要说明,应当知道,以下描述的附图仅仅涉及本公开的一些实施例,而非对本公开的限制,其中:
图1是本公开实施例提供的一种在AI领域下基于大语言模型的信息生成方法的流程示意图;
图2是本公开实施例提供的一种在AI领域下基于大语言模型的信息生成装置的结构示意图;
图3是本公开实施例提供的一种计算机设备的结构示意图。
在附图中,最后两位数字相同的标记对应于相同的元素。需要注意的是,附图中的元素是示意性的,没有按比例绘制。
具体实施方式
为了使本公开的实施例的目的、技术方案和优点更加清楚,下面将结合附图,对本公开的实施例的技术方案进行清楚、完整的描述。显然,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。基于所描述的本公开的实施例,本领域技术人员在无需创造性劳动的前提下所获得的所有其它实施例,也都属于本公开保护的范围。
除非另外定义,否则在此使用的所有术语(包括技术和科学术语)具有与本公开主题所属领域的技术人员所通常理解的相同含义。进一步将理解的是,诸如在通常使用的词典中定义的那些的术语应解释为具有与说明书上下文和相关技术中它们的含义一致的含义,并且将不以理想化或过于正式的形式来解释,除非在此另外明确定义。如在此所使用的,将两个或更多部分“连接”或“耦接”到一起的陈述应指这些部分直接结合到一起或通过一个或多个中间部件结合。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语“实施例”并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:存在A,同时存在A和B,存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
此外,在本公开的所有实施例中,诸如“第一”和“第二”的术语仅用于将一个部件(或部件的一部分)与另一个部件(或部件的另一部分)区分开。
在本申请的描述中,除非另有说明,“多个”的含义是指两个以上(包括两个),同理,“多组”指的是两组以上(包括两组)。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
本公开实施例提供的在AI领域下基于大语言模型的信息生成方法基于信息生成系统的LLMOps框架实现,信息生成系统的LLMOps框架包括LLMOps框架接口,即LLMOps框架集成了各大语言模型的AI能力,并提供了对大语言模型的高精度负载调度管理。
基于现有技术存在的问题,图1是本公开实施例提供的一种在AI领域下基于大语言模型的信息生成方法的流程示意图,如图1所示,在AI领域下基于大语言模型的信息生成方法的具体过程包括:
S110、响应于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标任务语义向量。
在具体的实施方式中,目标对象为用户,目标对象可以在信息生成系统中触发目标操作,目标操作示例性包括写文章、写标题、宣传文案和节日祝福文案等,目标对象在信息生成系统中触发目标操作后,在目标操作对应的目标任务信息栏中输入目标任务,例如“我要去XX旅游,帮我写3天旅游攻略”,此时,信息生成系统的LLMOps框架响应目标对象在目标操作对应的目标任务信息栏中输入的目标任务,获取与在目标任务信息栏中输入的目标任务对应的目标任务语义向量,目标任务语义向量即目标任务的向量语义化表示,也即通过将目标任务转化为目标任务语义向量,使得信息生成系统的LLMOps框架可以解析识别目标任务。
作为具体的实施例,响应于目标对象在目标操作中触发的目标任务,确定与目标任务对应的目标任务语义向量,包括:响应于目标对象在目标操作中提交的目标任务,确定与目标操作对应的目标大语言模型;根据大语言模型与嵌入模型的对应关系,确定目标大语言模型对应的目标嵌入模型;根据目标嵌入模型,确定与目标任务对应的目标语义向量。
本公开实施例中,通过在信息生成系统的LLMOps框架中集成不同的目标大语言模型,例如,chatgpt大语言模型、通义千问大语言模型、文言一心大语言模型、百川大语言模型等等,不同的目标操作对应不同的大语言模型,当目标对象在目标操作中提交目标任务后,根据各大语言模型的属性信息,确定目标操作对应的目标大语言模型,此外,不同的大语言模型对应不同的嵌入模型,也即,通过选取目标大语言模型对应的目标嵌入模型,基于目标嵌入模型将目标任务转换成可以被目标大语言模型识别的目标任务语义向量。
作为一种具体的实施方式,响应于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标大语言模型,包括:响应于目标对象在目标操作中提交的目标任务,获取各大语言模型的属性信息,其中,属性信息包括状态信息或位置信息;根据各大语言模型的属性信息,确定与目标任务对应的目标大语言模型。
作为一种示例性的,当目标对象提交目标任务后,信息生成系统的LLMOps框架首先去获取各大语言模型的属性信息,例如状态信息,状态信息包括空闲状态或忙碌状态,即选取处于空闲状态的大语言模型作为处理目标任务的模型。当信息生成系统的LLMOps框架中各大语言模型的状态信息均处于空闲状态时,采用轮询的方式依次选取大语言模型作为处理目标任务的模型。
作为另一种示例性的,当目标对象提交目标任务后,信息生成系统的LLMOps框架首先获取各大语言模型的属性信息,例如位置信息,由于大语言模型的服务器设置在不同区域,因此一个区域对应有一个大语言模型的节点,选取大语言模型的节点为稳定节点所对应的大语言模型作为处理目标任务的模型。
也即本公开实施例中,信息生成系统的LLMOps框架集成了不同大语言模型的AI能力,当确定目标任务的属性信息后,可以得到与目标任务的属性信息对应的目标任务语义向量,实现基于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标文本内容,可以实现基于不同大语言模型进行文本内容的生成。
S120、基于目标任务语义向量,获取与目标任务语义向量对应的目标文本信息。
当获取到目标任务对应的目标任务语义向量后,基于目标任务对应的目标任务语义向量,从向量数据库中获取与目标温度语义向量对应的目标文本信息。
作为具体的实施例,基于目标任务语义向量,获取与目标任务语义向量对应的目标文本信息,包括:基于目标任务语义向量,从向量数据库中获取与目标任务语义向量的匹配值满足预设匹配值的文本信息;基于各文本信息与目标任务语义向量的匹配值,对各文本信息进行降序排序;选取前目标数量的文本信息作为目标任务对应的目标文本信息。
在通过目标嵌入模型得到目标任务对应的目标语义向量后,通过目标语义向量与向量数据库中的文本信息进行匹配,基于目标语义向量与向量数据库中的文本信息的匹配值,对与匹配值满足预设匹配值的文本信息进行降序排序,然后基于排序结果,选取前目标数据的文本信息作为目标任务对应的目标文本信息。
需要说明的是,上述实施例中,向量数据库包括不同的子向量数据库,不同的子向量数据库对应存储一个垂直领域的文本信息,通过从不同的数据来源中获取到文本内容后,对文本内容进行分类、清洗后,采用Embedding对文本内容进行向量化表示后存储至对应垂直领域的子向量数据库。用户只需在信息生成系统上上传目标任务对应的文本数据,无需理解信息生成系统中晦涩的概念和技术处理,全部交予信息生成系统的LLMOps框架完成对目标任务的预处理Embedding嵌入动作,轻松实现用户文本数据作为上下文嵌入AI应用,极大地简化AI交互流程。
上述实施例中,根据目标嵌入模型,确定与目标任务对应的目标语义向量的过程的工作原理示例性的表示为:举例来讲,这里有几句话:1、我很快乐;2、我非常高兴;3、上马;4、猫追逐老鼠;5、小猫捕猎老鼠;6、三明治熟了么。我们将这几句话来分类,很明显1和2、4和5几乎是同样的含义,而句子3、6则是完全不同。这里可以看到,1和2里面,仅仅只有“我”是相同的,没有其他词是相同的了。由于嵌入模型可以将离散型变量(如单词、句子或者文档)转化为浮点数向量。通过浮点数向量在空间中的位置信息确定与目标任务语义向量对应的目标文本信息。
也即在目标嵌入模型将目标任务转换为目标任务语义向量后,通过获取目标任务语义向量的浮点数向量在空间中的位置信息,以及与目标任务属于相同垂直领域的子向量数据库中存储的历史文本数据,该历史文本数据也以语义向量的形式表示,因此,也存在浮点数向量,通过比较目标任务语义向量的浮点数向量在空间中的位置信息与历史文本数据的浮点数向量在空间中的位置信息确定目标文本信息。
S130、根据目标操作、目标任务和所述目标文本信息,确定目标文本内容。
在具体的实施方式中,根据根据目标操作、目标任务和所述目标文本信息,确定目标文本内容,包括:获取与目标操作对应的模板信息;基于模板信息、目标任务和目标文本信息,生成目标文本内容。
其中,基于模板信息、目标任务和目标文本信息,生成目标文本内容,包括:基于目标任务,对目标文本信息进行处理得到目标文本内容;将目标文本内容以模板信息的方式进行展示。
也即首先选取目标操作对应的模板信息,然后将从向量数据库中获取的目标文本信息进行处理后生成与目标任务对应的目标文本内容,最后将目标文本内容以模板信息的方式展示。
上述实施例中,将从向量数据库中获取的目标文本信息进行处理后生成与目标任务对应的目标文本内容的具体方式例如对目标文本信息进行提取、融合等等。
本公开实施例提供的在AI领域下基于大语言模型的信息生成方法,首先响应于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标任务语义向量;然后基于目标任务语义向量,获取与目标任务语义向量对应的目标文本信息;最后根据目标操作、目标任务和目标文本信息,确定目标文本内容。由于信息生成系统的LLMOps框架集成了不同大语言模型的AI能力,不同的操作对应不同的大语言模型,当任务生成系统获取到目标操作的目标任务后,根据各大语言模型的属性信息,确定目标任务对应的目标大语言模型,然后基于大语言模型与嵌入模型的关系,选取目标嵌入模型对目标任务进行处理得到目标任务语义向量,实现基于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标文本内容,即通过不同大语言模型进行文本内容的生成,使得发布一个AI应用只需数分钟的时间。可以在不停服的情况下,根据用户输入的数据进行实时优化和调整。
此外,本公开实施例提供的在AI领域下基于大语言模型的信息生成方法中,信息生成系统的LLMOps框架采用对模型能力的封装和抽象,以支持不同种类的LLM模型的集成,提供了创建、编辑和发布AI应用的全面能力,包括Prompt编写(也即目标任务的编写)和调试,并且支持Prompt提示词自由选择和不同的LLM(大语言模型)进行交互,即实现了同一个框架里面,可以快速创建不同的AI应用,这些应用可以与各种不同的LLM模型进行接口对接,实现了高度的灵活性和定制化。
在上述实施例的基础上,确定与目标任务对应的目标任务语义向量之前,还包括,对目标任务进行预处理,例如,对目标任务中的敏感词汇进行清洗剔除,或者对目标任务的敏感词汇进行加密处理等,通过对目标任务中的敏感词汇进行清洗剔除,或者对目标任务的敏感词汇进行加密处理等,保证数据的安全性。
此外,上述实施例中,通过设置信息生成系统的LLMOps框架还包括框架扩展接口,通过设置框架扩展接口,基于框架扩展接口实现后期的功能扩展。
此过程中,通过设置信息生成系统的LLMOps框架还包括框架扩展接口,实现信息生成系统的LLMOps框架的高度可扩展性,可以根据AI应用场景的不同,灵活接入各种内容安全审核策略和应用鉴权规则等功能,保证信息生成的准确性。
在上述实施例的基础上,本公开实施例还提供一种在AI领域下基于大语言模型的信息生成装置,如图2所示,在AI领域下基于大语言模型的信息生成装置包括:
目标任务语义向量确定模块210,用于响应于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标任务语义向量;
目标文本信息获取模块220,用于基于目标任务语义向量,获取与目标任务语义向量对应的目标文本信息;
目标文本内容确定模块230,用于根据目标操作、目标任务和目标文本信息,确定目标文本内容。
本公开实施例提供的在AI领域下基于大语言模型的信息生成装置,首先响应于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标任务语义向量;然后基于目标任务语义向量,获取与目标任务语义向量对应的目标文本信息;最后根据目标操作、目标任务和目标文本信息,确定目标文本内容。由于信息生成系统的LLMOps框架集成了不同大语言模型的AI能力,不同的操作对应不同的大语言模型,当任务生成系统获取到目标操作的目标任务后,根据各大语言模型的属性信息,确定目标任务对应的目标大语言模型,然后基于大语言模型与嵌入模型的关系,选取目标嵌入模型对目标任务进行处理得到目标任务语义向量,实现基于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标文本内容,即通过不同大语言模型进行文本内容的生成,使得发布一个AI应用只需数分钟的时间。可以在不停服的情况下,根据用户输入的数据进行实时优化和调整。
在具体的实施方式中,响应于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标任务语义向量,包括:
响应于目标对象在目标操作中提交的目标任务,确定与目标操作对应的目标大语言模型;
根据大语言模型与嵌入模型的对应关系,确定目标大语言模型对应的目标嵌入模型;
根据目标嵌入模型,确定与目标任务对应的目标语义向量。
在具体的实施方式中,响应于目标对象在目标操作中提交的目标任务,确定与目标任务对应的目标大语言模型,包括:
响应于目标对象在目标操作中提交的目标任务,获取各大语言模型的属性信息,其中,属性信息包括状态信息或位置信息;
根据各大语言模型的属性信息,确定与目标任务对应的目标大语言模型。
在具体的实施方式中,基于目标任务语义向量,获取与目标任务语义向量对应的目标文本信息,包括:
基于目标任务语义向量,从向量数据库中获取与目标任务语义向量的匹配值满足预设匹配值的文本信息;
基于各文本信息与目标任务语义向量的匹配值,对各文本信息进行降序排序;
选取前目标数量的文本信息作为目标任务对应的目标文本信息。
在具体的实施方式中,根据目标操作、目标任务和目标文本信息,确定目标文本内容,包括:
获取与目标操作对应的模板信息;
基于模板信息、目标任务和目标文本信息,生成目标文本内容。
在具体的实施方式中,基于模板信息、目标任务和目标文本信息,生成目标文本内容,包括:
基于目标任务,对目标文本信息进行处理得到目标文本内容;
将目标文本内容以模板信息的方式进行展示。
在具体的实施方式中,确定与目标任务对应的目标任务语义向量之前,还包括:
对目标任务进行预处理,其中,预处理包括清洗和加密。
本申请实施例还提供了一种计算机设备。具体请参阅图3,图3为本实施例计算机设备基本结构框图。
计算机设备包括通过系统总线相互通信连接存储器410和处理器420。需要指出的是,图中仅示出了具有组件410-420的计算机设备,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
存储器410至少包括一种类型的可读存储介质,可读存储介质包括非易失性存储器(non-volatile memory)或易失性存储器,例如,闪存(flashmemory)、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(random access memory,RAM)、只读存储器(read-only memory,ROM)、可擦写可编程只读存储器(erasable programmable read-onlymemory,EPROM)、电可擦写可编程只读存储器(electrically erasable programmableread-onlymemory,EEPROM)、可编程只读存储器(programmable read-only memory,PROM)、磁性存储器、磁盘、光盘等,RAM可以包括静态RAM或动态RAM。在一些实施例中,存储器410可以是计算机设备的内部存储单元,例如,该计算机设备的硬盘或内存。在另一些实施例中,存储器410也可以是计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡或闪存卡(FlashCard)等。当然,存储器410还可以既包括计算机设备的内部存储单元也包括其外部存储设备。本实施例中,存储器410通常用于存储安装于计算机设备的操作系统和各类应用软件,例如上述方法的程序代码等。此外,存储器410还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器420通常用于执行计算机设备的总体操作。本实施例中,存储器410用于存储程序代码或指令,程序代码包括计算机操作指令,处理器420用于执行存储器410存储的程序代码或指令或者处理数据,例如运行上述方法的程序代码。
本文中,总线可以是工业标准体系结构(Industry StandardArchitecture,ISA)总线、外设部件互连标准(Peripheral Component Interconnect,PCI)总线或扩展工业标准结构(Extended Industry Standard Architecture,EISA)总线等。该总线系统可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
本申请的另一实施例还提供一种计算机可读介质,计算机可读介质可以是计算机可读信号介质或者计算机可读介质。计算机中的处理器读取存储在计算机可读介质中的计算机可读程序代码,使得处理器能够执行在上述方法中每个步骤、或各步骤的组合中规定的功能动作;生成实施在框图的每一块、或各块的组合中规定的功能动作的装置。
计算机可读介质包含但不限于电子、磁性、光学、电磁、红外的存储器或半导体系统、设备或者装置,或者前述的任意适当组合,存储器用于存储程序代码或指令,程序代码包括计算机操作指令,处理器用于执行存储器存储的上述方法的程序代码或指令。
存储器和处理器的定义,可以参考前述计算机设备实施例的描述,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
在本申请各个实施例中的各功能单元或模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
除非上下文中另外明确地指出,否则在本文和所附权利要求中所使用的词语的单数形式包括复数,反之亦然。因而,当提及单数时,通常包括相应术语的复数。相似地,措辞“包含”和“包括”将解释为包含在内而不是独占性地。同样地,术语“包括”和“或”应当解释为包括在内的,除非本文中明确禁止这样的解释。在本文中使用术语“示例”之处,特别是当其位于一组术语之后时,所述“示例”仅仅是示例性的和阐述性的,且不应当被认为是独占性的或广泛性的。
适应性的进一步的方面和范围从本文中提供的描述变得明显。应当理解,本申请的各个方面可以单独或者与一个或多个其它方面组合实施。还应当理解,本文中的描述和特定实施例旨在仅说明的目的并不旨在限制本申请的范围。
以上对本公开的若干实施例进行了详细描述,但显然,本领域技术人员可以在不脱离本公开的精神和范围的情况下对本公开的实施例进行各种修改和变型。本公开的保护范围由所附的权利要求限定。

Claims (10)

1.一种在AI领域下基于大语言模型的信息生成方法,其特征在于,包括:
响应于目标对象在目标操作中提交的目标任务,确定与所述目标任务对应的目标任务语义向量;
基于所述目标任务语义向量,获取与所述目标任务语义向量对应的目标文本信息;
根据所述目标操作、所述目标任务和所述目标文本信息,确定目标文本内容。
2.根据权利要求1所述的方法,其特征在于,所述响应于目标对象在目标操作中提交的目标任务,确定与所述目标任务对应的目标任务语义向量,包括:
响应于目标对象在目标操作中提交的目标任务,确定与所述目标操作对应的目标大语言模型;
根据大语言模型与嵌入模型的对应关系,确定所述目标大语言模型对应的目标嵌入模型;
根据所述目标嵌入模型,确定与所述目标任务对应的目标语义向量。
3.根据权利要求2所述的方法,其特征在于,所述响应于目标对象在目标操作中提交的目标任务,确定与所述目标任务对应的目标大语言模型,包括:
响应于目标对象在目标操作中提交的目标任务,获取各大语言模型的属性信息,其中,所述属性信息包括状态信息或位置信息;
根据各大语言模型的属性信息,确定与所述目标任务对应的目标大语言模型。
4.根据权利要求1所述的方法,其特征在于,所述基于所述目标任务语义向量,获取与所述目标任务语义向量对应的目标文本信息,包括:
基于所述目标任务语义向量,从向量数据库中获取与所述目标任务语义向量的匹配值满足预设匹配值的文本信息;
基于各所述文本信息与所述目标任务语义向量的匹配值,对各所述文本信息进行降序排序;
选取前目标数量的文本信息作为所述目标任务对应的目标文本信息。
5.根据权利要求1所述的方法,其特征在于,所述根据所述目标操作、所述目标任务和所述目标文本信息,确定目标文本内容,包括:
获取与所述目标操作对应的模板信息;
基于所述模板信息、所述目标任务和所述目标文本信息,生成目标文本内容。
6.根据权利要求5所述的方法,其特征在于,所述基于所述模板信息、所述目标任务和所述目标文本信息,生成目标文本内容,包括:
基于所述目标任务,对所述目标文本信息进行处理得到目标文本内容;
将所述目标文本内容以所述模板信息的方式进行展示。
7.根据权利要求1所述的方法,其特征在于,所述确定与所述目标任务对应的目标任务语义向量之前,还包括:
对所述目标任务进行预处理,其中,所述预处理包括清洗和加密。
8.一种在AI领域下基于大语言模型的信息生成装置,其特征在于,包括:
目标任务语义向量确定模块,用于响应于目标对象在目标操作中提交的目标任务,确定与所述目标任务对应的目标任务语义向量;
目标文本信息获取模块,用于基于所述目标任务语义向量,获取与所述目标任务语义向量对应的目标文本信息;
目标文本内容确定模块,用于根据所述目标操作、所述目标任务和所述目标文本信息,确定目标文本内容。
9.一种计算机设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1~7中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1~7中任一所述的方法。
CN202311554399.3A 2023-11-21 2023-11-21 基于大语言模型的信息生成方法、装置、设备和存储介质 Pending CN117634496A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311554399.3A CN117634496A (zh) 2023-11-21 2023-11-21 基于大语言模型的信息生成方法、装置、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311554399.3A CN117634496A (zh) 2023-11-21 2023-11-21 基于大语言模型的信息生成方法、装置、设备和存储介质

Publications (1)

Publication Number Publication Date
CN117634496A true CN117634496A (zh) 2024-03-01

Family

ID=90017219

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311554399.3A Pending CN117634496A (zh) 2023-11-21 2023-11-21 基于大语言模型的信息生成方法、装置、设备和存储介质

Country Status (1)

Country Link
CN (1) CN117634496A (zh)

Similar Documents

Publication Publication Date Title
CN111159982B (zh) 文档编辑方法、装置、电子设备及计算机可读存储介质
CN108829467B (zh) 第三方平台对接实现方法、装置、设备及存储介质
CN112307122B (zh) 一种基于数据湖的数据管理系统及方法
JP2022031625A (ja) 情報をプッシュするための方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
CN109657177A (zh) 升级后页面的生成方法、装置、存储介质及计算机设备
CN111949550B (zh) 自动生成测试数据的方法、装置、设备及存储介质
US20230106106A1 (en) Text backup method, apparatus, and device, and computer-readable storage medium
CN111651196B (zh) 文档发布方法、装置及服务器
CN117033249A (zh) 一种测试用例生成方法、装置、计算机设备及存储介质
CN113407284A (zh) 导航界面的生成方法、装置、存储介质及电子设备
CN113590115B (zh) 一种业务系统代码自动生成方法及装置
CN110888972A (zh) 一种基于Spark Streaming的敏感内容识别方法及装置
CN117670487A (zh) 跨平台商品发布方法、装置、设备和存储介质
US20200327427A1 (en) System for deriving data in constrained environments
CN111444368B (zh) 构建用户画像的方法、装置、计算机设备及存储介质
CN112257005A (zh) 一种表单组件生成方法及装置
CN111666520A (zh) 基于表单图像生成电子表单的方法和装置
CN111143461A (zh) 映射关系处理系统、方法和电子设备
CN117216042A (zh) 一种数据标准化平台的构建方法及装置
CN117634496A (zh) 基于大语言模型的信息生成方法、装置、设备和存储介质
TWI767644B (zh) 透過設定資料結構與自動生成應用程式介面服務資訊的系統
CN113138773B (zh) 云计算分布式服务集群方法
CN112765197B (zh) 数据查询方法、装置、计算机设备和存储介质
CN114547066A (zh) 核电业务数据的标准化方法、装置和计算机设备
CN113239670A (zh) 一种业务模板上传的方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination