CN117194637A - 基于大语言模型的多层级可视化评估报告生成方法、装置 - Google Patents

基于大语言模型的多层级可视化评估报告生成方法、装置 Download PDF

Info

Publication number
CN117194637A
CN117194637A CN202311201583.XA CN202311201583A CN117194637A CN 117194637 A CN117194637 A CN 117194637A CN 202311201583 A CN202311201583 A CN 202311201583A CN 117194637 A CN117194637 A CN 117194637A
Authority
CN
China
Prior art keywords
data
target
training sample
model
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311201583.XA
Other languages
English (en)
Other versions
CN117194637B (zh
Inventor
汪天翔
张雨侠
侯仰瑶
戴诗澜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Research Institute of Big Data SRIBD
Original Assignee
Shenzhen Research Institute of Big Data SRIBD
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Research Institute of Big Data SRIBD filed Critical Shenzhen Research Institute of Big Data SRIBD
Priority to CN202311201583.XA priority Critical patent/CN117194637B/zh
Publication of CN117194637A publication Critical patent/CN117194637A/zh
Application granted granted Critical
Publication of CN117194637B publication Critical patent/CN117194637B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Abstract

本发明公开了一种基于大语言模型的多层级可视化评估报告生成方法、装置、计算机设备及存储介质,其方法实现,包括:采集基础数据,并按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,作为训练样本数据;通过所述训练样本数据对待训练模型进行迭代训练,直到当前迭代符合预设迭代终止条件时,得到目标模型;基于所述训练样本数据,构建目标领域知识向量数据库;基于所述目标领域知识向量数据库,获取提示词向量,将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告。无需人工编撰,且可提高评估报告生成效率以及准确性。

Description

基于大语言模型的多层级可视化评估报告生成方法、装置
技术领域
本发明涉及机器学习模型技术领域,尤其涉及一种基于大语言模型的多层级可视化评估报告生成方法、装置、计算机设备及存储介质。
背景技术
目前,各城市每年都会花费大量的时间和人力开展一些专业领域,例如法治领域的调研和总结工作,并通过人工编撰方式,形成各个城市自己的法治评估报告。在该过程中图表绘制、描述性阐述的工作量巨大,且评估的维度繁多、语言体系复杂,直接应用传统文本生成语言模型效果较差。
发明内容
基于此,有必要针对上述技术问题,提供一种基于大语言模型的多层级可视化评估报告生成方法、装置、计算机设备及存储介质,以解决现有技术中存在的至少一个问题。
第一方面,本申请是这样实现的,提供了一种基于大语言模型的多层级可视化评估报告生成方法,包括:
采集基础数据,并按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,作为训练样本数据;
通过所述训练样本数据对待训练模型进行迭代训练,直到当前迭代符合预设迭代终止条件时,得到目标模型;
基于所述训练样本数据,构建目标领域知识向量数据库;
用于基于所述目标领域知识向量数据库,获取提示词向量,将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告。
在一实施例中,所述所述将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告,包括:
获取预设评估报告模板,所述预设评估报告模板包括多个子任务;
通过提示词工程,构建子任务提示词;
基于所述子任务提示词以及所述待分析数据,生成各子任务对应的内容,以得到所述目标评估报告。
在一实施例中,所述所述基于所述目标子任务提示词以及所述待分析数据,生成各子任务对应的内容,以得到所述目标评估报告,包括:
基于所述目标子任务提示词、所述预设评估报告模板以及所述待分析数据,生成所述目标评估报告的文字部分内容;
对所述待分析数据进行图表分析,得到对应的图表信息;
基于所述图表信息,生成对应的图表描述性语句,以得到图表部分内容;
将所述图表部分内容以及所述文字部分内容进行组合,以生成所述目标评估报告。
在一实施例中,所述得到目标模型之后,包括:
基于所述训练样本数据,对所述目标模型进行微调处理;
对微调处理后的目标模型进行量化处理。
在一实施例中,所述基于所述训练样本数据,构建目标领域知识向量数据库,包括:
对所述训练样本数据进行筛选,以获取精选引用文献信息;
对所述精选引用文献信息进行预处理;
通过预设词向量模型对预处理后的精选引用文献信息进行处理,以得到词向量;
基于所述词向量,构建所述目标领域知识向量数据库。
在本申请一实施例中,所述基于所述目标领域知识向量数据库,获取提示词向量,包括:
构建索引,并根据所述索引在所述目标领域知识向量数据库中获取多个目标向量数据;
将所述目标向量数据融合为所述提示词向量。
在一实施例中,所述按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,包括:
将所述基础数据划分为通用知识数据以及专业领域知识数据,以生成通用知识训练样本集以及专业领域知识训练样本集;
按照预设任务类别,分别对所述通用知识训练样本集以及专业领域知识训练样本集中的训练样本进行任务切分,以得到切分后的数据。
第二方面,提供了一种基于大语言模型的多层级可视化评估报告生成系统,包括:
训练样本数据获取单元,用于采集基础数据,并按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,作为训练样本数据;
目标类型获取单元,用于通过所述训练样本数据对待训练模型进行迭代训练,直到当前迭代符合预设迭代终止条件时,得到目标模型;
目标领域知识向量数据库获取单元,用于基于所述训练样本数据,构建目标领域知识向量数据库;
目标评估报告生成单元,用于用于基于所述目标领域知识向量数据库,获取提示词向量,将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告。。
第三方面,提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,所述处理器执行所述计算机可读指令时实现上述基于大语言模型的多层级可视化评估报告生成方法。
第四方面,提供了一种可读存储介质,所述计算机可读指令被一个或多个处理器执行时,使得所述一个或多个处理器执行如上述基于大语言模型的多层级可视化评估报告生成方法。
上述基于大语言模型的多层级可视化评估报告生成方法、装置、计算机设备及存储介质,其方法实现,包括:采集基础数据,并按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,作为训练样本数据;通过所述训练样本数据对待训练模型进行迭代训练,直到当前迭代符合预设迭代终止条件时,得到目标模型;基于所述训练样本数据,构建目标领域知识向量数据库;基于所述目标领域知识向量数据库,获取提示词向量,将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告。本申请实施例中,通过采集基础数据,并构建训练数据集,构建基座大语言模型,并筛选可行度高的文本数据和搭建知识向量库,提高对于大语言模型的提问能力,根据实际的文本生成需求,分别按照段落、章节生成模板文章,结合可视化图表,最终生成图文并茂的评估报告,无需人工编撰,且可提高评估报告生成效率以及准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于大语言模型的多层级可视化评估报告生成方法的一流程示意图;
图2是本发明一实施例中基础数据采集方法的一流程示意图;
图3是本发明一实施例中模板化输出方法的一流程示意图;
图4是本发明一实施例中训练样本数据生成方法的一流程示意图;
图5是本发明一实施例中Decoder架构的基础形态的一结构示意图;
图6是本发明一实施例中评估报告生成方法的一流程示意图;
图7是本发明一实施例中基于大语言模型的多层级可视化评估报告生成方法方法的一结构示意图;
图8是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例中,通过采集基础数据,并构建训练数据集,构建基座大语言模型,并筛选可行度高的文本数据和搭建知识向量库,提高对于大语言模型的提问能力,根据实际的文本生成需求,分别按照段落、章节生成模板文章,结合可视化图表,最终生成图文并茂的评估报告,无需人工编撰,且可提高评估报告生成效率以及准确性。
在一实施例中,如图1所示,提供一种基于大语言模型的多层级可视化评估报告生成方法,包括如下步骤:
在步骤S110中,采集基础数据,并按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,作为训练样本数据;
在本申请实施例中,该基础数据可包括通用知识数据以及专业领域知识数据,该专业领域知识数据可包括法治城市领域的知识数据、医学领域知识数据、气象领域知识数据等。
参见图2,在本申请实施例中,该基础数据可通过如下方式获取:一种是通过对各种互联网公开数据爬取,其中包含但是不限于如:各类知识性百科网站、各大新闻媒体网站、各级政府对公民开放网站、法治相关的公开数据分析网站等;一种是通过收集各类公开数据集,并且对其表单进行分析和对其融合;一种是通过AIGC(AI Generated Content,利用人工智能技术来生成内容)的方式进行数据增广和数据拓充,该部分可通过构建大语言模型的提示词工程,自动化的批量生成各领域的单轮和多轮问答数据。
在本申请实施例中,在获取到基础数据后,可按照图文描述任务类别、信息抽取任务类别、语义分析任务类别、生式语料任务类别、常识推理任务类别、文本概要生成任务类别等对基础数据进行任务切片,用于构建法治垂直领域大语言模型的法治领域训练数据库,以对后续模型的训练提供训练数据。
参见图4,在本申请一实施例中,所述按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,包括:
将所述基础数据划分为通用知识数据以及专业领域知识数据,以生成通用知识训练样本集以及专业领域知识训练样本集;
按照预设任务类别,分别对所述通用知识训练样本集以及专业领域知识训练样本集中的训练样本进行任务切分,以得到切分后的数据。
具体地,在获取基础数据后,可以根据获取渠道以及提示词所属领域属性,将基础数据划分为通用知识数据以及法治领域知识数据,以形成通用知识训练样本集以及专业领域知识训练样本集,然后可以按照预设的任务类别,分别对通用知识训练样本集以及专业领域知识训练样本集中的训练样本进行任务切分,以得到切分后的数据。
其中,该预设任务类别包括但不限于图文描述任务类别、信息抽取任务类别、语义分析任务类别、生式语料任务类别、常识推理任务类别、文本概要生成任务类别,切分后的数据可形成图文描述任务数据集、信息抽取任务数据集、语义分析任务数据集、生成式语料任务数据集、常识推理任务数据集、文本概要生成任务数据集。
参见图4,在本申请实施例中,上述数据集的形成主要可分为两部分,一种是基础数据的构建和生成过程中已形成该任务的数据集,这种只需要对数据进行拼接和对其即可;一种是在该任务的训练数据体量较少时,需要在基础数据上进行二次生成。
在本申请实施例中,在基础数据进行二次生成的方式具体可通过文本切片算法、概要文本对生成算法以及常识推理对生成算法实现。
其中,文本切片算法,是指通过分词算法(Tokenization),将语料数字化,通过将长文本数据进行上下文窗口划分,窗口大小为2048,输入为上一个文本窗口的数据,输出是下一个窗口的数据,形成一个生产式文本预测-数据对。
其中,概要文本对生成算法,可先对长文本的数据结构进算法检测,主要检测长文本数据结构中是否有子标题、文章概述、标题与正文比值、文本写作风格是否为“倒金字塔”等情形,如果符合条件,则形成文本-概要数据对。
其中,常识推理对生成算法,则需要针对法治垂直领域知识、百科数据、处理过的结构化数据等进行数据清洗和预处理,然后通过实体识别和关系抽取的方式,构建三元组数据集,进而通过自动化文本生成的方式,生成知识类型的问答数据对。
在步骤S120中,通过所述训练样本数据对待训练模型进行迭代训练,直到当前迭代符合预设迭代终止条件时,得到目标模型;
在本申请实施例中,该目标模型可为大语言模型LLM(Large Language Model),该模型是使用深度学习算法处理和理解自然语言的基础机器学习模型。模型在大量文本数据上进行训练,以学习语言表达模式和实体间关系。LLM可以执行多种类型的语言任务,例如翻译语言、分析情绪、聊天机器人对话等,可以理解复杂的文本数据,并生成连贯且语法准确的新文本。
在本申请实施例中,该大语言模型LLM的架构可使用transformer的网络基础模型和decoder-only架构,其中Decoder架构的基础形态如图5所示,全程单项语言信息传输,将注意力层(attention)的后向信息遮盖掉,如图5中对于一个[X1,X2,X3,Y1,Y2,END]的顺序语言序列,通过输入X1预测X2,输入X1,X2预测X3,依次向后递推。
其中,transformer构建使用了自注意力机制,通过多个自注意力层(self-attention),连接Add和Norm层,其中add为残差连接,方式网络退化,norm表述层级归一化处理,然后通过前向传播,连接linear层和softmax函数,最终输出预测概率值,self-attention的注意力机制函数为:
其中函数中Q,K,V为输入矩阵X分别与WQ,WK,WV矩阵相乘的结果,WQ,WK,WV分别是模型的主要需要训练的矩阵,公式中计算矩阵Q和K每一行向量的内积,为了防止内积过大,因此除以dk的平方根。Q乘以K的转置后,得到的矩阵行列数都为n,n为句子单词数,这个矩阵可以表示单词之间的attention强度。最后使用Softmax函数计算每一个单词对于其他单词的attention系数,公式中的Softmax函数是对矩阵的每一行进行Softmax,即每一行的和都变为1。其中Softmax公式为:
在本申请实施例中,该预设迭代终止条件可包括该迭代次数达到最大值,或者该模型训练的结果达到符合约束条件。其中,该约束条件可通过损失函数,例如交叉熵损失函数、均方差损失函数等计算得到。
在本申请实施例中,所述得到目标模型之后,包括:
基于所述训练样本数据,对所述目标模型进行微调处理;
对微调处理后的目标模型进行量化处理。
具体地,在得到目标模型后,可以对该目标模型进行微调处理,在进行微调处理时,如果使用全量微调,每一次训练迭代都需要大量的计算资源和计算时间,因为考虑到在法治城市领域只是隶属于法治领域一个细分领域,所以无需进行全量参数的微调方案。因此可采用低秩近似的方案,对目标模型进行微调,微调的数据可为通用知识训练数据和专业领域的训练数据共同组成,预训练矩阵(目标模型的矩阵)为W0∈Rr×k,整个微调模型参数设定为h,则公式为:
h=W0x+ΔWx=W0x+BAx=(W0+BA)x
其中,x表示:输入的信息矩阵,B∈Rd×r,A∈Rr×k,r<<min(d,k),这里将超参数r设置为4,其中A,B分别是两个矩阵,两个矩阵的乘积与预训练的矩阵一致,训练时,基座模型参数固定,只训练降维矩阵A和升维矩阵B,在做文本生成及推理任务时,BA加到原参数上,不引入额外的推理延迟,在A,B矩阵的训练时,A采用高斯分布初始化,B采用全0设置的初始化。
在本申请实施例中,由于大模型部署的成本很高,因此对于该微调后的目标模型可进行量化,具体可采用INT8量化方法,即将浮点数xf通过缩放因子scale映射到范围在[-128,127]内的8bit表示为xq,即:
其中,Round表示四舍五入的整数,Clip表示将离群值截断到[-128,127]的范围内,对于scale的值通过下面步骤计算得出:
amax=max(abs(xf))
其中,amax表示:浮点数。
在步骤S130中,基于所述训练样本数据,构建目标领域知识向量数据库;
在本申请实施例中,通过该目标领域知识向量数据库,可以向大语言模型输入更好的提示词文本,提高对大语言模型的提问能力。
在本申请实施例中,所述基于所述训练样本数据,构建目标领域知识向量数据库,包括:
对所述训练样本数据进行筛选,以获取精选引用文献信息;
对所述精选引用文献信息进行预处理;
通过预设词向量模型对预处理后的精选引用文献信息进行处理,以得到词向量;
基于所述词向量,构建所述目标领域知识向量数据库。
具体地,参见图3,通过设置精选引用文献模块以及目标领域知识向量数据库,对基础数据以及法治领域类数据进行分析,可以为大语言模型提供更好的提示词文本。其中,通过对文本特质的权威性进行判断,包括但不限于,判断是否为出版物、确定其发行机构是否为正规发行机构、确定其文本访问量是否达到预设访问量、确定是否为官方机构发布的数据等,从而筛选出精选引用文献,然后可对该精选引用文献进行预处理,例如分词、去除停用词、小写化等操作,降预处理后的数据输入到词向量模型word2Vec中学习词向量,完成向量空间的构建。
在本申请实施例中,所述基于所述目标领域知识向量数据库,获取提示词向量,包括:
构建索引,并根据所述索引在所述目标领域知识向量数据库中获取多个目标向量数据;
将所述目标向量数据融合为所述提示词向量。
具体的,可以根据需要生成的评估报告所属领域,建立索引,便于向量空间的快速查找和比较空间向量,该索引可使用近似最近邻索引(ANN),最后封装查询接口,暴露文本输入,可返回和其最相关和最相似的前5条信息和其出处。该最相近的5条信息和出处的意思是指通过最近邻算法得到5个和查询问题分值最高的5条,并且这5条信息本身也会携带自己的出处,比如,通过输入“法治城市怎么构建”,那么得到的就是5个相似的文档解释,里面有相关机构的发文,那么最终呈现的结果会携带这些机构名称、标题、上下文等相关信息。在获取到最相关和最相似的前5条信息和其出处后可以将数据融合到一起作为该提示词向量,以便增加目标模型的提问能力。
在步骤S140中,基于所述目标领域知识向量数据库,获取提示词向量,将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告。
在本申请实施例中,可预先配置多种不同领域的评估报告模板,在对待分析数据进行处理时,可以选取对应的评估报告模型,并将目标领域知识向量数据库接入到目标模型,对该评估报告模板的不同部分,分任务生成,从而实现模板化输出。
在本申请实施例中,所述将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告,包括:
获取预设评估报告模板,所述预设评估报告模板包括多个子任务;
通过提示词工程,构建子任务提示词;
基于所述子任务提示词以及所述待分析数据,生成各子任务对应的内容,以得到所述目标评估报告。
其中,该子任务可包括评估报告模板的不同部分,例如,报告背景、理论框架、主要分析结果、对策建议生成、章节基本情况生成、各项维度数据的看图描述生成等。
在本申请实施例中,可通过构建提示词工程,并通过多轮人工调整,形成一套符合目标领域的提示词话术,并通过子任务提示词管理模块对该目标子任务提示词进行管理。在进行评估报告生成时,可根据子任务提示词管理模块获取到子任务提示词,然后可通过该子任务提示词以及所述待分析数据,生成评估报告模型中各子任务对应的内容,以得到所述目标评估报告。
参见图6,进一步,基于所述目标子任务提示词以及所述待分析数据,生成各子任务对应的内容,以得到所述目标评估报告,包括:
基于所述目标子任务提示词、所述预设评估报告模板以及所述待分析数据,生成所述目标评估报告的文字部分内容。
对所述待分析数据进行图表分析,得到对应的图表信息;
基于所述图表信息,生成对应的图表描述性语句,以得到图表部分内容;
将所述图表部分内容以及所述文字部分内容进行组合,以生成所述目标评估报告。
具体地,通过该子任务提示词管理模块获取子任务提示词,并按照任务类别生成对应的评估报告的文字性描述部分,同时,接入可视化图表编辑工具,对各个法治部分的待分析数据进行图表分析,以生成对应的图表信息,并将该图表信息输入至目标模型的LLM应用服务模块中,通过看图说话的形式,进行图表的描述性语句生成,最终将图表部分内容与该文字部分内容发送至法治城市分析报告生成系统进行综合,即可得到一个图文并茂的评估报告。
上述基于大语言模型的多层级可视化评估报告生成方法,包括:采集基础数据,并按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,作为训练样本数据;通过所述训练样本数据对待训练模型进行迭代训练,直到当前迭代符合预设迭代终止条件时,得到目标模型;基于所述训练样本数据,构建目标领域知识向量数据库;基于所述目标领域知识向量数据库,获取提示词向量,将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告。本申请实施例中,通过采集基础数据,并构建训练数据集,构建基座大语言模型,并筛选可行度高的文本数据和搭建知识向量库,提高对于大语言模型的提问能力,根据实际的文本生成需求,分别按照段落、章节生成模板文章,结合可视化图表,最终生成图文并茂的评估报告,无需人工编撰,且可提高评估报告生成效率以及准确性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种基于大语言模型的多层级可视化评估报告生成装置,该基于大语言模型的多层级可视化评估报告生成装置与上述实施例中基于大语言模型的多层级可视化评估报告生成方法一一对应。如图7所示,该基于大语言模型的多层级可视化评估报告生成装置包括训练样本数据获取单元10、目标类型获取单元20、目标领域知识向量数据库获取单元30和目标评估报告生成单元40。各功能模块详细说明如下:
训练样本数据获取单元10,用于采集基础数据,并按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,作为训练样本数据;
目标类型获取单元20,用于通过所述训练样本数据对待训练模型进行迭代训练,直到当前迭代符合预设迭代终止条件时,得到目标模型;
目标领域知识向量数据库获取单元30,用于基于所述训练样本数据,构建目标领域知识向量数据库;
目标评估报告生成单元40,用于基于所述目标领域知识向量数据库,获取提示词向量,将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告。
在本申请一实施例中,目标评估报告生成单元40,用于:
获取预设评估报告模板,所述预设评估报告模板包括多个子任务;
通过提示词工程,构建子任务提示词;
基于所述子任务提示词以及所述待分析数据,生成各子任务对应的内容,以得到所述目标评估报告。
在本申请一实施例中,目标评估报告生成单元40,用于:
基于所述目标子任务提示词、所述预设评估报告模板以及所述待分析数据,生成所述目标评估报告的文字部分内容;
对所述待分析数据进行图表分析,得到对应的图表信息;
基于所述图表信息,生成对应的图表描述性语句,以得到图表部分内容;
将所述图表部分内容以及所述文字部分内容进行组合,以生成所述目标评估报告。
在本申请一实施例中,所述装置还包括微调与量化单元,用于:
基于所述训练样本数据,对所述目标模型进行微调处理;
对微调处理后的目标模型进行量化处理。
在本申请一实施例中,目标领域知识向量数据库获取单元30还用于:
对所述训练样本数据进行筛选,以获取精选引用文献信息;
对所述精选引用文献信息进行预处理;
通过预设词向量模型对预处理后的精选引用文献信息进行处理,以得到词向量;
基于所述词向量,构建所述目标领域知识向量数据库。
在本申请一实施例中,目标评估报告生成单元40,用于:
构建索引,并根据所述索引在所述目标领域知识向量数据库中获取多个目标向量数据;
将所述目标向量数据融合为所述提示词向量。
在本申请一实施例中,训练样本数据获取单元10,还用于:
将所述基础数据划分为通用知识数据以及专业领域知识数据,以生成通用知识训练样本集以及专业领域知识训练样本集;
按照预设任务类别,分别对所述通用知识训练样本集以及专业领域知识训练样本集中的训练样本进行任务切分,以得到切分后的数据。
本申请实施例中,通过采集基础数据,并构建训练数据集,构建基座大语言模型,并筛选可行度高的文本数据和搭建知识向量库,提高对于大语言模型的提问能力,根据实际的文本生成需求,分别按照段落、章节生成模板文章,结合可视化图表,最终生成图文并茂的评估报告,无需人工编撰,且可提高评估报告生成效率以及准确性。
关于基于大语言模型的多层级可视化评估报告生成装置的具体限定可以参见上文中对于基于大语言模型的多层级可视化评估报告生成方法的限定,在此不再赘述。上述基于大语言模型的多层级可视化评估报告生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端设备,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括可读存储介质。该可读存储介质存储有计算机可读指令。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机可读指令被处理器执行时以实现一种基于大语言模型的多层级可视化评估报告生成方法。本实施例所提供的可读存储介质包括非易失性可读存储介质和易失性可读存储介质。
在本申请实施例中,提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,所述处理器执行所述计算机可读指令时实现如上述所述基于大语言模型的多层级可视化评估报告生成方法的步骤。
在申请实施例中,提供了一种可读存储介质,所述可读存储介质存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上述所述基于大语言模型的多层级可视化评估报告生成方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一非易失性可读取存储介质或易失性可读存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于大语言模型的多层级可视化评估报告生成方法,其特征在于,所述方法,包括:
采集基础数据,并按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,作为训练样本数据;
通过所述训练样本数据对待训练模型进行迭代训练,直到当前迭代符合预设迭代终止条件时,得到目标模型;
基于所述训练样本数据,构建目标领域知识向量数据库;
基于所述目标领域知识向量数据库,获取提示词向量,将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告。
2.如权利要求1所述的基于大语言模型的多层级可视化评估报告生成方法,其特征在于,所述将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告,包括:
获取预设评估报告模板,所述预设评估报告模板包括多个子任务;
通过提示词工程,构建子任务提示词;
基于所述子任务提示词以及所述待分析数据,生成各子任务对应的内容,以得到所述目标评估报告。
3.如权利要求2所述的基于大语言模型的多层级可视化评估报告生成方法,其特征在于,所述基于所述目标子任务提示词以及所述待分析数据,生成各子任务对应的内容,以得到所述目标评估报告,包括:
基于所述目标子任务提示词、所述预设评估报告模板以及所述待分析数据,生成所述目标评估报告的文字部分内容;
对所述待分析数据进行图表分析,得到对应的图表信息;
基于所述图表信息,生成对应的图表描述性语句,以得到图表部分内容;
将所述图表部分内容以及所述文字部分内容进行组合,以生成所述目标评估报告。
4.如权利要求1所述的基于大语言模型的多层级可视化评估报告生成方法,其特征在于,所述得到目标模型之后,包括:
基于所述训练样本数据,对所述目标模型进行微调处理;
对微调处理后的目标模型进行量化处理。
5.如权利要求1所述的基于大语言模型的多层级可视化评估报告生成方法,其特征在于,所述基于所述训练样本数据,构建目标领域知识向量数据库,包括:
对所述训练样本数据进行筛选,以获取精选引用文献信息;
对所述精选引用文献信息进行预处理;
通过预设词向量模型对预处理后的精选引用文献信息进行处理,以得到词向量;
基于所述词向量,构建所述目标领域知识向量数据库。
6.如权利要求5所述的基于大语言模型的多层级可视化评估报告生成方法,其特征在于,所述基于所述目标领域知识向量数据库,获取提示词向量,包括:
构建索引,并根据所述索引在所述目标领域知识向量数据库中获取多个目标向量数据;
将所述目标向量数据融合为所述提示词向量。
7.如权利要求1所述的基于大语言模型的多层级可视化评估报告生成方法,其特征在于,所述按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,包括:
将所述基础数据划分为通用知识数据以及专业领域知识数据,以生成通用知识训练样本集以及专业领域知识训练样本集;
按照预设任务类别,分别对所述通用知识训练样本集以及专业领域知识训练样本集中的训练样本进行任务切分,以得到切分后的数据。
8.一种基于大语言模型的多层级可视化评估报告生成系统,其特征在于,所述系统,包括:
训练样本数据获取单元,用于采集基础数据,并按照预设切分规则对所述基础数据进行任务切分,得到切分后的数据,作为训练样本数据;
目标类型获取单元,用于通过所述训练样本数据对待训练模型进行迭代训练,直到当前迭代符合预设迭代终止条件时,得到目标模型;
目标领域知识向量数据库获取单元,用于基于所述训练样本数据,构建目标领域知识向量数据库;
目标评估报告生成单元,用于基于所述目标领域知识向量数据库,获取提示词向量,将待分析数据以及所述提示词向量输入至所述目标模型中,得到目标评估报告。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,其特征在于,所述处理器执行所述计算机可读指令时实现如权利要求1至7任意一项所述基于大语言模型的多层级可视化评估报告生成方法的步骤。
10.一种可读存储介质,所述可读存储介质存储有计算机可读指令,其特征在于,所述计算机可读指令被处理器执行时实现如权利要求1至7任意一项所述基于大语言模型的多层级可视化评估报告生成方法的步骤。
CN202311201583.XA 2023-09-18 2023-09-18 基于大语言模型的多层级可视化评估报告生成方法、装置 Active CN117194637B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311201583.XA CN117194637B (zh) 2023-09-18 2023-09-18 基于大语言模型的多层级可视化评估报告生成方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311201583.XA CN117194637B (zh) 2023-09-18 2023-09-18 基于大语言模型的多层级可视化评估报告生成方法、装置

Publications (2)

Publication Number Publication Date
CN117194637A true CN117194637A (zh) 2023-12-08
CN117194637B CN117194637B (zh) 2024-04-30

Family

ID=89001379

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311201583.XA Active CN117194637B (zh) 2023-09-18 2023-09-18 基于大语言模型的多层级可视化评估报告生成方法、装置

Country Status (1)

Country Link
CN (1) CN117194637B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117473072A (zh) * 2023-12-28 2024-01-30 杭州同花顺数据开发有限公司 一种金融研报生成方法、装置、设备及存储介质
CN117744754A (zh) * 2024-02-19 2024-03-22 浙江同花顺智能科技有限公司 大语言模型任务处理方法、装置、设备及介质
CN117787668A (zh) * 2024-02-26 2024-03-29 中国科学院自动化研究所 一种基于大语言模型的目标分配方法、装置、电子设备、存储介质和程序产品

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105205396A (zh) * 2015-10-15 2015-12-30 上海交通大学 一种基于深度学习的安卓恶意代码检测系统及其方法
CN111949993A (zh) * 2020-08-18 2020-11-17 北京瑞莱智慧科技有限公司 模型安全性评估方法、介质、装置和计算设备
US20210125051A1 (en) * 2019-10-24 2021-04-29 International Business Machines Corporation Private transfer learning
CN113535931A (zh) * 2021-09-17 2021-10-22 北京明略软件系统有限公司 一种信息处理方法、装置、电子设备及存储介质
CN113987209A (zh) * 2021-11-04 2022-01-28 浙江大学 基于知识指导前缀微调的自然语言处理方法、装置、计算设备和存储介质
US20220067591A1 (en) * 2020-08-25 2022-03-03 DataChat.ai Machine learning model selection and explanation for multi-dimensional datasets
CN115994902A (zh) * 2023-02-20 2023-04-21 上海联影智能医疗科技有限公司 医学图像分析方法、电子设备及存储介质
CN116541411A (zh) * 2023-05-06 2023-08-04 深圳市奋源科技有限公司 Sql语句获取方法、报表生成方法、装置、计算机设备及存储介质置
CN116579339A (zh) * 2023-07-12 2023-08-11 阿里巴巴(中国)有限公司 任务执行方法和优化任务执行方法
CN116628172A (zh) * 2023-07-24 2023-08-22 北京酷维在线科技有限公司 基于知识图谱的政务服务领域多策略融合的对话方法
CN116759074A (zh) * 2023-07-03 2023-09-15 浙江一山智慧医疗研究有限公司 多轮会话式医学影像分析模型的训练方法及应用

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105205396A (zh) * 2015-10-15 2015-12-30 上海交通大学 一种基于深度学习的安卓恶意代码检测系统及其方法
US20210125051A1 (en) * 2019-10-24 2021-04-29 International Business Machines Corporation Private transfer learning
CN111949993A (zh) * 2020-08-18 2020-11-17 北京瑞莱智慧科技有限公司 模型安全性评估方法、介质、装置和计算设备
US20220067591A1 (en) * 2020-08-25 2022-03-03 DataChat.ai Machine learning model selection and explanation for multi-dimensional datasets
CN113535931A (zh) * 2021-09-17 2021-10-22 北京明略软件系统有限公司 一种信息处理方法、装置、电子设备及存储介质
CN113987209A (zh) * 2021-11-04 2022-01-28 浙江大学 基于知识指导前缀微调的自然语言处理方法、装置、计算设备和存储介质
CN115994902A (zh) * 2023-02-20 2023-04-21 上海联影智能医疗科技有限公司 医学图像分析方法、电子设备及存储介质
CN116541411A (zh) * 2023-05-06 2023-08-04 深圳市奋源科技有限公司 Sql语句获取方法、报表生成方法、装置、计算机设备及存储介质置
CN116759074A (zh) * 2023-07-03 2023-09-15 浙江一山智慧医疗研究有限公司 多轮会话式医学影像分析模型的训练方法及应用
CN116579339A (zh) * 2023-07-12 2023-08-11 阿里巴巴(中国)有限公司 任务执行方法和优化任务执行方法
CN116628172A (zh) * 2023-07-24 2023-08-22 北京酷维在线科技有限公司 基于知识图谱的政务服务领域多策略融合的对话方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ASSAF HOOGI 等: "Natural Language Generation Model for Mammography Reports Simulation", 《 IEEE JOURNAL OF BIOMEDICAL AND HEALTH INFORMATICS》, 30 September 2020 (2020-09-30), pages 2711 - 2717 *
JUNYI LI 等: "Pretrained language models for text generation: A survey", 《COMPUTATION AND LANGUAGE》, 14 January 2022 (2022-01-14), pages 4492 - 4499 *
李闻一: "财务共享服务中心的大语言模型应用探究", 《会计之友》, 26 July 2023 (2023-07-26), pages 2 - 10 *
王婷: "基于OCT图像的视网膜诊断报告生成及病变信息数据集构建", 《万方数据》, 17 January 2023 (2023-01-17), pages 1 - 69 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117473072A (zh) * 2023-12-28 2024-01-30 杭州同花顺数据开发有限公司 一种金融研报生成方法、装置、设备及存储介质
CN117473072B (zh) * 2023-12-28 2024-03-15 杭州同花顺数据开发有限公司 一种金融研报生成方法、装置、设备及存储介质
CN117744754A (zh) * 2024-02-19 2024-03-22 浙江同花顺智能科技有限公司 大语言模型任务处理方法、装置、设备及介质
CN117744754B (zh) * 2024-02-19 2024-05-10 浙江同花顺智能科技有限公司 大语言模型任务处理方法、装置、设备及介质
CN117787668A (zh) * 2024-02-26 2024-03-29 中国科学院自动化研究所 一种基于大语言模型的目标分配方法、装置、电子设备、存储介质和程序产品

Also Published As

Publication number Publication date
CN117194637B (zh) 2024-04-30

Similar Documents

Publication Publication Date Title
CN117194637B (zh) 基于大语言模型的多层级可视化评估报告生成方法、装置
CN109460459B (zh) 一种基于日志学习的对话系统自动优化方法
CN109902301B (zh) 基于深度神经网络的关系推理方法、装置及设备
CN112435656A (zh) 模型训练方法、语音识别方法、装置、设备及存储介质
US11269760B2 (en) Systems and methods for automated testing using artificial intelligence techniques
CN110442880B (zh) 一种机器翻译译文的翻译方法、装置及存储介质
CN115309910B (zh) 语篇要素和要素关系联合抽取方法、知识图谱构建方法
Pimentel et al. Unsupervised and scalable algorithm for learning node representations
CN112016296A (zh) 句子向量生成方法、装置、设备及存储介质
CN111897961A (zh) 一种宽度神经网络模型的文本分类方法及相关组件
CN110019784B (zh) 一种文本分类方法及装置
CN110991193A (zh) 一种基于OpenKiWi的翻译矩阵模型选择系统
CN113268564B (zh) 相似问题的生成方法、装置、设备及存储介质
CN117370736A (zh) 一种细粒度情感识别方法、电子设备及存储介质
CN117494760A (zh) 一种基于超大规模语言模型的富语义标签数据增广方法
CN117058276A (zh) 图像生成方法、装置、设备及存储介质
CN112836525A (zh) 一种基于人机交互机器翻译系统及其自动优化方法
CN112732879A (zh) 一种问答任务的下游任务处理方法及模型
CN116881470A (zh) 一种生成问答对的方法及装置
CN116932694A (zh) 一种针对知识库的智能化检索方法、设备及存储介质
CN111161266A (zh) 一种基于矢量量化的变分自编码机的多风格字体生成方法
CN116467412A (zh) 一种基于知识图谱的问答方法、系统和存储介质
CN115270795A (zh) 一种基于小样本学习的环评领域命名实体识别技术
CN115589446A (zh) 一种基于预训练与提示的会议摘要生成方法及系统
KR20220143804A (ko) 문단입력에 기초한 질의응답 데이터셋 생성 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant