CN117216193B - 基于大语言模型的可控文本生成方法及装置 - Google Patents

基于大语言模型的可控文本生成方法及装置 Download PDF

Info

Publication number
CN117216193B
CN117216193B CN202311256074.7A CN202311256074A CN117216193B CN 117216193 B CN117216193 B CN 117216193B CN 202311256074 A CN202311256074 A CN 202311256074A CN 117216193 B CN117216193 B CN 117216193B
Authority
CN
China
Prior art keywords
text
hot
viewpoint
content
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311256074.7A
Other languages
English (en)
Other versions
CN117216193A (zh
Inventor
轩占伟
王培妍
崔向阳
张凯
王鑫
黄涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Sports Club Co Ltd
Original Assignee
People Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by People Co Ltd filed Critical People Co Ltd
Priority to CN202311256074.7A priority Critical patent/CN117216193B/zh
Publication of CN117216193A publication Critical patent/CN117216193A/zh
Application granted granted Critical
Publication of CN117216193B publication Critical patent/CN117216193B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Abstract

本发明公开了一种基于大语言模型的可控文本生成方法及装置,方法包括:根据观点数据构建观点数据库;将第一媒体平台的第一热点事件和第一热点事件的第一热点内容输入至热点内容总结模型,得到第一热点事件的第一总结内容;根据观点数据库、第一热点事件的第一贴文以及第一热点事件的第一总结内容,利用贴文过滤模型过滤与观点数据库观点不一致的第一热点事件的第一贴文;将过滤后的第一热点事件的第一贴文、第一热点事件的第一总结内容和目标用户群体信息输入至文本生成大模型,得到可控文本。构建观点数据库保证生成文本的准确性和合理性,引入目标用户群体信息保障文本更符合目标用户需求,也提高可控文本的生成质量。

Description

基于大语言模型的可控文本生成方法及装置
技术领域
本发明实施例涉及人工智能技术领域,具体涉及一种基于大语言模型的可控文本生成方法及装置。
背景技术
随着科技的发展,进入自媒体时代,自媒体是指大众通过网络途径向外发布信息的传播方式。自媒体的高速发展和广泛使用使得网络信息传播呈现“去中心化”和“裂变式”的特征。自媒体在促进大众信息交流的同时,也带来了如夸张的标题吸引点击量、虚假信息、在网络上发表具有攻击性的不实言论等劣质信息泛滥的问题,造成网民注意力空耗、群体负面情绪被激发等负面影响,不利于构建良好的网络生态环境。
发明内容
鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的基于大语言模型的可控文本生成方法及装置。
根据本发明实施例的一个方面,提供了一种基于大语言模型的可控文本生成方法,其包括:
根据观点数据构建观点数据库;
将第一媒体平台的第一热点事件和第一热点事件的第一热点内容输入至热点内容总结模型,得到第一热点事件的第一总结内容;
根据观点数据库、第一热点事件的第一贴文以及第一热点事件的第一总结内容,利用贴文过滤模型过滤与观点数据库观点不一致的第一热点事件的第一贴文;
将过滤后的第一热点事件的第一贴文、第一热点事件的第一总结内容和目标用户群体信息输入至文本生成大模型,得到可控文本;文本生成大模型包括大语言模型。
根据本发明实施例的另一方面,提供了一种基于大语言模型的可控文本生成装置,装置包括:
构建模块,适于根据观点数据构建观点数据库;
总结内容模块,适于将第一媒体平台的第一热点事件和第一热点事件的第一热点内容输入至热点内容总结模型,得到第一热点事件的第一总结内容;
过滤模块,适于根据观点数据库、第一热点事件的第一贴文以及第一热点事件的第一总结内容,利用贴文过滤模型过滤与观点数据库观点不一致的第一热点事件的第一贴文;
文本生成模块,适于将过滤后的第一热点事件的第一贴文、第一热点事件的第一总结内容和目标用户群体信息输入至文本生成大模型,得到可控文本;文本生成大模型包括大语言模型。
根据本发明实施例的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述基于大语言模型的可控文本生成方法对应的操作。
根据本发明实施例的再一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上述基于大语言模型的可控文本生成方法对应的操作。
根据本发明实施例的提供的基于大语言模型的可控文本生成方法及装置,构建观点数据库保证观点文本的准确性和合理性,可以有效地作为文本生成的控制元素,引入目标用户群体信息保障文本生成的信息量更丰富,内容更多样,其符合目标用户群体信息,提高可控文本的生成质量,保障生成的可控文本与热点事件同步。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明实施例的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明实施例的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的基于大语言模型的可控文本生成方法的流程图;
图2示出了获取观点文本段的示意图;
图3示出了可控文本生成过程示意图;
图4示出了根据本发明一个实施例的基于大语言模型的可控文本生成装置的结构示意图;
图5示出了根据本发明一个实施例的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
图1示出了根据本发明一个实施例的基于大语言模型的可控文本生成方法的流程图,如图1所示,该方法包括如下步骤:
步骤S101,根据观点数据构建观点数据库。
可控文本生成(Controlable Text Generation,CTG)是指根据给定的控制元素,生成相应的文本。可控文本生成的主流框架为输入(由输入文本和控制元素两部分组成)—处理(生成式预训练模型,如BERT、GPT2、XLNET、T5等)—输出(文本)。可控文本生成的主流方法分为三类:a)基于微调的方法,这类方法通常需要一个下游的有监督数据集,从而让预训练模型学习到控制元素属性。b)基于预训练的方法,这类方法通常会修改生成式模型的结构,如Constrained BART修改了BART模型的结构,在编码器中增加了词元级别(token-level)分类器来指导编码器的生成。c)基于后处理的方法,这类方法对生成式模型的输出进行后处理,如PPLM增加了额外的属性模型来使GPT-2的输出符合控制元素。然而以上生成方式存在问题:a)缺乏以观点为控制元素的文本生成数据集。现有的开放数据集不满足将观点作为控制元素的需求。b)在自媒体领域文本生成技术相对初级,缺乏多种控制元素生成可控文本的解决方案。基于以上问题,也为了保障文本生成的准确性、合理性,本实施例基于观点数据构建了观点数据库,将观点数据库作为生成可控文本的控制元素之一。具体的,观点数据基于第二媒体平台获取,如基于官方媒体平台获取观点数据,观点数据包括如第二热点事件的第二贴文、第二热点事件的第二总结内容等。第二热点事件的第二贴文包括如新闻报道、评论等各种内容、信息解读、影响效果等,第二热点事件的第二总结内容可以根据第二贴文生成,如利用大语言模型对第二贴文进行总结,得到第二总结内容等,此处不做限定。
在获取观点数据后,可以根据第二贴文和第二总结内容,利用大语言模型基于零样本提示生成第一贴文态度attitude和第一贴文主题summary。第一贴文态度attitude包含了第二贴文中蕴含的对第二热点事件的情感态度(如赞扬、中立、否定等),第一贴文主题summary包括如政治、经济、文化等多个领域的不同主题。考虑到第二贴文的长度一般会超过大语言模型的最大上下文限定,此处,根据生成的第一贴文态度attitude和第一贴文主题summary,结合第二贴文和第二总结内容,基于Hypothetical Document Embeddings(假想文档嵌入,HyDE)进行检索增强,先得到检索文本段text span,检索文本段text span基于LLM(Large Language Model,大语言模型)的理解能力自动生成,是对第二贴文的观点概况。根据检索文本段对第二贴文进行检索,得到第二贴文中的至少一个观点文本段,观点文本段为第二贴文中的文本,根据检索文本段利用如无监督稠密向量检索器(如DPR、Faiss等)对向量化后的第二贴文进行检索,从中查找到对应的观点文本段。观点文本段可以为一个或多个,如观点文本段v={v1,v2…vi…vk},vi是第二贴文中的各个文本段,i∈[1,k]。根据得到的至少一个观点文本段构建得到观点数据库。观点数据库中包括观点文本段,除观点文本段外,还包括如第二贴文、第二总结内容、第一贴文态度、第一贴文主题等。
进一步,考虑到观点文本段的准确性,在根据得到的至少一个观点文本段构建得到观点数据库前,还可以对观点文本段进行验证。具体的,观点数据还包括了第二贴文的点赞数、评论数等。根据点赞数和评论数的比值可以确定赞评比值,如赞评比值=点赞数/评论数。判断赞评比值是否超过预设比值阈值,或者,判断评论数是否超过预设评论阈值;预设比值阈值、预设评论阈值可以根据实施情况设置,此处不做限定。若判断赞评比值超过预设比值阈值,或者,判断评论数超过预设评论阈值,说明对第二热点事件的关注程度较高,可以进一步验证得到的观点文本段是否合理。即需要对至少一个观点文本段进行验证,对于验证通过的观点文本段才构建得到观点数据库。对至少一个观点文本段进行验证时,针对任一观点文本段,可以根据观点文本段和第二总结内容,利用大语言模型基于零样本提示生成第二贴文态度attitude’和第二贴文主题summary’。判断第二贴文态度attitude’是否与第一贴文态度attitude相同,且第二贴文主题summary’是否与第一贴文主题summary相同,若两者皆相同,说明观点文本段验证通过;若任一不相同,则验证不通过,去除观点文本段,不将其加入至观点数据库中。
处理时还可以如图2所示,采用多步检索进行检索,将第二总结内容(即图中热点事件总结内容C)通过文本编码器Embedding向量化转化为文本向量热点事件总结内容Embedding Ec,作为S1输入,基于余弦相似度查找主流价值观数据库中最相关的热点事件总结内容,从而确定对应的第一贴文态度(即图中贴文态度)和第一贴文主题(即图中贴文主题)。主流价值观数据库中包含多个热点事件总结内容,如热点事件总结内容1、热点事件总结内容2……热点事件总结内容m,每个热点事件总结内容对应各自的贴文态度和贴文主题,分别为贴文态度1和贴文主题1、贴文态度2和贴文主题2……贴文态度m和贴文主题m。热点事件总结内容、贴文态度和贴文主题对应了贴文观点,分别对应贴文观点1、贴文观点2……贴文观点m。根据贴文态度、贴文主题、热点事件总结内容Embedding Ec,作为S2输入,基于余弦相似度查找主流价值观数据库可以,找到观点文本段(即图中贴文观点v)。以上为举例说明,具体根据实施情况设置,此处不做限定。
步骤S102,将第一媒体平台的第一热点事件和第一热点事件的第一热点内容输入至热点内容总结模型,得到第一热点事件的第一总结内容。
第一媒体平台包括自媒体平台,从第一媒体平台的热搜榜单等排名榜单可以获取第一热点事件和第一热点事件的第一热点内容,第一热点事件包括如热点事件名称等,第一热点内容包括事件相关的内容、对事件的解读、事件造成的影响等。根据第一媒体平台的第一热点事件和第一热点内容,利用第一提示模板得到第一输入内容。第一提示模板采用prompt模板,如第一提示模板Pc=[Tc,H,K]。其中,Tc为预先设定的提示词字符串,如根据热点事件和热点内容知识信息生成总结内容;H为第一热点事件,K为第一热点内容,可以包含多条,如K=(k1,k2,...kn),多条第一热点内容的组合。根据第一提示模板,将H,K替换为实时获取到的第一媒体平台的第一热点事件和第一热点事件的第一热点内容,从而得到第一输入内容。将第一输入内容输入至训练得到的热点内容总结模型,热点内容总结模型输出第一热点事件的第一总结内容C=(c1,c2,…,ch)。第一总结内容包括h条,分别为c1,c2,…,ch。
热点内容总结模型可以预先训练,训练过程包括:收集第一媒体平台的第一样本数据。第一样本数据包括样本热点事件、样本热点内容和样本热点事件的总结内容,以上各第一样本数据可以预先收集得到。利用第一样本数据对热点内容总结模型进行训练,样本热点事件、样本热点内容作为模型训练的输入,样本热点事件的总结内容作为模型训练的输出,训练时基于提示词进行调优,得到训练后的热点内容总结模型。热点内容总结模型可以采用大语言模型,如ChatGLM、ChatGLM2、baichuan等。热点内容总结模型调优的损失函数包括总结内容损失函数和一致性损失函数,如Loss=Loss总结内容+λLoss一致性,其中,Loss总结内容可以采用交叉熵作为损失函数,用来评价生成的总结内容和样本热点事件的总结内容之间的差异。Loss一致性采用MSE(mean-square error,均方误差),用于约束基于prompt模板的文本生成尽可能与原始LLM大语言模型生成结果分布相近。λ为预设超参数,用于平衡总结内容损失和一致性损失,具体根据实施情况设置,通过以上训练得到训练后的热点内容总结模型,以便可以根据第一媒体平台的第一热点事件和第一热点事件的第一热点内容,得到第一热点事件的第一总结内容。
进一步,步骤S101和步骤S102的执行顺序此处不做限定,可以根据实施情况设置任一步骤先执行。
步骤S103,根据观点数据库、第一热点事件的第一贴文以及第一热点事件的第一总结内容,利用贴文过滤模型过滤与观点数据库观点不一致的第一热点事件的第一贴文。
第一媒体中心的第一热点事件的第一贴文为自媒体的贴文,其中存在与第二媒体中心的第二贴文的观点不一致的情况,需要对其进行过滤。
具体的,根据观点数据库的观点文本段、第一媒体平台的第一热点事件的第一贴文以及第一热点事件的第一总结内容,可以利用第二提示模板得到第二输入内容。第二提示模板采用Prompt模板,如Pv=[Tv,C(c1,c2,…,ch),v,W],其中,v为观点数据库的观点文本段,C(c1,c2,…,ch)为第一总结内容,W为第一贴文,Tv为预先设定的提示词字符串,如根据观点文本段、贴文和总结内容过滤观点不一致的贴文。根据第二提示模板,将C(c1,c2,…,ch),v,W分别替换为上一步骤得到的第一总结内容、观点文本段、第一贴文,从而得到第二输入内容。将第二输入内容输入至贴文过滤模型,确定第一贴文与观点数据库观点是否一致,过滤与观点数据库观点不一致的第一热点事件的第一贴文。贴文过滤模型通过编码器、池化层、全连接层和归一化函数确定贴文立场,贴文立场包括与观点一致和与观点不一致,当贴文立场为与观点不一致,则过滤对应的第一贴文。
贴文过滤模型可以预先训练,训练过程包括:收集第一媒体平台的第二样本数据。第二样本数据包括样本热点事件的贴文、样本热点事件的观点文本段、样本热点事件的总结内容和样本热点事件的贴文立场。其中,样本热点事件的贴文立场包括与预设观点一致和与预设观点不一致,若与预设观点一致标记为1,若与预设观点不一致标记为0,预设观点可以根据实施情况确定,此处不做限定。利用第二样本数据对贴文过滤模型过滤进行训练,得到训练后的贴文过滤模型过滤。贴文过滤模型中包含如编码器、池化层、全连接层和归一化函数等,第二样本数据利用第二提示模板,将C(c1,c2,…,ch),v,W分别替换为样本热点事件的总结内容、样本热点事件的观点文本段、样本热点事件的贴文,从而得到模型的输入内容,对于输入内容通过编码器将其向量化(Embedding)为Ev,如以BERT模型为例,BERT模型由n层transformer编码器构成,将BERT模型第n层输出的Ev通过池化层(pooling)操作后,得到整体的语义e。将语义e经过全连接层和softmax归一化函数进行立场检测,得到样本事件的贴文立场。样本热点事件的贴文立场包括与预设观点一致和与预设观点不一致,根据样本热点事件的贴文立场可以过滤掉与观点不一致的贴文。其中,贴文过滤模型的训练的目标是最小化预测贴文立场和样本热点事件的贴文立场之间的差异,贴文过滤模型的损失函数采用交叉熵损失,优化算法可以采用随机梯度下降算法等,此处不做限定。
步骤S104,将过滤后的第一热点事件的第一贴文、第一热点事件的第一总结内容和目标用户群体信息输入至文本生成大模型,得到可控文本。
在对第一热点事件的第一贴文过滤后,留下的都是与观点数据库观点一致的第一热点事件的第一贴文,可以根据其来生成可控文本。在生成时,文本生成大模型可以采用大语言模型。为针对不同自媒体用户生成更丰富多样的可控文件,可以先获取目标用户群体信息。目标用户群体信息包括如目标用户描述信息、目标用户关联关系及群体特征等,以便针对性地为目标用户生成可控文本,更符合目标用户的需求。目标用户群体信息可以采用如三元组方式表示,目标用户描述信息如喜欢玩竞技类游戏的上班族,可以简写为d,三元组方式表示的目标用户群体信息如(d,语言风格,简洁)、(d,年龄,25)、(d,爱好,游戏)等。以上为举例说明,具体根据实施情况设置,此处不做限定。
根据过滤后的第一热点事件的第一贴文、第一热点事件的第一总结内容和目标用户群体信息,可以利用第三提示模板得到第三输入内容。第三提示模板采用prompt模板,如第三提示模板Pt=[Tt,R(r1,r2,r3),C(c1,c2,…,ch),v,T(t1…,tm)],其中,Tt为预先设定的提示词字符串,如根据热点事件贴文、热点内容知识信息、观点文本段、目标用户群体信息生成可控文本;R(r1,r2,r3)为目标用户群体信息,C(c1,c2,…,ch)为第一总结内容,v为观点数据库的观点文本段,T(t1…,tm)为过滤后的第一热点事件的第一贴文,包括m条贴文。根据第三提示模板替换其中对应的数据后,得到第三输入内容。将第三输入内容输入至文本生成大模型,得到目标用户的可控文本。文本生成大模型可以针对第一热点事件这一主题,生成符合观点且与目标用户群体信息保持一致的可控文本,可控文本可以为新的贴文,方便目标用户直接发布在自媒体平台等。文本生成大模型可以采用大语言模型,如开源LLM,如ChatGLM、LLaMa等,基于第三提示模板生成第三输入内容,来生成可控文本。
以上热点内容总结模型、贴文过滤模型及观点数据库需要预先完成训练和构建。若生成的可控文本与生成预期存在差异,可以对热点内容总结模型和文本生成大模型进行微调优化等。以上各个模型和观点数据库组合在一起,构成文本生成框架。如图3所示,基于人物群体知识图谱构建目标用户群体信息(即图中群体信息R),包括了群体信息文本r1,r2,r3。热点事件库可以为第一媒体平台,获取的第一热点事件(即图中热点事件H),通过利用外部搜索引擎接口等得到热点事件H的热点内容k1,k2,…kn,将热点事件H和热点内容k1,k2,…kn输入至热点内容总结模型,得到热点内容总结c1…cn。通过多步检索方式构建观点数据库(即图中贴文观点知识库),贴文观点知识库的观点文本段(即图中贴文观点)与自媒体主题贴文库(即第一热点事件的第一贴文)通过贴文过滤模型,过滤与贴文观点不一致的贴文后,得到过滤后的贴文t1,…,tm。群体信息文本r1,r2,r3、热点内容总结c1…cn、贴文观点v以及贴文t1,…,tm利用第三提示模板(即图中prompt模板),得到输入内容,输入给文本生成大模型,最终生成文本,生成的即可控文本。本实施例通过构建多控制元素的可控文本生成框架,辅助创作者(目标用户)生成优质的文本,适用于自媒体领域,有助于将积极的信息传递给大众,确保公众从全面的角度看待热点事件,避免夸张或负面的信息对大众产生误导,同时有利于减少无意义的情绪化宣泄。
根据本发明实施例提供的基于大语言模型的可控文本生成方法,构建观点数据库保证观点文本的准确性和合理性,可以有效地作为文本生成的控制元素,引入目标用户群体信息保障文本生成的信息量更丰富,内容更多样,其符合目标用户群体信息,提高可控文本的生成质量,保障生成的可控文本与热点事件同步。
图4示出了本发明实施例提供的基于大语言模型的可控文本生成装置的结构示意图。如图4所示,该装置包括:
构建模块410,适于根据观点数据构建观点数据库;
总结内容模块420,适于将第一媒体平台的第一热点事件和第一热点事件的第一热点内容输入至热点内容总结模型,得到第一热点事件的第一总结内容;
过滤模块430,适于根据观点数据库、第一热点事件的第一贴文以及第一热点事件的第一总结内容,利用贴文过滤模型过滤与观点数据库观点不一致的第一热点事件的第一贴文;
文本生成模块440,适于将过滤后的第一热点事件的第一贴文、第一热点事件的第一总结内容和目标用户群体信息输入至文本生成大模型,得到可控文本;文本生成大模型包括大语言模型。
可选地,观点数据库包括观点文本段;观点数据包括:第二热点事件的第二贴文以及第二热点事件的第二总结内容;观点数据基于第二媒体平台获取;
构建模块410进一步适于:
根据第二贴文和第二总结内容,利用大语言模型基于零样本提示生成第一贴文态度和第一贴文主题;
根据第二贴文和第二总结内容、第一贴文态度和第一贴文主题,基于假想文档嵌入进行检索增强,得到检索文本段;
根据检索文本段对第二贴文进行检索,得到第二贴文中的至少一个观点文本段;
根据至少一个观点文本段构建得到观点数据库。
可选地,观点数据还包括点赞数和/或评论数;
构建模块410进一步适于:
判断赞评比值是否超过预设比值阈值,或者,判断评论数是否超过预设评论阈值;赞评比值根据点赞数和评论数的比值确定;
若是,对至少一个观点文本段进行验证,根据验证通过的观点文本段构建得到观点数据库。
可选地,构建模块410进一步适于:
针对任一观点文本段,根据观点文本段和第二总结内容,利用大语言模型基于零样本提示生成第二贴文态度和第二贴文主题;
判断第二贴文态度是否与第一贴文态度相同,且第二贴文主题是否与第一贴文主题相同;
若是,则验证通过;
若否,则验证不通过,去除观点文本段。
可选地,总结内容模块420进一步适于:
根据第一媒体平台的第一热点事件和第一热点内容,利用第一提示模板得到第一输入内容;
将第一输入内容输入至训练得到的热点内容总结模型,得到第一热点事件的第一总结内容。
可选地,装置还包括:第一训练模块450,适于收集第一媒体平台的第一样本数据;第一样本数据包括样本热点事件、样本热点内容和样本热点事件的总结内容;利用第一样本数据对热点内容总结模型进行训练,并基于提示词进行调优,得到训练后的热点内容总结模型;热点内容总结模型包括大语言模型,调优的损失函数包括总结内容损失函数和一致性损失函数。
可选地,过滤模块430进一步适于:
根据观点数据库的观点文本段、第一媒体平台的第一热点事件的第一贴文以及第一热点事件的第一总结内容,利用第二提示模板得到第二输入内容;
将第二输入内容输入至贴文过滤模型,过滤与观点数据库观点不一致的第一热点事件的第一贴文。
可选地,装置还包括:第二训练模块460,适于收集第一媒体平台的第二样本数据;第二样本数据包括样本热点事件的贴文、样本热点事件的观点文本段、样本热点事件的总结内容和样本热点事件的贴文立场;样本热点事件的贴文立场包括与预设观点一致和与预设观点不一致;利用第二样本数据对贴文过滤模型过滤进行训练,得到训练后的贴文过滤模型过滤;其中,贴文过滤模型通过编码器、池化层、全连接层和归一化函数确定样本热点事件的贴文立场;贴文过滤模型的损失函数包括交叉熵损失。
可选地,装置还包括:群体信息模块470,适于获取目标用户群体信息;目标用户群体信息包括目标用户描述信息、目标用户关联关系及群体特征。
可选地,文本生成模块440进一步适于:
根据过滤后的第一热点事件的第一贴文、第一热点事件的第一总结内容和目标用户群体信息,利用第三提示模板得到第三输入内容;
将第三输入内容输入至文本生成大模型,得到目标用户的可控文本。
以上各模块的描述参照方法实施例中对应的描述,在此不再赘述。
本发明实施例还提供了一种非易失性计算机存储介质,计算机存储介质存储有至少一可执行指令,可执行指令可执行上述任意方法实施例中的基于大语言模型的可控文本生成方法。
图5示出了根据本发明实施例的一种计算设备的结构示意图,本发明实施例的具体实施例并不对计算设备的具体实现做限定。
如图5所示,该计算设备可以包括:处理器(processor)502、通信接口(Communications Interface)504、存储器(memory)506、以及通信总线508。
其中:
处理器502、通信接口504、以及存储器506通过通信总线508完成相互间的通信。
通信接口504,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器502,用于执行程序510,具体可以执行上述基于大语言模型的可控文本生成方法实施例中的相关步骤。
具体地,程序510可以包括程序代码,该程序代码包括计算机操作指令。
处理器502可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器506,用于存放程序510。存储器506可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序510具体可以用于使得处理器502执行上述任意方法实施例中的基于大语言模型的可控文本生成方法。程序510中各步骤的具体实现可以参见上述基于大语言模型的可控文本生成实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明实施例的内容,并且上面对特定语言所做的描述是为了披露本发明实施例的较佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明实施例并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明实施例要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的一些或者全部部件的一些或者全部功能。本发明实施例还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明实施例的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明实施例进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明实施例可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。

Claims (10)

1.一种基于大语言模型的可控文本生成方法,其特征在于,方法包括:
根据观点数据构建观点数据库;所述观点数据库包括观点文本段;所述观点数据包括:第二热点事件的第二贴文以及第二热点事件的第二总结内容、点赞数和/或评论数;所述观点数据基于第二媒体平台获取;
将第一媒体平台的第一热点事件和第一热点事件的第一热点内容输入至热点内容总结模型,得到所述第一热点事件的第一总结内容;
根据所述观点数据库、第一热点事件的第一贴文以及所述第一热点事件的第一总结内容,利用贴文过滤模型过滤与所述观点数据库观点不一致的所述第一热点事件的第一贴文;
将过滤后的第一热点事件的第一贴文、所述第一热点事件的第一总结内容和目标用户群体信息输入至文本生成大模型,得到可控文本;所述文本生成大模型包括大语言模型;
所述根据观点数据构建观点数据库进一步包括:
根据所述第二贴文和第二总结内容,利用大语言模型基于零样本提示生成第一贴文态度和第一贴文主题;
根据所述第二贴文和第二总结内容、第一贴文态度和第一贴文主题,基于假想文档嵌入进行检索增强,得到检索文本段;
根据所述检索文本段对所述第二贴文进行检索,得到所述第二贴文中的至少一个观点文本段;
判断所述第二贴文的赞评比值是否超过预设比值阈值,或者,判断所述评论数是否超过预设评论阈值;所述赞评比值根据所述点赞数和所述评论数的比值确定;
若是,针对任一观点文本段,根据所述观点文本段和所述第二总结内容,利用大语言模型基于零样本提示生成第二贴文态度和第二贴文主题;判断所述第二贴文态度是否与所述第一贴文态度相同,且所述第二贴文主题是否与所述第一贴文主题相同;若是,则验证通过,根据验证通过的观点文本段构建得到观点数据库;若否,则验证不通过,去除所述观点文本段。
2.根据权利要求1所述的方法,其特征在于,所述将第一媒体平台的第一热点事件和第一热点事件的第一热点内容输入至热点内容总结模型,得到所述第一热点事件的第一总结内容进一步包括:
根据第一媒体平台的第一热点事件和第一热点内容,利用第一提示模板得到第一输入内容;
将所述第一输入内容输入至训练得到的热点内容总结模型,得到所述第一热点事件的第一总结内容。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
收集第一媒体平台的第一样本数据;所述第一样本数据包括样本热点事件、样本热点内容和样本热点事件的总结内容;
利用所述第一样本数据对热点内容总结模型进行训练,并基于提示词进行调优,得到训练后的热点内容总结模型;所述热点内容总结模型包括大语言模型,所述调优的损失函数包括总结内容损失函数和一致性损失函数。
4.根据权利要求1所述的方法,其特征在于,所述根据所述观点数据库、第一热点事件的第一贴文以及所述第一热点事件的第一总结内容,利用贴文过滤模型过滤与所述观点数据库观点不一致的所述第一热点事件的第一贴文进一步包括:
根据所述观点数据库的观点文本段、所述第一媒体平台的第一热点事件的第一贴文以及所述第一热点事件的第一总结内容,利用第二提示模板得到第二输入内容;
将所述第二输入内容输入至贴文过滤模型,过滤所述与所述观点数据库观点不一致的所述第一热点事件的第一贴文。
5.根据权利要求4所述的方法,其中,所述方法还包括:
收集第一媒体平台的第二样本数据;所述第二样本数据包括样本热点事件的贴文、样本热点事件的观点文本段、样本热点事件的总结内容和样本热点事件的贴文立场;所述样本热点事件的贴文立场包括与预设观点一致和与预设观点不一致;
利用所述第二样本数据对贴文过滤模型过滤进行训练,得到训练后的贴文过滤模型过滤;其中,所述贴文过滤模型通过编码器、池化层、全连接层和归一化函数确定样本热点事件的贴文立场;所述贴文过滤模型的损失函数包括交叉熵损失。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取目标用户群体信息;所述目标用户群体信息包括目标用户描述信息、目标用户关联关系及群体特征。
7.根据权利要求6所述的方法,其特征在于,所述将过滤后的第一热点事件的第一贴文、所述第一热点事件的第一总结内容和目标用户群体信息输入至文本生成大模型,得到可控文本进一步包括:
根据过滤后的第一热点事件的第一贴文、所述第一热点事件的第一总结内容和目标用户群体信息,利用第三提示模板得到第三输入内容;
将所述第三输入内容输入至文本生成大模型,得到目标用户的可控文本。
8.一种基于大语言模型的可控文本生成装置,其特征在于,装置包括:
构建模块,适于根据观点数据构建观点数据库;所述观点数据库包括观点文本段;所述观点数据包括:第二热点事件的第二贴文以及第二热点事件的第二总结内容、点赞数和/或评论数;所述观点数据基于第二媒体平台获取;
总结内容模块,适于将第一媒体平台的第一热点事件和第一热点事件的第一热点内容输入至热点内容总结模型,得到所述第一热点事件的第一总结内容;
过滤模块,适于根据所述观点数据库、第一热点事件的第一贴文以及所述第一热点事件的第一总结内容,利用贴文过滤模型过滤与所述观点数据库观点不一致的所述第一热点事件的第一贴文;
文本生成模块,适于将过滤后的第一热点事件的第一贴文、所述第一热点事件的第一总结内容和目标用户群体信息输入至文本生成大模型,得到可控文本;所述文本生成大模型包括大语言模型;
所述构建模块进一步适于:
根据所述第二贴文和第二总结内容,利用大语言模型基于零样本提示生成第一贴文态度和第一贴文主题;
根据所述第二贴文和第二总结内容、第一贴文态度和第一贴文主题,基于假想文档嵌入进行检索增强,得到检索文本段;
根据所述检索文本段对所述第二贴文进行检索,得到所述第二贴文中的至少一个观点文本段;
判断所述第二贴文的赞评比值是否超过预设比值阈值,或者,判断所述评论数是否超过预设评论阈值;所述赞评比值根据所述点赞数和所述评论数的比值确定;
若是,针对任一观点文本段,根据所述观点文本段和所述第二总结内容,利用大语言模型基于零样本提示生成第二贴文态度和第二贴文主题;判断所述第二贴文态度是否与所述第一贴文态度相同,且所述第二贴文主题是否与所述第一贴文主题相同;若是,则验证通过,根据验证通过的观点文本段构建得到观点数据库;若否,则验证不通过,去除所述观点文本段。
9.一种计算设备,其特征在于,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的基于大语言模型的可控文本生成方法对应的操作。
10.一种计算机存储介质,其特征在于,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-7中任一项所述的基于大语言模型的可控文本生成方法对应的操作。
CN202311256074.7A 2023-09-26 2023-09-26 基于大语言模型的可控文本生成方法及装置 Active CN117216193B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311256074.7A CN117216193B (zh) 2023-09-26 2023-09-26 基于大语言模型的可控文本生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311256074.7A CN117216193B (zh) 2023-09-26 2023-09-26 基于大语言模型的可控文本生成方法及装置

Publications (2)

Publication Number Publication Date
CN117216193A CN117216193A (zh) 2023-12-12
CN117216193B true CN117216193B (zh) 2024-02-27

Family

ID=89044172

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311256074.7A Active CN117216193B (zh) 2023-09-26 2023-09-26 基于大语言模型的可控文本生成方法及装置

Country Status (1)

Country Link
CN (1) CN117216193B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113962315A (zh) * 2021-10-28 2022-01-21 北京百度网讯科技有限公司 模型预训练方法、装置、设备、存储介质以及程序产品
CN114900711A (zh) * 2022-05-27 2022-08-12 北京字跳网络技术有限公司 媒体内容的生成方法、装置、设备及存储介质
CN114943211A (zh) * 2022-07-25 2022-08-26 北京澜舟科技有限公司 一种基于前缀的文本生成方法、系统及计算机可读存储介质
CN114970524A (zh) * 2022-05-31 2022-08-30 北京深言科技有限责任公司 可控文本生成方法及装置
CN116151233A (zh) * 2022-09-08 2023-05-23 马上消费金融股份有限公司 数据标注、生成方法、模型训练方法、设备和介质
CN116186231A (zh) * 2023-04-24 2023-05-30 之江实验室 一种回复文本的生成方法、装置、存储介质及电子设备
CN116414958A (zh) * 2023-02-06 2023-07-11 飞算数智科技(深圳)有限公司 文本语料的生成方法、装置、存储介质及电子设备
CN116501843A (zh) * 2023-02-21 2023-07-28 清华大学 一种面向人类偏好的高效网络检索增强回答方法及系统
CN116737938A (zh) * 2023-07-19 2023-09-12 人民网股份有限公司 基于微调大模型在线数据网络细粒度情感检测方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11276391B2 (en) * 2020-02-06 2022-03-15 International Business Machines Corporation Generation of matched corpus for language model training

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113962315A (zh) * 2021-10-28 2022-01-21 北京百度网讯科技有限公司 模型预训练方法、装置、设备、存储介质以及程序产品
CN114900711A (zh) * 2022-05-27 2022-08-12 北京字跳网络技术有限公司 媒体内容的生成方法、装置、设备及存储介质
CN114970524A (zh) * 2022-05-31 2022-08-30 北京深言科技有限责任公司 可控文本生成方法及装置
CN114943211A (zh) * 2022-07-25 2022-08-26 北京澜舟科技有限公司 一种基于前缀的文本生成方法、系统及计算机可读存储介质
CN116151233A (zh) * 2022-09-08 2023-05-23 马上消费金融股份有限公司 数据标注、生成方法、模型训练方法、设备和介质
CN116414958A (zh) * 2023-02-06 2023-07-11 飞算数智科技(深圳)有限公司 文本语料的生成方法、装置、存储介质及电子设备
CN116501843A (zh) * 2023-02-21 2023-07-28 清华大学 一种面向人类偏好的高效网络检索增强回答方法及系统
CN116186231A (zh) * 2023-04-24 2023-05-30 之江实验室 一种回复文本的生成方法、装置、存储介质及电子设备
CN116737938A (zh) * 2023-07-19 2023-09-12 人民网股份有限公司 基于微调大模型在线数据网络细粒度情感检测方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Bounding the Capabilities of Large Language Models in Open Text Generation with Prompt Constraints;Albert Lu 等;《arXiv》;20230217;1-27 *
主题可控的多文档摘要生成方法研究;何思博;《中国优秀硕士学位论文全文数据库 信息科技辑》;20230115;I138-3291 *
基于预训练语言模型的可控文本生成研究与应用;陈建树;《中国优秀硕士学位论文全文数据库 信息科技辑》;20230115;I138-3961 *

Also Published As

Publication number Publication date
CN117216193A (zh) 2023-12-12

Similar Documents

Publication Publication Date Title
US8751511B2 (en) Ranking of search results based on microblog data
JP2017511922A (ja) スマート質問回答の実現方法、システム、および記憶媒体
CN106940726B (zh) 一种基于知识网络的创意自动生成方法与终端
CN108846138B (zh) 一种融合答案信息的问题分类模型构建方法、装置和介质
CN110489558A (zh) 文章聚合方法和装置、介质和计算设备
CN110188349A (zh) 一种基于抽取式多文档摘要方法的自动化写作方法
CN109657116A (zh) 一种舆情搜索方法、搜索装置、存储介质和终端设备
CN103559193A (zh) 一种基于选择单元的主题建模方法
Uthayan et al. Hybrid ontology for semantic information retrieval model using keyword matching indexing system
CN111460145A (zh) 一种学习资源推荐方法、设备及存储介质
CN112667791A (zh) 潜在事件预测方法、装置、设备及存储介质
CN117035078A (zh) 一种多模态知识图谱统一表示学习框架
CN117216193B (zh) 基于大语言模型的可控文本生成方法及装置
WO2023245523A1 (zh) 用于生成训练数据的方法以及装置
CN111339287B (zh) 摘要生成方法及装置
CN114065770A (zh) 一种基于图神经网络构建语义知识库的方法及系统
CN114048395A (zh) 基于时间感知与关键信息抽取的用户转发预测方法和系统
CN115080731A (zh) 评语语段生成方法、装置、电子设备和存储介质
CN116226678B (zh) 模型处理方法、装置、设备及存储介质
Shau et al. PSAbot: A Chatbot System for the Analysis of Posts on Stack Overflow
CN110147488A (zh) 页面内容的处理方法、处理装置、计算设备及存储介质
Pilgrim et al. Guiding Users by Dynamically Generating Questions in a Chatbot System.
Wu et al. A Mining Model of Network Log Data based on Hadoop
CN114492394A (zh) 用于自主工业软件文本数据的关键词抽取方法及装置
Wang et al. GSR: A Resource Model and Semantics-based API Recommendation Algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant