CN116361469A - 一种基于预训练模型的话题生成方法 - Google Patents

一种基于预训练模型的话题生成方法 Download PDF

Info

Publication number
CN116361469A
CN116361469A CN202310347857.XA CN202310347857A CN116361469A CN 116361469 A CN116361469 A CN 116361469A CN 202310347857 A CN202310347857 A CN 202310347857A CN 116361469 A CN116361469 A CN 116361469A
Authority
CN
China
Prior art keywords
topic
topics
similarity
text
keywords
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310347857.XA
Other languages
English (en)
Other versions
CN116361469B (zh
Inventor
王磊
郭鸿飞
王俊艳
徐才
王柯淇
蔡昌艳
王宇琪
曹家
罗引
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinhua Fusion Media Technology Development Beijing Co ltd
Beijing Zhongke Wenge Technology Co ltd
Original Assignee
Xinhua Fusion Media Technology Development Beijing Co ltd
Beijing Zhongke Wenge Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinhua Fusion Media Technology Development Beijing Co ltd, Beijing Zhongke Wenge Technology Co ltd filed Critical Xinhua Fusion Media Technology Development Beijing Co ltd
Priority to CN202310347857.XA priority Critical patent/CN116361469B/zh
Publication of CN116361469A publication Critical patent/CN116361469A/zh
Application granted granted Critical
Publication of CN116361469B publication Critical patent/CN116361469B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/358Browsing; Visualisation therefor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种基于预训练模型的话题生成方法,包括:获取待聚类文本中的每个文本的特征向量和关键词,每个文本包括h个关键词;利用设定聚类算法对待聚类文本进行聚类,得到多个话题;对多个话题进行清洗和合并处理,得到处理后的n个话题;对于n个话题中的任一话题,基于预训练生成模型生成对应的话题描述;输出n个话题的话题描述和对应的文本。本发明由于采用预训练生成模型生成话题描述,使得得到的话题描述通顺,可读性强,并且由于对话题进行了清洗和合并,使得聚类结果更加准确。

Description

一种基于预训练模型的话题生成方法
技术领域
本发明涉及自然语言处理领域,特别是涉及一种基于预训练模型的话题生成方法。
背景技术
互联网的飞速发展伴随着每天产生大量的文本数据,与此同时,互联网上的海量内容中存在着大量的重复、无效内容和垃圾内容。如何从大量无序、杂乱、无结构的文本中快速、高效地获取有用信息已成为一个亟待解决的问题。话题能够概括相似文本的主要信息。在当前的话题生成研究方法中,大部分研究方法使用聚类,抽取话题中文本的关键词等作为话题的标签来表示话题,但是关键词没有顺序,没有完整的逻辑语义关系,不能充分表示话题的主要信息。
专利文献1(CN106503064A,一种自适应微博话题摘要的生成方法)公开了一种自适应微博话题摘要的生成方法,对微博中某一话题下的相关信息进行话题生成,但是它不能处理微博中有多个话题的情况,而且它对子话题只是选取一篇代表性博文代表该子话题,抽取摘要作为当前子话题的描述,该摘要并不能代表子话题中全部的博文,由于摘要文本过长,并不利于用户快速获取话题信息。
专利文献2(CN106446179A,热点话题的生成方法及装置)公开了一种热点话题的生成方法,对新闻进行聚类,根据聚类的相似新闻抽取权重较高的词作为话题的主题,然而,将词语作为主题并不能描述话题的主要信息,也不能概括话题中的全部新闻。
专利文献3(CN106528755A,热点话题的生成方法及装置,)公开了一种热点话题生成方法,该方法通过获取新闻中的主题词,根据主题词之间的词共现度生成主题词共现图,将共现图分割成多个子图,每个子图代表一个话题,然而,也没有生成特定的话题名代表这个话题,而且用主题词代表话题,也不能准确表示话题的信息。
由此可知,已有的话题生成方法主要利用文本聚类得到多个话题,然后对同一话题下的新闻抽取关键词或摘要或抽取标题的主谓宾作为话题标签表示整个话题。然而,关键词没有顺序,也没有语义信息,不能表示整个话题和话题中的全部文档。摘要的文本过长,不利于快速获得话题信息,也不能概括话题中全部新闻的内容。抽取主谓宾主要通过抽取标题中的主语、谓语、宾语等,然后进行拼接作为话题的描述,但是这样得到的话题描述不通顺,可读性较差。另外,已有的话题生成方法并没有对聚类结果进行清洗和优化,导致话题的聚类结果并不理想。
发明内容
针对上述技术问题,本发明采用的技术方案为:
本发明实施例提供了一种基于预训练模型的话题生成方法,所述方法包括如下步骤:
S1,获取待聚类文本中的每个文本的特征向量和关键词,并基于每个文本的特征向量,利用设定聚类算法对待聚类文本进行聚类,得到多个话题;每个文本包括h个关键词;
S2,获取当前话题中的任一话题中的任一文本以及任一话题的关键词和特征向量;
S3,基于文本和话题之间的关键词相同的数量和文本和话题的特征向量之间的相似度对当前话题进行第p次清洗处理,得到处理后的n(p)个话题;其中,n(p)个话题中的任一话题a满足如下条件:gp(a,q)≥D1p并且SFp aq≥D2p;其中,gp(a,q)为话题a和话题a中的第q个文本Taq之间的关键词相同的数量,SFp aq为话题a的特征向量和Taq的特征向量之间的相似度;D1p为第p次清洗处理对应的第一设定阈值,D2p为第p次清洗处理对应的第二设定阈值;a的取值为1到n(p),p的取值为1到C0,C0为预设次数;q的取值为1到f(a),f(a)为话题a中的文本数量;
S4,设置p=p+1,如果p≤C0,执行S2;否则,得到清洗处理后的H个话题,并执行S5;
S5,基于H个话题获取按照文本数量递减的方式进行排序得到的话题列表S,并获取S中的任一话题u对应的关键词和特征向量,u的取值为1到H;
S6,基于话题之间的关键词相同的数量以及话题的特征向量之间的相似度对S进行合并处理,得到包括A个话题的目标话题列表;
S7,对于A个话题中的任一话题e,基于预训练生成模型生成对应的话题描述;e的取值为1到A;
S8,输出A个话题的话题描述和对应的文本,其中,每个话题对应的文本为按照文本发布时间进行排序后的文本。
本发明至少具有以下有益效果:
本发明实施例提供的基于预训练模型的话题生成方法,首先对文本进行特征提取、文本聚类,得到多个聚类结果,每个聚类结果相当于一个话题,然后基于话题与话题中文本的关键词相同个数和文本相似度大小,清洗和合并话题,然后基于预训练生成模型生成话题描述,最后输出话题结果。本发明由于采用预训练生成模型生成话题描述,使得得到的话题描述通顺,可读性强,并且由于对话题进行了清洗和合并,使得聚类结果更加准确。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于预训练模型的话题生成方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的基于预训练模型的话题生成方法的流程图。
本发明实施例提供一基于预训练模型的话题生成方法,如图1所示,所述方法可包括如下步骤:
S1,获取待聚类文本中的每个文本的特征向量和关键词,并基于每个文本的特征向量,利用设定聚类算法对待聚类文本进行聚类,得到多个话题,其中,每个文本包括h个关键词。
在本发明一示意性实施例中,文本可为新闻文本,也可为其它类型的文本。文本可通过从各个网站或渠道爬取得到。
在本发明实施例中,可通过现有的关键词提取方法获取每个文本的关键词。在一个示意性实施例中,本发明通过TextRank算法获取每个文本的关键词和每个关键词对应的权重。关键词的数量h可基于实际需要进行设置,在一个示例中,h=7。
在本发明实施例中,可通过现有的特征提取方法获取每个文本的特征向量。在一个示意性实施例中,可通过RoFormer-Sim模型获取每个文本的特征向量,具体地,可将文本的标题和前N段输入到RoFormer-Sim模型中,得到每个文本的特征向量。N可设置为0,1,2等,当N=0时,可仅输入文本的标题。
由于从各个网站或渠道爬取的新闻有可能有重复,因此,在本发明实施例中,所述待聚类文本为经过去重处理之后得到的文本。在本发明实施例中,可通过如下两种方法对文本进行去重处理。
方法一:采用基于文本相似度和规则的方法进行去重。具体地,对于每个文本,依次计算它与爬取的其他文本的相似度,如果相似度超过设定的相似度阈值,且两个文本的标题中相同字的比例超过设定的比例阈值,则认为是重复文本,然后选择发布时间最近的文本存入待聚类文本库。在本发明实施例中,文本a和b之间的相似度可通过下述公式获取:
Figure BDA0004160428030000041
其中,Ta和Tb分别为文本a和b的特征向量,||Ta||和||Tb||分别为Ta和Tb的模。
在本发明实施例中,相似度的阈值可以设置高一些,比如0.95,标题中相同字的比例阈值可以设置为0.5或0.6等。
方法二:基于DBSCAN聚类进行新闻去重。DBSCAN是一种无监督的机器学习聚类算法。它不需要指定聚类个数,避免了异常值,并且在任意形状和大小的数据集群中工作得很好。它需要设置两个参数来进行聚类:
1)Epsilon:社区的最大半径。如果数据点的相互距离小于或等于指定的epsilon,那么它们将是同一类的。它是DBSCAN用来确定两个点是否相似和属于同一类的距离度量。本发明可设置一个较小的阈值Epsilon,将相似文本聚合到一起(相似的文本距离更小),然后相同的聚类结果选择发布时间最近的一个文本,其他的文本舍弃。在一个示意性实施例中,Epsilon可以设置为0.06.
2)最小点(minPts):在一个邻域的半径内minPts数的邻域被认为是一个簇。本发明可设置最小点为1或2,以保留更多的噪声数据或离群值,只删掉非常相似的文本。
本领域技术人员知晓,可根据实际需要选择上述两种方法中的一种或者两种对文本进行去重,以得到待聚类文本。
在本发明实施例中,可使用现有的聚类算法对待聚类文本进行聚类。在一个示意性实施例中,设定聚类算法可为DBSCAN算法。
S2,获取当前话题中的任一话题中的任一文本以及任一话题的关键词和特征向量。
在本发明实施例中,任一文本的关键词和特征向量在S1中已获取,只需直接调用即可。任一话题的关键词通过如下步骤获取:
S201,对任一话题中的所有文本的关键词中相同的关键词进行合并并重新计算权重,将相同的关键词的权重相加得到合并后的关键词。
S202,将合并后的关键词中按照权重由大到小的顺序进行排序,并获取排序后的关键词中的前h个关键词作为该任一话题的关键词。
具体地,如果某个关键词只在一个文本中出现,则该关键词的权重为在该文本中的权重。如果某个关键词在多个文本中出现,该关键词的权重为该关键词在多个文本中的权重之和,例如,关键词a在3个文本中出现,则关键词a的权重为b1+b2+b3,其中,b1至b3分别为关键词a在3个文本中的权重。
进一步地,在本发明实施例中,任一话题的特征向量为该话题中所有文本的特征向量的平均值,即话题i的特征向量
Figure BDA0004160428030000051
hij为话题i中的第j个文本Tij对应的特征向量,f(i)为话题i中的文本数量。
S3,基于文本和话题之间的关键词相同的数量和文本和话题的特征向量之间的相似度对当前话题进行第p次清洗处理,得到处理后的n(p)个话题;其中,n(p)个话题中的任一话题a满足如下条件:gp(a,q)≥D1p并且SFp aq≥D2p;其中,gp(a,q)为话题a和话题a中的第q个文本Taq之间的关键词相同的数量,SFp aq为话题a的特征向量和Taq的特征向量之间的相似度;D1p为第p次清洗处理对应的第一设定阈值,D2p为第p次清洗处理对应的第二设定阈值;a的取值为1到n(p),p的取值为1到C0,C0为预设次数;q的取值为1到f(a),f(a)为话题a中的文本数量。
在本发明实施例中,特征向量之间的相似度可通过现有相似度算法获取,例如余弦相似度等。
在本发明实施例中,每次清洗处理时对应的第一设定阈值和第二设定阈值可相同或者不同,可基于实际需要进行设置。第一设定阈值和第二设定阈值可基于实际需要进行设置,在一个示意性实施例中,第一设定阈值的取值可从2和3中选择一个,第二设定阈值可从0.65、0.7、0.8中选择一个,可根据实际需要选择需要的组合值。
在发明实施例中,C0可基于实际需要设置,优选,C0≤3,更优选,C0=2。
在本发明实施例中,对话题进行清洗包括:对话题中的每个文本,根据文本和话题之间的关键词相同的数量和文本相似度对该文本做三种操作:留在原话题、合并到其它话题或者加入一个新话题中。
进一步地,S3可具体包括:
S31,对于第p次清洗处理对应的当前话题中的话题i中的第j个文本Tij,分别获取gp(i,j)和SFp ij,如果gp(i,j)≥D1p,并且SFp ij≥D2 p,则将Tij保留在话题i中,执行S34;否则,执行S32;其中,gp(i,j)为第p次清洗处理时Tij和话题i之间的关键词相同的数量,SFp ij为第p次清洗处理时Tij的特征向量和话题i的话题特征向量之间的相似度;i的取值为1到k,k为当前话题的数量;j的取值为1到f(i),f(i)为话题i中的文本数量。
S32,获取gp(ij,s)和SFps ij,如果gp(ij,s)≥D1p,并且SFps ij≥D2p,则将Tij加入到话题s中并从原话题中删除,执行S34;否则,执行S33;其中,话题s为当前话题中除话题i之外的k-1个话题中的第s个话题,gp(ij,s)为第p次清洗处理时Tij和话题s之间的关键词相同的数量,SFps ij为第p次清洗处理时Tij的特征向量和话题s的话题特征向量之间的相似度,s的取值为1到k-1。
S33,设置s=s+1,如果s≤(k-1),执行S32,否则,为Tij创建一个新话题,并将Tij加入到对应的新话题中并从原话题中删除,设置k=k+1,并执行S34。
S34,设置j=j+1,如果j≤f(i),执行S31;否则,设置i=i+1,如果i≤k,执行S31,否则,得到n(p)个话题,并执行S4。
本领域技术人员知晓,由于在清洗处理过程中,每个话题中文本数量可能会发生变化,因此,当前话题中的每个话题的关键词、特征向量是实时变化的。
S4,设置p=p+1,如果p≤C0,执行S2;否则,得到清洗处理后的H个话题,并执行S5。
S5,基于H个话题获取按照文本数量递减的方式进行排序得到的话题列表S,并获取S中的任一话题u对应的关键词、特征向量,u的取值为1到H。即,在S中,前一个话题中的文本数量大于后一个话题中的文本数量。
任一话题u对应的关键词、特征向量可参照S2获取。
S6,基于话题之间的关键词相同的数量以及话题的特征向量之间的相似度对S进行合并处理,得到包括A个话题的目标话题列表。
在本发明实施例中,S6可具体包括:
S61,获取g(u,v)和S1uv,如果g(u,v)≥D4,并且S1uv≥D5,则将话题u和话题v进行合并,执行S63;否则,执行S62;其中,话题v为当前合并话题列表中的第v个话题,g(u,v)为话题u与话题v之间的关键词相同的数量,S1uv为话题u的话题特征向量和话题v的话题特征向量之间的相似度,v的取值为1到n,n为当前合并话题列表中的话题数量;D4为第四设定阈值,D5为第五设定阈值;合并话题列表中的初始值为Null。
在本发明实施例中,D4和D5可分别设置为与第一设定阈值和第二设定阈值相同。
S62,设置v=v+1,如果v≤n,执行S61,否则,将话题u作为新话题加入到当前合并话题列表中并设置n=n+1;执行S63。
S63,设置u=u+1,如果u≤H,执行S61,否则,执行S64。
S64,获取当前话题列表中的任一个话题中的文本数量,如果该话题中的文本数量少于设定数量阈值,则将该话题从当前话题列表中删除;得到目标话题列表,并执行S7。
本发明实施例中,设定数量阈值可为3。话题u和话题v合并后得到话题的话题描述为话题v的话题描述,特征向量是话题u和话题v的特征向量的平均值。本领域技术人员知晓,当u=1时,由于当前合并话题列表中的话题数量为Null,所以,会将话题1加入到当前合并话题列表中。
S7,对于A个话题中的任一话题e,基于预训练生成模型生成对应的话题描述;e的取值为1到n。
由于已有的方法通常使用抽取关键词或摘要或提取句法结构等方法生成话题的对应描述,关键词没有顺序区分,不能代表话题的整体语义信息。摘要较长,而且大都是从一篇新闻中抽取的,也不能代表整个话题的信息。句法结构往往语句不通顺,可读性较差。因此本发明选择基于预训练生成模型来生成话题的描述。本发明选择T5或BART模型进行模型训练。本发明选择两种方法进行模型训练和话题描述生成,分别是基于多文档的话题描述生成方法和基于单文档的话题描述生成方法。
在本发明一实施例中,基于多文档的话题描述生成方法将话题下的多个文本的标题进行拼接,输入生成模型,得到话题描述生成结果。可通过如下步骤基于多文档的话题描述生成方法生成每个话题的话题描述:
(1)数据集构建
对于S3至S6中清洗合并后的话题,人工选择若干话题进行数据集标注。对于选择的每个话题,分别计算话题中每个文本的特征向量与话题的特征向量之间的文本相似度,选择相似度最大的前M篇文本,然后从中随机选择N篇文本(M≥N),尽量保证选择的文本足够多样。基于选择的文本,人工生成它们的话题描述,所有文本均对应同一个话题描述。然后从N篇文本中随机选择若干篇文本,将它们的标题进行拼接,作为生成模型的输入,比如可以拼接3到10个文本标题,以增加模型的泛化性。人工生成的话题描述作为模型的真实值。然后随机生成多对数据进行训练。
(2)模型训练
将拼接的标题输入到预训练生成模型中进行训练,得到对应的预测结果,将预测结果和人工标注的真实值计算损失来训练模型参数,得到训练好的模型,作为预训练生成模型。
进一步地,在该实施例中,S7可具体包括:
S701,对于A个话题中的任一话题e,分别获取话题e的关键词和话题特征向量。
话题e的关键词和话题特征向量可参照S2获取得到。
S702,获取话题特征向量相似度集SFe={SFe1,SFe2,…,SFeh,…,SFef(e)},SFeh为话题e中的第h个文本Teh对应的特征向量和话题e对应的话题特征向量之间的相似度;h的取值为1到f(e),f(e)为话题e中的文本数量。
S703,将SFe按照相似度由大到小的顺序进行排序,得到排序后的相似度集,并获取排序后的相似度集中的前B个相似度对应的B个文本作为候选文本。
S707,获取关键词相同数量集Ge={ge1,ge2,…,gea,…,geB},gea为B个候选文本中的第a个文本和话题e之间的关键词相同的数量,a的取值为1到B。
S705,将Ge按照数量由大到小的顺序进行排序,得到排序后的数量集,并获取排序后的数量集中的前q个数量对应的文本作为话题e的目标文本。在一个示意性实施例中,q可等于5。
在本发明实施例中,如果排序后的数量集中存在相同的数量即存在关键词相同的数量的多个文本,则在选择目标文本时,选择相似度较高的文本作为目标文本。
S706,将获取的q个目标文本的标题进行拼接,形成拼接标题,并将拼接标题输入到预训练生成模型中进行预测,得到对应的预测的话题描述,作为话题e的话题描述。
本发明另一实施例中,基于单文档的话题描述生成方法将话题下的每篇新闻的标题输入生成模型,得到每篇新闻的生成结果,然后基于统计的方法得到话题的最终描述。可通过如下步骤基于单文档的话题描述生成方法生成每个话题的话题描述。
步骤一,对于S3至S6中清洗合并后的话题,人工选择若干话题进行数据集标注。对于选择的每个话题,分别计算话题中每个文本的特征向量与话题的特征向量之间的文本相似度,选择相似度最大的若干篇文本,基于选择的文本,人工生成它们的话题描述,所有文本对应的话题描述应尽可能相同,如果文本与该话题描述的内容差异性较大,则删除该文本。将每篇文本的标题作为生成模型的输入,人工生成的话题描述作为模型的真实值构建训练数据集。
步骤二,将训练数据集中的每个文本的标题输入到预训练生成模型中进行训练,得到对应的预测结果,将预测结果和人工标注的真实值计算损失来训练模型参数,得到训练好的模型,作为预训练生成模型。
进一步地,在该实施例中,S7具体可包括:
S710,对于A个话题中的任一话题e,分别获取话题e的关键词和话题特征向量。
话题e的关键词和话题特征向量可参照S2获取得到。
S711,获取话题特征向量相似度集SFe={SFe1,SFe2,…,SFeh,…,SFef(e)},SFeh为话题e中的第h个文本Teh对应的特征向量和话题e对应的话题特征向量之间的相似度;h的取值为1到f(e),f(e)为话题e中的文本数量。
S712,将话题e中的第h个文本的标题输入到预训练生成模型中进行预测,得到对应的话题描述TDeh;得到f(e)个话题描述。
S713,基于SFe,获取f(e)个话题描述对应的权重集We={we1,we2,…,weh,…,wef(e)};weh为TDeh对应的权重,其中,如果SFeh<SFe(h+1),则weh<we(h+1),即相似度越大,对应的权重也越大。
S714,将f(e)个话题描述中相同的话题描述进行合并,得到n(e)个话题描述,并获取n(e)个话题描述对应的权重集,合并后的每个话题描述的权重为该话题描述对应的话题描述的权重之和,例如,话题描述a由三个文本中的话题描述a合并得到,则话题描述a的权重为这三个文本中的话题描述a的权重之和。
S715,获取n(e)个话题描述对应的权重集中最大权重对应的话题描述作为话题e的话题描述。
S8,输出A个话题的话题描述和对应的文本,其中,每个话题对应的文本为按照文本发布时间进行排序后的文本。
进一步地,在本发明实施例中,S32被替换为:
S10,获取话题和文本之间的相似度集SFij={SF1 ij,SF2 ij,…,SFs ij,…,SFk-1 ij},SFs ij为Tij对应的特征向量和除话题i之外的k-1个话题中的第s个话题对应的特征向量之间的相似度,s的取值为1到k-1。
S11,将SFij按照降序进行排序得到排序后的相似度集,并获取排序后的相似度集中的前m个相似度形成对比相似度集SFCij
S12,获取gp(ij,w)和SFpw ij,如果gp(ij,w)≥D1p,并且SFpw ij≥D2p,则将话题w加入Tij对应的候选话题集中,执行S13,否则,直接执行S13;其中,话题w为m个话题中的第w个话题,gp(ij,w)为第p次清洗处理时Tij和话题w之间的关键词相同的数量,SFpw ij为第p次清洗处理时Tij对应的特征向量和话题w对应的话题特征向量之间的相似度,w的取值为1到m。
S33被替换为:
S13,设置w=w+1,如果w≤m,执行S12,否则,执行S14;
S14,如果Tij对应的候选话题集为Null,则为Tij创建一个新话题,并将Tij加入到对应的新话题中并从原话题中删除,并执行S34;如果Tij对应的候选话题集中包含一个相似度,则将Tij加入到该相似度对应的话题中并从原话题中删除,并执行S34;如果Tij对应的候选话题集中包含多个相似度,则将Tij加入到对应的候选话题集中的最大相似度对应的话题中并从原话题中删除,并执行S34。
本发明的实施例还提供了一种非瞬时性计算机可读存储介质,该存储介质可设置于电子设备之中以保存用于实现方法实施例中一种方法相关的至少一条指令或至少一段程序,该至少一条指令或该至少一段程序由该处理器加载并执行以实现上述实施例提供的方法。
本发明的实施例还提供了一种电子设备,包括处理器和前述的非瞬时性计算机可读存储介质。
本发明的实施例还提供一种计算机程序产品,其包括程序代码,当所述程序产品在电子设备上运行时,所述程序代码用于使该电子设备执行本说明书上描述的根据本发明各种示例性实施方式的方法中的步骤。
虽然已经通过示例对本发明的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本发明的范围。本领域的技术人员还应理解,可以对实施例进行多种修改而不脱离本发明的范围和精神。本发明公开的范围由所附权利要求来限定。

Claims (10)

1.一种基于预训练模型的话题生成方法,其特征在于,所述方法包括如下步骤:
S1,获取待聚类文本中的每个文本的特征向量和关键词,并基于每个文本的特征向量,利用设定聚类算法对待聚类文本进行聚类,得到多个话题;每个文本包括h个关键词;
S2,获取当前话题中的任一话题中的任一文本以及任一话题的关键词和特征向量;
S3,基于文本和话题之间的关键词相同的数量和文本和话题的特征向量之间的相似度对当前话题进行第p次清洗处理,得到处理后的n(p)个话题;其中,n(p)个话题中的任一话题a满足如下条件:gp(a,q)≥D1p并且SFp aq≥D2p;其中,gp(a,q)为话题a和话题a中的第q个文本Taq之间的关键词相同的数量,SFp aq为话题a的特征向量和Taq的特征向量之间的相似度;D1p为第p次清洗处理对应的第一设定阈值,D2p为第p次清洗处理对应的第二设定阈值;a的取值为1到n(p),p的取值为1到C0,C0为预设次数;q的取值为1到f(a),f(a)为话题a中的文本数量;
S4,设置p=p+1,如果p≤C0,执行S2;否则,得到清洗处理后的H个话题,并执行S5;
S5,基于H个话题获取按照文本数量递减的方式进行排序得到的话题列表S,并获取S中的任一话题u对应的关键词和特征向量,u的取值为1到H;
S6,基于话题之间的关键词相同的数量以及话题的特征向量之间的相似度对S进行合并处理,得到包括A个话题的目标话题列表;
S7,对于A个话题中的任一话题e,基于预训练生成模型生成对应的话题描述;e的取值为1到A;
S8,输出A个话题的话题描述和对应的文本,其中,每个话题对应的文本为按照文本发布时间进行排序后的文本。
2.根据权利要求1所述的方法,其特征在于,S7具体包括:
S701,对于A个话题中的任一话题e,分别获取话题e的关键词和话题特征向量;
S702,获取话题特征向量相似度集SFe={SFe1,SFe2,…,SFeh,…,SFef(e)},SFeh为话题e中的第h个文本Teh对应的特征向量和话题e对应的话题特征向量之间的相似度;h的取值为1到f(e),f(e)为话题e中的文本数量;
S703,将SFe按照相似度由大到小的顺序进行排序,得到排序后的相似度集,并获取排序后的相似度集中的前B个相似度对应的B个文本作为候选文本;
S704,获取关键词相同数量集Ge={ge1,ge2,…,gea,…,geB},gea为B个候选文本中的第a个文本和话题e之间的关键词相同的数量,a的取值为1到B;
S705,将Ge按照数量由大到小的顺序进行排序,得到排序后的数量集,并获取排序后的数量集中的前q个数量对应的文本作为话题e的目标文本;
S706,将获取的q个目标文本的标题进行拼接,形成拼接标题,并将拼接标题输入到预训练生成模型中进行预测,得到对应的预测的话题描述,作为话题e的话题描述。
3.根据权利要求1所述的方法,其特征在于,S7具体包括:
S710,对于A个话题中的任一话题e,分别获取话题e的关键词和话题特征向量;
S711,获取话题特征向量相似度集SFe={SFe1,SFe2,…,SFeh,…,SFef(e)},SFeh为话题e中的第h个文本Teh对应的特征向量和话题e对应的话题特征向量之间的相似度;h的取值为1到f(e),f(e)为话题e中的文本数量;
S712,将话题e中的第h个文本的标题输入到预训练生成模型中进行预测,得到对应的话题描述TDeh;得到f(e)个话题描述;
S713,基于SFe,获取f(e)个话题描述对应的权重集We={we1,we2,…,weh,…,wef(e)};weh为TDeh对应的权重,其中,如果SFeh<SFe(h+1),则weh<we(h+1)
S714,将f(e)个话题描述中相同的话题描述进行合并,得到n(e)个话题描述,并获取n(e)个话题描述对应的权重集;
S715,获取n(e)个话题描述对应的权重集中最大权重对应的话题描述作为话题e的话题描述。
4.根据权利要求1所述的方法,其特征在于,S3具体包括:
S31,对于第p次清洗处理对应的当前话题中的话题i中的第j个文本Tij,分别获取gp(i,j)和SFp ij,如果gp(i,j)≥D1p,并且SFp ij≥D2 p,则将Tij保留在话题i中,执行S34;否则,执行S32;其中,gp(i,j)为第p次清洗处理时Tij和话题i之间的关键词相同的数量,SFp ij为第p次清洗处理时Tij的特征向量和话题i的话题特征向量之间的相似度;i的取值为1到k,k为当前话题的数量;j的取值为1到f(i),f(i)为话题i中的文本数量;
S32,获取gp(ij,s)和SFps ij,如果gp(ij,s)≥D1p,并且SFps ij≥D2p,则将Tij加入到话题s中并从原话题中删除,执行S34;否则,执行S33;其中,话题s为当前话题中除话题i之外的k-1个话题中的第s个话题,gp(ij,s)为第p次清洗处理时Tij和话题s之间的关键词相同的数量,SFps ij为第p次清洗处理时Tij的特征向量和话题s的话题特征向量之间的相似度,s的取值为1到k-1;
S33,设置s=s+1,如果s≤(k-1),执行S32,否则,为Tij创建一个新话题,并将Tij加入到对应的新话题中并从原话题中删除,设置k=k+1,并执行S34;
S34,设置j=j+1,如果j≤f(i),执行S31;否则,设置i=i+1,如果i≤k,执行S31,否则,执行S4。
5.根据权利要求1所述的方法,其特征在于,S6具体包括:
S61,获取g(u,v)和S1uv,如果g(u,v)≥D4,并且S1uv≥D5,则将话题u和话题v进行合并,执行S63;否则,执行S62;其中,话题v为当前合并话题列表中的第v个话题,g(u,v)为话题u与话题v之间的关键词相同的数量,S1uv为话题u的话题特征向量和话题v的话题特征向量之间的相似度,v的取值为1到n,n为当前合并话题列表中的话题数量;D4为第四设定阈值,D5为第五设定阈值;合并话题列表中的初始值为Null;
S62,设置v=v+1,如果v≤n,执行S61,否则,将话题u作为新话题加入到当前合并话题列表中并设置n=n+1;执行S63;
S63,设置u=u+1,如果u≤H,执行S61,否则,执行S64;
S64,获取当前话题列表中的任一个话题中的文本数量,如果该话题中的文本数量少于设定数量阈值,则将该话题从当前话题列表中删除;得到目标话题列表,并执行S7。
6.根据权利要求4所述的方法,其特征在于,S32被替换为:
S10,获取话题和文本之间的相似度集SFij={SF1 ij,SF2 ij,…,SFs ij,…,SFk-1 ij},SFs ij为Tij对应的特征向量和除话题i之外的k-1个话题中的第s个话题对应的特征向量之间的相似度,s的取值为1到k-1;
S11,将SFij按照降序进行排序得到排序后的相似度集,并获取排序后的相似度集中的前m个相似度形成对比相似度集SFCij
S12,获取gp(ij,w)和SFpw ij,如果gp(ij,w)≥D1p,并且SFpw ij≥D2p,则将话题w加入Tij对应的候选话题集中,执行S13,否则,直接执行S13;其中,话题w为m个话题中的第w个话题,gp(ij,w)为第p次清洗处理时Tij和话题w之间的关键词相同的数量,SFpw ij为第p次清洗处理时Tij对应的特征向量和话题w对应的话题特征向量之间的相似度,w的取值为1到m;
S33被替换为:
S13,设置w=w+1,如果w≤m,执行S12,否则,执行S14;
S14,如果Tij对应的候选话题集为Null,则为Tij创建一个新话题,并将Tij加入到对应的新话题中并从原话题中删除,并执行S34;如果Tij对应的候选话题集中包含一个相似度,则将Tij加入到该相似度对应的话题中并从原话题中删除,并执行S34;如果Tij对应的候选话题集中包含多个相似度,则将Tij加入到对应的候选话题集中的最大相似度对应的话题中并从原话题中删除,并执行S34。
7.根据权利要求4所述的方法,其特征在于,任一话题的特征向量为该话题中所有文本的特征向量的平均值。
8.根据权利要求1所述的方法,其特征在于,话题i的关键词通过如下步骤获取:
S201,对任一话题中的所有文本的关键词中相同的关键词进行合并并重新计算权重,将相同的关键词的权重进行相加得到合并后的关键词;
S202,将合并后的关键词中按照权重由大到小的顺序进行排序,并获取排序后的关键词中的前h个关键词作为该任一话题的关键词。
9.根据权利要求1所述的方法,其特征在于,通过TextRank算法获取每个文本的关键词。
10.根据权利要求1所述的方法,其特征在于,通过RoFormer-Sim模型获取每个文本的特征向量。
CN202310347857.XA 2023-04-03 2023-04-03 一种基于预训练模型的话题生成方法 Active CN116361469B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310347857.XA CN116361469B (zh) 2023-04-03 2023-04-03 一种基于预训练模型的话题生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310347857.XA CN116361469B (zh) 2023-04-03 2023-04-03 一种基于预训练模型的话题生成方法

Publications (2)

Publication Number Publication Date
CN116361469A true CN116361469A (zh) 2023-06-30
CN116361469B CN116361469B (zh) 2024-07-19

Family

ID=86921336

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310347857.XA Active CN116361469B (zh) 2023-04-03 2023-04-03 一种基于预训练模型的话题生成方法

Country Status (1)

Country Link
CN (1) CN116361469B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190050396A1 (en) * 2016-08-31 2019-02-14 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus and device for recognizing text type
CN109918653A (zh) * 2019-02-21 2019-06-21 腾讯科技(深圳)有限公司 确定文本数据的关联话题及模型的训练方法、装置和设备
CN113722483A (zh) * 2021-08-31 2021-11-30 平安银行股份有限公司 话题分类方法、装置、设备及存储介质
CN114579731A (zh) * 2022-02-28 2022-06-03 江苏至信信用评估咨询有限公司 基于多特征融合的网络信息话题检测方法、系统及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190050396A1 (en) * 2016-08-31 2019-02-14 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus and device for recognizing text type
CN109918653A (zh) * 2019-02-21 2019-06-21 腾讯科技(深圳)有限公司 确定文本数据的关联话题及模型的训练方法、装置和设备
CN113722483A (zh) * 2021-08-31 2021-11-30 平安银行股份有限公司 话题分类方法、装置、设备及存储介质
CN114579731A (zh) * 2022-02-28 2022-06-03 江苏至信信用评估咨询有限公司 基于多特征融合的网络信息话题检测方法、系统及装置

Also Published As

Publication number Publication date
CN116361469B (zh) 2024-07-19

Similar Documents

Publication Publication Date Title
CN108052593B (zh) 一种基于主题词向量和网络结构的主题关键词提取方法
CN106815252B (zh) 一种搜索方法和设备
CN104834735B (zh) 一种基于词向量的文档摘要自动提取方法
CN108132927B (zh) 一种融合图结构与节点关联的关键词提取方法
KR101508260B1 (ko) 문서 특징을 반영하는 요약문 생성 장치 및 방법
CN111291188B (zh) 一种智能信息抽取方法及系统
WO2017193685A1 (zh) 社交网络中数据的处理方法和装置
CN111090731A (zh) 基于主题聚类的电力舆情摘要提取优化方法及系统
US20230074771A1 (en) Hierarchical clustering on graphs for taxonomy extraction and applications thereof
CN111966810A (zh) 一种用于问答系统的问答对排序方法
CN106294418A (zh) 检索方法和检索系统
CN115563313A (zh) 基于知识图谱的文献书籍语义检索系统
Thaiprayoon et al. Graph and centroid-based word clustering
CN114036938B (zh) 一种融合主题信息和词向量提取文本特征的新闻分类方法
CN113111178B (zh) 无监督的基于表示学习的同名作者消歧方法及装置
CN110299194A (zh) 基于综合特征表示与改进宽深度模型的相似病例推荐方法
CN116361469B (zh) 一种基于预训练模型的话题生成方法
Qiang et al. A practical algorithm for solving the sparseness problem of short text clustering
CN114385777A (zh) 文本数据处理方法、装置、计算机设备和存储介质
Angdresey et al. Classification and Sentiment Analysis on Tweets of the Ministry of Health Republic of Indonesia
Calderon Vilca et al. Music recommender system based on sentiment analysis enhanced with natural language processing technics
CN116361470B (zh) 一种基于话题描述的文本聚类清洗和合并方法
Kalaivani et al. Feature selection based on genetic algorithm and hybrid model for sentiment polarity classification
CN116361468B (zh) 一种事件脉络生成方法、电子设备和存储介质
JP4350026B2 (ja) 話題スコープ抽出装置、その制御方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant