CN117271768A - 基于大语言模型分析引导的虚假新闻检测方法及装置 - Google Patents

基于大语言模型分析引导的虚假新闻检测方法及装置 Download PDF

Info

Publication number
CN117271768A
CN117271768A CN202311208664.2A CN202311208664A CN117271768A CN 117271768 A CN117271768 A CN 117271768A CN 202311208664 A CN202311208664 A CN 202311208664A CN 117271768 A CN117271768 A CN 117271768A
Authority
CN
China
Prior art keywords
news
analysis
false
language model
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311208664.2A
Other languages
English (en)
Inventor
曹娟
胡焙哲
盛强
石宇辉
汪旦丁
唐胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Computing Technology of CAS
Original Assignee
Institute of Computing Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Computing Technology of CAS filed Critical Institute of Computing Technology of CAS
Priority to CN202311208664.2A priority Critical patent/CN117271768A/zh
Publication of CN117271768A publication Critical patent/CN117271768A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明提出一种基于大语言模型分析引导的虚假新闻检测方法,通过将大语言模型的分析中蕴含的知识选择性地注入到小语言模型中,实现大语言模型和小语言模型的协同检测。为进一步降低检测成本,通过知识迁移的方式,基于训练完成的上述网络中得到基于大语言模型分析知识迁移的虚假新闻检测网络,该网络的特点是无需大语言模型分析作为输入,仅使用检测网络中凝结的大模型分析知识用于检测。

Description

基于大语言模型分析引导的虚假新闻检测方法及装置
技术领域
本发明涉及计算机应用、自然语言理解技术领域,并特别涉及一种基于大语言模型分析引导的虚假新闻检测方法及装置。
背景技术
自动虚假新闻检测旨在训练机器学习模型区分虚假新闻与真实新闻,是实践中成为快速消除虚假新闻负面影响的有效方案。
获取虚假新闻有效表征是实现自动虚假新闻检测的关键。然而由于新闻伪造过程的复杂性,虚假新闻表征的获取仍然具有挑战性。因为虚假新闻的创作者可能会采用多样的策略、基于不同的意图目的,杜撰新闻的任何部分。因此,为在虚假新闻检测中保持有效性和通用性,自动虚假新闻检测方法需要具备以下两个方面能力:(1)对多类型检测线索(例如风格、事实、常识、意图等)有精确的感知能力;(2)对新闻发生的现实背景有深刻的理解能力。
近期提出的自动虚假新闻检测方法通常利用在大规模语料上预训练的小语言模型(Small Language Models,参数量一般在50亿以下),如BERT和RoBERTa,来理解新闻内容并提供基本表征。尽管小语言模型能够带来一定检测效果提升,但由于参数量有限,知识和能力水平上的不足仍然导致检测效果受限。
大语言模型(Large Language Models),通常代指拥有百亿、千亿参数规模的、在大规模语料上训练,拥有强大自然语言理解能力的模型。以GPT-3.5为代表的大语言模型已经展现了在各种任务上的令人印象深刻的能力。相较于小语言模型,大语言模型通常在更大规模的语料库上进行预训练,拥有更多的参数,需要更多的计算资源进行训练和推理,在各类自然语言处理任务上均有良好表现,有望成为通用任务解决器。不过,由于训练成本巨大,大语言模型很难像小语言模型那样通过在下游任务数据集上的微调(Fine-Tuning)实现下游任务适配,需要采用以上下文学习(In-Context Learning)为代表的、仅更新模型小部分参数的方式适配到下游任务。实验结果表明,尽管大语言模型可以从多个角度为待检测新闻提供合理的、有信息量的分析(Rationales),直接使用大语言模型进行虚假新闻检测效果甚至弱于基于小语言模型的检测方法。
因此如何兼具大语言模型的知识和能力水平和小语言模型的易训练性,是当前新闻真伪检测面临的技术挑战。
发明内容
本发明针对现有大语言模型和小语言模型在虚假新闻检测任务上性能不佳的问题,提出了一种大语言模型分析引导的自适应虚假新闻检测方法,充分发挥大语言模型和小语言模型的优势,实现虚假新闻检测性能的提升。
针对现有技术的不足,本发明提出一种基于大语言模型分析引导的虚假新闻检测方法,其中包括:
步骤1、构建包括分类器、注意力池化模块和新闻分析交互模块的第一虚假新闻检测模型;通过新闻编码器提取目标新闻的第一新闻特征,通过大语言模型和分析编码器提取该目标新闻在每个分析角度下的第一分析特征;
步骤2、通过对第一新闻特征和各第一分析特征构成的组合进行双重交叉注意力和平均池化,分别获得各个分析角度下的第二新闻特征与第二分析特征;
步骤3、构建大语言模型判断预测器用于根据该第一分析特征,判断该分析角度下目标新闻是否属于虚假新闻,得到每个分析角度下大语言模型的第一虚假检测结果,并结合该大语言模型对该目标新闻的第二虚假检测结果为标签,构建第一损失函数;
步骤4、基于多层感知机网络构建分析有效性评估器,通过该分析有效性评估器根据每个该第二分析特征,判断该目标新闻是否属于虚假新闻,得到每个分析角度下的大语言模型的分析准确度,并结合该第二虚假检测结果的正确性标签,构建第二损失函数,将该第二分析特征送入多层感知机,得到各角度的第二新闻特征对虚假新闻检测的贡献权重,以该贡献权重对该第二新闻特征进行加权,得到每个分析角度下的加权特征;
步骤5、将该第一新闻特征进行注意力池化后和所有分析角度下的加权特征相聚合,得到聚合特征,分类器根据该聚合特征得到该目标新闻是否属于虚假新闻的第四虚假检测结果,并结合该目标新闻的正确类别标签,构建第三损失函数;
步骤6、根据所有该第一损失函数、第二损失函数和第三损失函数构成总损失,训练该第一虚假新闻检测模型,并采用训练完成后的第一虚假新闻检测模型执行虚假新闻检测任务,得到任务新闻是否属于虚假新闻的检测结果。
所述的基于大语言模型分析引导的虚假新闻检测方法,其中包括:
步骤7,沿用该新闻编码器、该分类器的设置参数用于模型参数初始化,构建包括该新闻编码器、该分类器和分析感知特征模拟器的第二虚假新闻检测模型;
步骤8,通过该新闻编码器提取该目标新闻的特征,并将其送入该分析感知特征模拟器,得到模拟特征,将该模拟特征进行注意力池化处理后送入该分类器,得到第五虚假检测结果;
步骤9,该第五虚假检测结果结合该目标新闻的正确类别标签,构建第四损失函数;根据注意力池化处理后的该多头注意力特征和该聚合特征,构建第五损失函数;
步骤10,根据该第四损失函数、该第五损失函数构成的总损失,训练该第二虚假新闻检测模型,并采用训练完成后的第二虚假新闻检测模型执行虚假新闻检测任务,得到任务新闻是否属于虚假新闻的检测结果。
所述的基于大语言模型分析引导的虚假新闻检测方法,其中该大语言模型为闭源语言模型或开源语言模型。
所述的基于大语言模型分析引导的虚假新闻检测方法,其中该分析角度包括经验常识、写作风格、写作意图。
本发明还提出了一种基于大语言模型分析引导的虚假新闻检测装置,其中包括:
模块1、构建包括分类器、注意力池化模块和新闻分析交互模块的第一虚假新闻检测模型;通过新闻编码器提取目标新闻的第一新闻特征,通过大语言模型和分析编码器提取该目标新闻在每个分析角度下的第一分析特征;
模块2、通过对第一新闻特征和各第一分析特征构成的组合进行双重交叉注意力和平均池化,分别获得各个分析角度下的第二新闻特征与第二分析特征;
模块3、构建大语言模型判断预测器用于根据该第一分析特征,判断该分析角度下目标新闻是否属于虚假新闻,得到每个分析角度下大语言模型的第一虚假检测结果,并结合该大语言模型对该目标新闻的第二虚假检测结果为标签,构建第一损失函数;
模块4、基于多层感知机网络构建分析有效性评估器,通过该分析有效性评估器根据每个该第二分析特征,判断该目标新闻是否属于虚假新闻,得到每个分析角度下的大语言模型的分析准确度,并结合该第二虚假检测结果的正确性标签,构建第二损失函数,将该第二分析特征送入多层感知机,得到各角度的第二新闻特征对虚假新闻检测的贡献权重,以该贡献权重对该第二新闻特征进行加权,得到每个分析角度下的加权特征;
模块5、将该第一新闻特征进行注意力池化后和所有分析角度下的加权特征相聚合,得到聚合特征,分类器根据该聚合特征得到该目标新闻是否属于虚假新闻的第四虚假检测结果,并结合该目标新闻的正确类别标签,构建第三损失函数;
模块6、根据所有该第一损失函数、第二损失函数和第三损失函数构成总损失,训练该第一虚假新闻检测模型,并采用训练完成后的第一虚假新闻检测模型执行虚假新闻检测任务,得到任务新闻是否属于虚假新闻的检测结果。
所述的基于大语言模型分析引导的虚假新闻检测装置,其中包括:
模块7,沿用该新闻编码器、该分类器的设置参数用于模型参数初始化,构建包括该新闻编码器、该分类器和分析感知特征模拟器的第二虚假新闻检测模型;
模块8,通过该新闻编码器提取该目标新闻的特征,并将其送入该分析感知特征模拟器,得到模拟特征,将该模拟特征进行注意力池化处理后送入该分类器,得到第五虚假检测结果;
模块9,该第五虚假检测结果结合该目标新闻的正确类别标签,构建第四损失函数;根据注意力池化处理后的该多头注意力特征和该聚合特征,构建第五损失函数;
模块10,根据该第四损失函数、该第五损失函数构成的总损失,训练该第二虚假新闻检测模型,并采用训练完成后的第二虚假新闻检测模型执行虚假新闻检测任务,得到任务新闻是否属于虚假新闻的检测结果。
所述的基于大语言模型分析引导的虚假新闻检测装置,其中该大语言模型为闭源语言模型或开源语言模型。
所述的基于大语言模型分析引导的虚假新闻检测装置,其中该分析角度包括经验常识、写作风格、写作意图。
本发明还提出了一种服务器,其中包括所述的任意一种虚假新闻检测装置。
本发明还提出了一种存储介质,用于存储一种执行所述虚假新闻检测方法的计算机程序。
由以上方案可知,本发明的优点在于:通过利用大语言模型的分析引导小语言模型的检测过程,实现大语言模型和小语言模型各自优势的合理结合,提升虚假新闻检测性能。具体地,本发明提出了一种大语言模型分析引导的自适应虚假新闻检测方法,它通过将大语言模型的分析中蕴含的知识选择性地注入到小语言模型(分类器)中,实现大语言模型和小语言模型的协同检测。为进一步降低检测成本,通过知识迁移的方式,基于训练完成的上述网络中得到基于大语言模型分析知识迁移的虚假新闻检测网络,该网络的特点是无需大语言模型分析作为输入,仅使用检测网络中凝结的大模型分析知识用于检测。
附图说明
图1为本发明大语言模型分析引导的自适应虚假新闻检测网络框图;
图2为基于大语言模型分析知识迁移的虚假新闻检测网络图。
具体实施方式
为了实现上述技术效果,本发明包括如下关键技术点:
关键点1:获取大语言模型分析与构建新闻、分析表征。首先将新闻文本输入大语言模型,通过适当的提示学习策略,获取大语言模型从不同角度的分析,之后,使用两个独立的文本表示编码器,分别获取新闻和其对应分析文本的表征。
关键点2:新闻-分析协作设计。基于关键点1的表征,进行新闻-分析协作,得到分析感知的新闻特征;该方法设计了三种模块,分别是新闻-分析交互模块,大语言模型判断预测模块和分析有效性评估模块,为模型提供有效的新闻与分析间的交互特征,让模型在训练过程中学会自适应选择对最终检测有效的分析作为参考。
关键点3:特征聚合与预测。聚合分析感知的新闻特征和原始新闻特征,用于进行最终的新闻分类任务。本方法基于关键点2得到的特征,将新闻向量x以及分析感知新闻向量f′xi聚合,用于最终判断。
关键点4:大语言模型分析知识迁移。本方法使用知识蒸馏方法,基于已训练的大语言模型分析引导的自适应虚假新闻检测网络,构建基于大语言模型分析知识迁移的虚假新闻检测网络,后者无需大语言模型的分析文本作为输入,可以用于无法部署或接入大语言模型的低成本场景。
为让本发明的上述特征和效果能阐述的更明确易懂,下文特举实施例,并配合说明书附图作详细说明如下。本说明书公开了一个或多个包含本发明特点的实施例。公开的实施例仅仅用于举例说明。本发明的保护范围并不限于所公开的实施例,本发明由所附权利要求来限定。
图1和图2展示了本发明的大语言模型分析引导的自适应虚假新闻检测方法。图1展示的大语言模型(参数规模通常在百亿、千亿规模的语言模型,例如GPT3.5、GPT4等闭源大语言模型,以及Llama等开源大语言模型)分析引导的自适应虚假新闻检测网络包括三个部分:1.表征获取,获取新闻和其对应的大语言模型分析,并通过独立的文本编码器获得它们的表征;2.新闻-分析协作,进行新闻和分析间的特征交互,并使用对大语言模型判断结果的预测任务和大语言模型分析有效性的评估任务作为训练辅助任务,提升特征交互质量;3.真实性预测:将交互得到的特征和经过注意力机制处理的新闻特征聚合,用于预测新闻的真实性。
图2展示的基于大语言模型分析知识迁移的虚假新闻检测网络是基于图1进行知识迁移得到的。具体包括新闻编码器、分析感知特征模拟器、注意力机制和分类器四个部分,其中新闻编码器和分类器是使用图1网络对应模块的参数初始化的。通过在新闻真实性预测任务之外,增加特征模仿任务,要求分类器输入特征与图1对应特征相似,实现大模型分析知识迁移,服务于无法部署或接入大语言模型的低成本场景。
获取大语言模型分析与构建新闻、分析表征:
在这一步骤中,本发明首先将新闻输入大语言模型,获取大语言模型从不同角度的分析。具体来讲,本方案选择了经验常识、写作风格、写作意图等多种假新闻检测分析所需要的角度,构建特定角度的提示,将其与目标新闻拼接后送入大模型,得到大语言模型从特定角度展开的分析和与之对应的判断结果。提示模板中包含任务描述和待检测新闻正文,案例如下:
Q:给定以下消息,判断其是否为真实信息,若更有可能是虚假信息,则返回“1”,反之返回“0”,注意,不要做出“无法确定”等模糊判断:【新闻正文】
A:让我们从【分析角度】这个角度思考。
其中,【新闻正文】部分填充需要进行判断的新闻文本,【分析角度】填充经验常识、写作风格、写作意图等指定的分析角度。
之后,本发明使用两个独立的文本表示编码器,分别获取新闻和其对应分析文本的表征(特征向量)。给定新闻和其对应的n个不同角度的分析我们获得新闻表征X,以及其对应的n个不同角度的分析的表征/>例如R1代表从“从第1种风格角度分析,这句话使用了过于情绪化的表达,不符合常见新闻文风”。
新闻-分析协作:
本方案希望为模型提供丰富的新闻、分析间交互,并让模型学会自适应选择有效的分析作为参考。为了达成这一目标,本方案设计了三种模块,分别是新闻-分析交互模块,大语言模型判断预测模块和分析有效性评估模块。
1.新闻-分析交互模块
为了实现新闻与分析之间的全面信息交互,本方案使用具有双重交叉注意机制作为新闻-分析交互器,以挖掘特征之间的相互作用。交叉注意可以描述为:
其中,Q′=WQQ,K′=WKK,V′=WVV,WQ、WK和WV均为可学习参数矩阵,d是Q′、K′中每个行向量的维度。给定新闻x的表示X和第i个角度的大语言模型分析Ri,通过双重交叉注意力和平均池化,可分别获得分析i感知的新闻表示向量fxi与新闻感知的分析i表示向量fri
fxi=AvgPool(CA(Ri,X,X))
fri=AvgPool(CA(X,Ri,Ri))
其中,AvgPool(·)是平均池化函数。
2.大语言模型判断预测模块
理解分析所指向的判断是充分利用分析信息的先决条件。为此,本方案构建了大语言模型判断预测任务,其要求是根据给定的分析,预测大语言模型对新闻真实性的判断。我们希望这能加深模型对分析文本的理解。对于角度i的分析,本方案将其表示Ri输入大语言模型判断预测器,该预测器使用多层感知器(多层感知机网络MLPi1)进行参数化,并用于预测大语言模型的判断,并进而实现对整体预测的辅助:
其中,mi∈{0,1}和分别是大语言模型的实际判断(从大语言模型的回复中提取,1代表大模型判断新闻x为假,反之为0)和预测结果。损失函数Lpi是交叉熵损失
3.分析有效性评估模块
不同角度的分析在不同新闻项目中的有效性也不尽相同,不当的整合可能会导致模型性能下降。为了使模型能够自适应地选择有效的大模型分析,本方案设计了分析有效性评估模块,在该模块中,本方案评估不同分析的贡献,并调整它们的权重以进行后续真实性预测,即判断大语言模型各角度评价的新闻检测结果可能有误,需要对各个角度进行评估。该模块包括两个阶段,即评估和重加权。在评估阶段,本方案将新闻感知的分析向量fri(i∈{1,2,…,n})输入分析有效性评估器(多层感知机网络MLPi2),以预测其有效性,预测结果为 基于“导致正确判断的分析更有效”这一假设,本发明根据输入新闻的类别标签,分析对应的大语言模型判断是否正确作为有效性标签ui∈{0,1},其中1代表大语言模型判断正确,0代表不正确:
在重加权阶段,将fri输入一个独立的MLPi3得到权重数值wi,然后使用该权重对原因感知新闻向量fxi进行重新赋权。具体步骤如下:
f′xi=wi.fxi
本发明还使用注意力池化将特征矩阵X降维转换为向量x,过程如下:
x=softmax(WXX)·X
其中WX是可学习变换矩阵。注意力池化分为两个步骤,一是为矩阵中的每个元素计算注意力权重,二是基于权重加权矩阵中的每个元素,上述softmax(WXX)对应了注意力权重计算步骤。
预测:
基于上一步的输出,本方案将新闻向量x以及分析感知新闻向量f′xi聚合用于最终判断。对于标签为y∈{0,1}的新闻x,本方案使用不同的权重对这些向量进行聚合:
其中,是可学习的权重参数,/>对应新闻向量x的权重,/>为分析角度i在当前新闻下的权重(权重的取值均在0到1之间,且所有权重之和为1),fcls是融合向量。
之后将fcls输入分类器(多层感知机网络,MLPy),用于新闻真实性预测:
其中如果/>则预测x为虚假新闻,否则为真实新闻,thr是预先设定的判断阈值。网络训练中使用交叉熵损失函数:
式中y为训练时新闻自带的真伪标签。
上述过程总的损失函数是上述损失项的加权和:
其中β1,β2是预先设定的超参数。损失函数L包括三个优化目标,分别是新闻分析交互模块中的大语言模型判断预测模块、分析有效性评估模块以及预测步骤的分类器。
大语言模型分析知识迁移:
上述大语言模型分析引导的自适应虚假新闻检测网络需要为每次预测发送请求至大语言模型,在成本预算有限的场景中难以使用。因此,本发明进一步尝试通过知识迁移,基于已训练的大语言模型分析引导的自适应虚假新闻检测网络构建基于大语言模型分析知识迁移的虚假新闻检测网络。基本思想是通过参数化模块对大模型分析知识进行模拟和内化。如图2所示其中剪刀标识表示该部分的初始化参数来自此前完成训练的,即图1“大语言模型分析引导的自适应虚假新闻检测网络”,本方案使用大语言模型分析引导的自适应虚假新闻检测网络中相应的模块初始化新闻编码器和分类器,并训练一个基于多头注意力机制实现的分析感知特征模拟器以及一个注意力模块来内化知识。除了使用交叉熵损失Lce监督模型获得对真实、虚假新闻的分类能力,本方案还使用辅助损失Lkd引导特征模仿网络中的fcls
在实际使用时,需要先完成图1中模型的训练,再进行图2中模型的训练。图1和图2的方法均为本发明提出出方法,分别适用于不同的场景。图1方法需要大语言模型的参与,性能表现更好,适用于成本不敏感的场景;图2的方法不需要大语言模型参与,性能表现弱于图1,适用于成本敏感场景。
以下为与上述方法实施例对应的系统实施例,本实施方式可与上述实施方式互相配合实施。上述实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在上述实施方式中。
本发明还提出了一种基于大语言模型分析引导的虚假新闻检测装置,其中包括:
模块1、构建包括分类器、注意力池化模块和新闻分析交互模块的第一虚假新闻检测模型;通过新闻编码器提取目标新闻的第一新闻特征,通过大语言模型和分析编码器提取该目标新闻在每个分析角度下的第一分析特征;
模块2、通过对第一新闻特征和各第一分析特征构成的组合进行双重交叉注意力和平均池化,分别获得各个分析角度下的第二新闻特征与第二分析特征;
模块3、构建大语言模型判断预测器用于根据该第一分析特征,判断该分析角度下目标新闻是否属于虚假新闻,得到每个分析角度下大语言模型的第一虚假检测结果,并结合该大语言模型对该目标新闻的第二虚假检测结果为标签,构建第一损失函数;
模块4、基于多层感知机网络构建分析有效性评估器,通过该分析有效性评估器根据每个该第二分析特征,判断该目标新闻是否属于虚假新闻,得到每个分析角度下的大语言模型的分析准确度,并结合该第二虚假检测结果的正确性标签,构建第二损失函数,将该第二分析特征送入多层感知机,得到各角度的第二新闻特征对虚假新闻检测的贡献权重,以该贡献权重对该第二新闻特征进行加权,得到每个分析角度下的加权特征;
模块5、将该第一新闻特征进行注意力池化后和所有分析角度下的加权特征相聚合,得到聚合特征,分类器根据该聚合特征得到该目标新闻是否属于虚假新闻的第四虚假检测结果,并结合该目标新闻的正确类别标签,构建第三损失函数;
模块6、根据所有该第一损失函数、第二损失函数和第三损失函数构成总损失,训练该第一虚假新闻检测模型,并采用训练完成后的第一虚假新闻检测模型执行虚假新闻检测任务,得到任务新闻是否属于虚假新闻的检测结果。
所述的基于大语言模型分析引导的虚假新闻检测装置,其中包括:
模块7,沿用该新闻编码器、该分类器的设置参数用于模型参数初始化,构建包括该新闻编码器、该分类器和分析感知特征模拟器的第二虚假新闻检测模型;
模块8,通过该新闻编码器提取该目标新闻的特征,并将其送入该分析感知特征模拟器,得到模拟特征,将该模拟特征进行注意力池化处理后送入该分类器,得到第五虚假检测结果;
模块9,该第五虚假检测结果结合该目标新闻的正确类别标签,构建第四损失函数;根据注意力池化处理后的该多头注意力特征和该聚合特征,构建第五损失函数;
模块10,根据该第四损失函数、该第五损失函数构成的总损失,训练该第二虚假新闻检测模型,并采用训练完成后的第二虚假新闻检测模型执行虚假新闻检测任务,得到任务新闻是否属于虚假新闻的检测结果。
所述的基于大语言模型分析引导的虚假新闻检测装置,其中该大语言模型为闭源语言模型或开源语言模型。
所述的基于大语言模型分析引导的虚假新闻检测装置,其中该分析角度包括经验常识、写作风格、写作意图。
本发明还提出了一种服务器,其中包括所述的任意一种虚假新闻检测装置。
本发明还提出了一种存储介质,用于存储一种执行所述虚假新闻检测方法的计算机程序。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (10)

1.一种基于大语言模型分析引导的虚假新闻检测方法,其特征在于,包括:
步骤1、构建包括分类器、注意力池化模块和新闻分析交互模块的第一虚假新闻检测模型;通过新闻编码器提取目标新闻的第一新闻特征,通过大语言模型和分析编码器提取该目标新闻在每个分析角度下的第一分析特征;
步骤2、通过对第一新闻特征和各第一分析特征构成的组合进行双重交叉注意力和平均池化,分别获得各个分析角度下的第二新闻特征与第二分析特征;
步骤3、构建大语言模型判断预测器用于根据该第一分析特征,判断该分析角度下目标新闻是否属于虚假新闻,得到每个分析角度下大语言模型的第一虚假检测结果,并结合该大语言模型对该目标新闻的第二虚假检测结果为标签,构建第一损失函数;
步骤4、基于多层感知机网络构建分析有效性评估器,通过该分析有效性评估器根据每个该第二分析特征,判断该目标新闻是否属于虚假新闻,得到每个分析角度下的大语言模型的分析准确度,并结合该第二虚假检测结果的正确性标签,构建第二损失函数,将该第二分析特征送入多层感知机,得到各角度的第二新闻特征对虚假新闻检测的贡献权重,以该贡献权重对该第二新闻特征进行加权,得到每个分析角度下的加权特征;
步骤5、将该第一新闻特征进行注意力池化后和所有分析角度下的加权特征相聚合,得到聚合特征,分类器根据该聚合特征得到该目标新闻是否属于虚假新闻的第四虚假检测结果,并结合该目标新闻的正确类别标签,构建第三损失函数;
步骤6、根据所有该第一损失函数、第二损失函数和第三损失函数构成总损失,训练该第一虚假新闻检测模型,并采用训练完成后的第一虚假新闻检测模型执行虚假新闻检测任务,得到任务新闻是否属于虚假新闻的检测结果。
2.如权利要求1所述的基于大语言模型分析引导的虚假新闻检测方法,其特征在于,包括:
步骤7,沿用该新闻编码器、该分类器的设置参数用于模型参数初始化,构建包括该新闻编码器、该分类器和分析感知特征模拟器的第二虚假新闻检测模型;
步骤8,通过该新闻编码器提取该目标新闻的特征,并将其送入该分析感知特征模拟器,得到模拟特征,将该模拟特征进行注意力池化处理后送入该分类器,得到第五虚假检测结果;
步骤9,该第五虚假检测结果结合该目标新闻的正确类别标签,构建第四损失函数;根据注意力池化处理后的该多头注意力特征和该聚合特征,构建第五损失函数;
步骤10,根据该第四损失函数、该第五损失函数构成的总损失,训练该第二虚假新闻检测模型,并采用训练完成后的第二虚假新闻检测模型执行虚假新闻检测任务,得到任务新闻是否属于虚假新闻的检测结果。
3.如权利要求1所述的基于大语言模型分析引导的虚假新闻检测方法,其特征在于,该大语言模型为闭源语言模型或开源语言模型。
4.如权利要求1所述的基于大语言模型分析引导的虚假新闻检测方法,其特征在于,该分析角度包括经验常识、写作风格、写作意图。
5.一种基于大语言模型分析引导的虚假新闻检测装置,其特征在于,包括:
模块1、构建包括分类器、注意力池化模块和新闻分析交互模块的第一虚假新闻检测模型;通过新闻编码器提取目标新闻的第一新闻特征,通过大语言模型和分析编码器提取该目标新闻在每个分析角度下的第一分析特征;
模块2、通过对第一新闻特征和各第一分析特征构成的组合进行双重交叉注意力和平均池化,分别获得各个分析角度下的第二新闻特征与第二分析特征;
模块3、构建大语言模型判断预测器用于根据该第一分析特征,判断该分析角度下目标新闻是否属于虚假新闻,得到每个分析角度下大语言模型的第一虚假检测结果,并结合该大语言模型对该目标新闻的第二虚假检测结果为标签,构建第一损失函数;
模块4、基于多层感知机网络构建分析有效性评估器,通过该分析有效性评估器根据每个该第二分析特征,判断该目标新闻是否属于虚假新闻,得到每个分析角度下的大语言模型的分析准确度,并结合该第二虚假检测结果的正确性标签,构建第二损失函数,将该第二分析特征送入多层感知机,得到各角度的第二新闻特征对虚假新闻检测的贡献权重,以该贡献权重对该第二新闻特征进行加权,得到每个分析角度下的加权特征;
模块5、将该第一新闻特征进行注意力池化后和所有分析角度下的加权特征相聚合,得到聚合特征,分类器根据该聚合特征得到该目标新闻是否属于虚假新闻的第四虚假检测结果,并结合该目标新闻的正确类别标签,构建第三损失函数;
模块6、根据所有该第一损失函数、第二损失函数和第三损失函数构成总损失,训练该第一虚假新闻检测模型,并采用训练完成后的第一虚假新闻检测模型执行虚假新闻检测任务,得到任务新闻是否属于虚假新闻的检测结果。
6.如权利要求5所述的基于大语言模型分析引导的虚假新闻检测装置,其特征在于,包括:
模块7,沿用该新闻编码器、该分类器的设置参数用于模型参数初始化,构建包括该新闻编码器、该分类器和分析感知特征模拟器的第二虚假新闻检测模型;
模块8,通过该新闻编码器提取该目标新闻的特征,并将其送入该分析感知特征模拟器,得到模拟特征,将该模拟特征进行注意力池化处理后送入该分类器,得到第五虚假检测结果;
模块9,该第五虚假检测结果结合该目标新闻的正确类别标签,构建第四损失函数;根据注意力池化处理后的该多头注意力特征和该聚合特征,构建第五损失函数;
模块10,根据该第四损失函数、该第五损失函数构成的总损失,训练该第二虚假新闻检测模型,并采用训练完成后的第二虚假新闻检测模型执行虚假新闻检测任务,得到任务新闻是否属于虚假新闻的检测结果。
7.如权利要求5所述的基于大语言模型分析引导的虚假新闻检测装置,其特征在于,该大语言模型为闭源语言模型或开源语言模型。
8.如权利要求5所述的基于大语言模型分析引导的虚假新闻检测装置,其特征在于,该分析角度包括经验常识、写作风格、写作意图。
9.一种服务器,其特征在于,包括权利要求5-8所述的任意一种虚假新闻检测装置。
10.一种存储介质,用于存储任意一种执行权利要求1-4所述虚假新闻检测方法的计算机程序。
CN202311208664.2A 2023-09-19 2023-09-19 基于大语言模型分析引导的虚假新闻检测方法及装置 Pending CN117271768A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311208664.2A CN117271768A (zh) 2023-09-19 2023-09-19 基于大语言模型分析引导的虚假新闻检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311208664.2A CN117271768A (zh) 2023-09-19 2023-09-19 基于大语言模型分析引导的虚假新闻检测方法及装置

Publications (1)

Publication Number Publication Date
CN117271768A true CN117271768A (zh) 2023-12-22

Family

ID=89209852

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311208664.2A Pending CN117271768A (zh) 2023-09-19 2023-09-19 基于大语言模型分析引导的虚假新闻检测方法及装置

Country Status (1)

Country Link
CN (1) CN117271768A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117669530A (zh) * 2024-02-02 2024-03-08 中国传媒大学 基于提示学习的虚假信息检测方法及系统
CN118171235A (zh) * 2024-05-08 2024-06-11 深圳市金大智能创新科技有限公司 基于大语言模型的双模态伪造信息检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117669530A (zh) * 2024-02-02 2024-03-08 中国传媒大学 基于提示学习的虚假信息检测方法及系统
CN118171235A (zh) * 2024-05-08 2024-06-11 深圳市金大智能创新科技有限公司 基于大语言模型的双模态伪造信息检测方法

Similar Documents

Publication Publication Date Title
CN117271768A (zh) 基于大语言模型分析引导的虚假新闻检测方法及装置
CN109131348B (zh) 一种基于生成式对抗网络的智能车驾驶决策方法
CN111741330B (zh) 一种视频内容评估方法、装置、存储介质及计算机设备
CN114529765B (zh) 一种数据处理方法、设备以及计算机可读存储介质
CN108765383A (zh) 基于深度迁移学习的视频描述方法
CN116861258B (zh) 模型处理方法、装置、设备及存储介质
CN113313215B (zh) 图像数据处理方法、装置、计算机设备和存储介质
CN114780831A (zh) 基于Transformer的序列推荐方法及系统
CN113449011A (zh) 基于大数据预测的信息推送更新方法及大数据预测系统
CN117011616B (zh) 一种图像内容审核方法、装置、存储介质和电子设备
US20230177241A1 (en) Method for determining similar scenarios, training method, and training controller
CN111737438B (zh) 基于文本相似度的数据处理方法、装置以及电子设备
CN110446112A (zh) 基于双向LSTM-Attention的IPTV用户体验预测方法
CN114912719B (zh) 一种基于图神经网络的异质交通个体轨迹协同预测方法
CN113673535A (zh) 一种多模态特征融合网络的图像描述生成方法
CN117611932A (zh) 基于双重伪标签细化和样本重加权的图像分类方法及系统
CN112100464A (zh) 结合动态兴趣与专业知识的问答社区专家推荐方法及系统
CN114399661A (zh) 一种实例感知主干网络训练方法
CN118038125A (zh) 一种多模态信息打标方法、装置、设备、存储介质及产品
CN117350366A (zh) 一种网络模型构建方法以及相关设备
CN113535911B (zh) 奖励模型处理方法、电子设备、介质和计算机程序产品
CN116958846A (zh) 视频检测方法、装置、设备、介质及产品
CN114627085A (zh) 目标图像的识别方法和装置、存储介质及电子设备
CN110796195B (zh) 一种包含在线小样本激励的图像分类方法
CN117892841B (zh) 基于渐进式联想学习的自蒸馏方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination