CN113221872B - 生成对抗网络与多模态融合的假新闻检测方法 - Google Patents

生成对抗网络与多模态融合的假新闻检测方法 Download PDF

Info

Publication number
CN113221872B
CN113221872B CN202110607067.1A CN202110607067A CN113221872B CN 113221872 B CN113221872 B CN 113221872B CN 202110607067 A CN202110607067 A CN 202110607067A CN 113221872 B CN113221872 B CN 113221872B
Authority
CN
China
Prior art keywords
news
network
word
picture
word vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110607067.1A
Other languages
English (en)
Other versions
CN113221872A (zh
Inventor
罗森林
侯钰斌
潘丽敏
秦枭喃
吴舟婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202110607067.1A priority Critical patent/CN113221872B/zh
Publication of CN113221872A publication Critical patent/CN113221872A/zh
Application granted granted Critical
Publication of CN113221872B publication Critical patent/CN113221872B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及生成对抗网络与多模态融合的假新闻检测方法,属于机器学习领域。主要为了解决单模态假新闻检测特征不足,多模态假新闻检测中不同模态特征之间异质性较大且拼接方式简单,模型训练过程局限于单一数据集,导致假新闻检测准确率和模型泛化性低下的问题。本发明首先需要训练条件生成对抗网络,该网络可以根据输入图片输出描述图片的文本特征;然后提取新闻的文本特征和图片特征,使用条件生成对抗网络将新闻图片特征转化为文本特征,将新闻文本特征、描述新闻图片的文本特征和新闻的图片特征进行张量融合;最后,将融合的特征输入神经网络得到新闻真实性的分类结果。

Description

生成对抗网络与多模态融合的假新闻检测方法
技术领域
本发明涉及生成对抗网络与多模态融合的假新闻检测方法,属于机器学习领域。
背景技术
随着网络和社交媒体的快速发展,新闻获取途径多样化,新闻产出速率提升,产出成本降低,这些现象使得新闻的权威性受到了严重的挑战,导致网络上出现了大量真假难辨的新闻。网络和社交媒体的快速发展对新闻产业来说是一把双刃剑。一方面,新闻生产成本变得低廉,用户从网络和社交媒体上获取新闻更加便捷,而且网络和社交媒体允许用户转发和分享新闻,扩大了新闻的传播范围,提升了新闻的传播速度,增大了新闻的影响力。另一方面,网络和社交媒体上鱼龙混杂,时常夹杂着含有误导信息或者伪造信息的新闻,即假新闻。假新闻的传播会给社会和个人带来恶劣的影响。检测假新闻对于稳定舆论,正确引导和规范公民的网络行为,净化网络环境有着不可估量的积极意义。因此,如何高效准确地检测网络和社交媒体上的假新闻具有重要的社会意义和实践价值。
如今的假新闻检测使用机器学习和深度学习的方法,主要分为三类:基于新闻内容单一模态特征的检测,基于社交网络用户交互行为的检测,以及基于新闻多模态内容特征的检测。
1.基于新闻内容单一模态特征的检测
该方法聚焦分析新闻的文本或图片的特征,主要分析文本中词法、语句语义、行文风格、文本长度等特征进行假新闻检测;或者分析新闻图片的真实性等方式进行假新闻检测。单一的模态可以表示部分新闻的特征,但是如今的新闻包含文本和图片,使用单一的模态进行假新闻检测会丢失新闻的特征信息,无法全面地表示新闻整体的特征,从而影响假新闻检测的效果。
2.基于社交网络用户交互行为的检测
网络和社交平台的迅速发展使得更多的用户能够参与新闻的评价和传播过程,这使得网络和社交平台中用户的交互行为成为了一类具有代表性的特征,比如对新闻的点赞、转发、举报行为或用户的评论内容。这类特征经常联合新闻内容特征对新闻的真实性进行检测,建立用户交互关系网与新闻内容的联系,这对分析新闻传播过程和网络环境具有帮助。但是随着用户群体的快速扩大,用户的交互数据变得十分庞杂且充斥噪声,这使得利用这些数据变得非常困难。
3.基于新闻多模态内容特征的检测
多模态特征分析是近几年新兴的一种技术,这项技术在假新闻检测方面主要聚焦于新闻的文本和图片的联合特征分析。现阶段的新闻内容包含图片和文本内容,对新闻的文本和图片的特征进行提取并分析,以期获得全面的新闻特征,全面的特征有利于提升机器学习模型对假新闻检测的效果。同时,为了提升模型对假新闻检测的泛化性,对抗网络也被应用于假新闻检测的任务。但是现阶段多模态特征的融合方式只是简单的拼接,不同模态的异质性问题尚未解决,对抗网络局限于训练数据集导致模型泛化能力低下。
综上所述,现有假新闻检测主要存在以下问题:(1)单模态假新闻检测无法有效利用新闻的特征信息;(2)用户的交互数据十分庞杂且充斥噪声导致无法有效被利用;(3)多模态特征拼接方式简单,无法表示不同模态之间的联系,模态间异质性问题尚未解决,且模型泛化性低下。
发明内容
针对目前假新闻检测技术中存在的种种缺陷,本发明提供了一种生成对抗网络与多模态融合的假新闻检测方法,提升假新闻检测模型的准确率和泛化性。
本发明的设计原理为:首先,需要对新闻的训练数据进行特征提取,包括文本的特征提取和图片的特征提取;其次,引入包含大量图片和描述图片的词语的外部数据集,使用这个数据集训练条件生成对抗网络用以进行图片转语义的特征提取,要求是生成网络可以根据输入的图片生成合适的描述图片的词向量;然后向训练成功的生成网络中输入训练集的新闻图片,生成描述图片的词语特征,将新闻文本特征、描述新闻图片的词语特征和新闻图片的特征进行融合得到新闻整体的特征,使用此特征训练假新闻检测器;最后得到合适假新闻检测模型,使用测试数据集检测该模型对假新闻的检测效果。
本发明的技术方案是通过如下步骤实现的:
步骤1,新闻数据的特征提取。
步骤1.1,对新闻文本进行分词操作,使用TextCNN模型对新闻文本进行特征提取。
步骤1.2,使用预训练的VGG19模型对完成预处理的新闻图片进行特征提取。
步骤2,训练条件生成对抗网络。
步骤2.1,使用预训练的VGG19网络提取图片的特征向量,将图片的特征向量作为条件,与噪声一同输入生成网络,得到描述图片的生成词向量。
步骤2.2,对原本描述图片的词语进行词嵌入,生成真实词向量。将图片特征向量、生成词向量和真实词向量输入判别网络。
步骤2.3,如果判别网络认为生成网络输出的词向量不是生成的,且该词向量与真实词向量相符合,则优化判别网络的参数,否则优化生成网络的参数。
步骤2.4,在两个网络相互对抗过程中训练得到表现良好的生成网络。该生成网络可以根据输入的图片生成描述图片的词向量。
步骤3,特征融合和假新闻检测器的训练。
步骤3.1,将新闻文本特征、描述新闻图片的词语特征和新闻图片的特征进行张量融合得到新闻整体的特征。
步骤3.2,将融合的特征向量输入激活函数是softmax的全连接层,训练该全连接层得到合适假新闻检测模型。
步骤4,使用测试数据检测该模型对假新闻的检测效果。
有益效果
相比于单模态假新闻检测方法和基于用户交互行为的假新闻检测方法,本发明利用了新闻文本和图片两类特征进行假新闻检测,专注于新闻内容的特征分析,减少了来自用户交互行为噪声的干扰,可以全面地表示新闻的整体特征。
相比于现有的多模态假新闻检测方法,本发明可以利用条件生成对抗网络强大的数据分布建模能力,将图像特征映射到文本特征空间,这种方法保留了图片特征信息,强化了文本特征信息,减小了不同种类模态的异质性。
本发明未采用简单的特征拼接的方法,而是采用了张量融合的方法,这种方法弥补了简单拼接造成的特征信息丢失,使得多模态特征充分融合。
本发明在训练条件生成对抗网络阶段,使用外部图片数据集而不是新闻数据集,这种做法的目的是引入外部图片信息,扩充了数据范围,提升了模型的泛化性,缓解了假新闻检测在单一数据集上产生过拟合所带来的负面影响。
附图说明
图1为本发明实施提供的整体流程图。
图2为本发明实施提供的条件生产对抗网络训练流程图。
图3为本发明实施提供的多模态假新闻检测方法流程图。
具体实施方式
为了更好的说明本发明的目的和优点,下面结合实例对本发明方法的实施方式做进一步详细说明。
具体流程为:
步骤1,新闻数据的特征提取。在特征提取之前,将数据集按8:2的比例分为训练集和测试集。
步骤1.1,对新闻文本使用jieba模块将其分为n个词,然后使用预训练的word2vec模型将词语转化为维度为k的词向量wi,将这些词向量串联得到一个n×k的矩阵S,再使用TextCNN对矩阵S进行卷积运算,提取新闻文本的特征向量T=TextCNN(S),最后该特征向量需要通过全连接层得到与词向量同维度的文本特征向量
Figure BDA0003090588880000041
词向量串联的公式为:
S=w1*w2*…*wn
其中,*表示词向量串联运算符。
文本特征向量的公式为:
Figure BDA0003090588880000042
其中,Wtf表示全连接层的权重矩阵,σ(.)是ReLU激活函数。
步骤1.2,调整新闻图片的格式,使用预训练的VGG19模型对完成预处理的新闻图片提取特征向量P,该特征向量需要通过全连接层得到与词向量同维度的图片特征向量
Figure BDA0003090588880000043
图片特征向量的公式为:
Figure BDA0003090588880000044
其中,Wtp表示全连接层的权重矩阵,σ(.)是ReLU激活函数。
步骤2,使用外部数据集训练条件生成对抗网络。外部数据集必须包含图片和描述图片的词语。每次选取m个来自数据集的数据样本作为一个训练批次,则训练数据为{(c1,X1),(c2,X2),…,(cm,Xm)}。其中ci为图片的特征向量,Xi={x1,x2,…,xn}为描述图片词语的特征向量集合。
步骤2.1,将图片格式重组为特征提取要求的格式。对于第i个训练输入,使用预训练的VGG19网络提取图片的特征向量,将图片的特征向量ci作为条件,与高斯分布的噪声向量ni进行拼接,得到条件生成种子
Figure BDA0003090588880000051
将种子输入生成网络G,生成描述图片的词向量x′1,再利用预训练的word2vec模型根据生成词向量x′1选取4个相似度最高的词向量{x′2,x′3,x′4,x′5},将5个词向量相加得到生成网络G输出的生成词向量
Figure BDA0003090588880000052
生成网络G输出的生成词向量的公式为:
Figure BDA0003090588880000053
步骤2.2,对描述图片的词语使用预训练的word2vec模型将词语转化为词向量xi,并将所有词向量相加得到描述图片词语融合特征的真实词向量
Figure BDA0003090588880000054
将图片特征向量ci、生成词向量
Figure BDA0003090588880000055
和真实词向量
Figure BDA0003090588880000056
输入判别网络D。
真实词向量的公式为:
Figure BDA0003090588880000057
步骤2.3,如果判别网络D认为生成网络G输出的词向量
Figure BDA0003090588880000058
不是生成的,且该词向量与真实词向量
Figure BDA0003090588880000059
相符合,则优化判别网络D的参数θd,否则优化生成网络G的参数θg
判别网络D参数θd优化公式为:
Figure BDA00030905888800000510
Figure BDA00030905888800000511
其中Vd是目标函数。
Figure BDA00030905888800000512
表示在图片约束条件ci下真实词向量
Figure BDA00030905888800000513
的判别结果,需要最大化此项;
Figure BDA00030905888800000514
表示在图片约束条件ci下生成词向量
Figure BDA00030905888800000515
的判别结果,需要最小化此项;
Figure BDA00030905888800000516
表示真实词向量
Figure BDA00030905888800000517
和生成词向量
Figure BDA00030905888800000518
的相似度的判别结果,需要最大化此项,综合来说要最大化目标函数Vd。μd表判别网络更新参数步长,
Figure BDA00030905888800000519
是梯度算子。
生成网络G参数θg参数优化公式为:
Figure BDA0003090588880000061
Figure BDA0003090588880000062
其中Vg是目标函数。G(ni|ci)表示在图片约束条件ci下生成网络G根据噪声ni生成的词向量。D(G(ni|ci))表示在图片约束条件ci下对生成词向量的判别结果,需要最大化此项。μg表示生成网络更新参数的步长。
步骤2.4,在两个网络相互对抗过程中训练得到表现良好的生成网络G。该生成网络G可以根据输入的图片生成描述图片的词向量
Figure BDA0003090588880000063
步骤3,特征融合和假新闻检测器的训练。
步骤3.1,将新闻文本特征
Figure BDA0003090588880000064
描述新闻图片的词语特征
Figure BDA0003090588880000065
和新闻图片的特征
Figure BDA0003090588880000066
进行张量融合得到新闻整体的特征。
特征向量的融合公式为:
Figure BDA0003090588880000067
其中,
Figure BDA0003090588880000068
表示张量的Kronecker积。Kronecker积的运算原理使得每种特征中的参数可以充分融合,有效地体现每种特征之间的共生联系,这样的融合方法能全面地表示新闻整体的特征。
步骤3.2,将融合的特征向量输入到激活函数是softmax的全连接层,训练该全连接层得到合适假新闻检测模型。
使用新闻训练数据集Data=[(y1,R1),(y2,R2),…,(yl,Rl)]训练此部分全连接层,yi是新闻真实性的标签,Ri是新闻融合的特征向量。该连接层的输出为:
Pi=Softmax(θ·Ri)
其中,i表示训练新闻的编号。Pi是全连接层的输出,表示检测新闻是假新闻的概率。Softmax(·)表示全连接层的激活函数。θ表示全连接层的参数。
训练使用的损失函数为交叉熵函数:
Figure BDA0003090588880000069
其中,L(θ)是损失函数,E表示所有训练数据的交叉熵的期望值。
为了得到最好的检测效果,需要最小化损失函数得到全连接层的参数:
Figure BDA00030905888800000610
步骤4,使用新闻测试数据集测试该模型对假新闻的检测效果。采用准确率(Accuracy)评价模型对假新闻检测的效果,准确率计算方法为:
Figure BDA0003090588880000071
其中,TP是将真新闻预测为真的数目,FN是将真新闻预测为假的数目,FP是将假新闻预测为真的数目,TN是将假新闻预测为假的数目。
如上所述,便可较好地实现本发明。
以上所述的具体描述,对发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.生成对抗网络与多模态融合的假新闻检测方法,其特征在于所述方法包括如下步骤:
步骤1,需要对新闻数据进行特征提取,首先,对新闻文本进行分词操作,使用TextCNN模型对新闻文本进行特征提取,然后,使用预训练的VGG19模型对完成预处理的新闻图片进行特征提取;
步骤2,使用外部数据集训练条件生成对抗网络,首先,使用预训练的VGG19网络提取图片的特征向量,将图片的特征向量与噪声一同输入生成网络,得到描述图片的生成词向量,然后,对原本描述图片的词语进行词嵌入获得真实词向量,将图片特征向量、生成词向量和真实词向量输入判别网络,如果判别网络认为生成网络输出的词向量不是生成的,且该词向量与真实词向量相符合,则优化判别网络的参数,否则优化生成网络的参数,最后,在两个网络相互对抗过程中训练得到表现良好的生成网络;
步骤3,特征融合和假新闻检测器的训练,首先,将新闻文本特征、描述新闻图片的词语特征和新闻图片的特征进行张量融合得到新闻整体的特征,然后,将融合的特征向量输入激活函数是softmax的全连接层,训练该全连接层得到合适假新闻检测模型;
步骤4,使用测试数据检测该模型对假新闻的检测效果。
2.根据权利要求1所述的生成对抗网络与多模态融合的假新闻检测方法,其特征在于:步骤2中根据噪声和条件生成的词向量x′1,再根据词嵌入模型选取4个相似度最高的词向量组成{x′1,x′2,x′3,x′4,x′5},将5个词向量相加获得生成词向量
Figure FDA0003090588870000016
该过程的公式为
Figure FDA0003090588870000011
将数据集中描述图片的词向量相加获得真实词向量
Figure FDA0003090588870000012
该过程的公式为
Figure FDA0003090588870000013
其中xi表示数据集Xi中描述图片的词向量。
3.根据权利要求1所述的生成对抗网络与多模态融合的假新闻检测方法,其特征在于:步骤2中条件生成对抗网络中的判别网络需要不断优化网络参数,使判别网络可以分辨真实词向量和生成词向量,并且可以判断生成词向量和真实词向量的相似度,通过最大化目标函数Vd优化判别网络参数,其公式为:
Figure FDA0003090588870000014
Figure FDA0003090588870000015
其中,
Figure FDA0003090588870000021
表示在图片约束条件ci下真实词向量
Figure FDA0003090588870000022
的判别结果,需要最大化此项;
Figure FDA0003090588870000023
表示在图片约束条件ci下生成词向量
Figure FDA0003090588870000024
的判别结果,需要最小化此项;
Figure FDA0003090588870000025
表示真实词向量
Figure FDA0003090588870000026
和生成词向量
Figure FDA0003090588870000027
的相似度的判别结果,需要最大化此项;各分项的优化目标整合为判别网络的优化目标,即最大化目标函数Vd,μd表示 判别网络更新参数步长,
Figure FDA0003090588870000028
是梯度算子。
4.根据权利要求1所述的生成对抗网络与多模态融合的假新闻检测方法,其特征在于:步骤2中条件生成对抗网络中的生成网络需要不断优化网络参数,使判别网络认为该网络的输出是真实的词语特征,而不是生成的词语特征,通过最大化目标函数Vg优化生成网络参数,其公式为:
Figure FDA0003090588870000029
Figure FDA00030905888700000210
其中,Vg是目标函数,G(ni|ci)表示在图片约束条件ci下生成网络G根据噪声ni生成的词向量,D(G(ni|ci))表示在图片约束条件ci下对生成词向量的判别结果,需要最大化此项,即最大化目标函数Vg,μg表示生成网络更新参数的步长。
5.根据权利要求1所述的生成对抗网络与多模态融合的假新闻检测方法,其特征在于:步骤3中使用张量融合的方法,将新闻文本特征、描述新闻图片的词语特征和新闻图片特征融合得到新闻整体的特征,其公式为:
Figure FDA00030905888700000211
其中,
Figure FDA00030905888700000212
表示张量的Kronecker积,
Figure FDA00030905888700000213
表示新闻文本特征,
Figure FDA00030905888700000214
表示描述新闻图片的词语特征,
Figure FDA00030905888700000215
表示新闻图片的特征,Kronecker积的运算原理使得每种特征中的参数可以充分融合,有效地体现每种特征之间的共生联系,这样的融合方法能全面地表示新闻整体的特征。
CN202110607067.1A 2021-05-28 2021-05-28 生成对抗网络与多模态融合的假新闻检测方法 Active CN113221872B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110607067.1A CN113221872B (zh) 2021-05-28 2021-05-28 生成对抗网络与多模态融合的假新闻检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110607067.1A CN113221872B (zh) 2021-05-28 2021-05-28 生成对抗网络与多模态融合的假新闻检测方法

Publications (2)

Publication Number Publication Date
CN113221872A CN113221872A (zh) 2021-08-06
CN113221872B true CN113221872B (zh) 2022-09-20

Family

ID=77082055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110607067.1A Active CN113221872B (zh) 2021-05-28 2021-05-28 生成对抗网络与多模态融合的假新闻检测方法

Country Status (1)

Country Link
CN (1) CN113221872B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287389A (zh) * 2019-05-31 2019-09-27 南京理工大学 基于文本、语音和视频融合的多模态情感分类方法
CN110717498A (zh) * 2019-09-16 2020-01-21 腾讯科技(深圳)有限公司 图像描述生成方法、装置及电子设备
CN111079444A (zh) * 2019-12-25 2020-04-28 北京中科研究院 一种基于多模态关系的网络谣言检测方法
CN112131347A (zh) * 2020-09-25 2020-12-25 天津大学 一种基于多模态融合的假新闻检测方法
CN112241481A (zh) * 2020-10-09 2021-01-19 中国人民解放军国防科技大学 基于图神经网络的跨模态新闻事件分类方法及系统
CN112560495A (zh) * 2020-12-09 2021-03-26 新疆师范大学 一种基于情感分析的微博谣言检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494446B2 (en) * 2019-09-23 2022-11-08 Arizona Board Of Regents On Behalf Of Arizona State University Method and apparatus for collecting, detecting and visualizing fake news

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287389A (zh) * 2019-05-31 2019-09-27 南京理工大学 基于文本、语音和视频融合的多模态情感分类方法
CN110717498A (zh) * 2019-09-16 2020-01-21 腾讯科技(深圳)有限公司 图像描述生成方法、装置及电子设备
CN111079444A (zh) * 2019-12-25 2020-04-28 北京中科研究院 一种基于多模态关系的网络谣言检测方法
CN112131347A (zh) * 2020-09-25 2020-12-25 天津大学 一种基于多模态融合的假新闻检测方法
CN112241481A (zh) * 2020-10-09 2021-01-19 中国人民解放军国防科技大学 基于图神经网络的跨模态新闻事件分类方法及系统
CN112560495A (zh) * 2020-12-09 2021-03-26 新疆师范大学 一种基于情感分析的微博谣言检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
EANN: Event Adversarial Neural Networks for Multi-Modal Fake News Detection;Yaqing Wang等;《ACM》;20180823;第849-857页 *
基于条件生成对抗网络的图像描述生成方法;黄远等;《计算机辅助设计与图形学学报》;20201231(第06期);第58-65页 *
融合多模态信息的社交网络谣言检测方法;张少钦;《计算机科学》;20210121;第117-123页 *

Also Published As

Publication number Publication date
CN113221872A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
CN111476294B (zh) 一种基于生成对抗网络的零样本图像识别方法及系统
CN111444326B (zh) 一种文本数据处理方法、装置、设备以及存储介质
CN108875818A (zh) 基于变分自编码机与对抗网络结合的零样本图像分类方法
Beikmohammadi et al. SWP-LeafNET: A novel multistage approach for plant leaf identification based on deep CNN
CN112732916A (zh) 一种基于bert的多特征融合模糊文本分类模型
CN113076994A (zh) 一种开集域自适应图像分类方法及系统
CN110175334A (zh) 基于自定义的知识槽结构的文本知识抽取系统和方法
CN115759071A (zh) 基于大数据的政务敏感信息识别系统和方法
CN117521012A (zh) 基于多模态上下文分层分步对齐的虚假信息检测方法
CN113221872B (zh) 生成对抗网络与多模态融合的假新闻检测方法
CN113792541B (zh) 一种引入互信息正则化器的方面级情感分析方法
CN115273100A (zh) 一种基于语义引导鉴别器的半监督汉字图像生成方法
CN116579348A (zh) 基于不确定语义融合的虚假新闻检测方法及系统
CN113297934B (zh) 检测互联网暴力有害场景的多模态视频行为分析方法
CN115496140A (zh) 一种多模态虚假新闻检测方法及系统
CN110633466B (zh) 基于语义分析的短信犯罪识别方法、系统和可读存储介质
JP2021072106A (ja) イメージ処理システム
CN112598662A (zh) 一种基于隐藏信息学习的图像美学描述生成方法
CN111930947A (zh) 一种现代汉语文字作品作者鉴别系统和方法
Oghaz et al. Detection and Classification of ChatGPT Generated Contents Using Deep Transformer Models
CN115019149B (zh) 一种基于模型解释结果的零样本识别方法
CN117574261B (zh) 一种多领域虚假新闻读者认知检测方法
CN117952105A (zh) 一种基于因果关系表示增强的跨领域命名实体的方法
Matwin et al. Methods for Text Generation in NLP
CN117828029A (zh) 一种基于情感-风格去偏的多领域虚假新闻检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant