CN114722254A - 基于信息传播树的网络信息检测方法、装置、设备和介质 - Google Patents
基于信息传播树的网络信息检测方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN114722254A CN114722254A CN202210416791.0A CN202210416791A CN114722254A CN 114722254 A CN114722254 A CN 114722254A CN 202210416791 A CN202210416791 A CN 202210416791A CN 114722254 A CN114722254 A CN 114722254A
- Authority
- CN
- China
- Prior art keywords
- feature
- information
- text information
- text
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 65
- 238000012549 training Methods 0.000 claims abstract description 70
- 230000004927 fusion Effects 0.000 claims abstract description 45
- 238000002372 labelling Methods 0.000 claims abstract description 33
- 238000007781 pre-processing Methods 0.000 claims abstract description 23
- 238000013528 artificial neural network Methods 0.000 claims description 77
- 230000007246 mechanism Effects 0.000 claims description 70
- 238000000605 extraction Methods 0.000 claims description 53
- 238000000034 method Methods 0.000 claims description 43
- 230000006870 function Effects 0.000 claims description 36
- 239000013598 vector Substances 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 30
- 238000013507 mapping Methods 0.000 claims description 15
- 238000010606 normalization Methods 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 10
- 230000000875 corresponding effect Effects 0.000 description 50
- 238000005516 engineering process Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9536—Search customisation based on social or collaborative filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
Abstract
本申请涉及人工智能领域,提供了一种基于信息传播树的网络信息检测方法,包括:获取样本数据集,样本数据集包括多个训练样本,对训练样本进行预处理得到文本信息传播树和用户社交图;对第一文本信息特征和第二文本信息特征进行特征融合以得到第三文本信息特征;对第一用户社交特征和第二用户社交特征进行特征融合以得到第三用户社交特征;对第三文本信息特征和第三用户社交特征进行特征融合得到文本‑用户特征;基于文本‑用户特征得到预测结果,基于预测结果与标注结果对初始网络模型进行训练,得到目标网络模型;利用目标网络模型进行文本内容检测,输出检测结果。通过上述步骤能够实现对网络信息中的谣言进行检测,提高了谣言检测准确率。
Description
技术领域
本申请涉及人工智能领域,特别涉及一种基于信息传播树的网络信息检测方法、装置、设备和介质。
背景技术
网络信息传播速度快,信息覆盖范围广,网络信息中掺杂谣言传播容易误导群众,因此,检测网络信息中的谣言内容尤为重要。相关技术中,谣言检测采用基于文本内容的分类算法,通过人工构造特征来实现谣言检测的目的,如文本词性特征、文本长度特征等。这类方法需要面对特定领域的谣言,人工构造特征模板进行检测,而且需要有领域知识的专家来制定,耗费大量人力物力,局限性大。
发明内容
本申请的旨在至少一定程度解决现有技术的问题,提供一种基于信息传播树的网络信息检测方法、装置、设备和介质,能够实现对网络信息中的谣言进行检测,无需专家制定模板,提高了谣言检测准确率,应用范围较广。
本申请实施例的技术方案如下:
第一方面,本申请提供了一种基于信息传播树的网络信息检测方法,所述方法包括:
获取样本数据集,所述样本数据集包括多个训练样本,每个训练样本包括文本信息、与所述文本信息对应的用户社交信息和与所述文本信息对应的标注结果;
对所述文本信息进行预处理得到文本信息传播树,以及根据所述文本信息对所述用户社交信息进行预处理得到用户社交图;
获取初始网络模型,所述初始网络模型包括第一神经网络层、第二神经网络层、第三神经网络层、第一注意力机制层和第二注意力机制层;
通过所述第一注意力机制层对所述文本信息进行特征提取以得到第一文本信息特征,通过所述第一神经网络层对所述文本信息传播树进行特征提取以得到第二文本信息特征,对所述第一文本信息特征和所述第二文本信息特征进行特征融合以得到第三文本信息特征;
通过所述第二注意力机制层对所述用户社交信息进行特征提取以得到第一用户社交特征,通过所述第二神经网络层对所述用户社交图进行特征提取以得到第二用户社交特征,对所述第一用户社交特征和所述第二用户社交特征进行特征融合以得到第三用户社交特征;
对所述第三文本信息特征和与所述第三文本信息特征对应的所述第三用户社交特征进行特征融合,得到文本-用户特征;
通过所述第三神经网络层基于所述文本-用户特征输出预测结果,基于所述预测结果与所述标注结果,对所述初始网络模型进行训练,得到目标网络模型;
利用所述目标网络模型进行文本内容检测,输出检测结果。
根据本申请的一些实施例,所述初始网络模型还包括第三注意力机制层;
所述对所述第三文本信息特征和与所述第三文本信息特征对应的所述第三用户社交特征进行特征融合,得到文本-用户特征,包括:
通过所述第三注意力机制层对所述第三文本信息特征和所述第三用户社交特征进行特征融合,得到所述文本-用户特征;
所述第三注意力机制层基于以下公式对所述第三文本信息特征和所述第三用户社交特征进行特征融合:
其中,attention(Q,K,V)表示所述文本-用户特征,dk表示隐藏层维度,Q表示与所述第三文本信息特征对应的特征分量,K表示与所述第三用户社交特征对应的匹配项分量,V表示所述匹配项分量的值,KT表示K的转置,softmax表示归一化函数。
根据本申请的一些实施例,所述通过所述第一注意力机制层对所述文本信息进行特征提取,得到第一文本信息特征,包括:
对所述文本信息进行词向量映射,得到第四文本信息特征;
通过所述第一注意力机制层对所述第四文本信息特征进行特征提取,得到所述第一文本信息特征。
根据本申请的一些实施例,所述通过所述第二注意力机制层对所述用户社交信息进行特征提取,得到第一用户社交特征,包括:
对所述用户社交信息进行特征向量映射,得到第四用户社交特征;
通过所述第二注意力机制层对所述第四用户社交特征进行特征提取,得到所述第一用户社交特征。
根据本申请的一些实施例,所述第三神经网络层包括全连接层,所述第三神经网络层基于所述文本-用户特征输出预测结果,包括:通过所述全连接层对所述文本-用户特征进行特征提取以得到目标特征,对所述目标特征进行归一化处理,得到所述预测结果。
根据本申请的一些实施例,所述基于所述预测结果与所述标注结果,对所述初始网络模型进行训练,得到目标网络模型,包括:
根据所述预测结果和所述标注结果,确定所述初始网络模型的损失函数值;
在所述损失函数值满足预设的训练结束条件情况下,结束训练,得到所述目标网络模型;
在所述损失函数值不满足预设的训练结束条件情况下,调整所述初始网络模型的模型参数,并基于所述文本信息、所述用户社交信息、所述文本信息传播树、所述用户社交图和所述标注结果继续对所述初始网络模型进行训练。
根据本申请的一些实施例,所述用户社交信息包括转发信息、评论信息和用户账号信息;
所述对所述文本信息进行预处理得到文本信息传播树,以及根据所述文本信息对所述用户社交信息进行预处理得到用户社交图,包括:
根据每一个所述训练样本中的所述文本信息,获取所述文本信息对应的所述用户账号信息;
根据每个所述用户账号信息,通过预设的网络接口得到每个所述用户账号信息对应的所述用户社交信息;
根据所述用户社交信息中的所述转发信息和所述评论信息,构建所述用户社交图;
将每一个所述训练样本中的所述文本信息作为树的根节点,与所述文本信息对应的所述转发信息或者所述评论信息作为子节点,构建所述文本信息传播树。
第二方面,本申请提供了基于信息传播树的网络信息检测装置,包括:
数据集获取模块,用于获取样本数据集,所述样本数据集包括多个训练样本,每个训练样本包括文本信息、与所述文本信息对应的用户社交信息和与所述文本信息对应的标注结果;
预处理模块,用于对所述文本信息进行预处理得到文本信息传播树,以及根据所述文本信息对用户社交信息进行预处理得到用户社交图;
模型获取模块,用于获取初始网络模型,所述初始网络模型包括第一神经网络层、第二神经网络层、第三神经网络层、第一注意力机制层和第二注意力机制层;
第一处理模块,用于通过所述第一注意力机制层对所述文本信息进行特征提取以得到第一文本信息特征,通过所述第一神经网络层对所述文本信息传播树进行特征提取以得到第二文本信息特征,对所述第一文本信息特征和所述第二文本信息特征进行特征融合以得到第三文本信息特征;
第二处理模块,用于通过所述第二注意力机制层对所述用户社交信息进行特征提取以得到第一用户社交特征,通过所述第二神经网络层对所述用户社交图进行特征提取以得到第二用户社交特征,对所述第一用户社交特征和所述第二用户社交特征进行特征融合以得到第三用户社交特征;
第三处理模块,用于对所述第三文本信息特征和与所述第三文本信息特征对应的所述第三用户社交特征进行特征融合,得到文本-用户特征;
训练模块,用于通过所述第三神经网络层基于所述文本-用户特征输出预测结果,基于所述预测结果与所述标注结果,对所述初始网络模型进行训练,得到目标网络模型;
第四处理模块,用于利用所述目标网络模型进行文本内容检测,输出检测结果。
第三方面,本申请提供了一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被一个或多个所述处理器执行时,使得一个或多个所述处理器执行如上第一方面描述的任一项所述方法的步骤。
第四方面,本申请还提供了一种计算机可读存储介质,所述存储介质可被处理器读写,所述存储介质存储有计算机指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如上第一方面描述的任一项所述方法的步骤。
本申请实施例所提供的技术方案具有如下的有益效果:
本申请实施例提出一种基于信息传播树的网络信息检测方法、装置、设备和介质,该基于信息传播树的网络信息检测方法获取样本数据集,样本数据集包括多个训练样本,每个训练样本包括文本信息、与文本信息对应的用户社交信息和与文本信息对应的标注结果;对上述文本信息进行预处理得到文本信息传播树,以及根据文本信息对上述用户社交信息进行预处理得到用户社交图;获取初始网络模型,初始网络模型包括第一神经网络层、第二神经网络层、第三神经网络层、第一注意力机制层和第二注意力机制层;通过第一注意力机制层对文本信息进行特征提取以得到第一文本信息特征,通过第一神经网络层对文本信息传播树进行特征提取以得到第二文本信息特征,对第一文本信息特征和第二文本信息特征进行特征融合以得到第三文本信息特征,第三文本信息特征包含更多网络细节信息;通过第二注意力机制层对用户社交信息进行特征提取以得到第一用户社交特征,通过第二神经网络层对用户社交图进行特征提取以得到第二用户社交特征,对第一用户社交特征和第二用户社交特征进行特征融合以得到第三用户社交特征,第三用户社交特征包含更多用户社交细节信息;对第三文本信息特征和与第三文本信息特征对应的第三用户社交特征进行特征融合,得到文本-用户特征,该文本-用户特征融合多种特征,具有更好的判别能力;通过第三神经网络层基于文本-用户特征输出预测结果,基于预测结果与标注结果,对初始网络模型进行训练,得到目标网络模型;利用目标网络模型进行文本内容检测,输出检测结果。本申请实施例能够实现对网络信息中的谣言进行检测,无需专家制定模板,提高了谣言检测准确率,应用范围较广。
附图说明
图1是本申请的一个实施例提供的基于信息传播树的网络信息检测方法的流程示意图;
图2是图1中步骤S160的子步骤流程示意图;
图3是图1中步骤S140的一个子步骤流程示意图;
图4是图1中步骤S150的一个子步骤流程示意图;
图5是图1中步骤S170的一个子步骤流程示意图;
图6是图1中步骤S120的子步骤流程示意图;
图7是本申请的一个实施例提供的基于信息传播树的网络信息检测装置的结构示意图;
图8是本申请的一个实施例提供的基于信息传播树的网络信息检测装置的检测模型结构示意图;
图9是本申请实施例提供的计算机设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(artificialintelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
神经网络:本申请实施例中指人工神经网络(Artificial Neural Networks,简写为ANNs)也简称为神经网络(NNs)或称作连接模型(Connection Model),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络是由众多的神经元可调的连接权值连接而成,具有大规模并行处理、分布式信息存储、良好的自组织自学习能力等特点。BP(Back Propagation)算法又称为误差反向传播算法,是人工神经网络中的一种监督式的学习算法。BP神经网络算法在理论上可以逼近任意函数,基本的结构由非线性变化单元组成,具有很强的非线性映射能力。而且网络的中间层数、各层的处理单元数及网络的学习系数等参数可根据具体情况设定,灵活性很大,有广泛的应用前景。
图卷积神经网络(Graph Convolutional Networks,GCN):图卷积神经网络是一种深度学习算法,是一种针对图结构数据的模型,由于具有强大的表征能力而得到了广泛应用。通过在图上使用卷积运算,实现这一目的,利用图上的傅里叶变换,再使用卷积定理,通过两个傅里叶变换的乘积来表示这个卷积的操作,从而实现对图的特征提取。
注意力机制(Attention Mechanism):人类视网膜不同的部位具有不同程度的信息处理能力,即敏锐度(Acuity),只有视网膜中央凹部位具有最强的敏锐度。为了合理利用有限的视觉信息处理资源,人类需要选择视觉区域中的特定部分,然后集中关注它。注意力机制受人类视网膜获取外部信息的原理,在计算过程中,关注于有用的输入信息,多头注意力(multi-head attention)是注意力机制的变体,利用多个查询,平行地计算从输入信息中选取多个信息,每个注意力关注输入信息的不同部分。
损失函数(lossfunction):损失函数是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。在应用中,损失函数通常作为学习准则与优化问题相联系,即通过最小化损失函数求解和评估模型。
交叉熵损失(Binary Cross-Entropy Loss)函数:交叉熵损失函数可以预测真实值和预测值之间的区别,通过loss值来判断预测模型之间的好坏。交叉熵损失函数经常用于分类问题中,特别是在神经网络做分类问题时,也经常使用交叉熵作为损失函数,此外,由于交叉熵涉及到计算每个类别的概率,所以交叉熵几乎每次都和sigmoid(或softmax)函数一起出现。在二分的情况下,模型最后需要预测的结果只有两种情况,对于每个类别预测得到的概率为p和1-p。
由相关技术可知,针对网络信息中的谣言还可以采用基于外部的谣言检测网站进行检测,其中,国外有politifact.com以及snope.com这两个网站用于谣言检测,但通常会存在滞后性。还可以采用基于谣言传播树方法,该方法包含谣言传播结构以及回复的内容,这类方法会利用谣言传播的树形结构,通过自顶向下和自底向上两种方式来提取谣言传播结构特征,进而对谣言进行分类。然而,上述方法都忽略了用户的社交网络信息,对于一个谣言来说,谣言涉及的用户,以及用户之间的联系能够为谣言检测提供线索。比如,一条可以吸引人眼球的谣言,很有可能被一些僵尸账户或者很少粉丝的账户转发、评论,这些账户本身的信誉度就很低,但是为了博人眼球,往往会蹭热点来达到曝光的目的。
基于此,本申请实施例提供了一种基于信息传播树的网络信息检测方法、装置、设备和介质,通过将文本信息和用户社交信息相结合,对网络信息中的谣言进行检测,无需专家制定模板,并且检测滞后性低,提高了谣言检测准确率,应用范围较广。
本申请实施例提供的基于信息传播树的网络信息检测方法可以基于人工智能技术(Artificial Intelligence,AI)对相关的数据进行获取和处理。AI是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。随着人工智能技术研究和进步,人工智能技术已经在多个领域广泛展开研究和应用,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本申请实施例可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
下面参照附图,以检测网络信息中的谣言为例,对本申请实施例提供的基于信息传播树的网络信息检测方法、装置、设备和介质进行说明。
参见图1,图1示出了本申请实施例提供的一种基于信息传播树的网络信息检测方法的流程示意图。上述方法包括但不限于有步骤S110、步骤S120、步骤S130、步骤S140、步骤S150、步骤S160、步骤S170和步骤S180。
步骤S110,获取样本数据集,样本数据集包括多个训练样本,每个训练样本包括文本信息、与文本信息对应的用户社交信息和与文本信息对应的标注结果。
需要说明的是,样本数据集包括:twitter15数据集、twitter16数据集和微博谣言数据集,利用上述三个数据集分别对模型进行验证,每一个数据集按照8:1:1的比例划分样本训练集数据、样本验证集数据以及样本测试集数据,也可以按照7:2:1的比例对每一个样本数据集进行划分,也可以为按照其他比例划分,能够实现按照合理的比例对模型进行验证即可。利用上述多种数据集对模型进行验证,能够增加模型的泛化能力。twitter15数据集、twitter16数据集和微博谣言数据集皆包括文本信息、与文本信息对应的用户社交信息和与文本信息对应的标注结果,通过在本文信息中融入用户社交信息,进一步提高文本检测准确率。
步骤S120,对文本信息进行预处理得到文本信息传播树,以及根据文本信息对用户社交信息进行预处理得到用户社交图。
在一些实施例中,用户社交信息包括转发信息、评论信息和用户账号信息,参考图6,对文本信息进行预处理得到文本信息传播树,以及根据文本信息对用户社交信息进行预处理得到用户社交图,包括但不限于有以下步骤:
步骤S121,根据每一个训练样本中的文本信息,获取文本信息对应的用户账号信息。
需要说明的是,twitter15数据集和twitter16数据集为互联网上公开的数据集,twitter15数据集和twitter16数据集只含有谣言自身的信息,不包含转发信息和评论信息,但是,twitter15数据集、twitter16数据集和微博谣言数据集皆包含了用户的ID,通过文本信息和用户ID获取与文本信息对应的用户账号信息,方便后续信息获取。
步骤S122,根据每个用户账号信息,通过预设的网络接口得到每个用户账号信息对应的用户社交信息。
可以理解的是,根据步骤S121得到的用户账号信息,利用爬虫技术从预设的网站接口获取与用户账号信息相对应的转发信息和评论信息;微博谣言数据集已经包含了用户的评论信息和转发信息,可以利用数据集中包含的用户的ID,从预设的网站接口得到用户账号信息。通过上述设计,方便获取与文本信息相对应的用户社交信息。融合该用户社交信息,有利于提高文本检测准确率。
需要说明的是,转发信息指谣言转发者对看到的网络信息内容通过自己的社交账号对文本信息的再次传播,包括转发内容和转发者的用户账号信息;评论信息包括评论者对看到的网络信息进行评论和谣言发表者对评论者发表网络信息评论的回复,以及评论者的用户账号信息;用户账号信息包括用户ID和粉丝数,转发量等信息。
步骤S123,根据用户社交信息中的转发信息和评论信息,构建用户社交图。
可以理解的是,用户社交图是利用一条谣言中涉及到的用户来构建,示例性地,谣言文本的评论者A关注了谣言的发表者B,转发者C关注了A或者评论者D不喜欢A,这样的关系就构成了该条谣言涉及的用户社交关系,根据该用户社交关系构建用户社交图。通过获取用户社交图,能够获取详细的用户社交信息,有利于提高文本检测准确率。
步骤S124,将每一个训练样本中的文本信息作为树的根节点,与文本信息对应的转发信息或者评论信息作为子节点,构建文本信息传播树。
可以理解的是,利用发表者发表的文本信息作为树的根节点,与该本文信息对应的转发信息或者评论信息作为子节点,示例性地,发表者发表一条谣言表示为P1,转发者C和转发者D对其进行了转发,转发信息分别表示为P2和P3,评论者D和评论者E对转发者C转发的文本信息进行了评论,分别表示为P4和P5,则该条发表谣言作为根节点,转发信息和评论信息作为该根节点的子节点,从而构建文本信息传播树。通过构建文本信息传播树,能够获取较详细的文本信息,有利于提高文本检测准确率。
步骤S130,获取初始网络模型,初始网络模型包括第一神经网络层、第二神经网络层、第三神经网络层、第一注意力机制层和第二注意力机制层。
需要说明的是,第一神经网络层和第二神经网络层为图卷积神经网络(GraphConvolutional Networks,GCN),也可以为循环神经网络层,还可以为双向的循环神经网路层,能够提取输入数据的特征关系即可;第三神经网络层包括全连接层,利用全连接层融合深度特征,也可以为卷积核大小为1*1的卷积神经网层,能够进行高维特征融合即可。
还需要说明的是,第一注意力机制层和第二注意力机制层皆为注意力机制层(self-attention),也可以为多头注意力机制层(Multi-head self-attention),利用注意力机制层对文本信息和用户社交信息进行特征提取,关注更有用信息,有利于提高检测准确率。
参考图8,初始网络模型还包括池化层、输入层和输出层,其中输入层包括上述文本信息、文本信息传播树、用户社交信息和用户社交图;池化层用于对第一神经网络层和第二神经网络层提取的特征进行降维处理或者扩大感受野处理,可以采用平均值采样方式,也可以采用最大值采样方式,能够进行降维采样即可。通过上述网络模型设计,能够提取不同维度的向量,还可以获取不同输入信息的特征,有利于提高文本检测准确率。
步骤S140,通过第一注意力机制层对文本信息进行特征提取以得到第一文本信息特征,通过第一神经网络层对文本信息传播树进行特征提取以得到第二文本信息特征,对第一文本信息特征和第二文本信息特征进行特征融合以得到第三文本信息特征。
可以理解的是,通过第一注意力机制层和第一神经网络层对输入不同文本信息进行特征提取,可以得到多种信息表达方式,提取更详细的文本信息;再将第一文本信息特征和第二文本信息特征进行特征融合得到第三文本信息特征,可以采用向量连接函数contact函数进行特征向量融合,也可以采用向量相加进行特征融合。通过特征融合能够对提取的特征进行增强,获取更加有用的信息。
需要说明的是,第一文本信息特征、第二文本信息特征和第三文本信息特征皆为文本信息对应的文本信息特征,文本信息特征主要包括对发表者发表的文本信息对应的文本信息特征、转发发表者发表的文本信息对应的文本信息特征以及评论与回复发表者发表的文本信息对应的文本信息特征等。
参考图3,通过第一注意力机制层对文本信息进行特征提取,得到第一文本信息特征,包括但不限于有以下步骤:
步骤S141,对文本信息进行词向量映射,得到第四文本信息特征。
步骤S142,通过第一注意力机制层对第四文本信息特征进行特征提取,得到第一文本信息特征。
可以理解的是,对于数据集中的样本数据进行预处理,对文本信息进行词向量映射,得到第四文本信息特征。其中,第四文本信息特征为进行词向量映射后的文本信息(Root content),词向量映射可以通过Embedding层获取与文本信息对应的特征向量,也可以采用Node2Vec得到上述对应的特征向量,还可以为其他获取特征向量方法,能够获取特征向量即可。然后通过第一注意力机制层对第四文本信息特征进行特征提取,得到第一文本信息特征,方便后续计算处理。
步骤S150,通过第二注意力机制层对用户社交信息进行特征提取以得到第一用户社交特征,通过第二神经网络层对用户社交图进行特征提取以得到第二用户社交特征,对第一用户社交特征和第二用户社交特征进行特征融合以得到第三用户社交特征。
可以理解的是,通过第二注意力机制层和第二神经网络层对输入不同用户社交信息进行特征提取,可以得到多种信息表达方式,提取更详细的用户社交信息;再将第一用户社交特征和第二用户社交特征进行特征融合得到第三用户社交特征,可以采用向量连接函数contact函数进行特征向量融合,也可以采用向量相加进行特征融合。通过特征融合能够对提取的特征进行增强,获取更加有用的信息。
需要说明的是,第一用户社交特征、第二用户社交特征和第三用户社交特征皆为用户社交信息对应的用户社交特征,用户社交特征主要包括与发表者的用户账号信息相关联对应的用户社交特征等。
参考图4,通过第二注意力机制层对用户社交信息进行特征提取,得到第一用户社交特征,包括但不限于有以下步骤:
步骤S151,对用户社交信息进行特征向量映射,得到第四用户社交特征。
步骤S152,通过第二注意力机制层对第四用户社交特征进行特征提取,得到第一用户社交特征。
可以理解的是,对于数据集中的样本数据进行预处理,对用户社交信息进行词向量映射,得到第四用户社交特征。其中,第四用户社交特征为进行词向量映射后的用户社交特征,词向量映射可以通过Embedding层获取与用户社交信息对应的特征向量,也可以采用Node2Vec得到上述对应的特征向量,还可以为其他获取特征向量方法,能够获取特征向量即可。然后通过第二注意力机制层对第四用户社交特征进行特征提取,得到第一用户社交特征,方便后续计算处理。
步骤S160,对第三文本信息特征和与第三文本信息特征对应的第三用户社交特征进行特征融合,得到文本-用户特征。
可以理解的是,将第三文本信息特征融入第三文本信息特征对应的第三用户社交特征,能够增加信息表达能力,有利于提高检测准确率。
在一实施例中,初始网络模型还包括第三注意力机制层,参考图2,对第三文本信息特征和与第三文本信息特征对应的第三用户社交特征进行特征融合,得到文本-用户特征,包括但不限于有以下步骤:
步骤S161,通过第三注意力机制层对第三文本信息特征和第三用户社交特征进行特征融合,得到文本-用户特征。
需要说明的是,第三注意力机制层为注意力机制层,也可以为多头注意力机制层,利用注意力机制层对第三文本信息特征和第三用户社交特征进行特征融合,关注更有用信息,有利于提高检测准确率。
第三注意力机制层基于以下公式对第三文本信息特征和第三用户社交特征进行特征融合:
其中,attention(Q,K,V)表示文本-用户特征,dk表示隐藏层维度,Q表示与第三文本信息特征对应的特征分量,K表示与第三用户社交特征对应的匹配项分量,V表示匹配项分量的值,KT表示K的转置,softmax表示归一化函数。
步骤S170,通过第三神经网络层基于文本-用户特征输出预测结果,基于预测结果与标注结果,对初始网络模型进行训练,得到目标网络模型。
可以理解的是,根据步骤S160或者步骤S161,将用户文本-用户特征作为输入,第三神经网络的预测结果作为输出,基于预测结果与标注结果,对初始网络模型进行训练,得到目标网络模型。通过训练得到目标网络模型,该目标网络模型能够实现对网络信息中谣言的检测。
需要说明的是,在利用标注结果进行计算之前,对标注结果进行词向量映射,得到与标注结果对应的标注结果特征向量,词向量映射可以通过Embedding层获取与文本信息对应的特征向量,也可以采用Node2Vec得到上述对应的特征向量,还可以为其他获取特征向量方法,能够获取特征向量即可。
还需要说明的是,该预测结果可以为如下四种情况:言论是正确的谣言表示为TR、言论是错误的谣言表示为FR、言论不是谣言表示为NR和言论还需要验证表示为UR。
在一实施例中,第三神经网络层包括全连接层,参考图5,第三神经网络层基于文本-用户特征输出预测结果,包括但不限于有步骤S171,步骤S171,通过全连接层对文本-用户特征进行特征提取以得到目标特征,对目标特征进行归一化处理,得到预测结果。
可以理解的是,第三神经网络层包括全连接层和归一化层,将融合后的文本-用户特征作为输入,全连接层的特征提取作为输出,得到目标特征,随后,采用softmax层对目标特征进行归一化处理,得到预测结果。其中,也可以采用Sigmoid函数对目标特征进行处理,能够对目标特征进行标准化处理即可。通过归一化处理后输出的预测结果,在反向传播的过程中避免出现梯度消失现象。
参考图5,基于预测结果与标注结果,对初始网络模型进行训练,得到目标网络模型,包括:
步骤S172,根据预测结果和标注结果,确定初始网络模型的损失函数值。
可以理解的是,采用交叉熵损失函数对预测结果和标注结果进行计算,得到损失函数的值,通过对损失函数的值对权重和偏置进行反向传播求导计算,从而实现对初始网络模型参数的更新,以便得到目标网络模型。也可以采用其他用于分类的损失函数,这里不作赘述。
步骤S173,在损失函数值满足预设的训练结束条件情况下,结束训练,得到目标网络模型。
可以理解的是,结束训练条件可以为损失函数的值小于预设的损失值,结束训练;也可以为训练迭代次数作为结束训练条件,示例性地,预设的训练次数为10000次,循环参数达到该预设的训练次数则结束训练;也可以为其他结束训练条件,能够结束训练即可。结束训练输出目标网络模型,该目标网络模型用于进行后续运算。
步骤S174,在损失函数值不满足预设的训练结束条件情况下,调整初始网络模型的模型参数,并基于文本信息、用户社交信息、文本信息传播树、用户社交图和标注结果继续对初始网络模型进行训练。
可以理解的是,将文本信息、用户社交信息、文本信息传播树、用户社交图和标注结果作为输入,继续训练初始网络模型,若损失函数的值经过多次训练仍不能结束训练,则采用训练迭代次数作为结束训练条件,当达到预设的训练次数,不考虑损失函数的值是否满足预设的训练结束条件,结束训练,得到目标网络模型,通过将不同的训练结束条件相结合,能够避免出现无限循环问题,其中,多次为训练次数大于100000的次数,该数值可根据实际情况进行修改。也可以采用其他结合方式,能够避免无限循环问题即可。
步骤S180,利用目标网络模型进行文本内容检测,输出检测结果。
可以理解的是,将网络信息中的文本内容作为输入,目标网络模型的检测结果作为输出,能够得到该网络信息是否为谣言的检测结果,将该检测结果应用于后续工作处理,促进传播正能量的网络信息。通过上述步骤得到的目标网络模型具有较好的泛化性,能够进行谣言检测,还可以用于网络信息中特定内容的检测,监测网络信息传播,具有较广泛的应用。
参考图7,图7示出了本申请的一个实施例提供的基于信息传播树的网络信息检测装置100的结构示意图,该装置100包括:
数据集获取模块110,用于获取样本数据集,样本数据集包括多个训练样本,每个训练样本包括文本信息、与文本信息对应的用户社交信息和与文本信息对应的标注结果;
预处理模块120,用于对文本信息进行预处理得到文本信息传播树,以及根据文本信息对用户社交信息进行预处理得到用户社交图;
模型获取模块130,用于获取初始网络模型,初始网络模型包括第一神经网络层、第二神经网络层、第三神经网络层、第一注意力机制层和第二注意力机制层;
第一处理模块140,用于通过第一注意力机制层对文本信息进行特征提取以得到第一文本信息特征,通过第一神经网络层对文本信息传播树进行特征提取以得到第二文本信息特征,对第一文本信息特征和第二文本信息特征进行特征融合以得到第三文本信息特征;
第二处理模块150,用于通过第二注意力机制层对用户社交信息进行特征提取以得到第一用户社交特征,通过第二神经网络层对用户社交图进行特征提取以得到第二用户社交特征,对第一用户社交特征和第二用户社交特征进行特征融合以得到第三用户社交特征;
第三处理模块160,用于对第三文本信息特征和与第三文本信息特征对应的第三用户社交特征进行特征融合,得到文本-用户特征;
训练模块170,用于通过第三神经网络层基于文本-用户特征输出预测结果,基于预测结果与标注结果,对初始网络模型进行训练,得到目标网络模型;
第四处理模块180,用于利用目标网络模型进行文本内容检测,输出检测结果。
可以理解的是,采用数据集获取模块110获取样本数据集,样本数据集包括多个训练样本,每个训练样本包括文本信息、与文本信息对应的用户社交信息和与文本信息对应的标注结果;利用预处理模块120对上述文本信息进行预处理得到文本信息传播树,以及根据文本信息对上述用户社交信息进行预处理得到用户社交图;模型获取模块130获取初始网络模型,初始网络模型包括第一神经网络层、第二神经网络层、第三神经网络层、第一注意力机制层和第二注意力机制层;第一处理模块140通过第一注意力机制层对文本信息进行特征提取以得到第一文本信息特征,通过第一神经网络层对文本信息传播树进行特征提取以得到第二文本信息特征,对第一文本信息特征和第二文本信息特征进行特征融合以得到第三文本信息特征,第三文本信息特征包含更多网络细节信息;第二处理模块150通过第二注意力机制层对用户社交信息进行特征提取以得到第一用户社交特征,通过第二神经网络层对用户社交图进行特征提取以得到第二用户社交特征,对第一用户社交特征和第二用户社交特征进行特征融合以得到第三用户社交特征,第三用户社交特征包含更多用户社交细节信息;第三处理模块160对第三文本信息特征和与第三文本信息特征对应的第三用户社交特征进行特征融合,得到文本-用户特征,该文本-用户特征融合多种特征,具有更好的判别能力;训练模块170通过第三神经网络层基于文本-用户特征输出预测结果,基于预测结果与标注结果,对初始网络模型进行训练,得到目标网络模型;第四处理模块180利用目标网络模型进行文本内容检测,输出检测结果。本申请实施例能够实现对网络信息中的谣言进行检测,提高了谣言检测准确率,应用范围较广。
需要说明的是,通过上述基于信息传播树的网络信息检测装置100得到的目标网络模型具有较好的泛化性,能够进行谣言检测,还可以用于网络信息中特定内容的检测,监测网络信息传播,具有较广泛的应用。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
图9示出了本申请实施例提供的计算机设备500。该计算机设备500可以是服务器或者终端,该计算机设备500的内部结构包括但不限于:
存储器510,用于存储程序;
处理器520,用于执行存储器510存储的程序,当处理器520执行存储器510存储的程序时,处理器520用于执行上述的基于信息传播树的网络信息检测方法。
处理器520和存储器510可以通过总线或者其他方式连接。
存储器510作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序,如本发明任意实施例描述的基于信息传播树的网络信息检测方法。处理器520通过运行存储在存储器510中的非暂态软件程序以及指令,从而实现上述的基于信息传播树的网络信息检测方法。
存储器510可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储执行上述的基于信息传播树的网络信息检测方法。此外,存储器510可以包括高速随机存取存储器,还可以包括非暂态存储器,比如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器510可选包括相对于处理器520远程设置的存储器,这些远程存储器可以通过网络连接至该处理器520。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实现上述的基于信息传播树的网络信息检测方法所需的非暂态软件程序以及指令存储在存储器510中,当被一个或者多个处理器520执行时,执行本发明任意实施例提供的基于信息传播树的网络信息检测方法。
本申请实施例还提供了一种计算机可读存储介质,存储有计算机可执行指令,计算机可执行指令用于执行上述的基于信息传播树的网络信息检测方法。
在一实施例中,该存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个控制处理器520执行,比如,被上述计算机设备500中的一个处理器520执行,可使得上述一个或多个处理器520执行本发明任意实施例提供的基于信息传播树的网络信息检测方法。
以上所描述的实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包括计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
以上是对本发明的较佳实施进行了具体说明,但本发明并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的。共享条件下还可作出种种等同的变形或替换,这些等同的变形或替换均包括在本发明权利要求所限定的范围内。
Claims (10)
1.一种基于信息传播树的网络信息检测方法,其特征在于,所述方法包括:
获取样本数据集,所述样本数据集包括多个训练样本,每个训练样本包括文本信息、与所述文本信息对应的用户社交信息和与所述文本信息对应的标注结果;
对所述文本信息进行预处理得到文本信息传播树,以及根据所述文本信息对所述用户社交信息进行预处理得到用户社交图;
获取初始网络模型,所述初始网络模型包括第一神经网络层、第二神经网络层、第三神经网络层、第一注意力机制层和第二注意力机制层;
通过所述第一注意力机制层对所述文本信息进行特征提取以得到第一文本信息特征,通过所述第一神经网络层对所述文本信息传播树进行特征提取以得到第二文本信息特征,对所述第一文本信息特征和所述第二文本信息特征进行特征融合以得到第三文本信息特征;
通过所述第二注意力机制层对所述用户社交信息进行特征提取以得到第一用户社交特征,通过所述第二神经网络层对所述用户社交图进行特征提取以得到第二用户社交特征,对所述第一用户社交特征和所述第二用户社交特征进行特征融合以得到第三用户社交特征;
对所述第三文本信息特征和与所述第三文本信息特征对应的所述第三用户社交特征进行特征融合,得到文本-用户特征;
通过所述第三神经网络层基于所述文本-用户特征输出预测结果,基于所述预测结果与所述标注结果,对所述初始网络模型进行训练,得到目标网络模型;
利用所述目标网络模型进行文本内容检测,输出检测结果。
2.根据权利要求1所述的方法,其特征在于,所述初始网络模型还包括第三注意力机制层;
所述对所述第三文本信息特征和与所述第三文本信息特征对应的所述第三用户社交特征进行特征融合,得到文本-用户特征,包括:
通过所述第三注意力机制层对所述第三文本信息特征和所述第三用户社交特征进行特征融合,得到所述文本-用户特征;
所述第三注意力机制层基于以下公式对所述第三文本信息特征和所述第三用户社交特征进行特征融合:
其中,attention(Q,K,V)表示所述文本-用户特征,dk表示隐藏层维度,Q表示与所述第三文本信息特征对应的特征分量,K表示与所述第三用户社交特征对应的匹配项分量,V表示所述匹配项分量的值,KT表示K的转置,softmax表示归一化函数。
3.根据权利要求1所述的方法,其特征在于,所述通过所述第一注意力机制层对所述文本信息进行特征提取,得到第一文本信息特征,包括:
对所述文本信息进行词向量映射,得到第四文本信息特征;
通过所述第一注意力机制层对所述第四文本信息特征进行特征提取,得到所述第一文本信息特征。
4.根据权利要求1所述的方法,其特征在于,所述通过所述第二注意力机制层对所述用户社交信息进行特征提取,得到第一用户社交特征,包括:
对所述用户社交信息进行特征向量映射,得到第四用户社交特征;
通过所述第二注意力机制层对所述第四用户社交特征进行特征提取,得到所述第一用户社交特征。
5.根据权利要求1所述的方法,其特征在于,所述第三神经网络层包括全连接层,所述第三神经网络层基于所述文本-用户特征输出预测结果,包括:通过所述全连接层对所述文本-用户特征进行特征提取以得到目标特征,对所述目标特征进行归一化处理,得到所述预测结果。
6.根据权利要求2所述的方法,其特征在于,所述基于所述预测结果与所述标注结果,对所述初始网络模型进行训练,得到目标网络模型,包括:
根据所述预测结果和所述标注结果,确定所述初始网络模型的损失函数值;
在所述损失函数值满足预设的训练结束条件情况下,结束训练,得到所述目标网络模型;
在所述损失函数值不满足预设的训练结束条件情况下,调整所述初始网络模型的模型参数,并基于所述文本信息、所述用户社交信息、所述文本信息传播树、所述用户社交图和所述标注结果继续对所述初始网络模型进行训练。
7.根据权利要求1所述的方法,其特征在于,所述用户社交信息包括转发信息、评论信息和用户账号信息;
所述对所述文本信息进行预处理得到文本信息传播树,以及根据所述文本信息对所述用户社交信息进行预处理得到用户社交图,包括:
根据每一个所述训练样本中的所述文本信息,获取所述文本信息对应的所述用户账号信息;
根据每个所述用户账号信息,通过预设的网络接口得到每个所述用户账号信息对应的所述用户社交信息;
根据所述用户社交信息中的所述转发信息和所述评论信息,构建所述用户社交图;
将每一个所述训练样本中的所述文本信息作为树的根节点,与所述文本信息对应的所述转发信息或者所述评论信息作为子节点,构建所述文本信息传播树。
8.一种基于信息传播树的网络信息检测装置,其特征在于,包括:
数据集获取模块,用于获取样本数据集,所述样本数据集包括多个训练样本,每个训练样本包括文本信息、与所述文本信息对应的用户社交信息和与所述文本信息对应的标注结果;
预处理模块,用于对所述文本信息进行预处理得到文本信息传播树,以及根据所述文本信息对用户社交信息进行预处理得到用户社交图;
模型获取模块,用于获取初始网络模型,所述初始网络模型包括第一神经网络层、第二神经网络层、第三神经网络层、第一注意力机制层和第二注意力机制层;
第一处理模块,用于通过所述第一注意力机制层对所述文本信息进行特征提取以得到第一文本信息特征,通过所述第一神经网络层对所述文本信息传播树进行特征提取以得到第二文本信息特征,对所述第一文本信息特征和所述第二文本信息特征进行特征融合以得到第三文本信息特征;
第二处理模块,用于通过所述第二注意力机制层对所述用户社交信息进行特征提取以得到第一用户社交特征,通过所述第二神经网络层对所述用户社交图进行特征提取以得到第二用户社交特征,对所述第一用户社交特征和所述第二用户社交特征进行特征融合以得到第三用户社交特征;
第三处理模块,用于对所述第三文本信息特征和与所述第三文本信息特征对应的所述第三用户社交特征进行特征融合,得到文本-用户特征;
训练模块,用于通过所述第三神经网络层基于所述文本-用户特征输出预测结果,基于所述预测结果与所述标注结果,对所述初始网络模型进行训练,得到目标网络模型;
第四处理模块,用于利用所述目标网络模型进行文本内容检测,输出检测结果。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被一个或多个所述处理器执行时,使得一个或多个所述处理器执行如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述存储介质可被处理器读写,所述存储介质存储有计算机指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210416791.0A CN114722254A (zh) | 2022-04-20 | 2022-04-20 | 基于信息传播树的网络信息检测方法、装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210416791.0A CN114722254A (zh) | 2022-04-20 | 2022-04-20 | 基于信息传播树的网络信息检测方法、装置、设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114722254A true CN114722254A (zh) | 2022-07-08 |
Family
ID=82246473
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210416791.0A Pending CN114722254A (zh) | 2022-04-20 | 2022-04-20 | 基于信息传播树的网络信息检测方法、装置、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114722254A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112035669A (zh) * | 2020-09-09 | 2020-12-04 | 中国科学技术大学 | 基于传播异质图建模的社交媒体多模态谣言检测方法 |
WO2021143018A1 (zh) * | 2020-01-16 | 2021-07-22 | 平安科技(深圳)有限公司 | 意图识别方法、装置、设备及计算机可读存储介质 |
CN113515634A (zh) * | 2021-07-09 | 2021-10-19 | 福州大学 | 基于分层异质图神经网络的社交媒体谣言检测方法及系统 |
CN113919440A (zh) * | 2021-10-22 | 2022-01-11 | 重庆理工大学 | 一种融合双重注意力机制和图卷积社交网络谣言检测系统 |
-
2022
- 2022-04-20 CN CN202210416791.0A patent/CN114722254A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021143018A1 (zh) * | 2020-01-16 | 2021-07-22 | 平安科技(深圳)有限公司 | 意图识别方法、装置、设备及计算机可读存储介质 |
CN112035669A (zh) * | 2020-09-09 | 2020-12-04 | 中国科学技术大学 | 基于传播异质图建模的社交媒体多模态谣言检测方法 |
CN113515634A (zh) * | 2021-07-09 | 2021-10-19 | 福州大学 | 基于分层异质图神经网络的社交媒体谣言检测方法及系统 |
CN113919440A (zh) * | 2021-10-22 | 2022-01-11 | 重庆理工大学 | 一种融合双重注意力机制和图卷积社交网络谣言检测系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022041979A1 (zh) | 一种信息推荐模型的训练方法和相关装置 | |
Hu et al. | CIGAR: Concurrent and Interleaving Goal and Activity Recognition. | |
Xu et al. | On variational learning of controllable representations for text without supervision | |
CN113536383B (zh) | 基于隐私保护训练图神经网络的方法及装置 | |
Wang et al. | DeepDirect: Learning directions of social ties with edge-based network embedding | |
Koenigstein et al. | Xbox movies recommendations: Variational Bayes matrix factorization with embedded feature selection | |
Wu | Masked face recognition algorithm for a contactless distribution cabinet | |
CN112307351A (zh) | 用户行为的模型训练、推荐方法、装置和设备 | |
EP3839764A1 (en) | Method and system for detecting duplicate document using vector quantization | |
Yin et al. | An Anomaly Detection Model Based On Deep Auto-Encoder and Capsule Graph Convolution via Sparrow Search Algorithm in 6G Internet-of-Everything | |
CN113641797A (zh) | 数据处理方法、装置、设备、存储介质及计算机程序产品 | |
Rossanez et al. | Representing scientific literature evolution via temporal knowledge graphs | |
CN113609306B (zh) | 对抗残差图变分自编码器的社交网络链接预测方法及系统 | |
CN116522013B (zh) | 基于社交网络平台的舆情分析方法及系统 | |
CN113515519A (zh) | 图结构估计模型的训练方法、装置、设备及存储介质 | |
CN114722254A (zh) | 基于信息传播树的网络信息检测方法、装置、设备和介质 | |
Chen et al. | Gaussian mixture embedding of multiple node roles in networks | |
Bing et al. | Prediction of user's purchase intention based on machine learning | |
Mwebaze et al. | Causal structure learning for famine prediction | |
Desai et al. | A hybrid classification algorithm to classify engineering students' problems and perks | |
CN111459990B (zh) | 对象处理方法、系统及计算机可读存储介质和计算机设备 | |
CN113010772A (zh) | 一种数据处理方法、相关设备及计算机可读存储介质 | |
CN113590720A (zh) | 数据分类方法、装置、计算机设备和存储介质 | |
Gharibshah et al. | TriNE: Network representation learning for tripartite heterogeneous networks | |
Wong | Understanding the features of machine learning for internet of things (IOT) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |