CN115510872A - 谣言识别模型的训练方法和微信推文谣言识别方法 - Google Patents
谣言识别模型的训练方法和微信推文谣言识别方法 Download PDFInfo
- Publication number
- CN115510872A CN115510872A CN202211258817.XA CN202211258817A CN115510872A CN 115510872 A CN115510872 A CN 115510872A CN 202211258817 A CN202211258817 A CN 202211258817A CN 115510872 A CN115510872 A CN 115510872A
- Authority
- CN
- China
- Prior art keywords
- rumor
- layer
- training
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 124
- 238000000034 method Methods 0.000 title claims abstract description 90
- 239000013598 vector Substances 0.000 claims abstract description 73
- 238000000605 extraction Methods 0.000 claims abstract description 51
- 238000012795 verification Methods 0.000 claims abstract description 20
- 230000002457 bidirectional effect Effects 0.000 claims description 23
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000010606 normalization Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 17
- 230000007246 mechanism Effects 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 13
- 230000011218 segmentation Effects 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000013145 classification model Methods 0.000 claims description 4
- 238000013213 extrapolation Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 230000001537 neural effect Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000009193 crawling Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- BUGBHKTXTAQXES-UHFFFAOYSA-N Selenium Chemical compound [Se] BUGBHKTXTAQXES-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 125000002015 acyclic group Chemical group 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004587 chromatography analysis Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 229910052711 selenium Inorganic materials 0.000 description 1
- 239000011669 selenium Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9536—Search customisation based on social or collaborative filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Life Sciences & Earth Sciences (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种谣言识别模型的训练方法和微信推文谣言识别方法。包括:将训练集输入初始谣言识别模型,初始谣言识别模型包括特征提取层、深度语言子模型、特征拼接层以及分类子模型;将训练集中的微信推文分别输入到特征提取层和深度语言子模型中,通过特征提取层对微信推文进行特征提取得到多维度特征,通过深度语言子模型进行预训练输出潜在语义特征;通过特征拼接层将多维度特征和潜在语义特征进行拼接得到特征向量;将特征向量输入分类子模型中进行分类训练输出所述微信推文对应的识别结果;基于识别结果和验证集对初始谣言识别模型进行参数调整得到最终谣言识别模型。该方法通过谣言识别模型能够准确的对微信中的长文本推文进行谣言识别。
Description
技术领域
本发明实施例涉及深度学习技术领域,尤其涉及一种谣言识别模型的训练方法和微信推文谣言识别方法。
背景技术
近年来,随着互联网的快速发展,以微信、微博为代表的社交平台成为广大网友获取、分享、传播信息的重要平台。然而,由于信息传播的迅速、便捷,信息发布环境自由宽松,导致信息在传播过程中逐渐被夸张化,虚假错误的谣言在网络上逐层扩散。
然而,现有的关于社交平台谣言识别的研究主要围绕开放社交平台。例如Twitter、Facebook、微博等,这类平台的谣言文本以短文本为主,并且这类平台具有丰富的多元特征,在进行谣言识别时可以充分借助丰富的多元特征进行识别。
但微信是一个半封闭的熟人社交平台,平台开放度低,进行微信长文本谣言识别时可以获取的用户特征维度较小,无法像微博等开放社交平台一样获取用户的基本信息、转发推文时发表的想法来辅助谣言识别,因此,如何进行微信长文本的谣言识别是当前亟待解决的技术问题。
发明内容
本发明提供了一种谣言识别模型的训练方法和微信推文谣言识别方法,以解决现有技术无法对微信平台中的谣言推文进行准确识别的问题。
根据本发明的一方面,提供了一种谣言识别模型的训练方法,包括:
将训练集输入初始谣言识别模型,所述初始谣言识别模型包括:特征提取层、深度语言子模型、特征拼接层以及分类子模型;
将所述训练集中的微信推文分别输入到所述特征提取层和所述深度语言子模型中,通过所述特征提取层对所述微信推文进行特征提取得到多维度特征,通过所述深度语言子模型进行预训练输出潜在语义特征;
通过所述特征拼接层将所述多维度特征和所述潜在语义特征进行拼接得到特征向量;
将所述特征向量输入所述分类子模型中进行分类训练输出所述微信推文对应的识别结果;
基于所述识别结果和验证集对所述初始谣言识别模型进行参数调整,得到最终谣言识别模型。
其中,所述训练集和所述验证集中均包括多个经过数据预处理的微信推文,所述微信推文包括谣言数据和非谣言数据。
根据本发明的另一方面,提供了一种微信推文谣言识别方法,包括:
获取待识别微信推文;
将所述待识别微信推文输入采用所述谣言识别模型的训练方法训练得到的最终谣言识别模型;
获取所述最终谣言识别模型输出的识别结果,所述识别结果指示所述待识别微信推文是否包括谣言。
根据本发明的另一方面,提供了一种谣言识别模型的训练装置,包括:
输入模块,用于将训练集输入初始谣言识别模型,所述初始谣言识别模型包括:特征提取层、深度语言子模型、特征拼接层以及分类子模型;
特征提取和预训练模块,用于将所述训练集中的微信推文分别输入到所述特征提取层和所述深度语言子模型中,通过所述特征提取层对所述微信推文进行特征提取得到多维度特征,通过所述深度语言子模型进行预训练输出潜在语义特征;
拼接模块,用于通过所述特征拼接层将所述多维度特征和所述潜在语义特征进行拼接得到特征向量;
分类训练模块,用于将所述特征向量输入所述分类子模型中进行分类训练输出所述微信推文对应的识别结果;
参数调整模块,用于基于所述识别结果和验证集对所述初始谣言识别模型进行参数调整,得到最终谣言识别模型;
其中,所述训练集和所述验证集中均包括多个经过数据预处理的微信推文,所述微信推文包括谣言数据和非谣言数据。
根据本发明的另一方面,提供了一种微信推文谣言识别装置,其特征在于,包括:
获取模块,用于获取待识别微信推文;
输入模块,用于将所述待识别微信推文输入采用权利要求1-6中任一项所述的谣言识别模型的训练方法训练得到的最终谣言识别模型;
识别模块,用于获取所述最终谣言识别模型输出的识别结果,所述识别结果指示所述待识别微信推文是否包括谣言。
根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的谣言识别模型的训练方法或所述微信推文谣言识别方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的谣言识别模型的训练方法或所述微信推文谣言识别方法。
本发明实施例的技术方案,通过谣言识别模型的训练方法得到谣言识别模型,将待识别微信推文输入谣言识别模型可以进行谣言识别,解决了现有技术无法对微信推文进行谣言识别的问题,取到了准确的对微信中的长文本推文进行谣言识别的有益效果。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
可以理解的是,本技术方案所涉及的数据(包括但不限于数据本身、数据的获取或使用)应当遵循相应法律法规及相关规定的要求。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一提供的一种谣言识别模型的训练方法的流程示意图;
图2为本发明实施例一提供的ALBER模型的组成结构示意图;
图3为本发明实施例一提供的ALBER模型的网络层结构示意图;
图4为本发明实施例一提供的RCNN模型的结构示意图;
图5为本发明实施例二提供的一种微信推文谣言识别方法的流程示意图;
图6为本发明实施例三提供的一种谣言识别模型的结构示意图;
图7为本发明实施例三提供的一种微信长文本谣言识别流程图;
图8为本发明实施例四提供的一种谣言识别模型的训练装置的结构示意图;
图9为本发明实施例五提供的一种微信推文谣言识别装置的结构示意图;
图10为本发明实施例的一种谣言识别模型的训练方法和微信推文谣言识别方法的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。应当理解,本发明的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本发明的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要注意,本发明中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本发明实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
实施例一
图1为本发明实施例一提供的一种谣言识别模型的训练方法的流程示意图,该方法可适用于对针对微信推文进行谣言识别的谣言识别模型进行训练的情况,该方法可以由谣言识别模型的训练装置来执行,其中该装置可由软件和/或硬件实现,并一般集成在电子设备上,在本实施例中电子设备包括但不限于:计算机设备。
如图1所示,本发明实施例一提供的一种谣言识别模型的训练方法,包括如下步骤:
S110、将训练集输入初始谣言识别模型,所述初始谣言识别模型包括:特征提取层、深度语言子模型、特征拼接层以及分类子模型。
本实施例中,训练集可以包括多个经过数据预处理的微信推文,所述微信推文包括谣言数据和非谣言数据。其中,微信推文可以理解为微信中推送的文章,微信推文具有长文本的特点。此处对谣言数据的获取方式不作具体限定,示例性的,可以通过数据爬取的方式获取谣言数据。其中,数据预处理可以包括打标签、数据过滤以及文本分词。
其中,初始谣言识别模型可以理解为未训练的谣言识别模型,对初始谣言识别模型进行模型训练和验证后可以得到最终谣言识别模型,最终谣言识别模型可以用于对微信推文中的谣言进行识别。
其中,特征提取层可以用于对微信推文进行特征提取;深度语言子模型可以用于提取微信推文的潜在特征;特征拼接层可以用于将特征提取层和深度语言子模型层输出的特征进行拼接;分类子模型可以用于数据的分类。
S120、将所述训练集中的微信推文分别输入到所述特征提取层和所述深度语言子模型中,通过所述特征提取层对所述微信推文进行特征提取得到多维度特征,通过所述深度语言子模型进行预训练输出潜在语义特征。
本实施例中,将训练集中的微信推文输入到特征提取层后可以输出多维度特征。其中,特征提取层主要可以用于提取微信推文中的传播特征、结构特征和语法特征。
具体的,多维度特征包括传播特征、结构特征和语法特征;所述传播特征包括微信推文的点赞量和阅读量;所述结构特征包括微信推文的文本长度、图片数量、标题长度以及是否包含音视频链接;所述语法特征包括微信推文的标题专有名词数量、正文专有名词数量、人称代词数量和标题中的特殊标点数量。
其中,传播特征使用数值的标准化结果表示。通过对谣言微信推文和非谣言微信推文的点赞量、阅读量的累积分布情况进行统计发现同,谣言微信推文通常会比非谣言微信推文拥有更多的点赞量和阅读量,并且谣言微信推文比非谣言微信推文的点赞量及阅读量相较于非谣言微信推文而言会更快地达到拐点。
其中,结构特征中的音视频链接采用0/1表示,其余的使用其具体数值的标准化结果表示。在对谣言推文特点进行研究的结果表明,相较非谣言微信推文而言,谣言微信推文的正文文本长度较短、图片数量多,并且有更高的概率会包含音视频链接。
其中,语法特征主要包括标题专有名词数量、正文专有名词数量、人称代词数量、标题特殊标点数量以及正文文本特殊标点数量。例如,“震惊!!!央视新闻报导称…”这句话就包含了一个特殊标点“!!!”以及专有名词“央视新闻”。主要统计标题以及正文文本中出现在特殊标点库以及专有名词库的数量,采用数据的标准化结果。
示例性的,表1为本发明一实施例提供的多维度特征表,表1中记录了传播特征、结构特征以及语法特征的特征内容和和对特征内容的说明。
表1
本实施例中,将训练集中的微信推文输入到深度语言子模型进行预训练可以输出潜在语义特征。
在一实施例中,深度语言子模型为ALBERT模型,所述ALBERT模型包括Embedding层和双向Transformer层,相应的,通过所述深度语言子模型进行预训练输出潜在语义特征,包括:通过所述Embedding层对所述微信推文进行词嵌入处理得到词向量矩阵;通过所述双向Transformer层根据所述位置特征进行相应位置的信息编码输出潜在语义特征。
其中,ALBERT模型在BERT的基础上进行改进,将微信推文转化为相应的词向表示。图2为本发明实施例一提供的ALBER模型的组成结构示意图,如图2所示,albert模型包括Embedding层和双向Transformer层,其主体结构为双向Transformer编码。
其中,Embedding层可以用于将文本词向量化,对文本进行词嵌入处理。Embedding层可以包括词嵌入层和句子拆分嵌入层。Transformer是一种深度学习神经网络的模型结构,由编码器和解码器两个部分组成。
进一步的,所述双向Transformer层包括多头注意力机制层、第一残差连接归一化层、全连接前馈神经网络层以及第二残差连接归一化层;通过所述双向Transformer层根据所述位置特征对所述词向量矩阵进行相应位置的信息编码输出潜在语义特征,包括:将所述位置特征和所述词向量矩阵输入所述多头注意力机制层得到第一输出结果;通过所述第一残差连接与归一化层将所述第一输出结果与所述位置特征连接后进行归一化处理得到第二输出结果;将所述第二输出结果输入所述全连接前馈神经网络层得到第三输出结果;将所述第三输出结果与所述第二输出结果输入所述第二残差连接与归一化层得到潜在语义特征。
其中,双向Transformer层为了将每个句子中不同的词语之间的语法和语义联系进行充分考虑,引入自注意力机制Self-Attention。同时,由于考虑到不同的头结点中单词会有不同的侧重点Attention,因此ALBERT模型通过结合多个自注意力层形成多头的注意力机制Multi-Head Attention,从而使ALBERT模型具有更大的容量。注意力机制是根据模仿人类集中注意力产生一系列行为举止的过程提出的。注意力机制可以从众多的信息当中提取出价值含量更高的信息,主要包括编码以及解码两个部分。注意力机制将输出与压缩进行结合,让当前输出的节点判断跟输入的各个节点之间的相关度,按照权重进行输入序列的压缩,使每一个输出节点得到的压缩信息都不一样,以此来达到信息筛选的目的,从而提高模型提取特征的能力。
其中,第一残差连接与归一化层和第二残差连接与归一化层可以理解为两个不同位置处的残差连接与归一化层,残差连接与归一化层可以用于将两个特征进行连接,并对连接后的特征进行归一化处理。全连接前馈神经网络层是一个包含两层全连接计算以及一个ReLU激活函数的全连接网络。
图3为本发明实施例一提供的ALBER模型的网络层结构示意图,如图3所示,微信推文通过词嵌入层和句子拆分嵌入层得到词向量矩阵。其中,词向量矩阵可以包括由词向量构成的查询矩阵Q、键矩阵K以及值矩阵V。将词向量矩阵输入多头注意力机制层后,将查询矩阵Q、键矩阵K以及值矩阵V按照如下公式进行计算:
其中,dk表示K中每个键的向量的维度,为了防止由于向量维度过高而导致计算结果过大,需要对dk进行开方运算从而使权重得到放缩。此外,需要对矩阵进行归一化处理,将行向量元素进行等比例压缩,计算公式如下:
之后需要对输入进行多次不同的线性映射,再计算线性映射结果的缩放点积注意力。每次计算的结果称为head,再将多次运算得到的注意力矩阵进行拼接后乘以权重矩阵进行压缩,具体计算公式如下:
MultiHead(Q,K,V)=Concat(head1,head2,...,headn)Wo
其中,Wi Q,Wi K,Wi V表示第i个头结点对应的三个权重矩阵,通过Concat函数对head1,head2到headn进行拼接,WO表示权重矩阵。其中,head的计算公式为:
headi=Attention(QWi Q,KWi K,VWi V)
本实施例中,多头注意力机制层的输出即第一输出结果可以作为AddNorm层即第一残差连接与归一化层的输入,该层可以将位置特征与多头注意力机制层的输出结果连接之后对结果进行归一化处理得到第二输出结果,从而达到在训练过程中仅关注有差异的部分,使得模型的训练更加简单高效,具体公式如下:
其中,α表示权重,取值为0.5;β表示修正参数,取值为1。上述公式利用了残差连接的思想,主要目标是放置出现网络层析太深而导致的模型退化问题。
本实施例中,第二输出结果可以作为全连接前馈神经网络层Feed Forward的输入,按照如下公式进行计算:
Feed Forward(x)=max(0,W1·x+b1)·W2+b2
本实施例中,按照上述公式计算出第三输出结果后可以将将第三输出结果和第二输出结果再经过一层AddNorm即第二残差连接与归一化层得到最后的输出结果即潜在语义特征,通过输出层输出。
S130、通过所述特征拼接层将所述多维度特征和所述潜在语义特征进行拼接得到特征向量。
本实施例对多维度特征和潜在语义特征的拼接过程不作过多说明。
S140、将所述特征向量输入所述分类子模型中进行分类训练输出所述微信推文对应的识别结果。
此处对分类模型不作具体限定,可以选用任意一种具有分类功能的模型作为分类子模型。
本实施例中,将拼接后得到的特征向量输入分类子模型中,分类子模型通过分类训练可以输出微信推文对应的识别结果。识别结果可以包括谣言微信推文和非谣言微信推文。
在一实施例中,分类子模型为RCNN模型,相应的,将所述特征向量输入所述分类模型中进行分类训练输出所述微信推文对应的识别结果,包括:通过双向LSTM层基于所述拼接特征向量进行上下文信息的获取;将双向LSTM层获得的隐藏层的输出与词向量进行拼接得到拼接词向量;将所述拼接词向量进行非线性映射得到低维向量;对所述低维向量的每个位置取其所有时序上的最大值得到最终的特征向量;将所述最终的特征向量进行softmax分类得到所述待识别的微信推文对应的识别结果。
其中,RCNN将传统的卷积神经网络结构当中的卷积层更换为内部具有递归结构的循环卷积层,并按照前馈连接的方法进行深度网络结构的构建。图4为本发明实施例一提供的RCNN模型的结构示意图,如图4所示,RCNN模型的整体构建流程如下:第一步,利用双向的LSTM进行上下文信息的获取;第二步,将双向LSTM层获得的隐藏层输出与词向量进行拼接;第三步,将LSTM输出与词向量拼接得到的向量进行非线性映射得到低维向量;第四步,对向量的每个位置取其所有时序上的最大值,从而得到最终的特征向量;第五步,进行softmax分类得到最终的分类结果。
RCNN模型可以更为均匀地利用文本的上下文信息,不仅可以避免循环神经网络会遇到的后文出现的单词影响力大于前文单词的影响力的问题,而且无需像卷积神经网络一样要通过窗口大小进行上下文依赖的设定,充分地利用了循环神经模型以及卷积神经模型的优点,在谣言识别任务中可以表现出良好的性能。因此,在使用ALBERT模型对谣言文本进行预处理之后,融合多维度特征,使用RCNN模型对谣言进行识别,通过RCNN模型更好地学习文本的上下文信息,达到微信推文谣言早期识别的效果。
S150、基于所述识别结果和验证集对所述初始谣言识别模型进行参数调整,得到最终谣言识别模型。
其中,验证集中包括多个经过数据预处理的微信推文,微信推文包括谣言数据和非谣言数据。
本实施例中,将验证集中的微信推文输入到初始谣言识别模型中,可以根据模型训练得到的识别结果对初始谣言识别模型中的模型参数进行调整,调整完成后的谣言识别模型可以作为最终谣言识别模型。
具体的,对初始谣言识别模型进行参数调整可以包括对深度语言子模型和分类子模型中的模型参数进行调整,参数调整的具体过程此处不作赘述。表2为本发明实施例一提供的模型参数示例表,表2中记录了ALBERT模型和RCNN模型的参数调整结果。
表2
本发明实施例一提供的一种谣言识别模型的训练方法,首先将训练集输入初始谣言识别模型,所述初始谣言识别模型包括:特征提取层、深度语言子模型、特征拼接层以及分类子模型;其次将所述训练集中的微信推文分别输入到所述特征提取层和所述深度语言子模型中,通过所述特征提取层对所述微信推文进行特征提取得到多维度特征,通过所述深度语言子模型进行预训练输出潜在语义特征;然后通过所述特征拼接层将所述多维度特征和所述潜在语义特征进行拼接得到特征向量;之后将所述特征向量输入所述分类子模型中进行分类训练输出所述微信推文对应的识别结果;最终基于所述识别结果和验证集对所述初始谣言识别模型进行参数调整,得到最终谣言识别模型;其中,所述训练集和所述验证集中均包括多个经过数据预处理的微信推文,所述微信推文包括谣言数据和非谣言数据。上述方法通过提取微信推文的传播特征、语法特征、传播特征等多维度特征,融合深度语言子模型充分挖掘有利于辨别微信推文真实性的潜在语义特征,并将拼接得到的特征向量使用分类子模型进行分类训练,能够实现更准确的微信长文本谣言识别。
在一个实施例中,所述数据预处理包括如下过程:对微信长文本推文中的谣言数据和非谣言数据分别打上第一标签和第二标签,所述第一标签和所述第二标签为不同的标签;过滤掉点赞量和阅读量为空的微信长文本推文;将剩余的微信长文本推文进行文本分词。
示例性的,第一标签可以为1,第二标签可以为0。
其中,文本分词可以为理解为在尽量保持文本信息不变的前提条件下,把粗粒度的长文本分割为较细粒度的文本。此处不限定以何种方式进行文本分词,示例性的,可以使用Python的Jieba库进行文本分词。
具体的,使用Python的Jieba库进行文本分词的过程可以包括:基于前缀词典对剩余的微信推文进行切分,得到多种切分结果;使用Trie树实现词图扫描,生成所有可能组成词语的有向无环图;通过动态规划算法计算最大概率路径,确定根据切分频率进行切分后得到的最大组合。
实施例二
图5为本发明实施例二提供的一种微信推文谣言识别方法的流程示意图,本实施例可适用于对微信长文本推文进行谣言识别的情况,该方法可以由微信推文谣言识别装置来执行,该装置可以通过软件和/或硬件实现。
如图5所示,本发明实施例二提供的一种微信推文谣言识别方法,包括如下步骤:
S210、获取待识别微信推文。
在本实施例中,对获取待识别微信推文的方式不作具体限定,可以通过任意一种可行的方式获取,示例性的,可以用个爬虫的方式从网页上爬取包括谣言数据和非谣言数据的微信推文作为待识别微信推文。待识别微信推文为长文本推文,待识别微信推文可以作为测试集。
S220、将所述待识别微信推文输入采用本发明实施例一中任意实施例的谣言识别模型的训练方法训练得到的最终谣言识别模型。
具体的,将待识别微信推文输入最终谣言识别模型后,待识别微信推文分别输入特征提取层和深度语言子模型中,通过特征提取层对待识别微信推文进行特征提取得到多维度特征,通过深度语言子模型进行预训练输出潜在语义特征;通过特征拼接层将多维度特征和潜在语义特征进行拼接得到特征向量;将特征向量输入所述分类子模型中进行分类训练输出待识别微信推文对应的识别结果。
S230、获取所述最终谣言识别模型输出的识别结果,所述识别结果指示所述待识别微信推文是否包括谣言。
本实施例中,可以从最终谣言识别模型中获取识别结果,示例性的,识别结果可以为1或0,0可以指示待识别微信推文不包括谣言,1可以指示待识别微信推文包括谣言。
本发明实施例二提供的一种微信推文谣言识别方法,首先获取待识别微信推文;然后将所述待识别微信推文输入采用本发明任一实施例所述的谣言识别模型的训练方法训练得到的最终谣言识别模型;最后获取所述最终谣言识别模型输出的识别结果,所述识别结果指示所述待识别微信推文是否包括谣言。利用该方法,能够利用训练后得到的最终谣言识别模型对微信推文进行谣言识别。
实施例三
本发明实施例在上述各实施例的技术方案的基础上,提供了一种具体的实施方式。
图6为本发明实施例三提供的一种谣言识别模型的结构示意图,如图6所示,谣言识别模型包括ALBERT模型、RCNN模型、特征提取层以及特征拼接层,ALBERT模型中包括Embedding层和双向Transformer;RCNN模型中包括RCNN层和Softmax层。
图7为本发明实施例三提供的一种微信长文本谣言识别流程图,如图7所示,该流程可以包括如下步骤:
S1、数据爬取,包括谣言数据和非谣言数据。
其中,数据收集的爬虫程序实验基于Windows10操作系统,编程语言采用Python3.6,使用MongoDB数据库。原始数据是约7k条被标定为谣言的推文url,本文对页面进行解析后得到几种不同的页面,包括原文已被删除的页面、原文可正常访问的页面以及原文已被辟谣的页面。对于可正常访问的页面则直接对页面进行解析提取信息;原文已被辟谣的页面,先对该页面进行解析提取目标信息,然后使用selenium包的webdriver模拟浏览器登陆对原文链接进行访问,从而获取原文页面信息;对于原文已被删除的页面,将该页面舍弃。经过上述数据爬取过程便获得原始的谣言数据集。S2、数据预处理。
其中,数据预处理包括打标签、数据过滤和文本分词。
S3、数据集划分。
其中,按照7:2:1的比例将数据集划分为训练集、测试集和验证集。
S4、特征提取得到传播特征、结构特征和语法特征。
S5、将推文正文内容输入ALBERT模型进行预训练。
S6、特征向量拼接。
S7、将特征向量输入RCNN模型进行分类训练。
S8、根据结果调整参数,获得最终谣言识别模型。
S9、将待测试文本信息输入最终谣言识别模型,获得分类结果。
本发明实施例二提供的一种谣言识别模型和谣言识别方法,该方法聚焦于对微信长文本谣言特点的研究,挖掘微信长文本谣言潜在特点提取特征,使用改进的深度学习模型进行微信长文本谣言识别。现有的研究主要聚焦于开放社交平台如微博、Twitter,鲜有针对微信平台谣言识别的研究,因此该方法的提出有利于在微信平台谣言出现早期识别谣言,从而阻止谣言的进一步传播扩散,降低谣言的社会危害性。该谣言识别模型充分考虑了微信推文包括的结构特征、传播特征、语法特征,并采用改进的ALBERT作为深度语言模型挖掘文本的潜在语义信息,再将所得特征向量拼接作为分类模型的输入。一方面通过特征提取的方式综合提取了不同维度的特征,另一方面采用改进的预训练语言模型即深度语言模型挖掘潜在特征,使得该方法对于微信长文本谣言特点的挖掘较为深入,充分提取了微信长文本谣言的特点,提高了谣言分类的准确率,可以有效进行谣言分类。谣言识别模型中采用RCNN而非传统的机器学习模型如SVM、Random Froest等进行分类,可以高效处理高纬度特征向量,可以提取更复杂的用于谣言分类的特征。此外,RCNN模型可以更为均匀地利用文本的上下文信息,避免RNN模型会遇到的后文出现的单词影响力大于前文单词的影响力的问题,而且无需像CNN一样要通过窗口大小进行上下文依赖的设定,充分地利用了循环神经模型以及卷积神经模型的优点,在谣言识别任务可以表现出良好的性能。
实施例四
图8为本发明实施例四提供的一种谣言识别模型的训练装置的结构示意图,该装置可适用于对针对微信推文进行谣言识别的谣言识别模型进行训练的情况,其中该装置可由软件和/或硬件实现,并一般集成在电子设备上。
如图8所示,该装置包括:输入模块110、特征提取和预训练模块120、拼接模块130、分类训练模块140以及参数调整模块150。
输入模块110,用于将训练集输入初始谣言识别模型,所述初始谣言识别模型包括:特征提取层、深度语言子模型、特征拼接层以及分类子模型;
特征提取和预训练模块120,用于将所述训练集中的微信推文分别输入到所述特征提取层和所述深度语言子模型中,通过所述特征提取层对所述微信推文进行特征提取得到多维度特征,通过所述深度语言子模型进行预训练输出潜在语义特征;
拼接模块130,用于通过所述特征拼接层将所述多维度特征和所述潜在语义特征进行拼接得到特征向量;
分类训练模块140,用于将所述特征向量输入所述分类子模型中进行分类训练输出所述微信推文对应的识别结果;
参数调整模块150,用于基于所述识别结果和验证集对所述初始谣言识别模型进行参数调整,得到最终谣言识别模型;
其中,所述训练集和所述验证集中均包括多个经过数据预处理的微信推文,所述微信推文包括谣言数据和非谣言数据。
在本实施例中,该装置首先通过输入模块110将训练集输入初始谣言识别模型,所述初始谣言识别模型包括:特征提取层、深度语言子模型、特征拼接层以及分类子模型;其次通过特征提取和预训练模块120将所述训练集中的微信推文分别输入到所述特征提取层和所述深度语言子模型中,通过所述特征提取层对所述微信推文进行特征提取得到多维度特征,通过所述深度语言子模型进行预训练输出潜在语义特征;然后通过拼接模块130用于通过所述特征拼接层将所述多维度特征和所述潜在语义特征进行拼接得到特征向量;之后通过分类训练模块140将所述特征向量输入所述分类子模型中进行分类训练输出所述微信推文对应的识别结果;最后通过参数调整模块150基于所述识别结果和验证集对所述初始谣言识别模型进行参数调整,得到最终谣言识别模型。
本实施例提供了一种谣言识别模型的训练装置,能够通过模型训练验证得到最终谣言识别模型,利用最终谣言识别模型可以对微信找那个的长文本推文进行谣言识别。
进一步的,所述装置包括数据预处理模块,用于:对微信长文本推文中的谣言数据和非谣言数据分别打上第一标签和第二标签,所述第一标签和所述第二标签为不同的标签;过滤掉点赞量和阅读量为空的微信长文本推文;将剩余的微信长文本推文进行文本分词。
其中,所述多维度特征包括传播特征、结构特征和语法特征;
所述传播特征包括微信推文的点赞量和阅读量;
所述结构特征包括微信推文的文本长度、图片数量、标题长度以及是否包含音视频链接;
所述语法特征包括微信推文的标题专有名词数量、正文专有名词数量、人称代词数量和标题中的特殊标点数量。
进一步的,所述深度语言子模型为ALBERT模型,所述ALBERT模型包括Embedding层和双向Transformer层;特征提取和预训练模块120包括预训练子模块,用于:通过所述Embedding层对所述微信推文进行词嵌入处理得到词向量矩阵;通过所述双向Transformer层根据所述位置特征对所述词向量矩阵进行相应位置的信息编码输出潜在语义特征。
进一步的,所述双向Transformer层包括多头注意力机制层、第一残差连接与归一化层、全连接前馈神经网络层以及第二残差连接与归一化层;预训练子模块包括预训练单元,用于:将所述位置特征和所述词向量矩阵输入所述多头注意力机制层得到第一输出结果;通过所述第一残差连接与归一化层将所述第一输出结果与所述位置特征连接后进行归一化处理得到第二输出结果;将所述第二输出结果输入所述全连接前馈神经网络层得到第三输出结果;将所述第三输出结果与所述第二输出结果输入所述第二残差连接与归一化层得到潜在语义特征。
进一步的,所述分类子模型为RCNN模型,分类训练模块140具体用于:通过双向LSTM层基于所述拼接特征向量进行上下文信息的获取;将双向LSTM层获得的隐藏层的输出与词向量进行拼接得到拼接词向量;将所述拼接词向量进行非线性映射得到低维向量;对所述低维向量的每个位置取其所有时序上的最大值得到最终的特征向量;将所述最终的特征向量进行softmax分类得到所述待识别的微信推文对应的识别结果。
上述谣言识别模型的训练装置可执行本发明任意实施例所提供的谣言识别模型的训练方法,具备执行方法相应的功能模块和有益效果。
实施例五
图9为本发明实施例五提供的一种微信推文谣言识别装置的结构示意图,该装置可适用于对微信长文本推文进行谣言识别的情况,其中该装置可由软件和/或硬件实现,并一般集成在电子设备上。
如图9所示,该装置包括:获取模块210、输入模块220以及识别模块230。
获取模块210,用于获取待识别微信推文;
输入模块220,用于将所述待识别微信推文输入采用本发明任一实施例所述的谣言识别模型的训练方法训练得到的最终谣言识别模型;
识别模块230,用于获取所述最终谣言识别模型输出的识别结果,所述识别结果指示所述待识别微信推文是否包括谣言。
在本实施例中,该装置首先通过获取模块210获取待识别微信推文;然后通过输入模块220将所述待识别微信推文输入采用本发明任一实施例所述的谣言识别模型的训练方法训练得到的最终谣言识别模型;最后通过识别模块230获取所述最终谣言识别模型输出的识别结果,所述识别结果指示所述待识别微信推文是否包括谣言。
本实施例提供了一种微信推文谣言识别装置,能够准确的对微信中的长文本推文进行谣言识别。
上述微信推文谣言识别装置可执行本发明任意实施例所提供的微信推文谣言识别方法,具备执行方法相应的功能模块和有益效果。
实施例六
图10示出了可以用来实施本发明的实施例的电子设备10的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图10所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如谣言识别模型的训练方法和微信推文谣言识别方法。
在一些实施例中,谣言识别模型的训练方法和微信推文谣言识别方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的谣言识别模型的训练方法或微信推文谣言识别方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行谣言识别模型的训练方法或微信推文谣言识别方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种谣言识别模型的训练方法,其特征在于,所述方法包括:
将训练集输入初始谣言识别模型,所述初始谣言识别模型包括:特征提取层、深度语言子模型、特征拼接层以及分类子模型;
将所述训练集中的微信推文分别输入到所述特征提取层和所述深度语言子模型中,通过所述特征提取层对所述微信推文进行特征提取得到多维度特征,通过所述深度语言子模型进行预训练输出潜在语义特征;
通过所述特征拼接层将所述多维度特征和所述潜在语义特征进行拼接得到特征向量;
将所述特征向量输入所述分类子模型中进行分类训练输出所述微信推文对应的识别结果;
基于所述识别结果和验证集对所述初始谣言识别模型进行参数调整,得到最终谣言识别模型;
其中,所述训练集和所述验证集中均包括多个经过数据预处理的微信推文,所述微信推文包括谣言数据和非谣言数据。
2.根据权利要求1所述的方法,其特征在于,所述数据预处理包括如下过程:
对微信长文本推文中的谣言数据和非谣言数据分别打上第一标签和第二标签,所述第一标签和所述第二标签为不同的标签;
过滤掉点赞量和阅读量为空的微信长文本推文;
将剩余的微信长文本推文进行文本分词。
3.根据权利要求1所述的方法,其特征在于,所述多维度特征包括传播特征、结构特征和语法特征;
所述传播特征包括微信推文的点赞量和阅读量;
所述结构特征包括微信推文的文本长度、图片数量、标题长度以及是否包含音视频链接;
所述语法特征包括微信推文的标题专有名词数量、正文专有名词数量、人称代词数量和标题中的特殊标点数量。
4.根据权利要求1所述的方法,其特征在于,所述深度语言子模型为ALBERT模型,所述ALBERT模型包括Embedding层和双向Transformer层,相应的,通过所述深度语言子模型进行预训练输出潜在语义特征,包括:
通过所述Embedding层对所述微信推文进行词嵌入处理得到词向量矩阵;
通过所述双向Transformer层根据所述位置特征对所述词向量矩阵进行相应位置的信息编码输出潜在语义特征。
5.根据权利要求4所述的方法,其特征在于,所述双向Transformer层包括多头注意力机制层、第一残差连接与归一化层、全连接前馈神经网络层以及第二残差连接与归一化层;
通过所述双向Transformer层根据所述位置特征对所述词向量矩阵进行相应位置的信息编码输出潜在语义特征,包括:
将所述位置特征和所述词向量矩阵输入所述多头注意力机制层得到第一输出结果;
通过所述第一残差连接与归一化层将所述第一输出结果与所述位置特征连接后进行归一化处理得到第二输出结果;
将所述第二输出结果输入所述全连接前馈神经网络层得到第三输出结果;
将所述第三输出结果与所述第二输出结果输入所述第二残差连接与归一化层得到潜在语义特征。
6.根据权利要求1所述的方法,其特征在于,所述分类子模型为RCNN模型,相应的,将所述特征向量输入所述分类模型中进行分类训练输出所述微信推文对应的识别结果,包括:
通过双向LSTM层基于所述拼接特征向量进行上下文信息的获取;
将双向LSTM层获得的隐藏层的输出与词向量进行拼接得到拼接词向量;
将所述拼接词向量进行非线性映射得到低维向量;
对所述低维向量的每个位置取其所有时序上的最大值得到最终的特征向量;
将所述最终的特征向量进行softmax分类得到所述待识别的微信推文对应的识别结果。
7.一种微信推文谣言识别方法,其特征在于,所述方法包括:
获取待识别微信推文;
将所述待识别微信推文输入采用权利要求1-6中任一项所述的谣言识别模型的训练方法训练得到的最终谣言识别模型;
获取所述最终谣言识别模型输出的识别结果,所述识别结果指示所述待识别微信推文是否包括谣言。
8.一种谣言识别模型的训练装置,其特征在于,所述装置包括:
输入模块,用于将训练集输入初始谣言识别模型,所述初始谣言识别模型包括:特征提取层、深度语言子模型、特征拼接层以及分类子模型;
特征提取和预训练模块,用于将所述训练集中的微信推文分别输入到所述特征提取层和所述深度语言子模型中,通过所述特征提取层对所述微信推文进行特征提取得到多维度特征,通过所述深度语言子模型进行预训练输出潜在语义特征;
拼接模块,用于通过所述特征拼接层将所述多维度特征和所述潜在语义特征进行拼接得到特征向量;
分类训练模块,用于将所述特征向量输入所述分类子模型中进行分类训练输出所述微信推文对应的识别结果;
参数调整模块,用于基于所述识别结果和验证集对所述初始谣言识别模型进行参数调整,得到最终谣言识别模型;
其中,所述训练集和所述验证集中均包括多个经过数据预处理的微信推文,所述微信推文包括谣言数据和非谣言数据。
9.一种微信推文谣言识别装置,其特征在于,所述装置包括:
获取模块,用于获取待识别微信推文;
输入模块,用于将所述待识别微信推文输入采用权利要求1-6中任一项所述的谣言识别模型的训练方法训练得到的最终谣言识别模型;
识别模块,用于获取所述最终谣言识别模型输出的识别结果,所述识别结果指示所述待识别微信推文是否包括谣言。
10.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够实现如权利要求1-6中任一项所述的谣言识别模型的训练方法,或实现如权利要求7中所述的微信推文谣言识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211258817.XA CN115510872A (zh) | 2022-10-14 | 2022-10-14 | 谣言识别模型的训练方法和微信推文谣言识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211258817.XA CN115510872A (zh) | 2022-10-14 | 2022-10-14 | 谣言识别模型的训练方法和微信推文谣言识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115510872A true CN115510872A (zh) | 2022-12-23 |
Family
ID=84509729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211258817.XA Pending CN115510872A (zh) | 2022-10-14 | 2022-10-14 | 谣言识别模型的训练方法和微信推文谣言识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115510872A (zh) |
-
2022
- 2022-10-14 CN CN202211258817.XA patent/CN115510872A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10755048B2 (en) | Artificial intelligence based method and apparatus for segmenting sentence | |
CN112559800B (zh) | 用于处理视频的方法、装置、电子设备、介质和产品 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN114861889B (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
CN111339260A (zh) | 一种基于bert和qa思想的细粒度情感分析方法 | |
CN111753082A (zh) | 基于评论数据的文本分类方法及装置、设备和介质 | |
CN115099239B (zh) | 一种资源识别方法、装置、设备以及存储介质 | |
CN112926308B (zh) | 匹配正文的方法、装置、设备、存储介质以及程序产品 | |
CN110968725B (zh) | 图像内容描述信息生成方法、电子设备及存储介质 | |
CN113806660B (zh) | 数据评估方法、训练方法、装置、电子设备以及存储介质 | |
CN116152833B (zh) | 基于图像的表格还原模型的训练方法及表格还原方法 | |
CN112528658A (zh) | 层次化分类方法、装置、电子设备和存储介质 | |
US20230114673A1 (en) | Method for recognizing token, electronic device and storage medium | |
CN113434683A (zh) | 文本分类方法、装置、介质及电子设备 | |
CN116049597A (zh) | 网页的多任务模型的预训练方法、装置及电子设备 | |
CN112560461A (zh) | 新闻线索的生成方法、装置、电子设备及存储介质 | |
CN115098729A (zh) | 视频处理方法、样本生成方法、模型训练方法及装置 | |
CN114970540A (zh) | 训练文本审核模型的方法和装置 | |
CN114120166A (zh) | 视频问答方法、装置、电子设备及存储介质 | |
CN115858776A (zh) | 一种变体文本分类识别方法、系统、存储介质和电子设备 | |
CN115565186A (zh) | 文字识别模型的训练方法、装置、电子设备和存储介质 | |
CN113806541A (zh) | 情感分类的方法和情感分类模型的训练方法、装置 | |
CN114218431A (zh) | 视频搜索方法、装置、电子设备以及存储介质 | |
CN115510872A (zh) | 谣言识别模型的训练方法和微信推文谣言识别方法 | |
CN117077678B (zh) | 一种敏感词识别方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |