CN111611981A - 信息识别方法和装置及信息识别神经网络训练方法和装置 - Google Patents
信息识别方法和装置及信息识别神经网络训练方法和装置 Download PDFInfo
- Publication number
- CN111611981A CN111611981A CN202010598887.4A CN202010598887A CN111611981A CN 111611981 A CN111611981 A CN 111611981A CN 202010598887 A CN202010598887 A CN 202010598887A CN 111611981 A CN111611981 A CN 111611981A
- Authority
- CN
- China
- Prior art keywords
- article
- sample
- current
- target
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 135
- 238000000034 method Methods 0.000 title claims abstract description 97
- 238000012549 training Methods 0.000 title claims abstract description 65
- 238000000605 extraction Methods 0.000 claims abstract description 36
- 238000002372 labelling Methods 0.000 claims description 56
- 239000013598 vector Substances 0.000 claims description 56
- 230000006870 function Effects 0.000 claims description 47
- 230000015654 memory Effects 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 11
- 230000014759 maintenance of location Effects 0.000 claims description 11
- 238000003860 storage Methods 0.000 claims description 11
- 230000002776 aggregation Effects 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000011156 evaluation Methods 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 5
- 230000002411 adverse Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000010432 diamond Substances 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005304 joining Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/413—Classification of content, e.g. text, photographs or tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/418—Document matching, e.g. of document images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种信息识别方法和装置及信息识别神经网络训练方法和装置。该方法包括:获取在目标应用平台中发布的目标文章,其中,目标文章中至少包括文章文本、文章封面图片;对目标文章的文章文本进行特征提取,以得到文本特征,并对目标文章的文章封面图片进行特征提取,以得到图像特征;对文本特征和图像特征进行拼接,得到与目标文章匹配的多模态文章特征;根据多模态文章特征确定与目标文章匹配的目标置信度;在目标置信度指示目标文章中记载有虚假信息的情况下,从目标应用平台中删除目标文章。本发明解决了相关技术提供的信息识别方法存在识别准确性较低的问题的技术问题。
Description
技术领域
本发明涉及计算机领域,具体而言,涉及一种信息识别方法和装置及信息识别神经网络训练方法和装置。
背景技术
在很多信息共享平台的客户端中常常会为用户定期推送不同的时事新闻信息。但这些新闻信息中不全是真实的信息,往往还会涉及一些被刻意捏造的虚假新闻信息。比如,很多媒体为了博取用户的关注度,会通过新闻传递一些未被求证的事情或纯粹人为编造的事情。
为了识别上述假新闻,目前常用的方式是采用事实校验。具体而言,先通过权威机构和高置信源发表的文章作为事实,构建事实校验库,然后利用该事实校验库中的文章与其他低置信度的文章或非权威机构发表的文章进行比较以校验文章中信息的真假。
但上述事实校验库中的文章通常是由专业人员人为审核指定的,构建过程繁复,此外事实校验库中覆盖的数据有限,无法枚举全部真实的文章。也就是说,相关技术提供的信息识别方法存在识别准确性较低的问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种信息识别方法和装置及信息识别神经网络训练方法和装置,以至少解决相关技术提供的信息识别方法存在识别准确性较低的问题的技术问题。
根据本发明实施例的一个方面,提供了一种信息识别方法,包括:获取在目标应用平台中发布的目标文章,其中,目标文章中至少包括文章文本、文章封面图片;对目标文章的文章文本进行特征提取,以得到文本特征,并对目标文章的文章封面图片进行特征提取,以得到图像特征;对文本特征和图像特征进行拼接,得到与目标文章匹配的多模态文章特征;根据多模态文章特征确定与目标文章匹配的目标置信度;在目标置信度指示目标文章中记载有虚假信息的情况下,从目标应用平台中删除目标文章。
根据本发明实施例的另一方面,还提供了一种信息识别神经网络训练方法,其特征在于,包括:获取多个样本文章,其中,样本文章中至少包括样本文章文本、样本文章封面图片;依次将每个样本文章作为当前样本文章执行以下操作,直至达到收敛条件:对当前样本文章的样本文章文本进行特征提取,以得到样本文本特征,并对当前样本文章的样本文章封面图片进行特征提取,以得到样本图像特征;对样本文本特征和样本图像特征进行拼接,得到与当前样本文章匹配的当前多模态样本文章特征;将当前多模态样本文章特征输入当前信息识别神经网络以得到第一识别概率值,并将当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集,其中,第二识别概率集中包括至少一个第二识别概率值,至少一个第二识别概率值中的每个第二识别概率值为样本文章中记载的信息属于一种事件类型的概率值;利用第一识别概率值及第二识别概率集计算与当前样本文章目标损失值;在目标损失值达到收敛条件的情况下,确定当前信息识别神经网络为目标识别神经网络,其中,目标识别神经网络用于通过计算置信度来指示文章中所记载的信息的真实性,在置信度指示文章中记载有虚假信息的情况下,则删除文章。
根据本发明实施例的又一方面,还提供了一种信息识别装置,包括:第一获取单元,用于获取在目标应用平台中发布的目标文章,其中,目标文章中至少包括文章文本、文章封面图片;提取单元,用于对目标文章的文章文本进行特征提取,以得到文本特征,并对目标文章的文章封面图片进行特征提取,以得到图像特征;拼接单元,用于对文本特征和图像特征进行拼接,得到与目标文章匹配的多模态文章特征;第一确定单元,用于根据多模态文章特征确定与目标文章匹配的目标置信度;识别单元,用于在目标置信度指示目标文章中记载有虚假信息的情况下,从目标应用平台中删除目标文章。
根据本发明实施例的又一方面,还提供了一种信息识别神经网络训练装置,包括:第一获取单元,用于获取多个样本文章,其中,样本文章中至少包括样本文章文本、样本文章封面图片;处理单元,用于依次将每个样本文章作为当前样本文章执行以下操作,直至达到收敛条件:对当前样本文章的样本文章文本进行特征提取,以得到样本文本特征,并对当前样本文章的样本文章封面图片进行特征提取,以得到样本图像特征;对样本文本特征和样本图像特征进行拼接,得到与当前样本文章匹配的当前多模态样本文章特征;将当前多模态样本文章特征输入当前信息识别神经网络以得到第一识别概率值,并将当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集,其中,第二识别概率集中包括至少一个第二识别概率值,至少一个第二识别概率值中的每个第二识别概率值为样本文章中记载的信息属于一种事件类型的概率值;利用第一识别概率值及第二识别概率集计算与当前样本文章目标损失值;确定单元,用于在目标损失值达到收敛条件的情况下,确定当前信息识别神经网络为目标识别神经网络,其中,目标识别神经网络用于通过计算置信度来指示文章中所记载的信息的真实性,在置信度指示文章中记载有虚假信息的情况下,则删除文章。
根据本发明实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述信息识别方法或上述信息识别神经网络训练方法。
根据本发明实施例的又一方面,还提供了一种电子设备,包括存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为通过上述计算机程序执行上述的信息识别方法或上述信息识别神经网络训练方法。
在本发明实施例中,在获取到目标应用平台中发布的目标文章后,则提取目标文章的文本特征和图像特征,以对上述文本特征和图像特征进行拼接,得到与目标文章匹配的多模态文章特征。然后根据多模态文章特征确定与目标文章匹配的目标置信度,在该目标置信度指示上述目标文章中记载有虚假信息的情况下,则从目标应用平台中删除上述目标文章。也就是说,在提取目标文章的文本特征和图像特征之后,对二者进行多模态融合,以得到多模态文章特征,进一步利用上述多模态文章特征来确定与目标文章匹配的目标置信度。从而实现根据该目标置信度来更加准确地识别出目标文章中记载的信息的真实性,以达到从目标应用平台中精准地过滤掉记载有虚假信息的文章,而不再继续发布展示,避免对文章中记载的相关事件或人员造成的恶劣影响。进而克服相关技术中信息识别方法存在识别准确性较低的问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的信息识别方法的硬件环境的示意图;
图2是根据本发明实施例的一种可选的信息识别方法的流程图;
图3是根据本发明实施例的一种可选的信息识别方法的示意图;
图4是根据本发明实施例的另一种可选的信息识别方法的示意图;
图5是根据本发明实施例的又一种可选的信息识别方法的示意图;
图6是根据本发明实施例的又一种可选的信息识别方法的示意图;
图7是根据本发明实施例的一种可选的信息识别神经网络训练方法的流程图;
图8是根据本发明实施例的一种可选的信息识别神经网络训练方法的示意图;
图9是根据本发明实施例的一种可选的信息识别装置的结构示意图;
图10是根据本发明实施例的一种可选的信息识别神经网络训练装置的结构示意图;
图11是根据本发明实施例的一种可选的电子设备的结构示意图;
图12是根据本发明实施例的一种可选的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例的一个方面,提供了一种信息识别方法,可选地,作为一种可选的实施方式,上述信息识别方法可以但不限于应用于如图1所示的环境中的信息识别系统中,其中,该信息识别系统可以包括但不限于终端设备102、网络104、服务器106。这里终端设备102可以运行有目标应用平台的客户端,该目标应用平台用于共享展示各个发布方发布的不同的文章。上述终端设备102中包括人机交互屏幕1022,处理器1024及存储器1026。人机交互屏幕1022用于提供人机交互接口来接受用户操作,并显示上述不同的文章。上述处理器1024用于响应上述用户操作生成操作指令,并按照该操作指令执行对应的后台操作。存储器1026用于存储上述不同的文章。
此外,服务器106中包括数据库1062及处理引擎1064,数据库1062中用于存储信息识别神经网络。处理引擎1064用于利用上述信息识别神经网络来对目标文章进行识别,以确定该目标文章中是否记载有虚假信息,并对记载有虚假信息的目标文章执行删除处理。
具体过程如以下步骤:如步骤S102,通过网络104获取终端设备102内运行的目标应用平台中发布的目标文章,然后调用服务器106中存储的信息识别神经网络和事件识别神经网络,通过服务器106中的处理引擎执行以下步骤S104至S110:对目标文章的文章文本进行特征提取,以得到文本特征,并对目标文章的文章封面图片进行特征提取,以得到图像特征;对文本特征和图像特征进行拼接,得到与目标文章匹配的多模态文章特征;根据多模态文章特征确定与目标文章匹配的目标置信度;在目标置信度指示目标文章中记载有虚假信息的情况下,从目标应用平台中删除目标文章。进一步,如步骤S112,服务器106将通过网络104通知终端设备102删除上述目标文章。
需要说明的是,在本实施例中,在获取到目标应用平台中发布的目标文章后,则提取目标文章的文本特征和图像特征,以对上述文本特征和图像特征进行拼接,得到与目标文章匹配的多模态文章特征。然后根据多模态文章特征确定与目标文章匹配的目标置信度,在该目标置信度指示上述目标文章中记载有虚假信息的情况下,则从目标应用平台中删除上述目标文章。也就是说,在提取目标文章的文本特征和图像特征之后,对二者进行多模态融合,以得到多模态文章特征,进一步利用上述多模态文章特征来确定与目标文章匹配的目标置信度。从而实现根据该目标置信度来更加准确地识别出目标文章中记载的信息的真实性,以达到从目标应用平台中精准地过滤掉记载有虚假信息的文章,而不再继续发布展示,避免对文章中记载的相关事件或人员造成的恶劣影响。进而克服相关技术中信息识别方法存在识别准确性较低的问题。
可选地,在本实施例中,上述终端设备可以是配置有目标客户端的终端设备,可以包括但不限于以下至少之一:手机(如Android手机、iOS手机等)、笔记本电脑、平板电脑、掌上电脑、MID(Mobile Internet Devices,移动互联网设备)、PAD、台式电脑、智能电视等。目标客户端可以是视频客户端、即时通信客户端、浏览器客户端、教育客户端等。上述网络可以包括但不限于:有线网络,无线网络,其中,该有线网络包括:局域网、城域网和广域网,该无线网络包括:蓝牙、WIFI及其他实现无线通信的网络。上述服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群,或者是云服务器。上述仅是一种示例,本实施例中对此不作任何限定。
可选地,作为一种可选的实施方式,如图2所示,上述信息识别方法包括:
S202,获取在目标应用平台中发布的目标文章,其中,目标文章中至少包括文章文本、文章封面图片;
S204,对目标文章的文章文本进行特征提取,以得到文本特征,并对目标文章的文章封面图片进行特征提取,以得到图像特征;
S206,对文本特征和图像特征进行拼接,得到与目标文章匹配的多模态文章特征;
S208,根据多模态文章特征确定与目标文章匹配的目标置信度;
S210,在目标置信度指示目标文章中记载有虚假信息的情况下,从目标应用平台中删除目标文章。
可选地,在本实施例中,上述信息识别方法可以但不限于应用于文章推荐场景、文章共享场景等。其中,上述目标应用平台可以为文章推荐应用平台、文章共享应用平台等。这里的文章可以包括但不限于:新闻文章、期刊文章、论文文章等各种内容格式的文章。这里文章中可以包含但不限于以下至少一种资源:文本资源、图片资源、视频资源,其中,每篇文章设置有文章文本内容(如标题和文章正文)和文章封面图片,以便于从海量文章中区分出每篇独特的文章。上述为示例,本实施例中对此不作任何限定。
需要说明的是,在本实施例中,在获取到目标应用平台中发布的目标文章后,则提取目标文章的文本特征和图像特征,以对上述文本特征和图像特征进行拼接,得到与目标文章匹配的多模态文章特征。然后根据多模态文章特征确定与目标文章匹配的目标置信度,在该目标置信度指示上述目标文章中记载有虚假信息的情况下,则从目标应用平台中删除上述目标文章。也就是说,在提取目标文章的文本特征和图像特征之后,对二者进行多模态融合,以得到多模态文章特征,进一步利用上述多模态文章特征来确定与目标文章匹配的目标置信度。从而实现根据该目标置信度来更加准确地识别出目标文章中记载的信息的真实性,以达到从目标应用平台中精准地过滤掉记载有虚假信息的文章,而不再继续发布展示,避免对文章中记载的相关事件或人员造成的恶劣影响。进而克服相关技术中信息识别方法存在识别准确性较低的问题。
可选地,在本实施例中,可以但不限于是将多模态文章特征输入信息识别神经网络来确定与目标文章匹配的目标置信度,其中,目标置信度用于指示目标文章中记载有虚假信息的概率值。
此外,在本实施例中,上述信息识别神经网络可以但不限于通过以下内容进行训练后得到:1)多模态特征提取器;2)信息识别器;3)事件对抗识别器;4)模型融合。其中,上述多模态特征提取可以包括但不限于:文本特征提取器、图像特征提取器。在本实施例中,上述文本特征提取器可以但不限于对文章的标题和正文进行特征提取,以得到该目标文章的文本特征。上述图像特征提取器可以但不限于对文章封面图片进行特征提取,以得到该目标文章的图像特征。上述模型融合可以但不限于是将信息识别器与事件对抗识别器融合后进行组合训练,以利用事件对抗识别器来对信息识别神经网络进行干预,通过对抗去除事件无关属性,从而训练得到最终应用于目标应用平台的上述信息识别神经网络,来识别目标应用平台中发布的文章中记载的信息的真实性。
例如,如图3所示在获取到发布的目标文章之后,步骤S302,通过多模态特征提取器提取目标文章的文本特征和图像特征,并融合得到多模态文章特征。然后如步骤S304,将该多模态文章特征输入通过多次训练后得到的信息识别器,通过上述信息识别器计算得到目标置信度,以利用该目标置信度来识别上述目标文章中记载的信息是否为虚假信息。如步骤S306,判定目标置信度是否达到阈值条件,若达到阈值条件,则确定目标文章中记载有虚假信息,执行步骤S308-1,删除目标应用平台中发布的目标文章。若未达到阈值条件,则确定目标文章中并未记载有虚假信息,执行步骤S308-2,保留目标应用平台中发布的目标文章。
需要说明的是,在本实施例中,上述事件对抗识别器(也可称作事件识别神经网络)可以但不限于主要由两层全连接网络和对应的激活函数组成,用于根据输入的目标文章的多模态文章特征来确定目标文章归属于不同事件类型的概率值。例如,假设事件对抗识别器可以识别出k个事件,则在将目标文章的多模态文章特征输入事件对抗识别器之后,将输出该目标文章为k个事件的概率,如P1、P2、……Pk。从而实现使用事件对抗去除特征中事件无关属性,以使得信息识别神经网络在识别文章是否记载有虚假信息的过程中,不会受到不同类型的事件的干扰,去除事件本身的虚假信息识别过程的影响。
可选地,在本实施例中,上述信息识别神经网络训练所使用的多个标注样本文章中的每个标注样本文章可以包括但不限于:文章标题、文章封面图片、文章属性标签,及对该目标文章进行评价的标注文本。例如,如图4所示,在目标应用平台发布的目标文章,标题为“Title-1”,目标文章的左上角显示有封面图片,目标文章的下半部分显示有文章正文,目标文章的右上角显示有页签,在检测到对该页签的点击操作后,将显示该目标文章的文章属性标签,如图4所示为“虚假文章”。
此外,在本实施例中,上述用于对文章内容进行评价的标注文本可以包括但不限于:举报文本、评价文本等。这里上述举报文本可以但不限于是用户通过位于文章后的举报文本框输入编辑得到。上述评价文本可以但不限于包括:文本评价、快捷评价,其中,文本评价可以但不限于是用户通过评价文本输入框编辑得到;快捷评价可以但不限于是直接点击“赞”图标或“踩”图标而生成的评价信息。上述为示例,本实施例中对此不作任何限定。也就是说,在本实施例中,利用携带有目标应用平台中各个用户账号提供的举报文本或评价文本的标注样本文章来训练得到信息识别神经网络,从而扩展了训练样本的内容,以结合用户反馈文本内容来更加准确地识别出文章中记载的信息的真实性,实现了丰富信息识别神经网络的训练样本的内容,达到了提升信息识别神经网络的识别准确性的目的。
通过本申请提供的实施例,在提取目标文章的文本特征和图像特征之后,对二者进行多模态融合,以得到多模态文章特征,进一步利用上述多模态文章特征来确定与目标文章匹配的目标置信度。从而实现根据该目标置信度来更加准确地识别出目标文章中记载的信息的真实性,以达到从目标应用平台中精准地过滤掉记载有虚假信息的文章,而不再继续发布展示,避免对文章中记载的相关事件或人员造成的恶劣影响。进而克服相关技术中信息识别方法存在识别准确性较低的问题。
作为一种可选的方案,根据多模态文章特征确定与目标文章匹配的目标置信度包括:将多模态文章特征输入第一全连接层,以得到与目标文章匹配的目标置信度,其中,第一全连接层中携带有通过多次训练得到的信息识别参数。
可选地,在本实施例中,上述第一全连接层中可以但不限于带有softmax函数,用于检测当前的目标文章中是否记载有虚假信息。例如,以新闻推荐应用为例,这里可以将目标新闻文章的多模态文章特征输入第一全连接层,来计算得到该目标新闻文章为假新闻的概率值。
作为一种可选的方案,,在获取在目标应用平台中发布的目标文章之前,还包括:
S1,获取多个样本文章,其中,样本文章中至少包括样本文章文本、样本文章封面图片;
S2,依次将每个样本文章作为当前样本文章执行以下操作,直至达到收敛条件:
S21,对当前样本文章的样本文章文本进行特征提取,以得到样本文本特征,并对当前样本文章的样本文章封面图片进行特征提取,以得到样本图像特征;
S22,对样本文本特征和样本图像特征进行拼接,得到与当前样本文章匹配的当前多模态样本文章特征;
S23,将当前多模态样本文章特征输入当前信息识别神经网络以得到第一识别概率值,并将当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集,其中,第二识别概率集中包括至少一个第二识别概率值,至少一个第二识别概率值中的每个第二识别概率值为样本文章中记载的信息属于一种事件类型的概率值;
S24,利用第一识别概率值及第二识别概率集,计算与当前样本文章对应的目标损失值;
S3,在目标损失值达到收敛条件的情况下,确定当前信息识别神经网络为目标识别神经网络,其中,目标识别神经网络用于通过计算置信度来指示当前文章中所记载的信息的真实性,在置信度指示文章中记载有虚假信息的情况下,将删除当前文章。
可选地,在本实施例中,利用第一识别概率值及第二识别概率集,计算与当前样本文章对应的目标损失值包括:将第一识别概率值输入与当前信息识别神经网络对应的第一损失函数,并将第二识别概率集输入与当前事件识别神经网络对应的第二损失函数;获取利用第一损失函数与第二损失函数所构建的目标函数输出的目标损失值。
可选地,在本实施例中,将当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集包括:将多模态文章特征输入至少两个第二全连接层,以得到第二识别概率集,其中,至少两个第二全连接层中携带有通过多次训练得到的事件识别参数。
具体结合以下示例进行说明:假设上述目标文章为新闻类文章,可以表示为新闻m。上述信息识别神经网络用于识别该目标文章是否为假新闻。这里信息识别神经网络可以表示为Gd(·;θd),θd表示所有的参数,θf为多模态文章特征。将新闻m的多模态文章特征作为信息识别神经网络的输入,对于新闻m,将得到其为假新闻的概率:
Pθ(m)=Gd(Gf(m;θf);θd) (1)
也就是说,在目标应用平台(如新闻推荐应用)中应用的过程中,在发布目标文章之后,可以将基于上述信息识别神经网络计算得到的目标文章的概率值,作为该目标文章对应的目标置信度,来指示目标文章中是否记载有虚假信息(即是否为虚假新闻)。
进一步,在本实施例中,在得到上述信息识别神经网络之前,可以但不限于利用初始化的信息识别神经网络(如也可称作信息识别器)和初始化的事件识别神经网络(如也可称作事件对抗识别器)来组合训练,以得到最终应用于目标应用平台的信息识别神经网络。
这里信息识别神经网络的训练过程可以但不限于如下:
假设仍以新闻为例,获取到第i个样本新闻mi之后,上述信息识别神经网络可以表示为Gd(·;θd),θd表示所有的参数,θf为多模态文章特征。将新闻mi的多模态文章特征作为信息识别神经网络的输入,对于新闻mi,将得到其为假新闻的概率(即第一概率值):
Pθ(mi)=Gd(Gf(mi;θf);θd) (2)
进一步,用Yd表示假新闻正负类别,信息识别神经网络采用的交叉熵计算损失函数(即第一损失函数)Ld(θf,θd),可以表示为:
此外,上述事件识别神经网络用于识别该目标文章为k个事件的概率值。这里事件识别神经网络可以表示为Ge(RF;θe),θe表示对应的参数,θf为多模态文章特征,Ye表示事件的类别。进一步假设将新闻mi的多模态文章特征作为事件识别神经网络的输入,得到第二识别概率集。然后将该第二识别概率集应用于计算损失函数(即第二损失函数)Le(θf,θe),可以表示为:
进一步,利用第一损失函数Ld(θf,θd)和第二损失函数Le(θf,θe)来构建目标函数。其中,Ld(θf,θd)代表信息识别神经网络输出的损失值loss1,Le(θf,θe)代表事件识别神经网络输出的损失值loss2,λ是权重,则可以根据以下公式来实现构建:
Lfinal(θf,θd,θe)=Ld(θf,θd)λL(θf,θe) (5)
构建得到的目标函数可以如下:
通过梯度下降法来对上述目标函数进行优化,来达到提高信息识别准确度的目的:
其中,γ代表学习率。
需要说明的是,在本实施例中,上述目标函数中的参数可以但不限于是通过利用多个样本文章进行训练,即多次迭代优化计算而得到的。训练过程可以参考相关技术中的神经网络模型中的目标函数的训练过程,本实施例中在此不再赘述。
可选地,在本实施例中,这里对样本文章文本进行特征提取之前:先对样本文章文本的文章标题进行特殊符号处理,如英文大小写转换、繁简字统一。然后再对处理后的样本文章文本进行分词。这里分词是先用历史文章分词策略进行分词处理并统计词频,再从中筛选出一部分高频关键词作为分词字典。对于不在字典中的词,统一用特殊符号<unk>表示。最后利用词向量化模型(Word-to-Vector,简称word2vec)将每个分词后的文本词语映射为对应词向量(例如200维)。
其中,在本实施例中,可以但不限于使用文本卷积神经网络(简称text-CNN)来对文章标题中分词后的第i个词映射为k维度的词向量,如可以表示为Ti∈Rk,一个句子的n个词可以表示为:
上述文本卷积神经网络(简称text-CNN)的卷积窗口为h,卷积运算如下(使用第i个词),σ(·)代表ReLU激活函数:
ti=σ(Wc·Ti:i+h-1) (10)
可选地,在本实施例中,可以但不限于使用VGG19来提取当前样本文章的样本文章封面的样本图像特征,其中,主要是使用VGG19的最后一层来提取该当前样本文章的图像特征,通过增加一个全连接层来调整特征维度为p。这里的图像特征可以表示如下:
需要说明的是,上述目标文章的文本特征和图像特征的提取方式,可以但不限于参考上述当前样本文章的样本文章特征和样本图像特征的提取方式,本实施例中在此不再赘述。
通过本申请提供的实施例,通过信息识别神经网络来识别出目标文章中记载有虚假信息的第一概率值,并将该第一概率值输入第一损失函数,通过事件识别神经网络来识别出对应的第二概率集,并将该第二概率集输入第二损失函数,然后,获取第一损失函数与第二损失函数所构建的目标函数输出的目标损失值,从而实现根据目标损失值来确定上述训练过程是否达到收敛条件。也就是说综合考量目标文章中记载的信息的真实性和目标文章中记载的信息所属事件的事件类型,来训练应用于目标应用平台的信息识别神经网络,以利用信息识别神经网络来对发布的文章进行准确地识别。
作为一种可选的方案,在获取多个样本文章之前,还包括:
S1,获取多个标注样本文章,其中,多个标注样本文章中的每个标注样本文章中包括样本文章文本、样本文章封面图片、样本文章属性标签及在目标应用平台中对标注样本文章的内容进行评价的标注文本,样本文章属性标签用于指示标注样本文章中记载有虚假信息或并未记载有虚假信息;
S2,对每个标注样本文章分别进行文本预处理,得到每个标注样本文章的标注样本文本特征向量;
S3,将每个标注样本文章的样本文本特征向量输入标签标注模型,得到与每个标注样本文章匹配的标注结果,其中,标注结果中包括标注样本文章中记载有虚假信息的概率值,及与标注样本文章匹配的属性标签,属性标签用于指示标注样本文章为虚假文章或真实文章;
S4,将与每个标注样本文章匹配的标注结果输入样本选择模型,得到筛选后的候选样本文章;
S5,从候选样本文章中确定出多个样本文章。
可选地,在本实施例中,在确定当前信息识别神经网络为目标识别神经网络之前,还包括:重复执行以下步骤,直至达到收敛条件;获取当前参与训练的当前信息识别神经网络输出的当前训练结果;确定与当前训练结果匹配的当前奖励值,其中,当前奖励值为当前训练结果对应的识别准确度与上一次的训练结果对应的识别准确度的差值;将当前奖励值累加到历史奖励值,得到当前奖励值的和;在当前奖励值的和达到目标值的情况下,确定达到收敛条件。
可选地,在本实施例中,用于训练上述信息识别神经网络的信息识别框架可以包括但不限于:标签标注模型、样本选择模型、虚假文章检测模型(也可称虚假文章识别模型)。如图5所示,在获取到包括举报文本的样本文章后,通过标签标注模型实现特征提取、聚合、预测处理,然后将输出结果中带有标签为文章输入样本选择模型,按照选择策略选择后执行动作,得到候选样本文章并聚合,得到用于输入虚假文章识别模型中的样本文章。进一步,在虚假文章识别模型得到结果后,还将输入样本选择模型,多次迭代之后,将达到对样本选择模型中的参数进行优化的目的。
这里标签标注模型可以但不限于是基于卷积神经网络(Convolutional NeuralNetworks,简称CNN)长短时记忆网络(Long Short-Term Memory,简称LSTM)训练得到的用于结合标注文本对文章进行标签标注的模型。由于每个文章对应的标注文本的数据量不同,需要对同一篇文章的多个标注文本进行聚合处理,并将聚合结果接入线性整流函数(Rectified Linear Unit,简称RELU激活函数)。然后将该RELU激活函数输出的结果输入全连接层,以得到对当前输入文章的标注结果,如该文章为记载有虚假信息的虚假文章(如虚假新闻)的概率,并在确定为虚假文章的情况下,为其标注虚假文章的弱标签。
这里样本选择模型可以但不限于是强化学习(Reinforcement Learning,简称RL)选择器构建的模型,支持状态向量输入。用于基于状态向量从多个标注样本文章进行样本筛选,得到真正输入虚假文章识别模型参与识别训练的候选样本文章。其中,上述状态向量可以包括但不限于:1)当前输入的样本文章在标签标注模型中输出的文章中记载有虚假信息的概率值;2)当前输入的样本文章在标签标注模型中输出的属性标签(如文章为虚假文章的弱标签);3)当前输入的样本文章与通过样本选择模型已选出的样本文章之间的距离(如二者的余弦相似度的最大值);4)虚假文章检测模型上一次输出的识别概率值。这样的状态向量能够兼顾样本文章的质量和数据多样性。1)和4)用于衡量数据质量,3)用于让数据更多样化,2)用于平衡类别的分布。通过该样本选择模型来进一步提升样本文章的质量,保证训练结果的准确性和高效性。
上述各个模型的数据传递关系可以如图6所示,将标注文本输入标签标注模型602,将该标签标注模型602的输出结果传递给样本选择模型604,以便于选择出质量更好的样本文章。进一步,将样本选择模型604的输出结果传递给虚假文章识别模型(即上述信息识别神经网络)606来进行识别,以得到用于指示文章中记载有虚假信息的概率值。此外,这里识别结果还将被返回样本选择模型604,用于优化样本选择模型604,以提升样本筛选质量。这里图6所示传递关系为示例,本实施例中对此不作任何限定。
此外,在本实施例中,基于每次完成训练的当前信息识别神经网络输出的训练结果,可以计算当前信息识别神经网络对应的识别准确度acc。如输入N个文章的相关信息至信息识别神经网络后,比对输出结果所指示的标签与文章的真实属性标签,在比对结果指示一致时判定为识别准确,在比对结果指示不一致时判定为识别不准确。然后统计N个文章的比对结果,得到识别准确度。进一步,比对当前识别准确度与上一次训练后得到的识别准确度,以得到当前奖励值R=acck-acck-1。
然后对每一次得到的奖励值进行叠加,得到奖励值之和。在获得最大化的奖励值之和的情况下,则确定达到信息识别神经网络的收敛条件。
可选地,在本实施例中,将每个标注样本文章的样本文本特征向量输入标签标注模型,得到与每个标注样本文章匹配的标注结果包括:在标签标注模型中重复执行以下步骤,直至遍历每个标注样本文章对应的全部的标注文本的标注文本特征向量:确定第i个标注样本文章,其中,i为大于等于1,且小于等于N的整数,N为标注样本文章的数量;将第i个标注样本文章的第j个标注文本特征向量输入标签标注模型,得到第j个中间文本向量,其中,j为大于等于1,且小于等于M的整数,M为第i个标注样本文章的标注文本的数量;对第i个标注样本文章对应的M个中间文本向量进行加权求和计算,得到第i个结果向量;确定与第i个标注样本文章对应的第i个权重;将第i个结果向量及第i个权重输入第一激活函数,得到与第i个标注样本文章对应的第i个聚合隐层特征向量;将第i个聚合隐层特征向量输入标签标注模型的第三全连接层,得到第i个标注样本文章的第i个标注结果。
具体结合以下示例进行说明,假设这里文章为新闻,当前标注样本文章为第i个样本新闻。具体过程如下:
获取多个标注样本新闻,其中,每个标注样本新闻中包括新闻标题、新闻封面图片及标注文本(如举报文本)和标签(标签形式为0或1,分别表示正常新闻、虚假新闻)。对新闻标题和举报文本进行文本预处理,如特殊符号处理,英文大小写转换、繁简字统一等,以及分词处理。然后,再利用Word2Vec模型将分词后得到的每个文本词语映射为对应词向量(如200维)。也就是将得到的举报文本映射为举报文本特征向量(表示为r1,r2,r3,...rn共n条)、新闻标题的标题文本特征向量(表示为w1,w2,w3,...wm共m条),特征矩阵维度大小可以分别为n*200和m*200。
然后,从上述举报文本特征向量中提取出举报文本特征,并从标题文本特征向量中提取出标题文本特征。将上述文本特征输入到后续网络模型中进行训练,如输入到标签标注网络模型中以更新其网络参数。
需要说明的是,这里同一篇新闻可以包括多个举报文本数据。在本实施例中,可以对上述多个举报文本数据进行聚合处理,如进行加权求平均。假设R(i)表示第i个样本新闻的举报文本数据集合,|R(i)|表示第i个样本新闻的举报文本的数量,表示第i个样本新闻的第j条举报文本数据经过转化后得到的文本向量,wr表示全连接网络的权重,σ是RELU激活函数,最后第i个样本新闻的全部举报文本数据的聚合隐层特征向量h(i)表示如下:
将上述h(i)输入到全连接网络中,最后可以得到第i个样本新闻是虚假新闻的概率,进一步,比对该概率与预定阈值,在该概率大于预定阈值的情况下,确定上述第i个样本新闻是虚假新闻,并给第i个样本新闻打上是“虚假新闻”的弱标签。
可选地,在本实施例中,将与每个标注样本文章匹配的标注结果输入样本选择模型,得到筛选后的候选样本文章包括:在样本选择模型中重复执行以下步骤,直至遍历多个标注样本文章:确定当前标注样本文章;获取与当前标注样本文章匹配的当前文章状态向量,其中,当前文章状态向量中包括以下信息:与当前标注样本文章匹配的当前标注结果、当前标注样本文章与通过样本选择模型已选出的标注样本文章之间的距离,及上一个标注样本文章输入信息识别神经网络得到的输出结果;根据当前文章状态向量确定当前标注样本文章对应的保留概率;在当前标注样本文章对应的保留概率大于目标阈值的情况下,确定当前标注样本文章为候选样本文章。
可选地,在本实施例中,在根据当前文章状态向量确定当前标注样本文章对应的保留概率之后,还包括:在当前标注样本文章对应的保留概率小于等于目标阈值的情况下,确定丢弃当前标注样本文章。
具体结合以下示例进行说明,假设这里文章仍为新闻,当前标注样本文章为第i个样本新闻。具体过程如下:
获取当前样本新闻匹配的状态向量对应样本这里状态向量可以包括:1)当前输入的样本文章在标签标注模型中输出的文章中记载有虚假信息的概率值;2)当前输入的样本文章在标签标注模型中输出的属性标签(如文章为虚假文章的弱标签);3)当前输入的样本文章与通过样本选择模型已选出的样本文章之间的距离(如二者的余弦相似度的最大值);4)虚假文章检测模型上一次输出的识别概率值。这样的状态向量能够兼顾样本文章的质量和数据多样性。1)和4)用于衡量数据质量,3)用于让数据更多样化,2)用于平衡类别的分布。通过该样本选择模型来进一步提升样本文章的质量,保证训练结果的准确性和高效性。
可选地,在本实施例中,根据当前文章状态向量确定当前标注样本文章对应的保留概率包括:获取与当前文章状态向量匹配的当前状态权重;将当前文章状态向量及当前状态权重输入逻辑函数,得到逻辑计算结果;获取与逻辑计算结果匹配的当前逻辑权重;将逻辑计算结果与当前逻辑权重输入第二激活函数,得到保留概率。
进一步,仍以上述状态向量为例,将上述状态向量输入上述虚假识别模型,然后根据输出的结果确定对当前样本新闻的处理动作ai,即动作空间为{保留、放弃},分别表示可选择保留或放弃当前样本新闻。策略表示对应状态执行动作θs表示模型参数,表示如下:
其中,σ()为sigmod函数,ws1为sigmod函数中参与计算的权重;ψ()为RELU激活函数,ws2为RELU激活函数中参与计算的权重。
可选地,在本实施例中,可以抽取一部分样本新闻作为验证集,来验证上述训练得到的模型的识别准确度。假设抽取10%的样本新闻输入模型得到识别结果,并根据该识别结果计算得到参考准确度acc。
进一步可以计算第k份数据的准确度,如将第k份中的B个样本新闻的输入至识别模型后,比对输出结果所指示的标签与样本新闻的真实属性标签,在比对结果指示一致时判定为识别准确,在比对结果指示不一致时判定为识别不准确。然后统计B个样本新闻的比对结果,得到第k份数据的识别准确度acck。然后获取对应的奖励值Rk为:
Rk=acck-acc (16)
需要说明的是,这里上述奖励值的计算方式为示例。还可以包括但不限于为第k份数据的识别准确度acck与第k-1份数据的识别准确度acck-1的差值作为奖励值Rk,本实施例中对此不作任何限定。
这里上述训练过程的目标函数:旨在使模型能获得最大化的奖励值之和,目标函数可表示为:
对应的梯度训练可表示为:
使用以上目标函数的梯度更新来学习更新网络参数,从而更新策略π,迭代更新多次直至充分训练学习网络参数,得到最终应用的信息识别神经网络。
通过本申请提供的实施例,通过结合标签标注网络和样本选择网络来优化参与训练的样本文章,进而利用上述优化后的样本文章来训练得到信息识别神经网络,使其兼顾样本数据的质量和多样性,保证训练得到的信息识别神经网络识别的准确性和高效。此外,通过奖励值的计算,还将比对出不同样本准确度的变化,从而提升模型的精度和召回率。
根据本发明实施例的另一个方面,还提供了一种信息识别神经网络训练方法。如图7所示,该方法包括:
S702,获取多个样本文章,其中,样本文章中至少包括样本文章文本、样本文章封面图片;
S704,依次将每个样本文章作为当前样本文章执行以下操作,直至达到收敛条件:对当前样本文章的样本文章文本进行特征提取,以得到样本文本特征,并对当前样本文章的样本文章封面图片进行特征提取,以得到样本图像特征;对样本文本特征和样本图像特征进行拼接,得到与当前样本文章匹配的当前多模态样本文章特征;将当前多模态样本文章特征输入当前信息识别神经网络以得到第一识别概率值,并将当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集,其中,第二识别概率集中包括至少一个第二识别概率值,至少一个第二识别概率值中的每个第二识别概率值为样本文章中记载的信息属于一种事件类型的概率值;利用第一识别概率值及第二识别概率集计算与当前样本文章目标损失值;
S706,在目标损失值达到收敛条件的情况下,确定当前信息识别神经网络为目标识别神经网络,其中,目标识别神经网络用于通过计算置信度来指示文章中所记载的信息的真实性,在置信度指示文章中记载有虚假信息的情况下,则删除文章。
具体结合图8所示示例来说明对信息识别神经网络进行训练的过程:
将当前样本文章的文章标题通过word2vec模型转化处理,得到词向量序列(如图8中斜线填充圆圈),进一步对该词向量序列进行特征提取,得到样本文本特征(如图8中网点填充圆圈)。将当前样本文章的文章封面图片通过VGG-19处理,得到样本图像特征(如图8中无填充圆圈)。进一步对上述文本特征和图像特征进行拼接,以生成多模态文章特征,并将该多模态图像特征输入信息识别器(其中包括信息识别神经网络)和事件识别器(其中包括事件识别神经网络)。通过多次训练优化参数的调整,来得到最终应用的信息识别神经网络。假设文章以新闻为例,如图8所示无填充菱形表示非虚假新闻,黑色填充菱形表示是虚假新闻。通过对抗分析去除事件无关属性,以去除不同类型的事件对当前训练中的信息识别神经网络的干预影响。如8所示无填充三角形表示该新闻中的事件为真实事件,黑色填充菱形表示是虚假捏造事件。图8所示过程为示例,本实施中对此不作任何限定。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
根据本发明实施例的另一个方面,还提供了一种用于实施上述信息识别方法的信息识别装置。如图9所示,该装置包括:
1)第一获取单元902,用于获取在目标应用平台中发布的目标文章,其中,目标文章中至少包括文章文本、文章封面图片;
2)提取单元904,用于对目标文章的文章文本进行特征提取,以得到文本特征,并对目标文章的文章封面图片进行特征提取,以得到图像特征;
3)拼接单元906,用于对文本特征和图像特征进行拼接,得到与目标文章匹配的多模态文章特征
4)第一确定单元908,用于根据多模态文章特征确定与目标文章匹配的目标置信度;
5)识别单元910,用于在目标置信度指示目标文章中记载有虚假信息的情况下,从目标应用平台中删除目标文章。
可选地,在本实施例中,上述信息识别装置可以但不限于应用于文章推荐场景、文章共享场景等。其中,上述目标应用平台可以为文章推荐应用平台、文章共享应用平台等。这里的文章中可以包含但不限于以下至少一种资源:文本资源、图片资源、视频资源,其中,每篇文章都会设置文章标题和文章封面图片,以便于快速从海量文章中进行区分显示,例如新闻文章。上述为示例,本实施例中对此不作任何限定。
本方案中的实施例,可以但不限于参照上述方法实施例,本实施例中对此不作任何限定。
根据本发明实施例的另一个方面,还提供了一种用于实施上述信息识别神经网络训练方法的信息识别神经网络训练装置。如图10所示,该装置包括:
1)第一获取单元1002,用于获取多个样本文章,其中,样本文章中至少包括样本文章文本、样本文章封面图片;
2)处理单元1004,用于依次将每个样本文章作为当前样本文章执行以下操作,直至达到收敛条件:对当前样本文章的样本文章文本进行特征提取,以得到样本文本特征,并对当前样本文章的样本文章封面图片进行特征提取,以得到样本图像特征;对样本文本特征和样本图像特征进行拼接,得到与当前样本文章匹配的当前多模态样本文章特征;将当前多模态样本文章特征输入当前信息识别神经网络以得到第一识别概率值,并将当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集,其中,第二识别概率集中包括至少一个第二识别概率值,至少一个第二识别概率值中的每个第二识别概率值为样本文章中记载的信息属于一种事件类型的概率值;利用第一识别概率值及第二识别概率集计算与当前样本文章目标损失值;
3)确定单元1006,用于在目标损失值达到收敛条件的情况下,确定当前信息识别神经网络为目标识别神经网络,其中,目标识别神经网络用于通过计算置信度来指示文章中所记载的信息的真实性,在置信度指示文章中记载有虚假信息的情况下,则删除文章。
本方案中的实施例,可以但不限于参照上述方法实施例,本实施例中对此不作任何限定。
根据本发明实施例的又一个方面,还提供了一种用于实施上述信息识别方法的电子设备,该电子设备可以是图1所示的终端设备或服务器。本实施例以该电子设备为服务器为例来说明。如图11所示,该电子设备包括存储器1102和处理器1104,该存储器1102中存储有计算机程序,该处理器1104被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子设备可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取在目标应用平台中发布的目标文章,其中,目标文章中至少包括文章文本、文章封面图片;
S2,对目标文章的文章文本进行特征提取,以得到文本特征,并对目标文章的文章封面图片进行特征提取,以得到图像特征;
S3,对文本特征和图像特征进行拼接,得到与目标文章匹配的多模态文章特征;
S4,根据多模态文章特征确定与目标文章匹配的目标置信度;
S5,在目标置信度指示目标文章中记载有虚假信息的情况下,从目标应用平台中删除目标文章。
可选地,本领域普通技术人员可以理解,图11所示的结构仅为示意,电子装置电子设备也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图11其并不对上述电子装置电子设备的结构造成限定。例如,电子装置电子设备还可包括比图11中所示更多或者更少的组件(如网络接口等),或者具有与图11所示不同的配置。
其中,存储器1102可用于存储软件程序以及模块,如本发明实施例中的信息识别方法和装置对应的程序指令/模块,处理器1104通过运行存储在存储器1102内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的信息识别方法。存储器1102可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1102可进一步包括相对于处理器1104远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。其中,存储器1102具体可以但不限于用于存储目标文章及标注样本文章等信息。作为一种示例,如图11所示,上述存储器1102中可以但不限于包括上述信息识别装置中的第一获取单元902、提取单元904、拼接单元906、第一确定单元908及识别单元910。此外,还可以包括但不限于上述信息识别装置中的其他模块单元,本示例中不再赘述。
可选地,上述的传输装置1106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1106包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1106为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
此外,上述电子设备还包括:显示器1108,用于显示目标文章;和连接总线1110,用于连接上述电子设备中的各个模块部件。
在其他实施例中,上述终端设备或者服务器可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成点对点(P2P,Peer To Peer)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
根据本发明实施例的又一个方面,还提供了一种用于实施上述信息识别神经网络训练方法的电子设备,该电子设备可以是图1所示的终端设备或服务器。本实施例以该电子设备为服务器为例来说明。如图12所示,该电子设备包括存储器1202和处理器1204,该存储器1202中存储有计算机程序,该处理器1204被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子设备可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取多个样本文章,其中,样本文章中至少包括样本文章文本、样本文章封面图片;
S2,依次将每个样本文章作为当前样本文章执行以下操作,直至达到收敛条件:对当前样本文章的样本文章文本进行特征提取,以得到样本文本特征,并对当前样本文章的样本文章封面图片进行特征提取,以得到样本图像特征;对样本文本特征和样本图像特征进行拼接,得到与当前样本文章匹配的当前多模态样本文章特征;将当前多模态样本文章特征输入当前信息识别神经网络以得到第一识别概率值,并将当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集,其中,第二识别概率集中包括至少一个第二识别概率值,至少一个第二识别概率值中的每个第二识别概率值为样本文章中记载的信息属于一种事件类型的概率值;利用第一识别概率值及第二识别概率集计算与当前样本文章目标损失值;
S3,在目标损失值达到收敛条件的情况下,确定当前信息识别神经网络为目标识别神经网络,其中,目标识别神经网络用于通过计算置信度来指示文章中所记载的信息的真实性,在置信度指示文章中记载有虚假信息的情况下,则删除文章。
可选地,本领域普通技术人员可以理解,图12所示的结构仅为示意,电子装置电子设备也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图12其并不对上述电子装置电子设备的结构造成限定。例如,电子装置电子设备还可包括比图12中所示更多或者更少的组件(如网络接口等),或者具有与图12所示不同的配置。
其中,存储器1202可用于存储软件程序以及模块,如本发明实施例中的信息识别神经网络训练方法和装置对应的程序指令/模块,处理器1204通过运行存储在存储器1202内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述信息识别神经网络训练方法。存储器1202可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1202可进一步包括相对于处理器1204远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。其中,存储器1202具体可以但不限于用于存储目标文章及标注样本文章等信息。作为一种示例,如图12所示,上述存储器1202中可以但不限于包括上述信息识别神经网络训练装置中的第一获取单元1002、处理单元1004及确定单元1006。此外,还可以包括但不限于上述信息识别神经网络训练装置中的其他模块单元,本示例中不再赘述。
可选地,上述的传输装置1206用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1206包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1206为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
此外,上述电子设备还包括:显示器1208,用于显示目标文章;和连接总线1210,用于连接上述电子设备中的各个模块部件。
在其他实施例中,上述终端设备或者服务器可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成点对点(P2P,Peer To Peer)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
根据本发明的实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述计算机可读的存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取在目标应用平台中发布的目标文章,其中,目标文章中至少包括文章文本、文章封面图片;
S2,对目标文章的文章文本进行特征提取,以得到文本特征,并对目标文章的文章封面图片进行特征提取,以得到图像特征;
S3,对文本特征和图像特征进行拼接,得到与目标文章匹配的多模态文章特征;
S4,根据多模态文章特征确定与目标文章匹配的目标置信度;
S5,在目标置信度指示目标文章中记载有虚假信息的情况下,从目标应用平台中删除目标文章。
可选地,在本实施例中,上述计算机可读的存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取多个样本文章,其中,样本文章中至少包括样本文章文本、样本文章封面图片;
S2,依次将每个样本文章作为当前样本文章执行以下操作,直至达到收敛条件:对当前样本文章的样本文章文本进行特征提取,以得到样本文本特征,并对当前样本文章的样本文章封面图片进行特征提取,以得到样本图像特征;对样本文本特征和样本图像特征进行拼接,得到与当前样本文章匹配的当前多模态样本文章特征;将当前多模态样本文章特征输入当前信息识别神经网络以得到第一识别概率值,并将当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集,其中,第二识别概率集中包括至少一个第二识别概率值,至少一个第二识别概率值中的每个第二识别概率值为样本文章中记载的信息属于一种事件类型的概率值;利用第一识别概率值及第二识别概率集计算与当前样本文章目标损失值;
S3,在目标损失值达到收敛条件的情况下,确定当前信息识别神经网络为目标识别神经网络,其中,目标识别神经网络用于通过计算置信度来指示文章中所记载的信息的真实性,在置信度指示文章中记载有虚假信息的情况下,则删除文章。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (15)
1.一种信息识别方法,其特征在于,包括:
获取在目标应用平台中发布的目标文章,其中,所述目标文章中至少包括文章文本、文章封面图片;
对所述目标文章的文章文本进行特征提取,以得到文本特征,并对所述目标文章的文章封面图片进行特征提取,以得到图像特征;
对所述文本特征和所述图像特征进行拼接,得到与所述目标文章匹配的多模态文章特征;
根据所述多模态文章特征确定与所述目标文章匹配的目标置信度;
在所述目标置信度指示所述目标文章中记载有虚假信息的情况下,从所述目标应用平台中删除所述目标文章。
2.根据权利要求1所述的方法,其特征在于,所述根据所述多模态文章特征确定与所述目标文章匹配的目标置信度包括:
将所述多模态文章特征输入第一全连接层,以得到与所述目标文章匹配的所述目标置信度,其中,所述第一全连接层中携带有通过多次训练得到的信息识别参数。
3.根据权利要求1所述的方法,其特征在于,在所述获取在目标应用平台中发布的目标文章之前,还包括:
获取多个样本文章,其中,所述样本文章中至少包括样本文章文本、样本文章封面图片;
依次将每个所述样本文章作为当前样本文章执行以下操作,直至达到收敛条件:
对所述当前样本文章的样本文章文本进行特征提取,以得到样本文本特征,并对所述当前样本文章的样本文章封面图片进行特征提取,以得到样本图像特征;
对所述样本文本特征和所述样本图像特征进行拼接,得到与所述当前样本文章匹配的当前多模态样本文章特征;
将所述当前多模态样本文章特征输入当前信息识别神经网络以得到第一识别概率值,并将所述当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集,其中,所述第二识别概率集中包括至少一个第二识别概率值,所述至少一个第二识别概率值中的每个所述第二识别概率值为所述样本文章中记载的信息属于一种事件类型的概率值;
利用所述第一识别概率值及所述第二识别概率集,计算与所述当前样本文章对应的目标损失值;
在所述目标损失值达到所述收敛条件的情况下,确定所述当前信息识别神经网络为目标识别神经网络,其中,所述目标识别神经网络用于通过计算置信度来指示当前文章中所记载的信息的真实性,在所述置信度指示所述文章中记载有虚假信息的情况下,将删除所述当前文章。
4.根据权利要求3所述的方法,其特征在于,所述利用所述第一识别概率值及所述第二识别概率集,计算与所述当前样本文章对应的目标损失值包括:
将所述第一识别概率值输入与所述当前信息识别神经网络对应的第一损失函数,并将所述第二识别概率集输入与所述当前事件识别神经网络对应的第二损失函数;
获取利用所述第一损失函数与所述第二损失函数所构建的目标函数输出的所述目标损失值。
5.根据权利要求3所述的方法,其特征在于,所述将所述当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集包括:
将所述多模态文章特征输入至少两个第二全连接层,以得到所述第二识别概率集,其中,所述至少两个第二全连接层中携带有通过多次训练得到的事件识别参数。
6.根据权利要求3所述的方法,其特征在于,在所述获取多个样本文章之前,还包括:
获取多个标注样本文章,其中,所述多个标注样本文章中的每个标注样本文章中包括样本文章文本、样本文章封面图片、样本文章属性标签及在所述目标应用平台中对所述标注样本文章的内容进行评价的标注文本,所述样本文章属性标签用于指示所述标注样本文章中记载有虚假信息或并未记载有虚假信息;
对每个所述标注样本文章分别进行文本预处理,得到每个所述标注样本文章的标注样本文本特征向量;
将每个所述标注样本文章的所述样本文本特征向量输入标签标注模型,得到与每个所述标注样本文章匹配的标注结果,其中,所述标注结果中包括所述标注样本文章中记载有虚假信息的概率值;
将与每个所述标注样本文章匹配的所述标注结果输入样本选择模型,得到筛选后的候选样本文章;
从所述候选样本文章中确定出所述多个样本文章。
7.根据权利要求6所述的方法,其特征在于,在所述确定所述当前信息识别神经网络为目标识别神经网络之前,还包括:
重复执行以下步骤,直至达到所述收敛条件;
获取当前参与训练的所述当前信息识别神经网络输出的当前训练结果;
确定与所述当前训练结果匹配的当前奖励值,其中,所述当前奖励值为所述当前训练结果对应的识别准确度与上一次的训练结果对应的识别准确度的差值;
将所述当前奖励值累加到历史奖励值,得到当前奖励值的和;
在所述当前奖励值的和达到目标值的情况下,确定达到所述收敛条件。
8.根据权利要求6所述的方法,其特征在于,所述将每个所述标注样本文章的所述样本文本特征向量输入标签标注模型,得到与每个所述标注样本文章匹配的标注结果包括:
在所述标签标注模型中重复执行以下步骤,直至遍历每个所述标注样本文章对应的全部的标注文本的标注文本特征向量:确定第i个标注样本文章,其中,i为大于等于1,且小于等于N的整数,N为所述标注样本文章的数量;将所述第i个标注样本文章的第j个所述标注文本特征向量输入所述标签标注模型,得到第j个中间文本向量,其中,j为大于等于1,且小于等于M的整数,M为所述第i个标注样本文章的标注文本的数量;
对所述第i个标注样本文章对应的M个中间文本向量进行加权求和计算,得到第i个结果向量;
确定与所述第i个标注样本文章对应的第i个权重;
将所述第i个结果向量及所述第i个权重输入第一激活函数,得到与所述第i个标注样本文章对应的第i个聚合隐层特征向量;
将所述第i个聚合隐层特征向量输入所述标签标注模型的第三全连接层,得到所述第i个所述标注样本文章的第i个标注结果。
9.根据权利要求6所述的方法,其特征在于,所述将与每个所述标注样本文章匹配的所述标注结果输入样本选择模型,得到筛选后的候选样本文章包括:
在所述样本选择模型中重复执行以下步骤,直至遍历所述多个标注样本文章:
确定当前标注样本文章;
获取与所述当前标注样本文章匹配的当前文章状态向量,其中,所述当前文章状态向量中包括以下信息:与所述当前标注样本文章匹配的当前标注结果、所述当前标注样本文章与通过所述样本选择模型已选出的标注样本文章之间的距离,及上一个标注样本文章输入所述信息识别神经网络得到的输出结果;
根据所述当前文章状态向量确定所述当前标注样本文章对应的保留概率;
在所述当前标注样本文章对应的保留概率大于目标阈值的情况下,确定所述当前标注样本文章为所述候选样本文章。
10.根据权利要求9所述的方法,其特征在于,所述根据所述当前文章状态向量确定所述当前标注样本文章对应的保留概率包括:
获取与所述当前文章状态向量匹配的当前状态权重;
将所述当前文章状态向量及所述当前状态权重输入逻辑函数,得到逻辑计算结果;
获取与所述逻辑计算结果匹配的当前逻辑权重;
将所述逻辑计算结果与所述当前逻辑权重输入第二激活函数,得到所述保留概率。
11.一种信息识别神经网络训练方法,其特征在于,包括:
获取多个样本文章,其中,所述样本文章中至少包括样本文章文本、样本文章封面图片;
依次将每个所述样本文章作为当前样本文章执行以下操作,直至达到收敛条件:
对所述当前样本文章的样本文章文本进行特征提取,以得到样本文本特征,并对所述当前样本文章的样本文章封面图片进行特征提取,以得到样本图像特征;
对所述样本文本特征和所述样本图像特征进行拼接,得到与所述当前样本文章匹配的当前多模态样本文章特征;
将所述当前多模态样本文章特征输入当前信息识别神经网络以得到第一识别概率值,并所述当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集,其中,所述第二识别概率集中包括至少一个第二识别概率值,所述至少一个第二识别概率值中的每个所述第二识别概率值为所述样本文章中记载的信息属于一种事件类型的概率值;
利用所述第一识别概率值及所述第二识别概率集计算与所述当前样本文章目标损失值;
在所述目标损失值达到所述收敛条件的情况下,确定所述当前信息识别神经网络为目标识别神经网络,其中,所述目标识别神经网络用于通过计算置信度来指示文章中所记载的信息的真实性,在所述置信度指示所述文章中记载有虚假信息的情况下,则删除所述文章。
12.一种信息识别装置,其特征在于,包括:
第一获取单元,用于获取在目标应用平台中发布的目标文章,其中,所述目标文章中至少包括文章文本、文章封面图片;
提取单元,用于对所述目标文章的文章文本进行特征提取,以得到文本特征,并对所述目标文章的文章封面图片进行特征提取,以得到图像特征;
拼接单元,用于对所述文本特征和所述图像特征进行拼接,得到与所述目标文章匹配的多模态文章特征;
第一确定单元,用于根据所述多模态文章特征确定与所述目标文章匹配的目标置信度;
识别单元,用于在所述目标置信度指示所述目标文章中记载有虚假信息的情况下,从所述目标应用平台中删除所述目标文章。
13.一种信息识别神经网络训练装置,其特征在于,包括:
第一获取单元,用于获取多个样本文章,其中,所述样本文章中至少包括样本文章文本、样本文章封面图片;
处理单元,用于依次将每个所述样本文章作为当前样本文章执行以下操作,直至达到收敛条件:对所述当前样本文章的样本文章文本进行特征提取,以得到样本文本特征,并对所述当前样本文章的样本文章封面图片进行特征提取,以得到样本图像特征;对所述样本文本特征和所述样本图像特征进行拼接,得到与所述当前样本文章匹配的当前多模态样本文章特征;将所述当前多模态样本文章特征输入当前信息识别神经网络以得到第一识别概率值,并所述当前多模态样本文章特征输入当前事件识别神经网络以得到第二识别概率集,其中,所述第二识别概率集中包括至少一个第二识别概率值,所述至少一个第二识别概率值中的每个所述第二识别概率值为所述样本文章中记载的信息属于一种事件类型的概率值;利用所述第一识别概率值及所述第二识别概率集计算与所述当前样本文章目标损失值;
确定单元,用于在所述目标损失值达到所述收敛条件的情况下,确定所述当前信息识别神经网络为目标识别神经网络,其中,所述目标识别神经网络用于通过计算置信度来指示文章中所记载的信息的真实性,在所述置信度指示所述文章中记载有虚假信息的情况下,则删除所述文章。
14.一种计算机可读的存储介质,所述计算机可读的存储介质包括存储的程序,其中,所述程序运行时执行所述权利要求1至10任一项中所述的方法或所述权利要求11中所述的方法。
15.一种电子设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至10任一项中所述的方法或所述权利要求11中所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010598887.4A CN111611981A (zh) | 2020-06-28 | 2020-06-28 | 信息识别方法和装置及信息识别神经网络训练方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010598887.4A CN111611981A (zh) | 2020-06-28 | 2020-06-28 | 信息识别方法和装置及信息识别神经网络训练方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111611981A true CN111611981A (zh) | 2020-09-01 |
Family
ID=72199161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010598887.4A Pending CN111611981A (zh) | 2020-06-28 | 2020-06-28 | 信息识别方法和装置及信息识别神经网络训练方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111611981A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101488A (zh) * | 2020-11-18 | 2020-12-18 | 北京沃东天骏信息技术有限公司 | 机器学习模型的训练方法、训练装置及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032733A (zh) * | 2019-03-12 | 2019-07-19 | 中国科学院计算技术研究所 | 一种针对新闻长文本的谣言检测方法及系统 |
CN110188194A (zh) * | 2019-04-26 | 2019-08-30 | 哈尔滨工业大学(深圳) | 一种基于多任务学习模型的假新闻检测方法及系统 |
CN110597965A (zh) * | 2019-09-29 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 文章的情感极性分析方法、装置、电子设备及存储介质 |
CN110795657A (zh) * | 2019-09-25 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 文章推送及模型训练方法、装置、存储介质和计算机设备 |
CN110889430A (zh) * | 2019-10-24 | 2020-03-17 | 中国科学院计算技术研究所 | 基于多域视觉特征的新闻图像检测方法及系统、装置 |
CN111046664A (zh) * | 2019-11-26 | 2020-04-21 | 哈尔滨工业大学(深圳) | 基于多粒度的图卷积神经网络的假新闻检测方法及系统 |
CN111079444A (zh) * | 2019-12-25 | 2020-04-28 | 北京中科研究院 | 一种基于多模态关系的网络谣言检测方法 |
US20200151222A1 (en) * | 2018-11-09 | 2020-05-14 | Accenture Global Solutions Limited | Dark web content analysis and identification |
-
2020
- 2020-06-28 CN CN202010598887.4A patent/CN111611981A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200151222A1 (en) * | 2018-11-09 | 2020-05-14 | Accenture Global Solutions Limited | Dark web content analysis and identification |
CN110032733A (zh) * | 2019-03-12 | 2019-07-19 | 中国科学院计算技术研究所 | 一种针对新闻长文本的谣言检测方法及系统 |
CN110188194A (zh) * | 2019-04-26 | 2019-08-30 | 哈尔滨工业大学(深圳) | 一种基于多任务学习模型的假新闻检测方法及系统 |
CN110795657A (zh) * | 2019-09-25 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 文章推送及模型训练方法、装置、存储介质和计算机设备 |
CN110597965A (zh) * | 2019-09-29 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 文章的情感极性分析方法、装置、电子设备及存储介质 |
CN110889430A (zh) * | 2019-10-24 | 2020-03-17 | 中国科学院计算技术研究所 | 基于多域视觉特征的新闻图像检测方法及系统、装置 |
CN111046664A (zh) * | 2019-11-26 | 2020-04-21 | 哈尔滨工业大学(深圳) | 基于多粒度的图卷积神经网络的假新闻检测方法及系统 |
CN111079444A (zh) * | 2019-12-25 | 2020-04-28 | 北京中科研究院 | 一种基于多模态关系的网络谣言检测方法 |
Non-Patent Citations (4)
Title |
---|
KASHYAP POPAT ET AL.: "DeClarE: Debunking Fake News and False Claims using Evidence-Aware Deep Learning", 《ARXIV》 * |
YAQING WANG ET AL.: "EANN: Event Adversarial Neural Networks for Multi-Modal Fake News Detection", 《KDD 2018》 * |
YAQING WANG ET AL.: "Weak Supervision for Fake News Detection via Reinforcement Learning", 《ARXIV》 * |
郭增荣: "基于深度学习的微博新闻谣言检测研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101488A (zh) * | 2020-11-18 | 2020-12-18 | 北京沃东天骏信息技术有限公司 | 机器学习模型的训练方法、训练装置及存储介质 |
CN112101488B (zh) * | 2020-11-18 | 2021-06-25 | 北京沃东天骏信息技术有限公司 | 机器学习模型的训练方法、训练装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110162593B (zh) | 一种搜索结果处理、相似度模型训练方法及装置 | |
CN110347940A (zh) | 用于优化兴趣点标签的方法和装置 | |
CN111382283B (zh) | 资源类别标签标注方法、装置、计算机设备和存储介质 | |
CN110837602A (zh) | 基于表示学习和多模态卷积神经网络的用户推荐方法 | |
CN109325201A (zh) | 实体关系数据的生成方法、装置、设备及存储介质 | |
CN111291765A (zh) | 用于确定相似图片的方法和装置 | |
CN111626362A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN113657087B (zh) | 信息的匹配方法及装置 | |
CN111310074A (zh) | 兴趣点的标签优化方法、装置、电子设备和计算机可读介质 | |
CN113628059A (zh) | 一种基于多层图注意力网络的关联用户识别方法及装置 | |
CN113761219A (zh) | 基于知识图谱的检索方法、装置、电子设备及存储介质 | |
CN111783903A (zh) | 文本处理方法、文本模型的处理方法及装置、计算机设备 | |
CN111159563A (zh) | 用户兴趣点信息的确定方法、装置、设备及存储介质 | |
CN111666766A (zh) | 数据处理方法、装置和设备 | |
CN113989476A (zh) | 对象识别方法及电子设备 | |
CN116955707A (zh) | 内容标签的确定方法、装置、设备、介质及程序产品 | |
CN115129913A (zh) | 敏感词挖掘方法及其装置、设备、介质 | |
CN117891939A (zh) | 粒子群算法结合cnn卷积神经网络的文本分类方法 | |
CN113837836A (zh) | 模型推荐方法、装置、设备及存储介质 | |
CN114329004A (zh) | 数字指纹生成、数据推送方法、装置和存储介质 | |
CN111611981A (zh) | 信息识别方法和装置及信息识别神经网络训练方法和装置 | |
WO2024098282A1 (zh) | 一种几何解题方法、装置、设备及存储介质 | |
CN114580354B (zh) | 基于同义词的信息编码方法、装置、设备和存储介质 | |
CN115952770A (zh) | 一种数据标准化的处理方法、装置、电子设备及存储介质 | |
CN116958590A (zh) | 媒体资源的处理方法和装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200901 |
|
RJ01 | Rejection of invention patent application after publication |