CN111400452A - 文本信息分类处理方法、电子设备及计算机可读存储介质 - Google Patents

文本信息分类处理方法、电子设备及计算机可读存储介质 Download PDF

Info

Publication number
CN111400452A
CN111400452A CN202010183299.4A CN202010183299A CN111400452A CN 111400452 A CN111400452 A CN 111400452A CN 202010183299 A CN202010183299 A CN 202010183299A CN 111400452 A CN111400452 A CN 111400452A
Authority
CN
China
Prior art keywords
information
neural network
layer
matrix
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010183299.4A
Other languages
English (en)
Other versions
CN111400452B (zh
Inventor
徐挺洋
卞天
荣钰
黄俊洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010183299.4A priority Critical patent/CN111400452B/zh
Publication of CN111400452A publication Critical patent/CN111400452A/zh
Application granted granted Critical
Publication of CN111400452B publication Critical patent/CN111400452B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请实施例公开了一种基于人工智能技术的互联网文本信息分类处理方法、电子设备及计算机可读存储介质,包括:根据目标文本信息的转发关系和回复关系,确定目标文本信息的传播结构;将传播结构输入到双向图卷积神经网络中,得到分类信息,分类信息是根据双向图卷积神经网络的目标特征信息确定出的,双向图卷积神经网络包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络,目标特征信息是根据第一特征信息和第二特征信息确定出的,第一特征信息是根据传播结构确定出的第一图卷积神经网络的特征信息,第二特征信息是根据传播结构确定出的第二图卷积神经网络的特征信息;根据分类信息对目标文本信息进行分类处理。

Description

文本信息分类处理方法、电子设备及计算机可读存储介质
技术领域
本申请实施例涉及互联网技术领域,具体而言,本申请涉及一种基于人工智能技术的互联网文本信息分类处理方法、电子设备及计算机可读存储介质。
背景技术
随着互联网的快速发展,社交媒体已经成为用户获取信息、表达意见的便捷在线平台。由于社交媒体使用方便且用户众多,导致社交媒体上的信息量飞速增长,飞速增长的信息量中难免存在很多谣言,给社会带来巨大危害。于是,如何快速有效地识别社交媒体上的谣言引起了广泛研究,比如基于传统的机器学习方法的谣言检测,又比如基于各种神经网络的谣言检测。
然而,本申请的发明人在具体实现过程中发现:传统的机器学习方法虽然在谣言检测问题上取得了一定效果,但其依赖人工提取特征,十分耗时费力;循环神经网络、卷积神经网络等,则忽视了谣言的传播结构所包含的特征,递归神经网络则聚合了更多来自于叶子节点的信息,这与谣言传播过程中越晚发布的帖子的信息量越少相违背,难以提高谣言检测的准确度。
发明内容
本申请实施例的目的旨在至少能解决上述的技术缺陷之一,特提出以下技术方案:
一方面,提供了一种文本信息分类处理方法,包括:
根据目标文本信息的转发关系和回复关系,确定目标文本信息的传播结构;
将传播结构输入到双向图卷积神经网络中,得到目标文本信息的分类信息,其中,分类信息是根据双向图卷积神经网络的目标特征信息确定出的,双向图卷积神经网络包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络,目标特征信息是根据第一特征信息和第二特征信息确定出的,第一特征信息是根据传播结构确定出的第一图卷积神经网络的特征信息,第二特征信息是根据传播结构确定出的第二图卷积神经网络的特征信息;
根据分类信息对目标文本信息进行分类处理。
一方面,提供了一种文本信息分类处理装置,包括:
第一确定模块,用于根据目标文本信息的转发关系和回复关系,确定目标文本信息的传播结构;
第一处理模块,用于将传播结构输入到双向图卷积神经网络中,得到目标文本信息的分类信息,其中,分类信息是根据双向图卷积神经网络的目标特征信息确定出的,双向图卷积神经网络包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络,目标特征信息是根据第一特征信息和第二特征信息确定出的,第一特征信息是根据传播结构确定出的第一图卷积神经网络的特征信息,第二特征信息是根据传播结构确定出的第二图卷积神经网络的特征信息;
第二处理模块,用于根据分类信息对目标文本信息进行分类处理。
在一种可能的实现方式中,根据传播结构确定第一图卷积神经网络的特征信息,得到第一特征信息是通过第一特征确定模块实现的,第一特征确定模块用于:
确定传播结构的第一邻接矩阵和特征矩阵,第一邻接矩阵包括传播结构中从上层节点到下层节点之间的各个边,特征矩阵包括传播结构中每个节点的特征向量,每个节点的特征向量为该每个节点对应的文本的词向量的词频逆文本频率值;
对第一邻接矩阵中的部分边进行丢弃,得到第二邻接矩阵;
基于特征矩阵和第二邻接矩阵,确定第一图卷积神经网络的特征信息,得到第一特征信息。
在一种可能的实现方式中,根据传播结构确定第二图卷积神经网络的特征信息,得到第二特征信息是通过第二特征确定模块实现的,第二特征确定模块用于:
对第二邻接矩阵进行转置,得到第三邻接矩阵;
基于特征矩阵和第三邻接矩阵,确定第二图卷积神经网络的特征信息,得到第二特征信息。
在一种可能的实现方式中,第一特征确定模块在对第一邻接矩阵中的部分边进行丢弃,得到第二邻接矩阵时,具体用于:
丢弃第一邻接矩阵中预定数量或预定比例的边,得到第二邻接矩阵。
在一种可能的实现方式中,第一特征确定模块在基于特征矩阵和第二邻接矩阵,确定第一图卷积神经网络的特征信息,得到第一特征信息时,具体用于:
对第二邻接矩阵进行正则化,得到正则化后的第二邻接矩阵;
确定第一图卷积神经网络的M层图卷积层分别对应的参数矩阵,M为正整数;
基于预定计算公式,根据正则化后的第二邻接矩阵、特征矩阵和M层图卷积层分别对应的参数矩阵,确定M层图卷积层分别对应的初始特征信息;
根据M层图卷积层分别对应的初始特征信息,确定第一图卷积神经网络的特征信息,得到第一特征信息。
在一种可能的实现方式中,第一特征确定模块在基于预定计算公式,根据正则化后的第二邻接矩阵、特征矩阵和M层图卷积层分别对应的参数矩阵,确定M层图卷积层分别对应的初始特征信息时,具体用于:
当M等于1时,基于预定计算公式,根据正则化后的第二邻接矩阵、特征矩阵和第一层图卷积层的参数矩阵,确定第一层图卷积层的初始特征信息;
当M大于1时,基于预定计算公式,根据正则化后的第二邻接矩阵、第M-1层图卷积层的初始特征信息和第M层图卷积层的参数矩阵,确定第M层图卷积层的初始特征信息。
在一种可能的实现方式中,每一层图卷积层的初始特征信息均包括传播结构中每个节点的初始特征信息,第一特征确定模块在根据M层图卷积层分别对应的初始特征信息,确定第一图卷积神经网络的特征信息时,具体用于:
将第M层图卷积层中每个节点的初始特征信息分别与第M-1层图卷积层中根节点的初始特征信息进行拼接,得到第M层图卷积层的中间特征信息,其中,当M等于1时,第M-1层图卷积层的初始特征信息为特征矩阵;
对第M层图卷积层的中间特征信息进行平均池化处理,得到第一图卷积神经网络的特征信息,第M层图卷积层的中间特征信息包括传播结构中每个节点的中间特征信息。
在一种可能的实现方式中,第二特征确定模块在基于特征矩阵和第三邻接矩阵,确定第二图卷积神经网络的特征信息,得到第二特征信息时,具体用于:
对第三邻接矩阵进行正则化,得到正则化后的第三邻接矩阵;
确定第二图卷积神经网络的L层图卷积层分别对应的参数矩阵,L为正整数;
基于预定计算公式,根据正则化后的第三邻接矩阵、特征矩阵和L层图卷积层分别对应的参数矩阵,确定L层图卷积层分别对应的初始特征信息;
根据L层图卷积层分别对应的初始特征信息,确定第二图卷积神经网络的特征信息,得到第二特征信息。
在一种可能的实现方式中,根据第一特征信息和第二特征信息,确定目标特征信息是通过第二确定模块实现的,第二确定模块用于对第一特征信息和第二特征信息进行拼接,得到目标特征信息。
在一种可能的实现方式中,M的取值为2。
在一种可能的实现方式中,L的取值为2。
一方面,提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行所述程序时实现上述的分类处理方法。
一方面,提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现上述的分类处理方法。
本申请实施例提供的文本信息分类处理方法,根据目标文本信息的传播结构,确定包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络的双向图卷积神经网络的目标特征信息,使得图卷积神经网络可以有效学习目标文本信息的传播结构,从而可以充分考虑目标文本信息的传播结构,有效捕捉目标文本信息传播结构的特征信息,进而对目标文本信息进行分类,极大提高目标文本信息的分类准确度和分类效率,便于对对社交媒体上的各种信息进行是否为谣言的分类。
本申请实施例附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请实施例上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例的文本信息分类处理方法的流程示意图;
图2为本申请实施例的图卷积神经网络的传播结构示意图;
图3为本申请实施例的文本信息分类处理方法的网络结构示意图;
图4为本申请实施例的文本信息分类处理装置的基本结构示意图;
图5为本申请实施例的电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本申请的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
下面以具体地实施例对本申请实施例的技术方案以及本申请实施例的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
具体地,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
其中,人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
具体地,机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
具体地,自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
本申请实施例提供的方法涉及人工智能的机器学习及自然语言处理等技术,具体通过如下实施例进行说明:
本申请一个实施例提供了一种文本信息分类处理方法,该方法由计算机设备执行,该计算机设备可以是终端或者服务器。终端可以是台式设备或者移动终端。服务器可以是独立的物理服务器、物理服务器集群或者虚拟服务器。如图1所示,该方法包括:
步骤S110,根据目标文本信息的转发关系和回复关系,确定目标文本信息的传播结构。
具体地,目标文本信息可以是微博、论坛、某空间及朋友圈等社交媒体平台上的普通文本信息或热门文本信息,例如某个帖子、某篇文章等,当然也可以是其它交流平台上的文本信息,本申请实施例不对其作限制。
具体地,用户在查看发布在社交媒体平台上的文本信息时,不仅可以根据需要对文本信息进行评论、分享、转发等操作,而且可以对文本信息的已有评论进行回复等。其中,当用户对文本信息进行分享或转发时,可以形成文本信息的转发关系,当用户对文本信息进行评论或对文本信息的已有评论进行回复时,可以形成文本信息的回复关系。
具体地,在需要对某个文本信息(即目标文本信息)进行分类处理时,不仅可以获取到该目标文本信息的文本内容,而且可以获取到该目标文本信息的转发关系和回复关系。其中,在获取到目标文本信息的转发关系和回复关系,可以根据获取到的转发关系和回复关系,追溯出目标文本信息的传播结构,即根据目标文本信息的转发关系和回复关系,确定目标文本信息的传播结构。
步骤S120,将传播结构输入到双向图卷积神经网络中,得到目标文本信息的分类信息,其中,分类信息是根据双向图卷积神经网络的目标特征信息确定出的,双向图卷积神经网络包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络,目标特征信息是根据第一特征信息和第二特征信息确定出的,第一特征信息是根据传播结构确定出的第一图卷积神经网络的特征信息,第二特征信息是根据传播结构确定出的第二图卷积神经网络的特征信息。
具体地,可以将目标文本信息的传播结构作为构建的双向图卷积神经网络的输入,来充分利用目标文本信息的传播结构。其中,双向图卷积神经网络包括自顶向下结构的图卷积神经网络(即第一图卷积神经网络)和自底向上结构的图卷积神经网络(即第二图卷积神经网络)。根据传播结构确定出的双向图卷积神经网络的特征信息(记作目标特征信息),实际上是根据自顶向下结构的图卷积神经网络捕捉的该传播结构的特征信息(记作第一特征信息)和自底向上结构的图卷积神经网络捕捉的该传播结构的特征信息(记作第二特征信息)确定出的。
步骤S130,根据分类信息对目标文本信息进行分类处理。
具体地,在得到目标文本信息的分类信息后,可以根据该分类信息对目标文本信息进行分类处理,比如对目标文本信息进行谣言或非谣言的分类,即检测目标文本信息是否为谣言,对从而完成社交媒体上的文本信息的分类任务。
本申请实施例提供的分类处理方法,根据目标文本信息的传播结构,确定包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络的双向图卷积神经网络的目标特征信息,使得图卷积神经网络可以有效学习目标文本信息的传播结构,从而可以充分考虑目标文本信息的传播结构,有效捕捉目标文本信息传播结构的特征信息,进而对目标文本信息进行分类,极大提高目标文本信息的分类准确度和分类效率,便于对对社交媒体上的各种信息进行是否为谣言的分类。
在一种可能的实现方式中,在根据传播结构确定第一图卷积神经网络的特征信息的过程中,可以执行如下处理:
确定传播结构的第一邻接矩阵和特征矩阵,第一邻接矩阵包括传播结构中从上层节点到下层节点之间的各个边,特征矩阵包括所述传播结构中每个节点的特征向量,每个节点的特征向量为该每个节点对应的文本的词向量的词频逆文本频率值;
对第一邻接矩阵中的部分边进行丢弃,得到第二邻接矩阵;
基于特征矩阵和第二邻接矩阵,确定第一图卷积神经网络的特征信息,得到第一特征信息。
具体地,双向图卷积神经网络的目标是学习目标文本信息的传播结构上的信号或特征的一个映射,因此,需要将目标文本信息的传播结构输入到双向图卷积神经网络中,得到双向图卷积神经网络针对该传播结构的目标特征信息。在实际应用中,是通过将传播结构的特征矩阵和邻接矩阵(即第一邻接矩阵)输入到双向图卷积神经网络,得到双向图卷积神经网络针对该传播结构的目标特征信息。其中,传播结构可以为G=(V,E)的形式,第一邻接矩阵可以用A表示,特征矩阵可以用X表示。
具体地,双向图卷积神经网络中的自顶向下结构的图卷积神经网络(即第一图卷积神经网络),根据传播结构的第一邻接矩阵和特征矩,会产生一个节点级别的输出Z1(一个N*F1的特征矩阵,F1表示每一个节点的输出特征数),第一图卷积神经网络的图级别的输出可以通过引入一些池化操作来建模。双向图卷积神经网络中的自底向上结构的图卷积神经网络(即第二图卷积神经网络),根据传播结构的第一邻接矩阵和特征矩,会产生一个节点级别的输出Z2(一个N*F2的特征矩阵,F2表示每一个节点的输出特征数),第二图卷积神经网络的图级别的输出可以通过引入一些池化操作来建模。其中,上述的Z1即为根据传播结构确定出的第一图卷积神经网络的特征信息(即第一特征信息),上述的Z2即为根据传播结构确定出的第二图卷积神经网络的特征信息(即第二特征信息)。在得到Z1和Z2后,可以根据Z1和Z2得到双向图卷积神经网络针对目标文本信息的传播结构的目标特征信息。
具体地,传播结构中每一个节点i的特征向量xi,可以写成一个N*D的特征矩阵(N表示节点数,D表示输入的特征数),特征矩阵包括传播结构中每个节点的特征向量,矩阵形式的图结构的特征描述,通常是以第一邻接矩阵的形式(或者其他的形式)来表示。其中,每个节点i的特征向量xi由每个节点对应的文本中词向量的TF-IDF(Term Frequency-Inverse Document Frequency,词频逆文本频率值)值构成,即每个节点的特征向量为该每个节点对应的文本的词向量的词频逆文本频率值;第一邻接矩阵包括传播结构中从上层节点到下层节点之间的各个边,如图2(b)所示,图2(b)中的自顶向下的粗线为其中一个边的示例,对于其它的边也与该示例类似,在此不再赘述。需要说明的是,图2(a)表示无方向的图卷积神经网络,图2(c)表示自底向上的图卷积神经网络。
具体地,在每轮训练中,为避免过拟合问题,可以通过DropEdge方法,对第一邻接矩阵中的部分边进行丢弃,得到第二邻接矩阵(记作A')。在得到第二邻接矩阵后,可以基于特征矩阵和第二邻接矩阵,确定第一图卷积神经网络的特征信息,得到第一特征信息。
具体地,可以通过丢弃第一邻接矩阵中预定数量或预定比例的边的方式,对第一邻接矩阵中的部分边进行丢弃。其中,丢弃第一邻接矩阵中预定数量或预定比例的边的方式,包括但不限于以下几种方式:
方式一,随机丢弃该边集合中预定数量或预定比例的边;
方式二,根据边所连接的两个节点的度数和丢弃该边集合中的部分边;其中,度的定义可以为:在图卷积神经网络中,节点v的度数定义为和其相连的节点的边个数。特殊的,如果这个图是一个有向图(图边是有方向的),会区分这个节点的出度(从这个节点v出发到其他节点的边数目)和入度(从其他节点出发到这个节点的边数目)。具体的,按照与每条边所连接的两个节点的度数和呈反比的概率在该边集合中确定该部分边;丢弃该边集合中的该部分边。根据度数和丢弃边具体可以是对于两个节点v、w,计算这两个节点的度数的和,如果这两个节点度数和越大,那么这两个点之间的边e_{vw}被丢弃的概率越低。
方式三,根据该边的属性丢弃该边集合中的部分;根据该边的属性确定丢弃概率,该边的属性是和业务相关的,例如,可以根据用户在社交网络里面的影响力来判断和他相连的边被丢弃的概率。例如,可以设定:如果这个用户是大V(这里大V可以看作用户的一个属性),那么和他相连的边丢弃的概率为0.1,如果这个用户不是大V,则和他相连的边丢弃概率是0.5。根据该丢弃概率在该边集合中确定该部分边,丢弃该边集合中的该部分边,之后便可更新邻接矩阵,得到第二邻接矩阵。
在一种可能的实现方式中,在根据传播结构确定第二图卷积神经网络的特征信息,得到第二特征信息的过程中,可以执行如下处理:
对第二邻接矩阵进行转置,得到第三邻接矩阵;
基于特征矩阵和第三邻接矩阵,确定第二图卷积神经网络的特征信息,得到第二特征信息。
具体地,自顶向下结构的图卷积神经网络(即第一图卷积神经网络)和自底向上结构的图卷积神经网络(即第二图卷积神经网络)的邻接矩阵互为转置关系,如果将第二图卷积神经网络的邻接矩阵记作第三邻接矩阵,则第三邻接矩阵与第一图卷积神经网络的邻接矩阵(即第二邻接矩阵)互为转置,换言之,第三邻接矩阵是通过对第二邻接矩阵进行转置得到的。自顶向下结构的图卷积神经网络(即第一图卷积神经网络)的特征矩阵与自底向上结构的图卷积神经网络(即第二图卷积神经网络)的特征矩阵相同,均为上述的特征矩阵X。
具体地,在得到第一邻接矩阵后,可以基于特征矩阵和第三邻接矩阵,确定第二图卷积神经网络的特征信息,得到第二特征信息。
在一个示例中,假如第一图卷积神经网络的邻接矩阵为ATD,第二邻接矩阵为A',则ATD=A',假如第二图卷积神经网络的邻接矩阵为ABU,则ABU=A'T,即第二图卷积神经网络的邻接矩阵与第一图卷积神经网络的邻接矩阵互为转置。
在一种可能的实现方式中,在基于特征矩阵和第二邻接矩阵,确定第一图卷积神经网络的特征信息,得到第一特征信息的过程中,可以先对第二邻接矩阵进行正则化,得到正则化后的第二邻接矩阵;再确定第一图卷积神经网络的M层图卷积层分别对应的参数矩阵,M为正整数;再基于预定计算公式,根据正则化后的第二邻接矩阵、特征矩阵和M层图卷积层分别对应的参数矩阵,确定M层图卷积层分别对应的初始特征信息;再根据M层图卷积层分别对应的初始特征信息,确定第一图卷积神经网络的特征信息,得到第一特征信息。
具体地,在基于预定计算公式,根据正则化后的第二邻接矩阵、特征矩阵和M层图卷积层分别对应的参数矩阵,确定M层图卷积层分别对应的初始特征信息的过程中,当M等于1时,基于预定计算公式,根据正则化后的第二邻接矩阵、特征矩阵和第一层图卷积层的参数矩阵,确定第一层图卷积层的初始特征信息;当M大于1时,基于预定计算公式,根据正则化后的第二邻接矩阵、第M-1层图卷积层的初始特征信息和第M层图卷积层的参数矩阵,确定第M层图卷积层的初始特征信息。
具体地,M的取值为1、2、3、8等,也可以根据实际需要设定为其它数值,本申请实施例不对其作限制。
在实际应用中,可以通过一个激活函数,来确定第一图卷积神经网络的M层图卷积层分别对应的初始特征信息,其中,可以将正则化后的第二邻接矩阵、特征矩阵和M层图卷积层分别对应的参数矩阵,作为该激活函数的参数,即上述的预定计算公式是一个关于正则化后的第二邻接矩阵、特征矩阵和M层图卷积层分别对应的参数矩阵的激活函数。该激活函数可以为ReLU(Rectified Linear Unit,修正线性单元)函数,ReLU函数为线性整流函数,是一种人工神经网络中常用的激活函数,通常指代以斜坡函数及其变种为代表的非线性函数。
具体地,可以将正则化后的第二邻接矩阵、特征矩阵和第m层图卷积层对应的参数矩阵,作为该激活函数的参数,来得到第一图卷积神经网络的第m层图卷积层的初始特征信息,其中,m的取值范围为1至M。在依次得到第1层图卷积层的初始特征信息、第2层图卷积层的初始特征信息、…、第M层图卷积层的初始特征信息后,可以进一步根据第1层图卷积层的初始特征信息、第2层图卷积层的初始特征信息、…、第M层图卷积层的初始特征信息,得到第一图卷积神经网络的特征信息(即第一特征信息)。
针对第一图卷积神经网络,下面通过具体示例,对M层图卷积层分别对应的初始特征信息的确定,进行具体介绍:
第一,对于第1层图卷积层,其对应的初始特征信息可以通过如下计算公式(1)进行计算:
Figure BDA0002413304610000131
其中,
Figure BDA0002413304610000132
表示第一图卷积神经网络的第1层图卷积层(或称作隐藏层)的特征信息(即初始特征信息),σ()表示激活函数,即上述的ReLU函数,X为特征矩阵,
Figure BDA0002413304610000133
为第1层图卷积层的参数矩阵,ATD表示第一图卷积神经网络的邻接矩阵(即第二邻接矩阵),
Figure BDA0002413304610000134
表示正则化后的第二邻接矩阵。上述的计算公式(1)即为上述的预定计算公式。
对于任一邻接矩阵来说,可以采用如下方式进行正则化处理:
Figure BDA0002413304610000135
Figure BDA0002413304610000136
其中,
Figure BDA0002413304610000137
表示增加了自连接的邻接矩阵,IN为N*N的单位矩阵,
Figure BDA0002413304610000138
表示第i个节点的度,j的取值范围为1到N。针对
Figure BDA0002413304610000139
的计算过程与上述
Figure BDA00024133046100001310
的计算过程类似,只是用
Figure BDA00024133046100001311
代替
Figure BDA00024133046100001312
在此不再赘述。
第二,对于第2层图卷积层,其对应的初始特征信息可以通过如下计算公式(2)进行计算:
Figure BDA00024133046100001313
其中,
Figure BDA00024133046100001314
表示第一图卷积神经网络的第2层图卷积层(或称作隐藏层)的特征信息(即初始特征信息),σ()表示激活函数,即上述的ReLU函数,
Figure BDA0002413304610000141
为第一图卷积神经网络的第1层图卷积层的初始特征信息,
Figure BDA0002413304610000142
为第2层图卷积层的参数矩阵,ATD表示第一图卷积神经网络的邻接矩阵(即第二邻接矩阵),
Figure BDA0002413304610000143
表示正则化后的第二邻接矩阵。上述的计算公式(2)也为上述的预定计算公式。
第三,对于第3层图卷积层,其对应的初始特征信息可以通过如下计算公式(3)进行计算:
Figure BDA0002413304610000144
其中,
Figure BDA0002413304610000145
表示第一图卷积神经网络的第3层图卷积层(或称作隐藏层)的特征信息(即初始特征信息),σ()表示激活函数,即上述的ReLU函数,
Figure BDA0002413304610000146
为第一图卷积神经网络的第2层图卷积层的初始特征信息,
Figure BDA0002413304610000147
为第3层图卷积层的参数矩阵,ATD表示第一图卷积神经网络的邻接矩阵(即第二邻接矩阵),
Figure BDA0002413304610000148
表示正则化后的第二邻接矩阵。上述的计算公式(3)也为上述的预定计算公式。
依次类推,对于第M层图卷积层,其对应的初始特征信息可以通过如下计算公式(4)进行计算:
Figure BDA0002413304610000149
其中,
Figure BDA00024133046100001410
表示第一图卷积神经网络的第M层图卷积层(或称作隐藏层)的特征信息(即初始特征信息),σ()表示激活函数,即上述的ReLU函数,
Figure BDA00024133046100001411
为第一图卷积神经网络的第M-1层图卷积层的初始特征信息,
Figure BDA00024133046100001412
为第M层图卷积层的参数矩阵,ATD表示第一图卷积神经网络的邻接矩阵(即第二邻接矩阵),
Figure BDA00024133046100001413
表示正则化后的第二邻接矩阵。上述的计算公式(4)也为上述的预定计算公式。
需要说明的是,在图卷积层之间可以使用Dropout来避免过拟合。同时,通过上述介绍可以看出:当M等于1时,基于预定计算公式,根据正则化后的第二邻接矩阵、特征矩阵和第一层图卷积层的参数矩阵,确定第一层图卷积层的初始特征信息;当M大于1时,基于预定计算公式,根据正则化后的第二邻接矩阵、第M-1层图卷积层的初始特征信息和第M层图卷积层的参数矩阵,确定第M层图卷积层的初始特征信息。
在实际应用中,通过经验发现M=2时的双向图卷积神经网络的分类性能较好,因此,可以根据经验将M的取值设定为2。当M取值为2时,第一图卷积神经网络的第1层图卷积层的初始特征信息为上述的
Figure BDA0002413304610000151
第一图卷积神经网络的第2层图卷积层的初始特征信息为上述的
Figure BDA0002413304610000152
其中,
Figure BDA0002413304610000153
具体地,由于谣言事件的源帖总是包含有丰富的信息,并产生广泛的影响,因此,有必要更好地利用来自源帖的信息,从节点与源帖之间的关系中学习更准确的节点表示(即节点的特征信息)。通常,每一层图卷积层的初始特征信息均包括传播结构中每个节点的初始特征信息,于是,在根据M层图卷积层分别对应的初始特征信息,确定第一图卷积神经网络的特征信息的过程中,可以先建立各层图卷积层分别包括的各个节点的初始特征信息与源帖之间的关系,来得到更准确的各个节点表示,再根据包括更准确的各个节点表示的M层图卷积层分别对应的初始特征信息,确定第一图卷积神经网络的特征信息。其中,为便于区分与描述,可以将包括更准确的各个节点表示的M层图卷积层分别对应的初始特征信息,记作M层图卷积层的中间特征信息。
换言之,可以通过将第M层图卷积层中每个节点的初始特征信息分别与第M-1层图卷积层中根节点的初始特征信息进行拼接,得到第M层图卷积层的中间特征信息,来建立各层图卷积层分别包括的各个节点的初始特征信息与源帖之间的关系,其中,当M等于1时,第M-1层图卷积层为第一图卷积神经网络的初始层,该初始层的初始特征信息为上述的特征矩阵,即当M等于1时,第M-1层图卷积层的初始特征信息为特征矩阵。
具体地,对于第一图卷积神经网络的第m层图卷积层,可以通过将第m层图卷积层的初始特征信息与第m-1层的根节点的初始特征信息拼接起来,构造一个新的特征矩阵,即将每层图卷积层的初始特征信息与其上一层图卷积层的根节点的初始特征信息拼接起来,构造一个新的特征矩阵,该新的特征矩阵即为上述的第m层图卷积层的中间特征信息,m的取值范围为1至M。
在一个示例中,该拼接过程可以表示为如下公式(5)所示的形式:
Figure BDA0002413304610000161
其中,
Figure BDA0002413304610000162
表示第m-1层图卷积层中根据节点的初始特征信息,
Figure BDA0002413304610000163
表示第m层图卷积层的中间特征信息,concat()表示拼接。每一层图卷积层的初始特征信息包括传播结构中每个节点的初始特征信息,每一层图卷积层的中间特征信息包括传播结构中每个节点的中间特征信息。
具体地,基于上式(5)的拼接过程后的第一图卷积神经网络,可以视为加入根特征增强的第一图卷积神经网络。其中,当M的取值设定为2时,需要针对第一图卷积神经网络的两层图卷积层的初始特征信息分别进行根特征增强,并且可以将经过根特征增强后的每层图卷积层的初始特征信息,记作每层图卷积层的中间特征信息。
具体地,第1层图卷积层的初始特征信息的根特征增强,可以表示为如下式(6)所示的形式:
Figure BDA0002413304610000164
其中,
Figure BDA0002413304610000165
即为第1层图卷积层的中间特征信息。
第2层图卷积层的初始特征信息的根特征增强,可以表示为如下式(7)所示的形式:
Figure BDA0002413304610000166
其中,基于上式(6)的根特征增强后的
Figure BDA0002413304610000167
(即
Figure BDA0002413304610000168
),
Figure BDA0002413304610000169
也相应的更新为
Figure BDA00024133046100001610
即为第2层图卷积层的中间特征信息。
具体地,在得到第一图卷积神经网络的各层图卷积层的中间特征表示后,由于后一层图卷积层的中间特征信息是基于其前一层图卷积层的中间特征信息得到的,因此,为简化计算量,可以根据最后一层图卷积层的中间特征信息,来确定第一图卷积神经网络的特征信息(即第一特征信息)。又由于每层图卷积层的中间特征信息包括传播结构中每个节点的中间特征信息,因此,可以通过对最后一层(即第M层)图卷积层的中间特征信息进行平均池化处理,来得到第一图卷积神经网络的第一特征信息。当M的取值设定为2时,最后一层为第2层,即可以通过对第2层图卷积层的中间特征信息进行平均池化处理,来得到第一图卷积神经网络的第一特征信息。
具体地,可以通过
Figure BDA0002413304610000171
来对第2层图卷积层的中间特征信息的平均池化处理,其中,
Figure BDA0002413304610000172
为第2层图卷积层的中间特征信息,STD为第一图卷积神经网络的第一特征信息。
在一种可能的实现方式中,在基于特征矩阵和第三邻接矩阵,确定第二图卷积神经网络的特征信息,得到第二特征信息的过程中,可以执行如下处理过程:先确定第二图卷积神经网络的L层图卷积层分别对应的参数矩阵,L为正整数;再基于预定计算公式,根据正则化后的第三邻接矩阵、特征矩阵和L层图卷积层分别对应的参数矩阵,确定L层图卷积层分别对应的初始特征信息;再根据L层图卷积层分别对应的初始特征信息,确定第二图卷积神经网络的特征信息,得到第二特征信息。
具体地,L的取值为1、2、3、8等,也可以根据实际需要设定为其它数值,本申请实施例不对其作限制。其中,L的取值与M的取值可以相同,也可以不相同。
具体地,第二图卷积神经网络的L层图卷积层的初始特征信息的确定过程,也采用类似上述第一图卷积神经网络的M层图卷积层的初始特征信息的确定过程。
同样地,预定计算公式是一个关于正则化后的第三邻接矩阵、特征矩阵和L层图卷积层分别对应的参数矩阵的激活函数,在此不再赘述。同样地,可以将正则化后的第三邻接矩阵、特征矩阵和第l层图卷积层对应的参数矩阵,作为该激活函数的参数,来得到第二图卷积神经网络的第l层图卷积层的初始特征信息,其中,l的取值范围为1至L,进而根据第1层图卷积层的初始特征信息、第2层图卷积层的初始特征信息、…、第L层图卷积层的初始特征信息,得到第二图卷积神经网络的特征信息(即第一特征信息)。
针对第二图卷积神经网络,下面通过具体示例,对L层图卷积层分别对应的初始特征信息的确定,进行具体介绍:
第一,对于第1层图卷积层,其对应的初始特征信息可以通过如下计算公式(8)进行计算:
Figure BDA0002413304610000181
其中,
Figure BDA0002413304610000182
表示第二图卷积神经网络的第1层图卷积层(或称作隐藏层)的特征信息(即初始特征信息),σ()表示激活函数,即上述的ReLU函数,X为特征矩阵,
Figure BDA0002413304610000183
为第1层图卷积层的参数矩阵,ABU表示第二图卷积神经网络的邻接矩阵(即第三邻接矩阵),
Figure BDA0002413304610000184
表示正则化后的第三邻接矩阵。上述的计算公式(8)即为上述的预定计算公式。第三邻接矩阵ABU的正则化处理过程与上述第一图卷积神经网络中ATD的正则化处理过程类似,在此不再赘述。
第二,对于第2层图卷积层,其对应的初始特征信息可以通过如下计算公式(9)进行计算:
Figure BDA0002413304610000185
其中,
Figure BDA0002413304610000186
表示第二图卷积神经网络的第2层图卷积层(或称作隐藏层)的特征信息(即初始特征信息),σ()表示激活函数,即上述的ReLU函数,
Figure BDA0002413304610000187
为第二图卷积神经网络的第1层图卷积层的初始特征信息,
Figure BDA0002413304610000188
为第2层图卷积层的参数矩阵,ABU表示第二图卷积神经网络的邻接矩阵(即第三邻接矩阵),
Figure BDA0002413304610000189
表示正则化后的第二邻接矩阵。上述的计算公式(9)也为上述的预定计算公式。
第三,对于第3层图卷积层,其对应的初始特征信息可以通过如下计算公式(10)进行计算:
Figure BDA00024133046100001810
其中,
Figure BDA00024133046100001811
表示第二图卷积神经网络的第3层图卷积层(或称作隐藏层)的特征信息(即初始特征信息),σ()表示激活函数,即上述的ReLU函数,
Figure BDA00024133046100001812
为第二图卷积神经网络的第2层图卷积层的初始特征信息,
Figure BDA00024133046100001813
为第3层图卷积层的参数矩阵,ABU表示第二图卷积神经网络的邻接矩阵(即第三邻接矩阵),
Figure BDA0002413304610000191
表示正则化后的第三邻接矩阵。上述的计算公式(10)也为上述的预定计算公式。
依次类推,对于第L层图卷积层,其对应的初始特征信息可以通过如下计算公式(11)进行计算:
Figure BDA0002413304610000192
其中,
Figure BDA0002413304610000193
表示第二图卷积神经网络的第L层图卷积层(或称作隐藏层)的特征信息(即初始特征信息),σ()表示激活函数,即上述的ReLU函数,
Figure BDA0002413304610000194
为第二图卷积神经网络的第L-1层图卷积层的初始特征信息,
Figure BDA0002413304610000195
为第L层图卷积层的参数矩阵,ABU表示第二图卷积神经网络的邻接矩阵(即第三邻接矩阵),
Figure BDA0002413304610000196
表示正则化后的第三邻接矩阵。上述的计算公式(11)也为上述的预定计算公式。
需要说明的是,在图卷积层之间可以使用Dropout来避免过拟合。同时,通过上述介绍可以看出:当L等于1时,基于预定计算公式,根据正则化后的第三邻接矩阵、特征矩阵和第一层图卷积层的参数矩阵,确定第一层图卷积层的初始特征信息;当L大于1时,基于预定计算公式,根据正则化后的第三邻接矩阵、第L-1层图卷积层的初始特征信息和第L层图卷积层的参数矩阵,确定第L层图卷积层的初始特征信息。
在实际应用中,通过经验发现L=2时的双向图卷积神经网络的分类性能较好,因此,可以根据经验将L的取值设定为2。当L取值为2时,第二图卷积神经网络的第1层图卷积层的初始特征信息为上述的
Figure BDA0002413304610000197
第二图卷积神经网络的第2层图卷积层的初始特征信息为上述的
Figure BDA0002413304610000198
其中,
Figure BDA0002413304610000199
同样地,根据L层图卷积层分别对应的初始特征信息,确定第二图卷积神经网络的特征信息(即第二特征信息)的过程,可以为:先将第L层图卷积层中每个节点的初始特征信息分别与第L-1层图卷积层中根节点的初始特征信息进行拼接,得到第L层图卷积层的中间特征信息,其中,当L等于1时,第L-1层图卷积层的初始特征信息为特征矩阵;接着,对第L层图卷积层的中间特征信息进行平均池化处理,得到第二图卷积神经网络的特征信息,第L层图卷积层的中间特征信息包括传播结构中每个节点的中间特征信息。
同样地,对于第二图卷积神经网络的第l层图卷积层,可以通过将第l层图卷积层的初始特征信息与第l-1层的根节点的初始特征信息拼接起来,构造一个新的特征矩阵,即将每层图卷积层的初始特征信息与其上一层图卷积层的根节点的初始特征信息拼接起来,构造一个新的特征矩阵,该新的特征矩阵即为上述的第l层图卷积层的中间特征信息,l的取值范围为1至L。
在一个示例中,该拼接过程可以表示为如下公式(12)所示的形式:
Figure BDA0002413304610000201
其中,
Figure BDA0002413304610000202
表示第l-1层图卷积层中根据节点的初始特征信息,
Figure BDA0002413304610000203
表示第l层图卷积层的中间特征信息,concat()表示拼接。每一层图卷积层的初始特征信息包括传播结构中每个节点的初始特征信息,每一层图卷积层的中间特征信息包括传播结构中每个节点的中间特征信息。
具体地,基于上式(12)的拼接过程后的第二图卷积神经网络,可以视为加入根特征增强的第二图卷积神经网络。其中,当L的取值设定为2时,需要针对第二图卷积神经网络的两层图卷积层的初始特征信息分别进行根特征增强,并且可以将经过根特征增强后的每层图卷积层的初始特征信息,记作每层图卷积层的中间特征信息。
具体地,第1层图卷积层的初始特征信息的根特征增强,可以表示为如下式(13)所示的形式:
Figure BDA0002413304610000204
其中,
Figure BDA0002413304610000205
即为第1层图卷积层的中间特征信息。
第2层图卷积层的初始特征信息的根特征增强,可以表示为如下式(14)所示的形式:
Figure BDA0002413304610000206
其中,基于上式(13)的根特征增强后的
Figure BDA0002413304610000211
(即
Figure BDA0002413304610000212
),
Figure BDA0002413304610000213
也相应的更新为
Figure BDA0002413304610000214
即为第2层图卷积层的中间特征信息。
具体地,在得到第二图卷积神经网络的各层图卷积层的中间特征表示后,由于后一层图卷积层的中间特征信息是基于其前一层图卷积层的中间特征信息得到的,因此,为简化计算量,可以根据最后一层图卷积层的中间特征信息,来确定第二图卷积神经网络的特征信息(即第二特征信息)。又由于每层图卷积层的中间特征信息包括传播结构中每个节点的中间特征信息,因此,可以通过对最后一层(即第L层)图卷积层的中间特征信息进行平均池化处理,来得到第二图卷积神经网络的第二特征信息。当L的取值设定为2时,最后一层为第2层,即可以通过对第2层图卷积层的中间特征信息进行平均池化处理,来得到第二图卷积神经网络的第二特征信息。
具体地,可以通过
Figure BDA0002413304610000215
来对第2层图卷积层的中间特征信息的平均池化处理,其中,
Figure BDA0002413304610000216
为第2层图卷积层的中间特征信息,SBU为第二图卷积神经网络的第二特征信息。
在一种可能的实现方式中,在得到第一图卷积神经网络的第一特征信息和第二图卷积神经网络的第二特征信息后,可以通过对第一特征信息和第二特征信息进行拼接,得到目标特征信息。
具体地,可以通过S=concat(STD,SBU),来对第一特征信息和第二特征信息进行拼接,其中,STD为第一特征信息,SBU为第二特征信息,S为目标特征信息。
具体地,每个目标文本信息的预测标签由若干全连接层和softmax层得到,如下式(14)所示:
Figure BDA0002413304610000217
其中,
Figure BDA0002413304610000218
表示一个概率向量,用于预测该目标文本信息的标签,相当于得到目标文本信息的分类信息。在实际应用中,可以通过最小化交叉熵来训练双向图卷积神经网络,而且,在通过最小化交叉熵来训练双向图卷积神经网络的过程中,可以将L2正则化应用于损失函数,以减少过拟合。
需要说明的是,本申请实施中的图卷积层使用了经典的GCN(GraphConvolutional networks,图卷积网络)模型,其中,除了GCN模型外,还可以是消息传递网络MPNN、Graph SAGE等。
具体地,图3以M=2、L=2及GCN为例,给出了本申请实施例分类处理方法的网络结构示意图。在图3中,步骤1,通过DropEdge方法去掉第一邻接矩阵A中的部分边,得到第二邻接矩阵ATD,并对第二邻接矩阵进行转置,得到第三邻接矩阵ABU;步骤2,将第二邻接矩阵ATD和特征矩阵X输入到自顶向下结构的第一图卷积神经网络,以及将第一邻接矩阵和特征矩阵输入到自底向上结构的第二图卷积神经网络,得到第一特征信息STD和第二特征信息SBU;步骤4,对第一特征信息STD和第二特征信息SBU进行拼接,得到目标特征信息S,并通过全连接层和softmax层得到用于预测目标文本信息的分类信息的概率值
Figure BDA0002413304610000221
其中,图3中的步骤3是对步骤2的分解和细化,以第一图卷积神经网络为例,在步骤3中,首先,将第一图卷积神经网络中第1层图卷积层的初始特征信息
Figure BDA0002413304610000222
与特征矩阵X中根节点的初始特征信息进行拼接,得到第1层图卷积层的中间特征信息
Figure BDA0002413304610000223
接着,将第一图卷积神经网络中第2层图卷积层的初始特征信息
Figure BDA0002413304610000224
与第1层图卷积层中根节点的初始特征信息
Figure BDA0002413304610000225
进行拼接,得到第2层图卷积层的中间特征信息
Figure BDA0002413304610000226
其中,此处的
Figure BDA0002413304610000227
是根据
Figure BDA0002413304610000228
更新后的值。
图4为本申请又一实施例提供的一种文本信息分类处理装置的结构示意图,如图4所示,该装置400可以包括第一确定模块401、第一处理模块402和第二处理模块403,其中:
第一确定模块401,用于根据目标文本信息的转发关系和回复关系,确定目标文本信息的传播结构;
第一处理模块402,用于将传播结构输入到双向图卷积神经网络中,得到目标文本信息的分类信息,其中,分类信息是根据双向图卷积神经网络的目标特征信息确定出的,双向图卷积神经网络包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络,目标特征信息是根据第一特征信息和第二特征信息确定出的,第一特征信息是根据传播结构确定出的第一图卷积神经网络的特征信息,第二特征信息是根据传播结构确定出的第二图卷积神经网络的特征信息;
第二处理模块403,用于根据分类信息对目标文本信息进行分类处理。
在一种可能的实现方式中,根据传播结构确定第一图卷积神经网络的特征信息,得到第一特征信息是通过第一特征确定模块实现的,第一特征确定模块用于:
确定传播结构的第一邻接矩阵和特征矩阵,第一邻接矩阵包括传播结构中从上层节点到下层节点之间的各个边,特征矩阵包括传播结构中每个节点的特征向量,每个节点的特征向量为该每个节点对应的文本的词向量的词频逆文本频率值;
对第一邻接矩阵中的部分边进行丢弃,得到第二邻接矩阵;
基于特征矩阵和第二邻接矩阵,确定第一图卷积神经网络的特征信息,得到第一特征信息。
在一种可能的实现方式中,根据传播结构确定第二图卷积神经网络的特征信息,得到第二特征信息是通过第二特征确定模块实现的,第二特征确定模块用于:
对第二邻接矩阵进行转置,得到第三邻接矩阵;
基于特征矩阵和第三邻接矩阵,确定第二图卷积神经网络的特征信息,得到第二特征信息。
在一种可能的实现方式中,第一特征确定模块在对第一邻接矩阵中的部分边进行丢弃,得到第二邻接矩阵时,具体用于:
丢弃第一邻接矩阵中预定数量或预定比例的边,得到第二邻接矩阵。
在一种可能的实现方式中,第一特征确定模块在基于特征矩阵和第二邻接矩阵,确定第一图卷积神经网络的特征信息,得到第一特征信息时,具体用于:
对第二邻接矩阵进行正则化,得到正则化后的第二邻接矩阵;
确定第一图卷积神经网络的M层图卷积层分别对应的参数矩阵,M为正整数;
基于预定计算公式,根据正则化后的第二邻接矩阵、特征矩阵和M层图卷积层分别对应的参数矩阵,确定M层图卷积层分别对应的初始特征信息;
根据M层图卷积层分别对应的初始特征信息,确定第一图卷积神经网络的特征信息,得到第一特征信息。
在一种可能的实现方式中,第一特征确定模块在基于预定计算公式,根据正则化后的第二邻接矩阵、特征矩阵和M层图卷积层分别对应的参数矩阵,确定M层图卷积层分别对应的初始特征信息时,具体用于:
当M等于1时,基于预定计算公式,根据正则化后的第二邻接矩阵、特征矩阵和第一层图卷积层的参数矩阵,确定第一层图卷积层的初始特征信息;
当M大于1时,基于预定计算公式,根据正则化后的第二邻接矩阵、第M-1层图卷积层的初始特征信息和第M层图卷积层的参数矩阵,确定第M层图卷积层的初始特征信息。
在一种可能的实现方式中,每一层图卷积层的初始特征信息均包括传播结构中每个节点的初始特征信息,第一特征确定模块在根据M层图卷积层分别对应的初始特征信息,确定第一图卷积神经网络的特征信息时,具体用于:
将第M层图卷积层中每个节点的初始特征信息分别与第M-1层图卷积层中根节点的初始特征信息进行拼接,得到第M层图卷积层的中间特征信息,其中,当M等于1时,第M-1层图卷积层的初始特征信息为特征矩阵;
对第M层图卷积层的中间特征信息进行平均池化处理,得到第一图卷积神经网络的特征信息,第M层图卷积层的中间特征信息包括传播结构中每个节点的中间特征信息。
在一种可能的实现方式中,第二特征确定模块在基于特征矩阵和第三邻接矩阵,确定第二图卷积神经网络的特征信息,得到第二特征信息时,具体用于:
对第三邻接矩阵进行正则化,得到正则化后的第三邻接矩阵;
确定第二图卷积神经网络的L层图卷积层分别对应的参数矩阵,L为正整数;
基于预定计算公式,根据正则化后的第三邻接矩阵、特征矩阵和L层图卷积层分别对应的参数矩阵,确定L层图卷积层分别对应的初始特征信息;
根据L层图卷积层分别对应的初始特征信息,确定第二图卷积神经网络的特征信息,得到第二特征信息。
在一种可能的实现方式中,根据第一特征信息和第二特征信息,确定目标特征信息是通过第二确定模块实现的,第二确定模块用于对第一特征信息和第二特征信息进行拼接,得到目标特征信息。
在一种可能的实现方式中,M的取值为2。
在一种可能的实现方式中,L的取值为2。
本申请实施例提供的装置,根据目标文本信息的传播结构,确定包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络的双向图卷积神经网络的目标特征信息,使得图卷积神经网络可以有效学习目标文本信息的传播结构,从而可以充分考虑目标文本信息的传播结构,有效捕捉目标文本信息传播结构的特征信息,进而对目标文本信息进行分类,极大提高目标文本信息的分类准确度和分类效率,便于对对社交媒体上的各种信息进行是否为谣言的分类。
需要说明的是,本实施例为与上述的方法项实施例相对应的装置项实施例,本实施例可与上述方法项实施例互相配合实施。上述方法项实施例中提到的相关技术细节在本实施例中依然有效,为了减少重复,这里不再赘述。相应地,本实施例中提到的相关技术细节也可应用在上述方法项实施例中。
本申请另一实施例提供了一种电子设备,如图5所示,图5所示的电子设备500包括:处理器501和存储器503。其中,处理器501和存储器503相连,如通过总线502相连。进一步地,电子设备500还可以包括收发器504。需要说明的是,实际应用中收发器504不限于一个,该电子设备500的结构并不构成对本申请实施例的限定。
其中,处理器501应用于本申请实施例中,用于实现图4所示的第一确定模块、第一处理模块及第二处理模块的功能。收发器504包括接收机和发射机。
处理器501可以是CPU,通用处理器,DSP,ASIC,FPGA或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器501也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线502可包括一通路,在上述组件之间传送信息。总线502可以是PCI总线或EISA总线等。总线502可以分为地址总线、数据总线、控制总线等。为便于表示,图5中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器503可以是ROM或可存储静态信息和指令的其他类型的静态存储设备,RAM或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM、CD-ROM或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
存储器503用于存储执行本申请方案的应用程序代码,并由处理器501来控制执行。处理器501用于执行存储器503中存储的应用程序代码,以实现图4所示实施例提供的分类处理装置的动作。
本申请实施例提供的电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时,可实现:根据目标文本信息的转发关系和回复关系,确定目标文本信息的传播结构;接着,将传播结构输入到双向图卷积神经网络中,得到目标文本信息的分类信息,其中,分类信息是根据双向图卷积神经网络的目标特征信息确定出的,双向图卷积神经网络包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络,目标特征信息是根据第一特征信息和第二特征信息确定出的,第一特征信息是根据传播结构确定出的第一图卷积神经网络的特征信息,第二特征信息是根据传播结构确定出的第二图卷积神经网络的特征信息;接着,根据分类信息对目标文本信息进行分类处理。
本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现上述实施例所示的方法。其中,根据目标文本信息的传播结构,确定包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络的双向图卷积神经网络的目标特征信息,使得图卷积神经网络可以有效学习目标文本信息的传播结构,从而可以充分考虑目标文本信息的传播结构,有效捕捉目标文本信息传播结构的特征信息,进而对目标文本信息进行分类,极大提高目标文本信息的分类准确度和分类效率,便于对对社交媒体上的各种信息进行是否为谣言的分类。
本申请实施例提供的计算机可读存储介质适用于上述方法的任一实施例。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述仅是本申请的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (14)

1.一种文本信息分类处理方法,其特征在于,包括:
根据目标文本信息的转发关系和回复关系,确定所述目标文本信息的传播结构;
将所述传播结构输入到双向图卷积神经网络中,得到所述目标文本信息的分类信息,其中,所述分类信息是根据所述双向图卷积神经网络的目标特征信息确定出的,所述双向图卷积神经网络包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络,所述目标特征信息是根据第一特征信息和第二特征信息确定出的,所述第一特征信息是根据所述传播结构确定出的所述第一图卷积神经网络的特征信息,所述第二特征信息是根据所述传播结构确定出的所述第二图卷积神经网络的特征信息;
根据所述分类信息对所述目标文本信息进行分类处理。
2.根据权利要求1所述的方法,其特征在于,根据所述传播结构确定所述第一图卷积神经网络的特征信息,得到所述第一特征信息,包括:
确定所述传播结构的第一邻接矩阵和特征矩阵,所述第一邻接矩阵包括所述传播结构中从上层节点到下层节点之间的各个边,所述特征矩阵包括所述传播结构中每个节点的特征向量,每个节点的特征向量为该每个节点对应的文本的词向量的词频逆文本频率值;
对所述第一邻接矩阵中的部分边进行丢弃,得到第二邻接矩阵;
基于所述特征矩阵和所述第二邻接矩阵,确定所述第一图卷积神经网络的特征信息,得到所述第一特征信息。
3.根据权利要求2所述的方法,其特征在于,根据所述传播结构确定所述第二图卷积神经网络的特征信息,得到所述第二特征信息,包括:
对所述第二邻接矩阵进行转置,得到第三邻接矩阵;
基于所述特征矩阵和所述第三邻接矩阵,确定所述第二图卷积神经网络的特征信息,得到所述第二特征信息。
4.根据权利要求2所述的方法,其特征在于,对所述第一邻接矩阵中的部分边进行丢弃,得到第二邻接矩阵,包括:
丢弃所述第一邻接矩阵中预定数量或预定比例的边,得到所述第二邻接矩阵。
5.根据权利要求2所述的方法,其特征在于,所述基于所述特征矩阵和所述第二邻接矩阵,确定所述第一图卷积神经网络的特征信息,得到所述第一特征信息,包括:
对所述第二邻接矩阵进行正则化,得到正则化后的第二邻接矩阵;
确定所述第一图卷积神经网络的M层图卷积层分别对应的参数矩阵,所述M为正整数;
基于预定计算公式,根据所述正则化后的第二邻接矩阵、所述特征矩阵和所述M层图卷积层分别对应的参数矩阵,确定所述M层图卷积层分别对应的初始特征信息;
根据所述M层图卷积层分别对应的初始特征信息,确定所述第一图卷积神经网络的特征信息,得到所述第一特征信息。
6.根据权利要求5所述的方法,其特征在于,基于预定计算公式,根据所述正则化后的第二邻接矩阵、所述特征矩阵和所述M层图卷积层分别对应的参数矩阵,确定所述M层图卷积层分别对应的初始特征信息,包括:
当M等于1时,基于所述预定计算公式,根据所述正则化后的第二邻接矩阵、所述特征矩阵和第一层图卷积层的参数矩阵,确定第一层图卷积层的初始特征信息;
当M大于1时,基于所述预定计算公式,根据所述正则化后的第二邻接矩阵、第M-1层图卷积层的初始特征信息和第M层图卷积层的参数矩阵,确定第M层图卷积层的初始特征信息。
7.根据权利要求5所述的方法,其特征在于,每一层图卷积层的初始特征信息均包括所述传播结构中每个节点的初始特征信息,根据所述M层图卷积层分别对应的初始特征信息,确定所述第一图卷积神经网络的特征信息,包括:
将第M层图卷积层中每个节点的初始特征信息分别与第M-1层图卷积层中根节点的初始特征信息进行拼接,得到第M层图卷积层的中间特征信息,其中,当M等于1时,第M-1层图卷积层的初始特征信息为所述特征矩阵;
对所述第M层图卷积层的中间特征信息进行平均池化处理,得到所述第一图卷积神经网络的特征信息,所述第M层图卷积层的中间特征信息包括所述传播结构中每个节点的中间特征信息。
8.根据权利要求3所述的方法,其特征在于,基于所述特征矩阵和所述第三邻接矩阵,确定所述第二图卷积神经网络的特征信息,得到所述第二特征信息,包括:
对所述第三邻接矩阵进行正则化,得到正则化后的第三邻接矩阵;
确定所述第二图卷积神经网络的L层图卷积层分别对应的参数矩阵,所述L为正整数;
基于预定计算公式,根据所述正则化后的第三邻接矩阵、所述特征矩阵和所述L层图卷积层分别对应的参数矩阵,确定所述L层图卷积层分别对应的初始特征信息;
根据所述L层图卷积层分别对应的初始特征信息,确定所述第二图卷积神经网络的特征信息,得到所述第二特征信息。
9.根据权利要求1-8任一项所述的方法,其特征在于,根据第一特征信息和第二特征信息,确定目标特征信息,包括:
对所述第一特征信息和所述第二特征信息进行拼接,得到所述目标特征信息。
10.根据权利要求5-7任一项所述的方法,其特征在于,所述M的取值为2。
11.根据权利要求8所述的方法,其特征在于,所述L的取值为2。
12.一种文本信息分类处理装置,其特征在于,包括:
第一确定模块,用于根据目标文本信息的转发关系和回复关系,确定所述目标文本信息的传播结构;
第一处理模块,用于将所述传播结构输入到双向图卷积神经网络中,得到所述目标文本信息的分类信息,其中,所述分类信息是根据所述双向图卷积神经网络的目标特征信息确定出的,所述双向图卷积神经网络包括自顶向下结构的第一图卷积神经网络和自底向上结构的第二图卷积神经网络,所述目标特征信息是根据第一特征信息和第二特征信息确定出的,所述第一特征信息是根据所述传播结构确定出的所述第一图卷积神经网络的特征信息,所述第二特征信息是根据所述传播结构确定出的所述第二图卷积神经网络的特征信息;
第二处理模块,用于根据所述分类信息对所述目标文本信息进行分类处理。
13.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1-11任一项所述的方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现权利要求1-11任一项所述的方法。
CN202010183299.4A 2020-03-16 2020-03-16 文本信息分类处理方法、电子设备及计算机可读存储介质 Active CN111400452B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010183299.4A CN111400452B (zh) 2020-03-16 2020-03-16 文本信息分类处理方法、电子设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010183299.4A CN111400452B (zh) 2020-03-16 2020-03-16 文本信息分类处理方法、电子设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN111400452A true CN111400452A (zh) 2020-07-10
CN111400452B CN111400452B (zh) 2023-04-07

Family

ID=71436404

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010183299.4A Active CN111400452B (zh) 2020-03-16 2020-03-16 文本信息分类处理方法、电子设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN111400452B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112199608A (zh) * 2020-11-03 2021-01-08 北京中科研究院 基于网络信息传播图建模的社交媒体谣言检测方法
CN112231562A (zh) * 2020-10-15 2021-01-15 北京工商大学 一种网络谣言识别方法及系统
CN112860897A (zh) * 2021-03-12 2021-05-28 广西师范大学 基于改进的ClusterGCN的文本分类方法
CN113139052A (zh) * 2021-04-14 2021-07-20 三峡大学 基于图神经网络特征聚合的谣言检测方法及装置
CN113343126A (zh) * 2021-08-06 2021-09-03 四川大学 基于事件与传播结构的谣言检测方法
CN113971400A (zh) * 2020-07-24 2022-01-25 北京字节跳动网络技术有限公司 一种文本检测方法、装置、电子设备及存储介质
CN114495113A (zh) * 2022-02-18 2022-05-13 北京百度网讯科技有限公司 文本分类方法和文本分类模型的训练方法、装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107180023A (zh) * 2016-03-11 2017-09-19 科大讯飞股份有限公司 一种文本分类方法及系统
CN109710757A (zh) * 2018-11-29 2019-05-03 深圳中兴网信科技有限公司 文本分类模型的构建方法、系统以及计算机可读存储介质
US20190377972A1 (en) * 2018-06-08 2019-12-12 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and apparatus for training, classification model, mobile terminal, and readable storage medium
CN110674869A (zh) * 2019-09-23 2020-01-10 腾讯科技(深圳)有限公司 分类处理、图卷积神经网络模型的训练方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107180023A (zh) * 2016-03-11 2017-09-19 科大讯飞股份有限公司 一种文本分类方法及系统
US20190377972A1 (en) * 2018-06-08 2019-12-12 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and apparatus for training, classification model, mobile terminal, and readable storage medium
CN109710757A (zh) * 2018-11-29 2019-05-03 深圳中兴网信科技有限公司 文本分类模型的构建方法、系统以及计算机可读存储介质
CN110674869A (zh) * 2019-09-23 2020-01-10 腾讯科技(深圳)有限公司 分类处理、图卷积神经网络模型的训练方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
廖祥文等: "基于分层注意力网络的社交媒体谣言检测", 《中国科学:信息科学》 *
齐金山等: "大规模复杂信息网络表示学习:概念、方法与挑战", 《计算机学报》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113971400A (zh) * 2020-07-24 2022-01-25 北京字节跳动网络技术有限公司 一种文本检测方法、装置、电子设备及存储介质
CN113971400B (zh) * 2020-07-24 2023-07-25 抖音视界有限公司 一种文本检测方法、装置、电子设备及存储介质
CN112231562A (zh) * 2020-10-15 2021-01-15 北京工商大学 一种网络谣言识别方法及系统
CN112199608A (zh) * 2020-11-03 2021-01-08 北京中科研究院 基于网络信息传播图建模的社交媒体谣言检测方法
CN112199608B (zh) * 2020-11-03 2021-05-28 北京中科研究院 基于网络信息传播图建模的社交媒体谣言检测方法
CN112860897A (zh) * 2021-03-12 2021-05-28 广西师范大学 基于改进的ClusterGCN的文本分类方法
CN113139052A (zh) * 2021-04-14 2021-07-20 三峡大学 基于图神经网络特征聚合的谣言检测方法及装置
CN113139052B (zh) * 2021-04-14 2022-04-19 三峡大学 基于图神经网络特征聚合的谣言检测方法及装置
CN113343126A (zh) * 2021-08-06 2021-09-03 四川大学 基于事件与传播结构的谣言检测方法
CN113343126B (zh) * 2021-08-06 2021-12-21 四川大学 基于事件与传播结构的谣言检测方法
CN114495113A (zh) * 2022-02-18 2022-05-13 北京百度网讯科技有限公司 文本分类方法和文本分类模型的训练方法、装置

Also Published As

Publication number Publication date
CN111400452B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN111400452B (zh) 文本信息分类处理方法、电子设备及计算机可读存储介质
CN110334742B (zh) 一种用于文档分类的基于强化学习的通过添加虚假节点的图对抗样本生成方法
CN111431742B (zh) 网络信息检测方法、装置、存储介质和计算机设备
CN110138595A (zh) 动态加权网络的时间链路预测方法、装置、设备及介质
CN111858928B (zh) 一种基于图结构对抗学习的社交媒体谣言检测方法及装置
CN112256537B (zh) 模型运行状态的展示方法、装置、计算机设备和存储介质
WO2019051962A1 (zh) 社交平台用户的现实关系匹配方法、装置及可读存储介质
CN113726545B (zh) 基于知识增强生成对抗网络的网络流量生成方法及装置
CN113139052B (zh) 基于图神经网络特征聚合的谣言检测方法及装置
CN113065974A (zh) 一种基于动态网络表示学习的链路预测方法
CN114330966A (zh) 一种风险预测方法、装置、设备以及可读存储介质
CN115758337A (zh) 基于时序图卷积网络的后门实时监测方法、电子设备、介质
CN115510186A (zh) 基于意图识别的即时问答方法、装置、设备及存储介质
CN112765481B (zh) 一种数据处理方法、装置、计算机及可读存储介质
CN117972691A (zh) 基于遗忘学习的可解释图推荐系统后门防御方法及系统
CN116702784A (zh) 实体链接方法、装置、计算机设备和存储介质
CN114936327B (zh) 元素识别模型的获取方法、装置、计算机设备和存储介质
CN116090522A (zh) 一种基于因果反馈的缺失数据集因果关系发现方法及系统
Sharma et al. Comparative analysis of different algorithms in link prediction on social networks
CN115687764A (zh) 车辆轨迹评估模型的训练方法、车辆轨迹评估方法和装置
CN112364258B (zh) 基于图谱的推荐方法、系统、存储介质及电子设备
CN113312445B (zh) 数据处理方法、模型构建方法、分类方法及计算设备
CN111198933A (zh) 搜索目标实体的方法、装置、电子装置及存储介质
CN113010772A (zh) 一种数据处理方法、相关设备及计算机可读存储介质
CN112507185A (zh) 用户肖像的确定方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40026160

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant