CN110879859A - 一种保存序列关联关系的属性网络表示学习方法 - Google Patents

一种保存序列关联关系的属性网络表示学习方法 Download PDF

Info

Publication number
CN110879859A
CN110879859A CN201911160762.7A CN201911160762A CN110879859A CN 110879859 A CN110879859 A CN 110879859A CN 201911160762 A CN201911160762 A CN 201911160762A CN 110879859 A CN110879859 A CN 110879859A
Authority
CN
China
Prior art keywords
sequence
information
attribute
node
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911160762.7A
Other languages
English (en)
Inventor
赵姝
邹浩东
段震
陈洁
张燕平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN201911160762.7A priority Critical patent/CN110879859A/zh
Publication of CN110879859A publication Critical patent/CN110879859A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种保存序列关联关系的属性网络表示学习方法,包括以下步骤:分别获取属性网络中各节点的节点信息,以及相应的属性信息和标签信息;使用随机游走算法得到节点序列,并将节点序列扩充为三元组序列集合;建立序列关联关系保存模型,将输入序列编码为属性序列表示向量,然后对应关系,通过解码器解码预测为新的节点序列和新的标签序列;构建以新的节点序列、标签序列和三元组序列集合为参数的目标函数,并对其进行优化,最终得到属性网络节点表示向量。该方法在网络表示学习时,有效保留了节点中的标签信息,提升了网络表示学习工作的向量质量,减轻了后续数据聚类分类、链接预测、数据可视化等应用工作的运算工作量。

Description

一种保存序列关联关系的属性网络表示学习方法
技术领域
本发明涉及网络表示学习领域,具体涉及一种属性网络表示学习方法。
背景技术
随着互联网的蓬勃发展,网络上每天都会产生大量的数据。比如社交平台上用户行为的交互;博客平台上作者发布博文、获取留言、相互点赞;学术论文之间的相互引用。这些信息数据可以建模为属性网络结构。在属性网络中存在着大量有价值的待挖掘的数据,这些数据可完善、扩充各类在线网络平台的用户信息,网络表示学习是挖掘属性网络数据的一个有力手段,其目的是将高维的属性网络表示为低维稠密的向量,为下一步数据聚类分类、链接预测、数据可视化等数据应用工作提供有效的特征表示。
网络表示学习方法主要分为两类,一类是基于结构的网络表示学习方法,这类方法仅从节点结构的角度进行数据挖掘,对于节点属性和标签信息则几乎不予保留,这对于后续的数据应用工作帮助不大;另一类是结合结构和属性的网络表示学习方法,这种方法兼顾了节点结构和各类属性信息,如文本信息、图片及标签等,例如,现有技术中常使用STNE(Self-Translation Network Embedding)模型对节点结构和节点属性进行表示。然而这种方法得到的结果却忽略了节点标签信息,节点标签信息是节点结构和属性信息的概括,相同标签的节点拥有高相似性。对于一些社交网络应用中,这类信息极为重要,例如教育网络中学生与老师、文献引用网络的数据挖掘和计算机视觉应用等。
发明内容
基于上述技术问题,本发明提供了一种保存序列关联关系的属性网络表示学习方法,该方法在网络表示学习时,有效保留了节点中的标签信息,提升了网络表示学习工作的向量质量,减轻了后续数据聚类分类、链接预测、数据可视化等应用工作的运算工作量。
解决上述问题的方案如下:
一种保存序列关联关系的属性网络表示学习方法,包括以下步骤:
S1)分别获取属性网络中各节点的节点信息,以及各节点相对应的属性信息和标签信息;
S2)使用随机游走算法对属性网络中的每个节点的节点信息进行处理,得到关于节点信息的序列集合,然后根据各个节点信息、属性信息、标签信息之间的相互对应关系,将节点信息序列的集合扩充为含有节点信息、属性信息、标签信息的三元组序列集合;
S3)通过编码器和解码器建立序列关联关系保存模型,对所述三元组序列集合进行学习:将其中输入的属性序列编码为属性序列的序列表示向量,然后根据各个节点信息、属性信息、标签信息之间的相互对应关系,通过解码器分别解码预测为新的节点信息序列和新的标签信息序列;
S4)构建以新的节点信息序列、标签信息序列和三元组序列集合为参数的目标函数,并设置优化终止条件对所述目标函数进行优化,得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
具体地,获得所述关于节点信息的序列集合的方法为:
以属性网络中的各节点作为起始点,向相邻节点进行随机游走,直至游走的序列长度达到预设值,即得到随机关于节点信息的序列集合。
具体地,所述序列关联关系保存模型的建立方法为:
S31a)将所述三元组序列集合中的属性序列作为输入序列,使用双向长期短期记忆模型(Bi-LSTM)作为编码器,对输入序列进行编码,得到属性序列的序列表示向量,所述的编码器的任意方向编码公式如下式Ia)所示:
Figure BDA0002286082450000031
上式Ia)中,下标t为序列中元素的序号,at为输入序列元素值,it、ft和ot分别为输入序列分别在输入门、遗忘门和输出门的输出值,ct为单元状态序列元素值,h为属性序列的序列表示向量,该向量为一种双向序列表示隐层向量、ht为经过单向编码后的序列表示隐层向量、h't为另一方向编码后的序列表示隐层向量、
Figure BDA0002286082450000032
为向量串联拼接操作符;W为权重,其第一下标中a、c和h分别对应输入序列、单元状态序列和经过单向编码后的序列隐层向量,其第二下标i、f和o分别对应输入序列分别在输入门、遗忘门和输出门,例如,Whi即为输入序列在输入门的输出值it时,单向编码后的序列隐层向量ht-1的权重,
Figure BDA0002286082450000041
为序列按元素相乘符号,σ和tanh均为激活函数,根据调试经验设置,
S32)分别使用两个双向长期短期记忆模型(Bi-LSTM)解码器按照属性信息和节点信息,以及属性信息和标签信息之间的对应关系,对属性序列的序列表示向量进行解码,分别预测节点信息序列和标签信息序列,从而得到保存有属性信息与网络结构信息之间对应关系的新的节点信息序列S'node,以及保存有属性信息和标签信息之间对应关系的新的标签信息序列S'label
同样地,获得属性序列的序列表示向量的方法,即步骤S31a)还可以使用如下方法获得:
S31b)将所述三元组序列集合中的属性序列作为输入序列,使用卷积神经网络对输入序列,通过多角度特征提取的方式进行编码,得到输入序列的表示向量,提取公式下式Ib)所示:
Figure BDA0002286082450000042
上式Ib)中,fea为属性序列表示向量,该向量为卷积核,Satt为输入的属性序列,filter1、filter2至filtern为多层卷积核、fea1、fea2至fean为使用不同的卷积核对输入的属性序列Satt进行卷积,提取的相应特征向量、
Figure BDA0002286082450000051
为向量串联拼接操作符。
具体地,得到包含节点信息、属性信息和标签信息的属性网络节点表示向量的具体方法为:
S41)分别比对新的节点信息序列S'node与三元组中的节点信息序列、新的标签信息序列S'label与三元组中的标签信息序列,然后构建节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2,构建公式为:
Figure BDA0002286082450000052
式II)中,Snode为三元组中的节点信息序列,Slabel为三元组中的节点信息序列;
S42)对节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2进行线性组合,根据调试经验设置平衡系数α,并定义如下目标函数:
Loss=αL1+(1-α)L2 III),
然后,根据调试经验,设置训练轮数作为训练终止条件,对式III)所示目标函数进行优化,直至训练达到训练轮数,训练结束后即从步骤S3)所述编码器的输出中得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
相较于现有技术,本发明的有益效果在于:
由于通过编码器和解码器建立序列关联关系保存模型,对所述三元组序列集合进行学习,有效保留了属性网络中,节点信息、节点属性和节点标签的关联关系,因此得到的节点网络表示向量,其质量具有较大幅度的提升,减轻了后续数据聚类分类、链接预测、数据可视化等应用工作的运算工作量,并获得较好的评估指标。
附图说明
图1为本发明所述的一种保存序列关联关系的属性网络表示学习方法的处理流程图;
图2为本发明所述的一种保存序列关联关系的属性网络表示学习方法中随机游走得到节点信息序列、并扩充为三元组序列集合方法示意图;
图3为为本发明所述的一种保存序列关联关系的属性网络表示学习方法中构建模型对输入序列进行编码-解码预测训练的方法示意图。
具体实施方式
例1、下面以维基百科网页引用网络为例,结合附图详述本发明的保存序列关联关系的属性网络表示学习方法:
本例中待处理的属性网络,包括2405篇维基百科网页,每篇网页即为一个网络节点,17981条网络引用关系,即包含17981条节点信息;网页中的文本描述共分4973维,即4973维属性信息;标签共17类,即17类标签信息。
本例中保存序列关联关系的属性网络表示学习方法如图1所示,步骤如下:
(S1)分别获取2405篇维基百科网页的节点信息,以及各维基百科网页的节点相对应的属性信息和标签信息;
(S2)参见图2,以每篇维基百科网页作为起始点,使用随机游走算法对每篇维基百科网页的节点信息进行处理,直至游走的序列长度达到预设值,得到关于节点信息的序列集合,即每篇网页之间的引用和被引关系集合,
然后根据各个节点信息、网页属性信息、网页标签信息之间的相互对应关系,将节点信息序列的集合扩充为含有节点信息Snode、属性信息Satt、标签信息Slabel的三元组序列集合<Snode,Satt,Slabel>,其中,Snode为节点信息序列、Satt为属性信息序列、Slabel为标签信息序列;
(S3)参见图3,通过编码器和解码器建立序列关联关系保存模型,对所述三元组序列集合进行学习:
将其中输入的属性序列Satt编码为属性序列的序列表示向量,然后根据每篇基百科网页的之间的“属性-节点”和“属性-标签”对应关系,通过解码器分别解码预测为新的节点信息序列S'node和新的标签信息序列S'label,具体步骤为:
(S31a)使用双向长期短期记忆模型(Bi-LSTM)作为编码器,对输入的属性信息序列Satt进行编码,得到属性序列的序列表示向量,所述的编码器的任意方向编码公式如下式Ia)所示:
Figure BDA0002286082450000081
上式Ia)中,下标t为序列中元素的序号,at为输入的属性信息序列Satt中的元素值,it、ft和ot分别为输入的属性信息序列Satt分别在输入门、遗忘门和输出门的输出值,ct为得到的单元状态序列元素值,ht为经过前向编码后的序列表示隐层向量、h't为后向编码后的序列表示隐层向量、
Figure BDA0002286082450000082
为向量串联拼接操作符,h为属性序列的双向序列表示隐层向量;W为权重,其第一下标中a、c和h分别对应输入序列、单元状态序列和经过单向编码后的序列隐层向量,其第二下标i、f和o分别对应输入序列分别在输入门、遗忘门和输出门,例如,Whi即为输入序列在输入门的输出值it时,单向编码后的序列隐层向量ht-1的权重,
Figure BDA0002286082450000083
为序列按元素相乘符号,σ和tanh均为激活函数,根据调试经验设置。
编码处理时,当t到达属性信息序列Satt的最后一位时,ht即为该属性信息序列Satt的完整的序列前向编码后的序列表示隐层向量,h't即为该属性信息序列Satt的完整的后向编码后的序列表示隐层向量,通过向量串联拼接操作后,即得到完整的属性序列的序列表示向量,即双向序列表示隐层向量h。
(S32)分别使用两个双向长期短期记忆模型(Bi-LSTM)解码器按照“属性-节点”和“属性-标签”对应关系,对属性序列的序列表示向量进行解码,经过一个全连接层映射full_conn,分别预测节点信息序列和标签信息序列,从而得到保存有属性信息与网络结构信息之间对应关系的新的节点信息序列S'node,以及保存有属性信息和标签信息之间对应关系的新的标签信息序列S'label,解码方法如下式IV)所示:
Figure BDA0002286082450000091
(S4)构建以新的节点信息序列S'node、标签信息序列S'label和三元组序列集合<Snode,Satt,Slabel>为参数的目标函数,并设置优化终止条件对所述目标函数进行优化训练,得到包含节点信息、属性信息和标签信息的属性网络节点表示向量,具体方法为:
(S41)分别比对新的节点信息序列S'node与三元组中的节点信息序列Snode、新的标签信息序列S'label与三元组中的标签信息序列Slabel,然后构建维基百科网页的节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2,构建公式为:
Figure BDA0002286082450000092
式II)中,Snode为三元组中的节点信息序列,Slabel为三元组中的节点信息序列。
(S42)对构建的节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2进行线性组合,并定义如下目标函数:
Loss=αL1+(1-α)L2 III)
式III)中,α为根据调试经验预先设置的平衡系数,以此平衡节点信息序列Snode和标签信息序列Slabel对训练过程的影响;
然后,根据调试经验,设置训练轮数epoch作为训练终止条件,对式III)所示目标函数进行训练优化,直至训练达到训练轮数epoch,训练结束后即从步骤(S31a)所述编码器的输出中,即可得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
例2
对于例1中的维基百科网页引用属性网络表示学习方法,亦可使用卷积神经网络(CNN)作为模型进行学习训练,也就是将步骤(S31a)替换如下:
(S31b)将所述三元组序列集合中的属性序列Satt作为输入序列,使用卷积神经网络模型(CNN)对输入序列Satt通过多角度特征提取的方式进行编码,得到输入序列的表示向量,提取公式下式Ib)所示:
Figure BDA0002286082450000101
上式Ib)中,fea为属性序列表示向量,该向量为卷积核,Satt为输入的属性序列,filter1、filter2至filtern为多层卷积核、fea1、fea2至fean为使用不同的卷积核对输入的属性序列Satt进行卷积,提取的相应特征向量、
Figure BDA0002286082450000102
为向量串联拼接操作符。
相应地,当例1所述步骤(S42)训练结束后,从上述步骤(S31b)所述编码器的输出中,即可得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
例3
对于例1或例2得到的维基百科网页引用属性网络节点表示向量,即可作为下游网络应用任务的节点特征,例如,对维基百科中打标签的百科网页做网页分类预测,预测网页之间是否有引用关系,或是,将维基百科网页可视化呈现于二维平面应用上,以直观看出网络特性。对比现有技术,本例中的属性网络表示学习的网页分类预测性能如下表1所示:
Figure BDA0002286082450000111
表1与现有技术的性能对比
上表1中,第一行为数据中参与训练的数据比例,第二行为现有技术中使用STNE(Self-Translation Network Embedding)模型对属性网络表示学习的方法得到指标结果,第三行为本方法得到的指标结果,上述结果出自对于各列相应的剩余比例进行标签预测的指标值,指标的测算采用现有公知的分类问题评价指标micro-F1进行测算,表中结果为重复10次训练后测算取得的平均值。
通过对比可知,本方法相较于现有技术中使用STNE(Self-Translation NetworkEmbedding)模型对属性网络进行表示学习方法,各数据训练比例条件下,评价指标平均性能提升接近2%,可见本方法得到的节点网络表示向量,其质量具有较大幅度的提升,并且评估指标提升明显。

Claims (5)

1.一种保存序列关联关系的属性网络表示学习方法,包括以下步骤:
S1)分别获取属性网络中各节点的节点信息,以及各节点相对应的属性信息和标签信息;
S2)使用随机游走算法对属性网络中的每个节点的节点信息进行处理,得到关于节点信息的序列集合,然后根据各个节点信息、属性信息、标签信息之间的相互对应关系,将节点信息序列的集合扩充为含有节点信息、属性信息、标签信息的三元组序列集合;
S3)通过编码器和解码器建立序列关联关系保存模型,对所述三元组序列集合进行学习:将其中输入的属性序列编码为属性序列的序列表示向量,然后根据各个节点信息、属性信息、标签信息之间的相互对应关系,通过解码器分别解码预测为新的节点信息序列和新的标签信息序列;
S4)构建以新的节点信息序列、标签信息序列和三元组序列集合为参数的目标函数,并设置优化终止条件对所述目标函数进行优化,得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
2.如权利要求1所述的一种保存序列关联关系的属性网络表示学习方法,其特征在于,获得所述关于节点信息的序列集合的方法为:
以属性网络中的各节点作为起始点,向相邻节点进行随机游走,直至游走的序列长度达到预设值,即得到随机关于节点信息的序列集合。
3.如权利要求1所述的一种保存序列关联关系的属性网络表示学习方法,其特征在于,所述序列关联关系保存模型的建立方法为:
S31a)将所述三元组序列集合中的属性序列作为输入序列,使用双向长期短期记忆模型(Bi-LSTM)作为编码器,对输入序列进行编码,得到属性序列的序列表示向量,所述的编码器的任意向编码公式如下式Ia)所示:
Figure FDA0002286082440000021
上式Ia)中,下标t为序列中元素的序号,at为输入序列元素值,it、ft和ot分别为输入序列分别在输入门、遗忘门和输出门的输出值,ct为单元状态序列元素值,h为属性序列的序列表示向量,该向量为一种双向序列表示隐层向量、ht为经过单向编码后的序列表示隐层向量、h't为另一方向编码后的序列表示隐层向量、
Figure FDA0002286082440000022
为向量串联拼接操作符;W为权重,其第一下标中a、c和h分别对应输入序列、单元状态序列和经过单向编码后的序列隐层向量,其第二下标i、f和o分别对应输入序列分别在输入门、遗忘门和输出门,
Figure FDA0002286082440000023
为向量按元素相乘操作符,σ和tanh均为激活函数,根据调试经验设置,
S32)分别使用两个双向长期短期记忆模型(Bi-LSTM)解码器按照属性信息和节点信息,以及属性信息和标签信息之间的对应关系,对属性序列的序列表示向量进行解码,分别预测节点信息序列和标签信息序列,从而得到保存有属性信息与网络结构信息之间对应关系的新的节点信息序列S'node,以及保存有属性信息和标签信息之间对应关系的新的标签信息序列S'label
4.如权利要求3所述的一种保存序列关联关系的属性网络表示学习方法,其特征在于,所述步骤S31a)可替换为如下方法:
S31b)将所述三元组序列集合中的属性序列作为输入序列,使用卷积神经网络对输入序列进行多角度特征提取,得到输入序列的表示向量,提取公式下式Ib)所示:
Figure FDA0002286082440000031
上式Ib)中,fea为属性序列表示向量,该向量为卷积核,Satt为输入的属性序列,filter1、filter2至filtern为多层卷积核、fea1、fea2至fean为使用不同的卷积核对输入的属性序列Satt进行卷积,提取的相应特征向量、
Figure FDA0002286082440000032
为向量串联拼接操作符。
5.如权利要求1所述的一种保存序列关联关系的属性网络表示学习方法,其特征在于,得到所述包含节点信息、属性信息和标签信息的属性网络节点表示向量的具体方法为:
S41)分别比对新的节点信息序列S'node与三元组中的节点信息序列、新的标签信息序列S'label与三元组中的标签信息序列,然后构建节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2,构建公式为:
Figure FDA0002286082440000041
式II)中,Snode为三元组中的节点信息序列,Slabel为三元组中的节点信息序列;
S42)对节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2进行线性组合,根据调试经验设置平衡系数α,并定义如下目标函数:
Loss=αL1+(1-α)L2 III),
然后,根据调试经验,设置训练轮数作为训练终止条件,对式III)所示目标函数进行优化,直至训练达到训练轮数,训练结束后即从步骤S3)所述编码器的输出中得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
CN201911160762.7A 2019-11-23 2019-11-23 一种保存序列关联关系的属性网络表示学习方法 Pending CN110879859A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911160762.7A CN110879859A (zh) 2019-11-23 2019-11-23 一种保存序列关联关系的属性网络表示学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911160762.7A CN110879859A (zh) 2019-11-23 2019-11-23 一种保存序列关联关系的属性网络表示学习方法

Publications (1)

Publication Number Publication Date
CN110879859A true CN110879859A (zh) 2020-03-13

Family

ID=69729531

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911160762.7A Pending CN110879859A (zh) 2019-11-23 2019-11-23 一种保存序列关联关系的属性网络表示学习方法

Country Status (1)

Country Link
CN (1) CN110879859A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111831758A (zh) * 2020-08-21 2020-10-27 安徽大学 基于快速的层次属性网络表示学习的节点分类方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875000A (zh) * 2018-06-14 2018-11-23 广东工业大学 一种融合多句法结构的语义关系分类方法
KR20190092043A (ko) * 2018-01-30 2019-08-07 연세대학교 산학협력단 추론 과정 설명이 가능한 시각 질의 응답 장치 및 방법
CN110209825A (zh) * 2019-06-17 2019-09-06 大连海事大学 一种基于宽度学习系统的快速网络表征学习算法
CN110414664A (zh) * 2018-04-28 2019-11-05 三星电子株式会社 用于训练神经网络的方法及神经网络训练系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190092043A (ko) * 2018-01-30 2019-08-07 연세대학교 산학협력단 추론 과정 설명이 가능한 시각 질의 응답 장치 및 방법
CN110414664A (zh) * 2018-04-28 2019-11-05 三星电子株式会社 用于训练神经网络的方法及神经网络训练系统
CN108875000A (zh) * 2018-06-14 2018-11-23 广东工业大学 一种融合多句法结构的语义关系分类方法
CN110209825A (zh) * 2019-06-17 2019-09-06 大连海事大学 一种基于宽度学习系统的快速网络表征学习算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
武文茂: "《基于深度模型的网络表示学习方法的研究与实现》", 《中国优秀硕士论文全文库》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111831758A (zh) * 2020-08-21 2020-10-27 安徽大学 基于快速的层次属性网络表示学习的节点分类方法及装置

Similar Documents

Publication Publication Date Title
CN110738026B (zh) 用于生成描述文本的方法和设备
CN114519143B (zh) 课程推荐模型的训练方法、课程推荐方法及装置
CN110929515A (zh) 基于协同注意力和自适应调整的阅读理解方法及系统
WO2019080864A1 (zh) 一种文本语义编码方法及装置
CN106202010A (zh) 基于深度神经网络构建法律文本语法树的方法和装置
CN113590948B (zh) 信息推荐方法、装置、设备以及计算机存储介质
CN109062914B (zh) 用户推荐方法和装置,存储介质和服务器
CN107451106A (zh) 文本纠正方法及装置、电子设备
CN110837738A (zh) 相似问识别方法、装置、计算机设备及存储介质
CN113505583B (zh) 基于语义决策图神经网络的情感原因子句对提取方法
CN112699215B (zh) 基于胶囊网络与交互注意力机制的评级预测方法及系统
Alshehri et al. Applications of Soft Sets in K‐Algebras
CN110688537A (zh) 一种计算图节点低维表征及相关应用方法
CN112560456A (zh) 一种基于改进神经网络的生成式摘要生成方法和系统
CN113761868A (zh) 文本处理方法、装置、电子设备及可读存储介质
CN113420212A (zh) 基于深度特征学习的推荐方法、装置、设备及存储介质
CN110502701B (zh) 引入注意力机制的好友推荐方法、系统和存储介质
CN113536182A (zh) 长文本网页的生成方法、装置、电子设备和存储介质
CN111339256A (zh) 用于文本处理的方法和装置
CN113553847A (zh) 用于对地址文本进行解析的方法、装置、系统和存储介质
CN110879859A (zh) 一种保存序列关联关系的属性网络表示学习方法
CN114548296A (zh) 一种基于自适应框架的图卷积推荐方法及相关装置
CN112015890B (zh) 电影剧本摘要的生成方法和装置
CN116521899B (zh) 一种基于改进的图神经网络的文档级关系抽取方法及系统
CN110502236B (zh) 基于多尺度特征解码的前端代码生成方法、系统及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination