CN110879859A - 一种保存序列关联关系的属性网络表示学习方法 - Google Patents
一种保存序列关联关系的属性网络表示学习方法 Download PDFInfo
- Publication number
- CN110879859A CN110879859A CN201911160762.7A CN201911160762A CN110879859A CN 110879859 A CN110879859 A CN 110879859A CN 201911160762 A CN201911160762 A CN 201911160762A CN 110879859 A CN110879859 A CN 110879859A
- Authority
- CN
- China
- Prior art keywords
- sequence
- information
- attribute
- node
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 239000013598 vector Substances 0.000 claims abstract description 59
- 230000006870 function Effects 0.000 claims abstract description 28
- 239000013604 expression vector Substances 0.000 claims abstract description 8
- 238000005295 random walk Methods 0.000 claims abstract description 5
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 24
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000007774 longterm Effects 0.000 claims description 6
- 230000006403 short-term memory Effects 0.000 claims description 6
- 230000002457 bidirectional effect Effects 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000013079 data visualisation Methods 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 abstract description 2
- 230000006399 behavior Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000007418 data mining Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种保存序列关联关系的属性网络表示学习方法,包括以下步骤:分别获取属性网络中各节点的节点信息,以及相应的属性信息和标签信息;使用随机游走算法得到节点序列,并将节点序列扩充为三元组序列集合;建立序列关联关系保存模型,将输入序列编码为属性序列表示向量,然后对应关系,通过解码器解码预测为新的节点序列和新的标签序列;构建以新的节点序列、标签序列和三元组序列集合为参数的目标函数,并对其进行优化,最终得到属性网络节点表示向量。该方法在网络表示学习时,有效保留了节点中的标签信息,提升了网络表示学习工作的向量质量,减轻了后续数据聚类分类、链接预测、数据可视化等应用工作的运算工作量。
Description
技术领域
本发明涉及网络表示学习领域,具体涉及一种属性网络表示学习方法。
背景技术
随着互联网的蓬勃发展,网络上每天都会产生大量的数据。比如社交平台上用户行为的交互;博客平台上作者发布博文、获取留言、相互点赞;学术论文之间的相互引用。这些信息数据可以建模为属性网络结构。在属性网络中存在着大量有价值的待挖掘的数据,这些数据可完善、扩充各类在线网络平台的用户信息,网络表示学习是挖掘属性网络数据的一个有力手段,其目的是将高维的属性网络表示为低维稠密的向量,为下一步数据聚类分类、链接预测、数据可视化等数据应用工作提供有效的特征表示。
网络表示学习方法主要分为两类,一类是基于结构的网络表示学习方法,这类方法仅从节点结构的角度进行数据挖掘,对于节点属性和标签信息则几乎不予保留,这对于后续的数据应用工作帮助不大;另一类是结合结构和属性的网络表示学习方法,这种方法兼顾了节点结构和各类属性信息,如文本信息、图片及标签等,例如,现有技术中常使用STNE(Self-Translation Network Embedding)模型对节点结构和节点属性进行表示。然而这种方法得到的结果却忽略了节点标签信息,节点标签信息是节点结构和属性信息的概括,相同标签的节点拥有高相似性。对于一些社交网络应用中,这类信息极为重要,例如教育网络中学生与老师、文献引用网络的数据挖掘和计算机视觉应用等。
发明内容
基于上述技术问题,本发明提供了一种保存序列关联关系的属性网络表示学习方法,该方法在网络表示学习时,有效保留了节点中的标签信息,提升了网络表示学习工作的向量质量,减轻了后续数据聚类分类、链接预测、数据可视化等应用工作的运算工作量。
解决上述问题的方案如下:
一种保存序列关联关系的属性网络表示学习方法,包括以下步骤:
S1)分别获取属性网络中各节点的节点信息,以及各节点相对应的属性信息和标签信息;
S2)使用随机游走算法对属性网络中的每个节点的节点信息进行处理,得到关于节点信息的序列集合,然后根据各个节点信息、属性信息、标签信息之间的相互对应关系,将节点信息序列的集合扩充为含有节点信息、属性信息、标签信息的三元组序列集合;
S3)通过编码器和解码器建立序列关联关系保存模型,对所述三元组序列集合进行学习:将其中输入的属性序列编码为属性序列的序列表示向量,然后根据各个节点信息、属性信息、标签信息之间的相互对应关系,通过解码器分别解码预测为新的节点信息序列和新的标签信息序列;
S4)构建以新的节点信息序列、标签信息序列和三元组序列集合为参数的目标函数,并设置优化终止条件对所述目标函数进行优化,得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
具体地,获得所述关于节点信息的序列集合的方法为:
以属性网络中的各节点作为起始点,向相邻节点进行随机游走,直至游走的序列长度达到预设值,即得到随机关于节点信息的序列集合。
具体地,所述序列关联关系保存模型的建立方法为:
S31a)将所述三元组序列集合中的属性序列作为输入序列,使用双向长期短期记忆模型(Bi-LSTM)作为编码器,对输入序列进行编码,得到属性序列的序列表示向量,所述的编码器的任意方向编码公式如下式Ia)所示:
上式Ia)中,下标t为序列中元素的序号,at为输入序列元素值,it、ft和ot分别为输入序列分别在输入门、遗忘门和输出门的输出值,ct为单元状态序列元素值,h为属性序列的序列表示向量,该向量为一种双向序列表示隐层向量、ht为经过单向编码后的序列表示隐层向量、h't为另一方向编码后的序列表示隐层向量、为向量串联拼接操作符;W为权重,其第一下标中a、c和h分别对应输入序列、单元状态序列和经过单向编码后的序列隐层向量,其第二下标i、f和o分别对应输入序列分别在输入门、遗忘门和输出门,例如,Whi即为输入序列在输入门的输出值it时,单向编码后的序列隐层向量ht-1的权重,为序列按元素相乘符号,σ和tanh均为激活函数,根据调试经验设置,
S32)分别使用两个双向长期短期记忆模型(Bi-LSTM)解码器按照属性信息和节点信息,以及属性信息和标签信息之间的对应关系,对属性序列的序列表示向量进行解码,分别预测节点信息序列和标签信息序列,从而得到保存有属性信息与网络结构信息之间对应关系的新的节点信息序列S'node,以及保存有属性信息和标签信息之间对应关系的新的标签信息序列S'label。
同样地,获得属性序列的序列表示向量的方法,即步骤S31a)还可以使用如下方法获得:
S31b)将所述三元组序列集合中的属性序列作为输入序列,使用卷积神经网络对输入序列,通过多角度特征提取的方式进行编码,得到输入序列的表示向量,提取公式下式Ib)所示:
上式Ib)中,fea为属性序列表示向量,该向量为卷积核,Satt为输入的属性序列,filter1、filter2至filtern为多层卷积核、fea1、fea2至fean为使用不同的卷积核对输入的属性序列Satt进行卷积,提取的相应特征向量、为向量串联拼接操作符。
具体地,得到包含节点信息、属性信息和标签信息的属性网络节点表示向量的具体方法为:
S41)分别比对新的节点信息序列S'node与三元组中的节点信息序列、新的标签信息序列S'label与三元组中的标签信息序列,然后构建节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2,构建公式为:
式II)中,Snode为三元组中的节点信息序列,Slabel为三元组中的节点信息序列;
S42)对节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2进行线性组合,根据调试经验设置平衡系数α,并定义如下目标函数:
Loss=αL1+(1-α)L2 III),
然后,根据调试经验,设置训练轮数作为训练终止条件,对式III)所示目标函数进行优化,直至训练达到训练轮数,训练结束后即从步骤S3)所述编码器的输出中得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
相较于现有技术,本发明的有益效果在于:
由于通过编码器和解码器建立序列关联关系保存模型,对所述三元组序列集合进行学习,有效保留了属性网络中,节点信息、节点属性和节点标签的关联关系,因此得到的节点网络表示向量,其质量具有较大幅度的提升,减轻了后续数据聚类分类、链接预测、数据可视化等应用工作的运算工作量,并获得较好的评估指标。
附图说明
图1为本发明所述的一种保存序列关联关系的属性网络表示学习方法的处理流程图;
图2为本发明所述的一种保存序列关联关系的属性网络表示学习方法中随机游走得到节点信息序列、并扩充为三元组序列集合方法示意图;
图3为为本发明所述的一种保存序列关联关系的属性网络表示学习方法中构建模型对输入序列进行编码-解码预测训练的方法示意图。
具体实施方式
例1、下面以维基百科网页引用网络为例,结合附图详述本发明的保存序列关联关系的属性网络表示学习方法:
本例中待处理的属性网络,包括2405篇维基百科网页,每篇网页即为一个网络节点,17981条网络引用关系,即包含17981条节点信息;网页中的文本描述共分4973维,即4973维属性信息;标签共17类,即17类标签信息。
本例中保存序列关联关系的属性网络表示学习方法如图1所示,步骤如下:
(S1)分别获取2405篇维基百科网页的节点信息,以及各维基百科网页的节点相对应的属性信息和标签信息;
(S2)参见图2,以每篇维基百科网页作为起始点,使用随机游走算法对每篇维基百科网页的节点信息进行处理,直至游走的序列长度达到预设值,得到关于节点信息的序列集合,即每篇网页之间的引用和被引关系集合,
然后根据各个节点信息、网页属性信息、网页标签信息之间的相互对应关系,将节点信息序列的集合扩充为含有节点信息Snode、属性信息Satt、标签信息Slabel的三元组序列集合<Snode,Satt,Slabel>,其中,Snode为节点信息序列、Satt为属性信息序列、Slabel为标签信息序列;
(S3)参见图3,通过编码器和解码器建立序列关联关系保存模型,对所述三元组序列集合进行学习:
将其中输入的属性序列Satt编码为属性序列的序列表示向量,然后根据每篇基百科网页的之间的“属性-节点”和“属性-标签”对应关系,通过解码器分别解码预测为新的节点信息序列S'node和新的标签信息序列S'label,具体步骤为:
(S31a)使用双向长期短期记忆模型(Bi-LSTM)作为编码器,对输入的属性信息序列Satt进行编码,得到属性序列的序列表示向量,所述的编码器的任意方向编码公式如下式Ia)所示:
上式Ia)中,下标t为序列中元素的序号,at为输入的属性信息序列Satt中的元素值,it、ft和ot分别为输入的属性信息序列Satt分别在输入门、遗忘门和输出门的输出值,ct为得到的单元状态序列元素值,ht为经过前向编码后的序列表示隐层向量、h't为后向编码后的序列表示隐层向量、为向量串联拼接操作符,h为属性序列的双向序列表示隐层向量;W为权重,其第一下标中a、c和h分别对应输入序列、单元状态序列和经过单向编码后的序列隐层向量,其第二下标i、f和o分别对应输入序列分别在输入门、遗忘门和输出门,例如,Whi即为输入序列在输入门的输出值it时,单向编码后的序列隐层向量ht-1的权重,为序列按元素相乘符号,σ和tanh均为激活函数,根据调试经验设置。
编码处理时,当t到达属性信息序列Satt的最后一位时,ht即为该属性信息序列Satt的完整的序列前向编码后的序列表示隐层向量,h't即为该属性信息序列Satt的完整的后向编码后的序列表示隐层向量,通过向量串联拼接操作后,即得到完整的属性序列的序列表示向量,即双向序列表示隐层向量h。
(S32)分别使用两个双向长期短期记忆模型(Bi-LSTM)解码器按照“属性-节点”和“属性-标签”对应关系,对属性序列的序列表示向量进行解码,经过一个全连接层映射full_conn,分别预测节点信息序列和标签信息序列,从而得到保存有属性信息与网络结构信息之间对应关系的新的节点信息序列S'node,以及保存有属性信息和标签信息之间对应关系的新的标签信息序列S'label,解码方法如下式IV)所示:
(S4)构建以新的节点信息序列S'node、标签信息序列S'label和三元组序列集合<Snode,Satt,Slabel>为参数的目标函数,并设置优化终止条件对所述目标函数进行优化训练,得到包含节点信息、属性信息和标签信息的属性网络节点表示向量,具体方法为:
(S41)分别比对新的节点信息序列S'node与三元组中的节点信息序列Snode、新的标签信息序列S'label与三元组中的标签信息序列Slabel,然后构建维基百科网页的节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2,构建公式为:
式II)中,Snode为三元组中的节点信息序列,Slabel为三元组中的节点信息序列。
(S42)对构建的节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2进行线性组合,并定义如下目标函数:
Loss=αL1+(1-α)L2 III)
式III)中,α为根据调试经验预先设置的平衡系数,以此平衡节点信息序列Snode和标签信息序列Slabel对训练过程的影响;
然后,根据调试经验,设置训练轮数epoch作为训练终止条件,对式III)所示目标函数进行训练优化,直至训练达到训练轮数epoch,训练结束后即从步骤(S31a)所述编码器的输出中,即可得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
例2
对于例1中的维基百科网页引用属性网络表示学习方法,亦可使用卷积神经网络(CNN)作为模型进行学习训练,也就是将步骤(S31a)替换如下:
(S31b)将所述三元组序列集合中的属性序列Satt作为输入序列,使用卷积神经网络模型(CNN)对输入序列Satt通过多角度特征提取的方式进行编码,得到输入序列的表示向量,提取公式下式Ib)所示:
上式Ib)中,fea为属性序列表示向量,该向量为卷积核,Satt为输入的属性序列,filter1、filter2至filtern为多层卷积核、fea1、fea2至fean为使用不同的卷积核对输入的属性序列Satt进行卷积,提取的相应特征向量、为向量串联拼接操作符。
相应地,当例1所述步骤(S42)训练结束后,从上述步骤(S31b)所述编码器的输出中,即可得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
例3
对于例1或例2得到的维基百科网页引用属性网络节点表示向量,即可作为下游网络应用任务的节点特征,例如,对维基百科中打标签的百科网页做网页分类预测,预测网页之间是否有引用关系,或是,将维基百科网页可视化呈现于二维平面应用上,以直观看出网络特性。对比现有技术,本例中的属性网络表示学习的网页分类预测性能如下表1所示:
表1与现有技术的性能对比
上表1中,第一行为数据中参与训练的数据比例,第二行为现有技术中使用STNE(Self-Translation Network Embedding)模型对属性网络表示学习的方法得到指标结果,第三行为本方法得到的指标结果,上述结果出自对于各列相应的剩余比例进行标签预测的指标值,指标的测算采用现有公知的分类问题评价指标micro-F1进行测算,表中结果为重复10次训练后测算取得的平均值。
通过对比可知,本方法相较于现有技术中使用STNE(Self-Translation NetworkEmbedding)模型对属性网络进行表示学习方法,各数据训练比例条件下,评价指标平均性能提升接近2%,可见本方法得到的节点网络表示向量,其质量具有较大幅度的提升,并且评估指标提升明显。
Claims (5)
1.一种保存序列关联关系的属性网络表示学习方法,包括以下步骤:
S1)分别获取属性网络中各节点的节点信息,以及各节点相对应的属性信息和标签信息;
S2)使用随机游走算法对属性网络中的每个节点的节点信息进行处理,得到关于节点信息的序列集合,然后根据各个节点信息、属性信息、标签信息之间的相互对应关系,将节点信息序列的集合扩充为含有节点信息、属性信息、标签信息的三元组序列集合;
S3)通过编码器和解码器建立序列关联关系保存模型,对所述三元组序列集合进行学习:将其中输入的属性序列编码为属性序列的序列表示向量,然后根据各个节点信息、属性信息、标签信息之间的相互对应关系,通过解码器分别解码预测为新的节点信息序列和新的标签信息序列;
S4)构建以新的节点信息序列、标签信息序列和三元组序列集合为参数的目标函数,并设置优化终止条件对所述目标函数进行优化,得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
2.如权利要求1所述的一种保存序列关联关系的属性网络表示学习方法,其特征在于,获得所述关于节点信息的序列集合的方法为:
以属性网络中的各节点作为起始点,向相邻节点进行随机游走,直至游走的序列长度达到预设值,即得到随机关于节点信息的序列集合。
3.如权利要求1所述的一种保存序列关联关系的属性网络表示学习方法,其特征在于,所述序列关联关系保存模型的建立方法为:
S31a)将所述三元组序列集合中的属性序列作为输入序列,使用双向长期短期记忆模型(Bi-LSTM)作为编码器,对输入序列进行编码,得到属性序列的序列表示向量,所述的编码器的任意向编码公式如下式Ia)所示:
上式Ia)中,下标t为序列中元素的序号,at为输入序列元素值,it、ft和ot分别为输入序列分别在输入门、遗忘门和输出门的输出值,ct为单元状态序列元素值,h为属性序列的序列表示向量,该向量为一种双向序列表示隐层向量、ht为经过单向编码后的序列表示隐层向量、h't为另一方向编码后的序列表示隐层向量、为向量串联拼接操作符;W为权重,其第一下标中a、c和h分别对应输入序列、单元状态序列和经过单向编码后的序列隐层向量,其第二下标i、f和o分别对应输入序列分别在输入门、遗忘门和输出门,为向量按元素相乘操作符,σ和tanh均为激活函数,根据调试经验设置,
S32)分别使用两个双向长期短期记忆模型(Bi-LSTM)解码器按照属性信息和节点信息,以及属性信息和标签信息之间的对应关系,对属性序列的序列表示向量进行解码,分别预测节点信息序列和标签信息序列,从而得到保存有属性信息与网络结构信息之间对应关系的新的节点信息序列S'node,以及保存有属性信息和标签信息之间对应关系的新的标签信息序列S'label。
5.如权利要求1所述的一种保存序列关联关系的属性网络表示学习方法,其特征在于,得到所述包含节点信息、属性信息和标签信息的属性网络节点表示向量的具体方法为:
S41)分别比对新的节点信息序列S'node与三元组中的节点信息序列、新的标签信息序列S'label与三元组中的标签信息序列,然后构建节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2,构建公式为:
式II)中,Snode为三元组中的节点信息序列,Slabel为三元组中的节点信息序列;
S42)对节点信息序列预测交叉熵损失函数L1和标签信息序列预测交叉熵损失函数L2进行线性组合,根据调试经验设置平衡系数α,并定义如下目标函数:
Loss=αL1+(1-α)L2 III),
然后,根据调试经验,设置训练轮数作为训练终止条件,对式III)所示目标函数进行优化,直至训练达到训练轮数,训练结束后即从步骤S3)所述编码器的输出中得到包含节点信息、属性信息和标签信息的属性网络节点表示向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911160762.7A CN110879859A (zh) | 2019-11-23 | 2019-11-23 | 一种保存序列关联关系的属性网络表示学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911160762.7A CN110879859A (zh) | 2019-11-23 | 2019-11-23 | 一种保存序列关联关系的属性网络表示学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110879859A true CN110879859A (zh) | 2020-03-13 |
Family
ID=69729531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911160762.7A Pending CN110879859A (zh) | 2019-11-23 | 2019-11-23 | 一种保存序列关联关系的属性网络表示学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110879859A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111831758A (zh) * | 2020-08-21 | 2020-10-27 | 安徽大学 | 基于快速的层次属性网络表示学习的节点分类方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875000A (zh) * | 2018-06-14 | 2018-11-23 | 广东工业大学 | 一种融合多句法结构的语义关系分类方法 |
KR20190092043A (ko) * | 2018-01-30 | 2019-08-07 | 연세대학교 산학협력단 | 추론 과정 설명이 가능한 시각 질의 응답 장치 및 방법 |
CN110209825A (zh) * | 2019-06-17 | 2019-09-06 | 大连海事大学 | 一种基于宽度学习系统的快速网络表征学习算法 |
CN110414664A (zh) * | 2018-04-28 | 2019-11-05 | 三星电子株式会社 | 用于训练神经网络的方法及神经网络训练系统 |
-
2019
- 2019-11-23 CN CN201911160762.7A patent/CN110879859A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190092043A (ko) * | 2018-01-30 | 2019-08-07 | 연세대학교 산학협력단 | 추론 과정 설명이 가능한 시각 질의 응답 장치 및 방법 |
CN110414664A (zh) * | 2018-04-28 | 2019-11-05 | 三星电子株式会社 | 用于训练神经网络的方法及神经网络训练系统 |
CN108875000A (zh) * | 2018-06-14 | 2018-11-23 | 广东工业大学 | 一种融合多句法结构的语义关系分类方法 |
CN110209825A (zh) * | 2019-06-17 | 2019-09-06 | 大连海事大学 | 一种基于宽度学习系统的快速网络表征学习算法 |
Non-Patent Citations (1)
Title |
---|
武文茂: "《基于深度模型的网络表示学习方法的研究与实现》", 《中国优秀硕士论文全文库》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111831758A (zh) * | 2020-08-21 | 2020-10-27 | 安徽大学 | 基于快速的层次属性网络表示学习的节点分类方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110738026B (zh) | 用于生成描述文本的方法和设备 | |
Denil et al. | Extraction of salient sentences from labelled documents | |
CN114519143B (zh) | 课程推荐模型的训练方法、课程推荐方法及装置 | |
WO2019080864A1 (zh) | 一种文本语义编码方法及装置 | |
CN111222305A (zh) | 一种信息结构化方法和装置 | |
CN112069302A (zh) | 会话意图识别模型的训练方法、会话意图识别方法及装置 | |
CN109165720A (zh) | 神经网络模型压缩方法、装置和计算机设备 | |
CN113590948B (zh) | 信息推荐方法、装置、设备以及计算机存储介质 | |
CN110837738A (zh) | 相似问识别方法、装置、计算机设备及存储介质 | |
CN107451106A (zh) | 文本纠正方法及装置、电子设备 | |
CN113505583B (zh) | 基于语义决策图神经网络的情感原因子句对提取方法 | |
CN109753661A (zh) | 一种机器阅读理解方法、装置、设备及存储介质 | |
CN113761868A (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
CN113420212A (zh) | 基于深度特征学习的推荐方法、装置、设备及存储介质 | |
CN110688537A (zh) | 一种计算图节点低维表征及相关应用方法 | |
CN112560456A (zh) | 一种基于改进神经网络的生成式摘要生成方法和系统 | |
CN110502701B (zh) | 引入注意力机制的好友推荐方法、系统和存储介质 | |
CN114548296A (zh) | 一种基于自适应框架的图卷积推荐方法及相关装置 | |
CN110502236B (zh) | 基于多尺度特征解码的前端代码生成方法、系统及设备 | |
CN113536182A (zh) | 长文本网页的生成方法、装置、电子设备和存储介质 | |
CN113343235B (zh) | 基于Transformer的应用层恶意有效负载检测方法、系统、设备及介质 | |
CN110879859A (zh) | 一种保存序列关联关系的属性网络表示学习方法 | |
CN112015890B (zh) | 电影剧本摘要的生成方法和装置 | |
CN114238549A (zh) | 文本生成模型的训练方法、装置、存储介质及计算机设备 | |
CN114116971A (zh) | 用于生成相似文本的模型训练方法、装置及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |