CN111353002B - 网络表示学习模型的训练方法、装置、电子设备及介质 - Google Patents

网络表示学习模型的训练方法、装置、电子设备及介质 Download PDF

Info

Publication number
CN111353002B
CN111353002B CN202010079116.4A CN202010079116A CN111353002B CN 111353002 B CN111353002 B CN 111353002B CN 202010079116 A CN202010079116 A CN 202010079116A CN 111353002 B CN111353002 B CN 111353002B
Authority
CN
China
Prior art keywords
matrix
network
attribute information
network node
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010079116.4A
Other languages
English (en)
Other versions
CN111353002A (zh
Inventor
窦勇
李腾
姜晶菲
李荣春
牛新
乔鹏
潘衡岳
苏华友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202010079116.4A priority Critical patent/CN111353002B/zh
Publication of CN111353002A publication Critical patent/CN111353002A/zh
Application granted granted Critical
Publication of CN111353002B publication Critical patent/CN111353002B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/288Entity relationship models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供一种网络表示学习模型的训练方法及装置、一种电子设备以及一种计算机可读介质。方法包括:获取网络节点之间的关联信息,建立网络节点的拓扑信息矩阵;获取网络中各个节点的属性信息,建立网络节点的属性信息矩阵;通过矩阵分解的方式将拓扑信息矩阵和属性信息矩阵同时投影到预设矩阵空间中,得到对应的第一矩阵和第二矩阵,并计算两者的相似性;根据拓扑信息矩阵、属性信息矩阵和相似性,构建网络节点表示向量;将所述网络节点表示向量代入网络表示学习模型中进行训练。本方案,将网络的外部信息合理地结合到网络表示学习模型的训练中,进一步增强了网络表示学习的效果。

Description

网络表示学习模型的训练方法、装置、电子设备及介质
技术领域
本申请涉及网络表示学习领域,具体涉及一种网络表示学习模型的训练方法及装置、一种电子设备以及一种计算机可读介质。
背景技术
真实世界中的实体之间通常会互相交互,形成大规模的复杂网络。网络中的节点代表真实世界中的实体,网络中的节点之间是否连接有边代表实体之间是否存在交互关系。
网络表示学习的主要目的是通过学习将网络信息转化为低维度的向量表示,这些向量表示可以广泛应用于基于网络数据的不同任务之中,例如,分类,聚类,链接预测和可视化等等。
在真实的网络节点中,网络节点不仅包含节点之间的网络拓扑信息,与之相对应的还有很多丰富的外部信息。例如,社交网络中,用户(社交网络节点)发布的文本信息。如果单纯的使用网络拓扑信息进行网络表示学习,相关的网络表示学习模型面临着如下的问题:没有考虑网络节点与不同邻居节点交互内容对网络表示的影响,从而导致使用该网络表示学习模型预测各网络节点交互关系不够准确。
发明内容
本申请的目的是提供一种网络表示学习模型的训练方法及装置、一种电子设备以及一种计算机可读介质。
本申请第一方面提供一种网络表示学习模型的训练方法,包括:
获取网络节点之间的关联信息,基于所述关联信息建立网络节点的拓扑信息矩阵;
获取所述网络中各个节点的属性信息,基于所述属性信息建立网络节点的属性信息矩阵;
通过矩阵分解的方式将所述拓扑信息矩阵和所述属性信息矩阵同时投影到预设矩阵空间中,得到所述拓扑信息矩阵对应的第一矩阵,以及所述属性信息矩阵对应的第二矩阵,并计算所述第一矩阵和所述第二矩阵的相似性;
根据所述拓扑信息矩阵、所述属性信息矩阵和所述相似性,构建网络节点表示向量;
将所述网络节点表示向量代入网络表示学习模型中,并对代入网络节点表示向量后的网络表示学习模型进行训练。
在本申请的一些实施方式中,所述计算所述第一矩阵和所述第二矩阵的相似性,包括:
计算所述第一矩阵和所述第二矩阵的KL散度。
在本申请的一些实施方式中,所述基于所述属性信息建立网络节点的属性信息矩阵之前,还包括:
对获取到的各个节点的属性信息进行预处理。
在本申请的一些实施方式中,所述属性信息为文本信息。
本申请第二方面提供一种网络表示学习模型的训练装置,包括:
第一获取模块,用于获取网络节点之间的关联信息,基于所述关联信息建立网络节点的拓扑信息矩阵;
第二获取模块,用于获取所述网络中各个节点的属性信息,基于所述属性信息建立网络节点的属性信息矩阵;
计算模块,用于通过矩阵分解的方式将所述拓扑信息矩阵和所述属性信息矩阵同时投影到预设矩阵空间中,得到所述拓扑信息矩阵对应的第一矩阵,以及所述属性信息矩阵对应的第二矩阵,并计算所述第一矩阵和所述第二矩阵的相似性;
构建模块,用于根据所述拓扑信息矩阵、所述属性信息矩阵和所述相似性,构建网络节点表示向量;
训练模块,用于将所述网络节点表示向量代入网络表示学习模型中,并对代入网络节点表示向量后的网络表示学习模型进行训练。
在本申请的一些实施方式中,所述计算模块,具体用于:
计算所述第一矩阵和所述第二矩阵的KL散度。
在本申请的一些实施方式中,所述装置还包括:
预处理模块,用于在所述第二获取模块基于所述属性信息建立网络节点的属性信息矩阵之前,对获取到的各个节点的属性信息进行预处理。
在本申请的一些实施方式中,所述属性信息为文本信息。
本申请第三方面提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器运行所述计算机程序时执行以实现本申请第一方面所述的方法。
本申请第四方面提供一种计算机可读介质,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现本申请第一方面所述的方法。
相较于现有技术,本申请提供的网络表示学习模型的训练方法、装置、电子设备及介质,将网络的外部信息合理地结合到网络表示学习模型的训练中,能够提高网络表示学习模型对网络节点分类和链路预测的准确性,进一步增强了网络表示学习的效果。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本申请的一些实施方式所提供的一种网络表示学习模型的训练方法的流程图;
图2示出了本申请的一些实施方式所提供的一种网络表示学习模型的训练装置的示意图;
图3示出了本申请的一些实施方式所提供的一种电子设备的示意图;
图4示出了本申请的一些实施方式所提供的一种计算机可读介质的示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本申请所属领域技术人员所理解的通常意义。
另外,术语“第一”和“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例提供一种网络表示学习模型的训练方法及装置、一种电子设备以及计算机可读介质,下面结合附图进行说明。
请参考图1,其示出了本申请的一些实施方式所提供的一种网络表示学习模型的训练方法的流程图,如图所示,所述网络表示学习模型的训练方法,可以包括以下步骤:
步骤S101:获取网络节点之间的关联信息,基于所述关联信息建立网络节点的拓扑信息矩阵;
步骤S102:获取所述网络中各个节点的属性信息,基于所述属性信息建立网络节点的属性信息矩阵;
其中,所述属性信息可以为文本信息。
本实施例中,网络节点可以代表现实世界中的实体,实体可以包括人或物,网络节点之间连接的边用于代表实体之间是否存在关联(即有边则实体之间有关联,没有边则实体之间没有关联),文本信息表示网络节点与相邻网络节点交互的内容。
举例来说,将网络节点包含的拓扑信息和网络节点包含的文本信息分开进行表示,分别构建一个基于网络节点的拓扑信息矩阵A与一个基于网络节点的文本信息矩阵B。
步骤S103:通过矩阵分解的方式将所述拓扑信息矩阵和所述属性信息矩阵同时投影到预设矩阵空间中,得到所述拓扑信息矩阵对应的第一矩阵,以及所述属性信息矩阵对应的第二矩阵,并计算所述第一矩阵和所述第二矩阵的相似性;
具体的,举例来说,通过矩阵分解的方式将网络节点拓扑信息矩阵A和网络节点文本信息矩阵B同时投影到矩阵空间U之中分别表示为矩阵U1,矩阵U2,然后计算矩阵U1和矩阵U2的相似性。此时,可以引入KL(Kullback-Leibler)散度作为衡量矩阵U1和矩阵U2相似度的标准,也就是,计算矩阵U1和矩阵U2的KL散度,以进一步在学习的过程中减少二者的差异性。
本步骤中,为了消除学习过程中网络节点拓扑信息和网络节点文本信息存在的偏差问题,引入了KL散度作为度量,以进一步消除学习偏差。
步骤S104:根据所述拓扑信息矩阵、所述属性信息矩阵和所述相似性,构建网络节点表示向量;
具体的,根据所述相似性获取网络节点之间的结构向量和文本向量,根据所述结构向量和所述文本向量构成网络节点表示向量。
步骤S105:将所述网络节点表示向量代入网络表示学习模型中,并对代入网络节点表示向量后的网络表示学习模型进行训练。
相较于现有技术,本申请实施例提供的上述网络表示学习模型的训练方法,将网络的外部信息合理地结合到网络表示学习模型的训练中,能够提高网络表示学习模型对网络节点分类和链路预测的准确性,进一步增强了网络表示学习的效果。
在上述的实施例中,提供了一种网络表示学习模型的训练方法,与之相对应的,本申请还提供一种网络表示学习模型的训练装置。本申请实施例提供的网络表示学习模型的训练装置可以实施上述网络表示学习模型的训练方法,该网络表示学习模型的训练装置可以通过软件、硬件或软硬结合的方式来实现。例如,该网络表示学习模型的训练装置可以包括集成的或分开的功能模块或单元来执行上述各方法中的对应步骤。请参考图2,其示出了本申请的一些实施方式所提供的一种网络表示学习模型的训练装置的示意图。由于装置实施例基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。下述描述的装置实施例仅仅是示意性的。
如图2所示,所述网络表示学习模型的训练装置10可以包括:
第一获取模块101,用于获取网络节点之间的关联信息,基于所述关联信息建立网络节点的拓扑信息矩阵;
第二获取模块102,用于获取所述网络中各个节点的属性信息,基于所述属性信息建立网络节点的属性信息矩阵;
计算模块103,用于通过矩阵分解的方式将所述拓扑信息矩阵和所述属性信息矩阵同时投影到预设矩阵空间中,得到所述拓扑信息矩阵对应的第一矩阵,以及所述属性信息矩阵对应的第二矩阵,并计算所述第一矩阵和所述第二矩阵的相似性;
构建模块104,用于根据所述拓扑信息矩阵、所述属性信息矩阵和所述相似性,构建网络节点表示向量;
训练模块105,用于将所述网络节点表示向量代入网络表示学习模型中,并对代入网络节点表示向量后的网络表示学习模型进行训练。
在本申请的一些实施方式中,所述计算模块103,具体用于:
计算所述第一矩阵和所述第二矩阵的KL散度。
在本申请的一些实施方式中,所述装置还包括:
预处理模块,用于在所述第二获取模块102基于所述属性信息建立网络节点的属性信息矩阵之前,对获取到的各个节点的属性信息进行预处理。
在本申请的一些实施方式中,所述属性信息为文本信息。
本申请实施例提供的网络表示学习模型的训练装置10,与本申请前述实施例提供的网络表示学习模型的训练方法出于相同的发明构思,具有相同的有益效果。
本申请实施方式还提供一种与前述实施方式所提供的网络表示学习模型的训练方法对应的电子设备,请参考图3,其示出了本申请的一些实施方式所提供的一种电子设备的示意图。如图3所示,所述电子设备20包括:处理器200,存储器201,总线202和通信接口203,所述处理器200、通信接口203和存储器201通过总线202连接;所述存储器201中存储有可在所述处理器200上运行的计算机程序,所述处理器200运行所述计算机程序时执行本申请前述任一实施方式所提供的网络表示学习模型的训练方法。
其中,存储器201可能包含高速随机存取存储器(RAM:Random AccessMemory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口203(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网、广域网、本地网、城域网等。
总线202可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。其中,存储器201用于存储程序,所述处理器200在接收到执行指令后,执行所述程序,前述本申请实施例任一实施方式揭示的所述网络表示学习模型的训练方法可以应用于处理器200中,或者由处理器200实现。
处理器200可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器200中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器200可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器201,处理器200读取存储器201中的信息,结合其硬件完成上述方法的步骤。
本申请实施例提供的电子设备与本申请实施例提供的网络表示学习模型的训练方法出于相同的发明构思,具有与其采用、运行或实现的方法相同的有益效果。
本申请实施方式还提供一种与前述实施方式所提供的网络表示学习模型的训练方法对应的计算机可读介质,请参考图4,其示出的计算机可读存储介质为光盘30,其上存储有计算机程序(即程序产品),所述计算机程序在被处理器运行时,会执行前述任意实施方式所提供的网络表示学习模型的训练方法。
需要说明的是,所述计算机可读存储介质的例子还可以包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他光学、磁性存储介质,在此不再一一赘述。
本申请的上述实施例提供的计算机可读存储介质与本申请实施例提供的网络表示学习模型的训练方法出于相同的发明构思,具有与其存储的应用程序所采用、运行或实现的方法相同的有益效果。
需要说明的是,附图中的流程图和框图显示了根据本申请的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围,其均应涵盖在本申请的权利要求和说明书的范围当中。

Claims (6)

1.一种网络表示学习模型的训练方法,其特征在于,所述网络为社交网络,包括:
获取网络节点之间的关联信息,基于所述关联信息建立网络节点的拓扑信息矩阵,所述网络节点为用户;
获取所述网络中各个节点的属性信息,基于所述属性信息建立网络节点的属性信息矩阵,所述属性信息为文本信息,所述文本信息表示网络节点与相邻网络节点交互的内容;
通过矩阵分解的方式将所述拓扑信息矩阵和所述属性信息矩阵同时投影到预设矩阵空间中,得到所述拓扑信息矩阵对应的第一矩阵,以及所述属性信息矩阵对应的第二矩阵,并计算所述第一矩阵和所述第二矩阵的相似性;
根据所述拓扑信息矩阵、所述属性信息矩阵和所述相似性,构建网络节点表示向量,包括:根据所述相似性获取网络节点之间的结构向量和文本向量,根据所述结构向量和所述文本向量构成网络节点表示向量;
将所述网络节点表示向量代入网络表示学习模型中,并对代入网络节点表示向量后的网络表示学习模型进行训练;
所述计算所述第一矩阵和所述第二矩阵的相似性,包括:
计算所述第一矩阵和所述第二矩阵的KL散度,其中,所述KL散度的计算,用于在学习过程中减少所述第一矩阵和所述第二矩阵的差异性。
2.根据权利要求1所述的方法,其特征在于,所述基于所述属性信息建立网络节点的属性信息矩阵之前,还包括:
对获取到的各个节点的属性信息进行预处理。
3.一种网络表示学习模型的训练装置,其特征在于,所述网络为社交网络,包括:
第一获取模块,用于获取网络节点之间的关联信息,基于所述关联信息建立网络节点的拓扑信息矩阵,所述网络节点为用户;
第二获取模块,用于获取所述网络中各个节点的属性信息,基于所述属性信息建立网络节点的属性信息矩阵,所述属性信息为文本信息,所述文本信息表示网络节点与相邻网络节点交互的内容;
计算模块,用于通过矩阵分解的方式将所述拓扑信息矩阵和所述属性信息矩阵同时投影到预设矩阵空间中,得到所述拓扑信息矩阵对应的第一矩阵,以及所述属性信息矩阵对应的第二矩阵,并计算所述第一矩阵和所述第二矩阵的相似性;
构建模块,用于根据所述拓扑信息矩阵、所述属性信息矩阵和所述相似性,构建网络节点表示向量,包括:根据所述相似性获取网络节点之间的结构向量和文本向量,根据所述结构向量和所述文本向量构成网络节点表示向量;
训练模块,用于将所述网络节点表示向量代入网络表示学习模型中,并对代入网络节点表示向量后的网络表示学习模型进行训练;
所述计算模块,具体用于:
计算所述第一矩阵和所述第二矩阵的KL散度,其中,所述KL散度的计算,用于在学习过程中减少所述第一矩阵和所述第二矩阵的差异性。
4.根据权利要求3所述的装置,其特征在于,所述装置还包括:
预处理模块,用于在所述第二获取模块基于所述属性信息建立网络节点的属性信息矩阵之前,对获取到的各个节点的属性信息进行预处理。
5.一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器运行所述计算机程序时执行以实现如权利要求1至2任一项所述的方法。
6.一种计算机可读介质,其特征在于,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现如权利要求1至2任一项所述的方法。
CN202010079116.4A 2020-02-03 2020-02-03 网络表示学习模型的训练方法、装置、电子设备及介质 Active CN111353002B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010079116.4A CN111353002B (zh) 2020-02-03 2020-02-03 网络表示学习模型的训练方法、装置、电子设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010079116.4A CN111353002B (zh) 2020-02-03 2020-02-03 网络表示学习模型的训练方法、装置、电子设备及介质

Publications (2)

Publication Number Publication Date
CN111353002A CN111353002A (zh) 2020-06-30
CN111353002B true CN111353002B (zh) 2024-05-03

Family

ID=71196965

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010079116.4A Active CN111353002B (zh) 2020-02-03 2020-02-03 网络表示学习模型的训练方法、装置、电子设备及介质

Country Status (1)

Country Link
CN (1) CN111353002B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220027685A1 (en) * 2020-07-24 2022-01-27 International Business Machines Corporation Automated generation of optimization model for system-wide plant optimization
CN114285783B (zh) * 2021-12-14 2023-08-11 中国联合网络通信集团有限公司 一种基于多矩阵的路由扩散模拟方法及装置
CN115204077B (zh) * 2022-07-21 2023-04-18 北京芯思维科技有限公司 集成电路的节点优化方法、装置、电子设备及可读介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498986B1 (en) * 2012-01-31 2013-07-30 Business Objects Software Ltd. Classifying data using machine learning
CN108197699A (zh) * 2018-01-05 2018-06-22 中国人民解放军国防科技大学 针对卷积神经网络硬件加速器的调试模块
CN108805291A (zh) * 2017-04-27 2018-11-13 清华大学 一种网络表示学习模型的训练方法及服务器
CN109492770A (zh) * 2018-10-08 2019-03-19 浙江大学 一种基于个性化关系排序的属性网络嵌入方法
CN109597856A (zh) * 2018-12-05 2019-04-09 北京知道创宇信息技术有限公司 一种数据处理方法、装置、电子设备及存储介质
CN110222839A (zh) * 2019-05-10 2019-09-10 桂林电子科技大学 一种网络表示学习的方法、装置及存储介质
CN110417594A (zh) * 2019-07-29 2019-11-05 吉林大学 网络构建方法、装置、存储介质及电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10547698B2 (en) * 2006-11-08 2020-01-28 Cricket Media, Inc. Dynamic characterization of nodes in a semantic network for desired functions such as search, discovery, matching, content delivery, and synchronization of activity and information
US8943106B2 (en) * 2010-03-31 2015-01-27 International Business Machines Corporation Matrix re-ordering and visualization in the presence of data hierarchies
WO2018077039A1 (zh) * 2016-10-27 2018-05-03 腾讯科技(深圳)有限公司 社区发现方法、装置、服务器及计算机存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498986B1 (en) * 2012-01-31 2013-07-30 Business Objects Software Ltd. Classifying data using machine learning
CN108805291A (zh) * 2017-04-27 2018-11-13 清华大学 一种网络表示学习模型的训练方法及服务器
CN108197699A (zh) * 2018-01-05 2018-06-22 中国人民解放军国防科技大学 针对卷积神经网络硬件加速器的调试模块
CN109492770A (zh) * 2018-10-08 2019-03-19 浙江大学 一种基于个性化关系排序的属性网络嵌入方法
CN109597856A (zh) * 2018-12-05 2019-04-09 北京知道创宇信息技术有限公司 一种数据处理方法、装置、电子设备及存储介质
CN110222839A (zh) * 2019-05-10 2019-09-10 桂林电子科技大学 一种网络表示学习的方法、装置及存储介质
CN110417594A (zh) * 2019-07-29 2019-11-05 吉林大学 网络构建方法、装置、存储介质及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
一种基于网络嵌入的社区发现方法;王瑞国;叶雅玲;卜湛;;聊城大学学报(自然科学版)(第04期);全文 *

Also Published As

Publication number Publication date
CN111353002A (zh) 2020-06-30

Similar Documents

Publication Publication Date Title
CN111353002B (zh) 网络表示学习模型的训练方法、装置、电子设备及介质
CN108537568B (zh) 一种信息推荐方法和装置
CN110705214A (zh) 一种自动编码方法及装置
CN110378400B (zh) 一种用于图像识别的模型训练方法及装置
CN107590690B (zh) 数据处理方法、装置及服务器
CN111241353B (zh) 一种图数据的分区方法、装置以及设备
EP3649574A1 (en) Object detection based on deep neural network
CN112463991A (zh) 历史行为数据的处理方法、装置、计算机设备及存储介质
CN111475661A (zh) 一种基于有限标签构造场景图的方法、装置及计算机设备
CN111143038A (zh) Risc-v架构微处理器内核信息模型建模及生成方法
CN111475736A (zh) 社区挖掘的方法、装置和服务器
CN108932525B (zh) 一种行为预测方法及装置
CN113641894A (zh) 一种信息推荐的方法及装置
CN109345081A (zh) 一种数据采集方法、装置及电子设备
CN111190896B (zh) 数据处理方法、装置、存储介质和计算机设备
CN109783139B (zh) 软件界面特征提取方法、装置及电子设备
CN108734568B (zh) 一种特征组合方法、装置、终端设备及存储介质
JP6622369B1 (ja) 訓練データを生成する方法、コンピュータおよびプログラム
CN114925127A (zh) 级联结构数据的二维图表生成方法、装置、存储介质
CN115130621A (zh) 一种模型训练方法、装置、存储介质及电子设备
CN110309313B (zh) 生成事件转移图谱的方法及装置
CN109325127B (zh) 一种风险识别方法和装置
CN113468258A (zh) 一种异构数据的转换方法、装置及存储介质
CN107135137B (zh) 网络群组识别方法及装置
CN114090928B (zh) 嵌套html实体解码方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant