CN111160552B - 新闻信息的推荐处理方法、装置、设备和计算机存储介质 - Google Patents

新闻信息的推荐处理方法、装置、设备和计算机存储介质 Download PDF

Info

Publication number
CN111160552B
CN111160552B CN201911303132.0A CN201911303132A CN111160552B CN 111160552 B CN111160552 B CN 111160552B CN 201911303132 A CN201911303132 A CN 201911303132A CN 111160552 B CN111160552 B CN 111160552B
Authority
CN
China
Prior art keywords
nodes
node
positive
news
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911303132.0A
Other languages
English (en)
Other versions
CN111160552A (zh
Inventor
苏炜跃
冯仕堃
朱志凡
何径舟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201911303132.0A priority Critical patent/CN111160552B/zh
Publication of CN111160552A publication Critical patent/CN111160552A/zh
Application granted granted Critical
Publication of CN111160552B publication Critical patent/CN111160552B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2216/00Indexing scheme relating to additional aspects of information retrieval not explicitly covered by G06F16/00 and subgroups
    • G06F2216/03Data mining

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种新闻信息的推荐处理方法、装置、设备和计算机存储介质,涉及计算机应用技术领域。具体实现方案为:从图中选取节点分别进行随机游走,得到N条路径,所述图包括节点以及节点之间的关联,所述N为大于1的正整数,各路径包含M个节点,所述M为正整数;针对各路径上的各节点,分别从其他路径上选择节点作为负例。本申请能够提高负采样速率以及节约内存资源,特别是大规模场景下优点更加突出。

Description

新闻信息的推荐处理方法、装置、设备和计算机存储介质
技术领域
本申请涉及计算机应用技术领域,特别涉及一种人工智能领域的新闻信息的推荐处理方法、装置、设备和计算机存储介质。
背景技术
Deepwalk是一种学习网络中节点表示的方法,目前在推荐领域具有广泛应用。其能够基于图的方式利用节点和边进行无监督训练,挖掘出节点之间的潜在关联。然而,要在目前互联网中动则亿级别的用户数据中训练Deepwalk,训练速度是最为关注的问题。其中负采样是影响deepwalk训练的重要环节之一。
传统的负采样通过hash(哈希)表的方式,将概率按一定位置切分,从各切分位置分别采样节点作为负例,以此来提升负采样的速度。然而这种方式需要从全局采样节点作为负例,在大规模场景下节点数目非常多,负例节点的数据是正例节点的很多倍,这就会造成采样效率低下,消耗过多的内存资源。
发明内容
有鉴于此,本申请提供了一种采样处理方法、装置、设备和计算机存储介质,以便于提高采样效率,节约内存资源。
第一方面,本申请提供了一种负采样处理方法,该方法包括:
从图中选取节点分别进行随机游走,得到N条路径,所述图包括节点以及节点之间的关联,所述N为大于1的正整数,各路径包含M个节点,所述M为正整数;
针对各路径上的各节点,分别从其他路径上选择节点作为负例。
根据本申请一优选实施方式,所述从图中选取节点分别进行随机游走包括:
将图中每个节点至少选取一次分别进行随机游走。
根据本申请一优选实施方式,该方法还包括:
针对各路径上的各节点,依据节点之间的距离分别确定各节点的正例。
根据本申请一优选实施方式,所述依据节点之间的距离分别确定各节点的正例包括:
对于路径上的第一节点,将与第一节点属于同一路径且距离小于P个节点的第二节点作为所述第一节点的正例,所述P为预设的正整数。
根据本申请一优选实施方式,该方法还包括:
利用同一节点的正例和负例,构成正负例对;
利用所述正负例对训练跳字skip-gram模型,训练目标为:最大化skip-gram模型输出的同一正负例对中正例的概率与负例的概率之间的差值;
训练结束后从skip-gram模型得到各节点的向量表示。
第二方面,本申请还提供了一种负采样处理装置,该装置包括:
随机游走单元,用于从图中选取节点分别进行随机游走,得到N条路径,所述图包括节点以及节点之间的关联,所述N为大于1的正整数,各路径包含M个节点,所述M为正整数;
负例选择单元,用于针对各路径上的各节点,分别从其他路径上选择节点作为负例。
根据本申请一优选实施方式,所述随机游走单元,具体用于将图中每个节点至少选取一次分别进行随机游走。
根据本申请一优选实施方式,该装置还包括:
正例选择单元,用于针对各路径上的各节点,依据节点之间的距离分别确定各节点的正例。
根据本申请一优选实施方式,所述正例选择单元,具体用于对于路径上的第一节点,将与第一节点属于同一路径且距离小于P个节点的第二节点作为所述第一节点的正例,所述P为预设的正整数。
根据本申请一优选实施方式,该装置还包括:
模型训练单元,用于利用同一节点的正例和负例,构成正负例对;利用所述正负例对训练skip-gram模型,训练目标为:最大化skip-gram模型输出的同一正负例对中正例的概率与负例的概率之间的差值;训练结束后从skip-gram模型得到各节点的向量表示。
第三方面,本申请提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
第四方面,本申请提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行如上所述的方法。
本申请打破了全局负采样的传统方式,而是在随机游走所产生的路径范围内进行节点选择作为负例,不必每次都从图中全局考虑各节点的出现概率,从而提高负采样速率以及节约内存资源,特别是大规模场景下优点更加突出。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为应用本申请实施例的示例性系统架构图;
图2为本申请提供的负采样处理方法的流程图;
图3a为本申请实施例提供的图的一部分实例图;
图3b为本申请实施例提供的基于随机游走路径的正例选择实例图;
图3c为本申请实施例提供的基于随机游走路径的负例选择实例图;
图4为本申请实施例提供的skip-gram模型的结构示意图;
图5为本申请实施例提供的负采样处理装置的结构示意图;
图6是用来实现本申请实施例的负采样处理方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出了可以应用本发明实施例的用于声音采集的方法或用于声音采集的装置的示例性系统架构。
如图1所示,该系统架构可以包括终端设备101和102,网络103和服务器104。网络103用以在终端设备101、102和服务器104之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101和102通过网络103与服务器104交互。终端设备101和102上可以安装有各种应用,例如语音交互应用、网页浏览器应用、资讯类应用、通信类应用等。
终端设备101和102可以是各种电子设备,可以是有屏设备,也可以是无屏设备。包括但不限于智能手机、平板电脑、智能音箱、智能电视等等。
本发明所提供的负采样处理装置可以设置并运行于上述服务器104中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块,在此不做具体限定。
例如,负采样处理装置设置并运行于上述服务器104中,负责利用deepwalk算法学习图中各节点以及各节点之间的关联,从而得到各节点的向量表示,并基于各节点的向量表示向终端设备101或102提供服务。其中图描述了事物之间的特定关联。基于此可以应用于各种存在关联关系的事物所构成的网络结构图,并据此提供服务。
服务器104可以是单一服务器,也可以是多个服务器构成的服务器群组。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
本申请的核心思想在于,在deepwalk算法中打破全局负采样的传统方式,而是在随机游走所产生的路径范围内进行节点选择作为负例,从而提高负采样速率以及节约内存资源。下面结合实施例对本申请所提供的方法进行详细描述。
图2为本申请提供的负采样处理方法的流程图,该方法应用于deepwalk方法。如图2中所示,该方法可以包括以下步骤:
在201中,从图中选取节点分别进行随机游走,得到N条路径。
首先对本申请中所涉及的图进行描述。图(graph)是图论中的一个概念,近来正逐渐变成机器学习的一大核心领域,例如可以通过图理解社交网络的结构,理解用户行为,进行资源推荐等等。图是互连节点的集合,图是由节点和边构成的。
在本申请中会涉及到图的几个概念:
节点:代表具体场景下的事务,例如可以代表用户、资源、等等。
边:代表节点之间的关联,例如用户浏览或下载了某个资源,那么该用户与该资源之间存在关联。
邻接节点:一条边连接了节点A和节点B,那么节点A和节点B互为邻接节点。
节点的度:指的是节点所具有的邻接节点的数量。
下面介绍随机游走(random walk)。随机游走是图论中的重要算法,在数据挖掘领域有广泛的应用。随机游走算法构建了若干个随机游走器(random walker)。随机游走器从某个节点初始化,之后在每一步随机游走中,随机地访问当前节点的某个邻接节点,一次随机游走所访问的节点构成一条路径。
在本申请中,可以N次随机选取节点作为初始节点分别进行随机游走。其中,N为大于1的正整数,各路径包含M个节点,M为预设的正整数。N和M均为超参数,可以由用户根据经验设置,也可以预先进行实验后设置。
由于在很多应用场景下,是需要得到所有节点的向量表示的。因此,作为一种优选的实施方式,可以将图中每个节点至少选取一次分别进行随机游走,使得每个节点均至少出现在一条路径中。
在202中,针对各路径上的各节点,依据节点之间的距离分别确定各节点的正例。
在正例的选取上,本申请中可以采用“窗口”的形式,设置一定长度的窗口,例如3个节点距离的窗口。对于某个节点(在此称为第一节点)而言,以该第一节点作为窗口起点,该窗口范围内的节点都可以作为该节点的正例。窗口范围内的节点必须是存在关联关系的才能作为正例。如图3a中所示,对于节点1而言,节点2、3、4、5、6、7、8和9均在距离三个节点之内,可以作为节点1的正例。其中每个节点所选择的正例个数同样可以由用户根据经验值或实验值等进行设置。
还存在一种实现方式,由于在201中通过随机游走的方式已经产生了N条路径,那么对于路径上的各节点(在此称为第一节点),将与第一节点属于同一路径且距离小于P个节点的节点(在此称为第二节点)作为该第一节点的正例,其中,P为预设的正整数。需要说明的是,本申请中涉及的“第一节点”、“第二节点”中的“第一”、“第二”并不具备顺序和数量上的含义,仅用于对两个节点进行区分。
例如图3b中所示,经过步骤201产生了N条路径。以路径1为例,假设P值取2,那么对于节点2而言,节点1、节点3、节点4均可以作为节点2的正例。如果在本申请中仅选择一个正例,则可以从中随机选取一个作为正例,最终为路径中的每个节点均产生一个正例。如图3b中所示,灰度背景的节点为正例节点。
在203中,针对各路径上的各节点,分别从其他路径上选择节点作为负例。
在负例的选取上,本申请不再基于图进行全局选取,而是基于随机游走所产生的路径结果,从其他路径上选择节点作为负例。其中针对一个节点选择的负例数量可以由用户依据经验或实验结果进行设置,例如设置为正例数量的5倍。
在从其他路径上选择节点时,可以采用随机选择的方式。以图3b中路径1中各节点为例。对于节点1,可以随机选择节点6、8、11、14、15作为负例,如图3c中所示,图中斜线阴影节点代表负例。
在204中,利用同一节点的正例和负例,构成正负例对。
仍以图3c中为例,对于节点1而言,节点1和节点2构成正例对,节点1和节点6、8、11、14和15可以分别构成负例对。将正例对和负例对进行组合可以构成正负例对。
在获得正负例对之后,可以接续deepwalk算法已有的内容。具体地,在205中,利用各正负例对训练skip-gram(跳字)模型,训练目标为:最大化skip-gram模型输出的同一正负例对中正例的概率与负例的概率之间的差值。
在deepwalk算法中核心模型为skip-gram模型,skip-gram模型是自然语言处理领域中使用的一种模型,用于预测给定中心词相对应的上下文词。本申请将原本在自然语言处理领域中较常使用的skip-gram模型进行借鉴和利用,在本申请中用于获取图中各节点的向量表示。
图4中示出了skip-gram模型的结构示意图。在本申请中各节点分别作为skip-gram模型的输入,经过输入层得到节点的输入向量。节点的向量表示经过隐层(也称为隐藏层),隐藏层执行权重向量和输入向量之间的点积运算,得到节点的向量表示。节点的向量表示经过输出层的映射(例如Softmax处理)后,得到各输出节点的概率。假设(节点1,节点2)为正例对,(节点1,节点6)为负例对,对于该正负例对作为训练样本时,将节点1输入sip-gram模型,可以得出节点2和节点6作为输出的概率,可以理解为节点2和节点6作为节点1的“上下文”的概率,本申请中“上下文”体现节点之间的关联。然后利用得到的概率进行前向反馈,调整模型参数(主要是调整隐藏的权重向量)。模型调整时训练目标是最大化节点2的概率和节点6概率之间的差值,也可以理解为尽量最大化节点2的概率,最小化节点1的概率。分别对各训练样本(即各正负例对)都进行训练,最终训练结束后,得到各节点的权重向量,那么此时对应的隐层输出即为各节点的向量表示。
具体skip-gram模型训练过程中采用的具体训练方法,例如梯度下降等,在此不做详细描述。
在206中,训练结束后从skip-gram模型得到各节点的向量表示。
采用上述方法所示的负采样处理,经过实验论证,当随机游走产生的路径长度达到一定值时,每个节点作为负节点的概率近似等于节点的度,与理想状况很接近。
在得到图中各节点的向量表示后,就能够利用各节点的向量表示提供服务。本申请可以适用于多种类型的服务场景,下面仅以资源推荐类服务场景为例进行描述。
为了方便对本申请的理解,下面列举一个具体的应用实例:
预先依据用户对新闻的行为来构成图。在该图中节点包括用户和新闻,当用户对新闻存在点击、评论、收藏等行为时,用户节点与新闻存在边,当用户连续点击多个新闻时,新闻节点与新闻节点之间也存在边。对于图的形成本申请不做限制,仅利用已有的图进行处理。
基于上述图执行图2所示流程,可以得到各节点的向量表示,即得到各用户节点的向量表示、各新闻节点的向量表示。然后基于这些向量表示,就能够计算用户与新闻之间的相似度,从而实现基于用户行为面向用户进行的新闻推荐。
以上是对本申请所提供方法进行的详细描述,下面结合实施例对本申请提供的装置进行详细描述。
图5为本申请实施例提供的装置结构图,如图5中所示,该装置可以包括:随机游走单元01和负例选择单元02,还可以进一步包括:正例选择单元03以及模型训练单元04。其中各组成单元的主要功能如下:
随机游走单元01负责从图中选取节点分别进行随机游走,得到N条路径。其中图包括节点以及节点之间的关联,N为大于1的正整数,各路径包含M个节点,M为正整数。
在本申请中,随机游走单元01可以N次随机选取节点作为初始节点分别进行随机游走。其中,N为大于1的正整数,各路径包含M个节点,M为预设的正整数。N和M均为超参数,可以由用户根据经验设置,也可以预先进行实验后设置。
由于在很多应用场景下,是需要得到所有节点的向量表示的。因此,作为一种优选的实施方式,随机游走单元01可以将图中每个节点至少选取一次分别进行随机游走,使得每个节点均至少出现在一条路径中。
负例选择单元02负责针对各路径上的各节点,分别从其他路径上选择节点作为负例。
正例选择单元03,用于针对各路径上的各节点,依据节点之间的距离分别确定各节点的正例。
具体地对于路径上的第一节点,正例选择单元03可以将与第一节点属于同一路径且距离小于P个节点的第二节点作为所述第一节点的正例,其中P为预设的正整数。
模型训练单元04负责利用同一节点的正例和负例,构成正负例对;利用正负例对训练skip-gram模型,训练目标为:最大化skip-gram模型输出的同一正负例对中正例的概率与负例的概率之间的差值;训练结束后从skip-gram模型得到各节点的向量表示。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的负采样处理方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的负采样处理方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的负采样处理方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的负采样处理方法对应的程序指令/模块。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的负采样处理方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
负采样处理方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
由以上描述可以看出,本申请实施例提供的上述方法、装置、设备和计算机存储介质具备以下优点:
1)本申请打破了全局负采样的传统方式,而是在随机游走所产生的路径范围内进行节点选择作为负例,不必每次都从图中全局考虑各节点的出现概率,从而提高负采样速率以及节约内存资源,特别是大规模场景下优点更加突出。
2)由于从其他路径中选择节点作为负例,相比较从图中全局选择负例的方式,一条路径中各节点的负例对应的节点数目减小,使得在skip-gram模型训练过程中每次迭代更新的节点数目也相应减少,很大程度上加快了训练速度。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (10)

1.一种新闻信息的推荐处理方法,其特征在于,该方法包括:
预先依据用户对新闻的行为构成图,所述图包括节点以及节点之间的关联;所述图中节点包括用户节点和新闻节点;所述节点之间的关联包括用户节点和新闻节点之间的关联;
从所述图中选取节点分别进行随机游走,得到N条路径,所述N为大于1的正整数,各路径包含M个节点,所述M为正整数;
针对各路径上的各节点,依据节点之间的距离分别确定各节点的正例;
针对各路径上的各节点,分别从其他路径上选择节点作为负例;
利用同一节点的正例和负例,构成正负例对;
利用所述正负例对训练跳字skip-gram模型,训练结束后从skip-gram模型得到各节点的向量表示,所述各节点的向量表示包括各用户节点的向量表示、各新闻节点的向量表示;
基于所述各节点的向量表示,计算用户与新闻之间的相似度,以基于用户与新闻之间的相似度向用户进行新闻推荐。
2.根据权利要求1所述的方法,其特征在于,所述从图中选取节点分别进行随机游走包括:
将图中每个节点至少选取一次分别进行随机游走。
3.根据权利要求1所述的方法,其特征在于,所述依据节点之间的距离分别确定各节点的正例包括:
对于路径上的第一节点,将与第一节点属于同一路径且距离小于P个节点的第二节点作为所述第一节点的正例,所述P为预设的正整数。
4.根据权利要求1所述的方法,其特征在于,训练跳字skip-gram模型的训练目标为:最大化skip-gram模型输出的同一正负例对中正例的概率与负例的概率之间的差值。
5.一种新闻信息的推荐处理装置,其特征在于,该装置包括:
随机游走单元,用于从图中选取节点分别进行随机游走,得到N条路径,所述图为预先依据用户对新闻的行为构成,所述图包括节点以及节点之间的关联,所述N为大于1的正整数,各路径包含M个节点,所述M为正整数;所述图中节点包括用户节点和新闻节点;所述节点之间的关联包括用户节点和新闻节点之间的关联;
正例选择单元,用于针对各路径上的各节点,依据节点之间的距离分别确定各节点的正例;
负例选择单元,用于针对各路径上的各节点,分别从其他路径上选择节点作为负例;
模型训练单元,用于利用同一节点的正例和负例,构成正负例对;利用所述正负例对训练skip-gram模型,训练结束后从skip-gram模型得到各节点的向量表示,以便基于所述各节点的向量表示,计算用户与新闻之间的相似度,以基于用户与新闻之间的相似度向用户进行新闻推荐。
6.根据权利要求5所述的装置,其特征在于,所述随机游走单元,具体用于将图中每个节点至少选取一次分别进行随机游走。
7.根据权利要求5所述的装置,其特征在于,所述正例选择单元,具体用于对于路径上的第一节点,将与第一节点属于同一路径且距离小于P个节点的第二节点作为所述第一节点的正例,所述P为预设的正整数。
8.根据权利要求5所述的装置,其特征在于,训练skip-gram模型的训练目标为:最大化skip-gram模型输出的同一正负例对中正例的概率与负例的概率之间的差值。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法。
CN201911303132.0A 2019-12-17 2019-12-17 新闻信息的推荐处理方法、装置、设备和计算机存储介质 Active CN111160552B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911303132.0A CN111160552B (zh) 2019-12-17 2019-12-17 新闻信息的推荐处理方法、装置、设备和计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911303132.0A CN111160552B (zh) 2019-12-17 2019-12-17 新闻信息的推荐处理方法、装置、设备和计算机存储介质

Publications (2)

Publication Number Publication Date
CN111160552A CN111160552A (zh) 2020-05-15
CN111160552B true CN111160552B (zh) 2023-09-26

Family

ID=70557287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911303132.0A Active CN111160552B (zh) 2019-12-17 2019-12-17 新闻信息的推荐处理方法、装置、设备和计算机存储介质

Country Status (1)

Country Link
CN (1) CN111160552B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112417236B (zh) * 2020-10-29 2024-05-10 汉海信息技术(上海)有限公司 训练样本获取方法、装置、电子设备及存储介质
CN115035890B (zh) * 2022-06-23 2023-12-05 北京百度网讯科技有限公司 语音识别模型的训练方法、装置、电子设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729290A (zh) * 2017-09-21 2018-02-23 北京大学深圳研究生院 一种利用局部敏感哈希优化的超大规模图的表示学习方法
CN108804633A (zh) * 2018-06-01 2018-11-13 腾讯科技(深圳)有限公司 基于行为语义知识网络的内容推荐方法
CN108875090A (zh) * 2018-08-07 2018-11-23 腾讯科技(深圳)有限公司 一种歌曲推荐方法、装置和存储介质
CN108959472A (zh) * 2018-06-20 2018-12-07 桂林电子科技大学 基于多步关系路径的知识图谱表示学习方法
CN109743196A (zh) * 2018-12-13 2019-05-10 杭州电子科技大学 一种基于跨双层网络随机游走的网络表征方法
CN109800342A (zh) * 2018-12-13 2019-05-24 中国科学院信息工程研究所 一种基于节点影响力的多关系网络数据量化表示方法
CN109902708A (zh) * 2018-12-29 2019-06-18 华为技术有限公司 一种推荐模型训练方法及相关装置
CN110489563A (zh) * 2019-07-22 2019-11-22 北京百度网讯科技有限公司 图结构的表示方法、装置、设备及计算机可读存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8346766B2 (en) * 2009-12-15 2013-01-01 International Business Machines Corporation Efficient calculation of node proximity on graphs with side information
KR102257053B1 (ko) * 2014-07-04 2021-05-26 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 개인화된 트렌딩 이미지 검색 제시 기법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729290A (zh) * 2017-09-21 2018-02-23 北京大学深圳研究生院 一种利用局部敏感哈希优化的超大规模图的表示学习方法
CN108804633A (zh) * 2018-06-01 2018-11-13 腾讯科技(深圳)有限公司 基于行为语义知识网络的内容推荐方法
CN108959472A (zh) * 2018-06-20 2018-12-07 桂林电子科技大学 基于多步关系路径的知识图谱表示学习方法
CN108875090A (zh) * 2018-08-07 2018-11-23 腾讯科技(深圳)有限公司 一种歌曲推荐方法、装置和存储介质
CN109743196A (zh) * 2018-12-13 2019-05-10 杭州电子科技大学 一种基于跨双层网络随机游走的网络表征方法
CN109800342A (zh) * 2018-12-13 2019-05-24 中国科学院信息工程研究所 一种基于节点影响力的多关系网络数据量化表示方法
CN109902708A (zh) * 2018-12-29 2019-06-18 华为技术有限公司 一种推荐模型训练方法及相关装置
CN110489563A (zh) * 2019-07-22 2019-11-22 北京百度网讯科技有限公司 图结构的表示方法、装置、设备及计算机可读存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DNPS:基于阻尼采样的大规模动态社会网络结构特征表示学习;李志宇;梁循;徐志明;齐金山;陈燕方;;计算机学报(04);805-823 *
Fast query execution for retrieval models based on path-constrained random walks;Ni Lao等;《KDD》;881-888 *
Semantic relation classification via convolutional neural networks with simple negative sampling;Kun Xu等;《negative sampling,node,other path OR sequence》;1-5 *
基于神经网络的知识推理研究综述;张仲伟;曹雷;陈希亮;寇大磊;宋天挺;;计算机工程与应用(12);8-19+36 *

Also Published As

Publication number Publication date
CN111160552A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
KR102484617B1 (ko) 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN111626119B (zh) 目标识别模型训练方法、装置、设备以及存储介质
JP7135143B2 (ja) キーポイント学習モデルを構築するための方法、装置、電子デバイス及びコンピュータ可読記憶媒体
CN111667057B (zh) 用于搜索模型结构的方法和装置
EP3926548A1 (en) Method and apparatus for pre-training graph neural network
CN112001366B (zh) 模型训练方法、人脸识别方法、装置、设备和介质
CN111832701B (zh) 模型的蒸馏方法、装置、电子设备及存储介质
CN111582454A (zh) 生成神经网络模型的方法和装置
CN111709252B (zh) 基于预训练的语义模型的模型改进方法及装置
CN113723278B (zh) 表格信息提取模型的训练方法及装置
CN111639753B (zh) 用于训练图像处理超网络的方法、装置、设备以及存储介质
JP7427627B2 (ja) ビデオセグメント抽出方法、ビデオセグメント抽出装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
CN111882035A (zh) 基于卷积核的超网络搜索方法、装置、设备和介质
CN111652354B (zh) 用于训练超网络的方法、装置、设备以及存储介质
KR102607536B1 (ko) 옵티마이저 학습 방법, 장치, 전자 기기 및 판독 가능 기록 매체
CN111160552B (zh) 新闻信息的推荐处理方法、装置、设备和计算机存储介质
CN111582452A (zh) 生成神经网络模型的方法和装置
CN111783951B (zh) 基于超网络的模型获取方法、装置、设备及存储介质
CN112100466A (zh) 生成搜索空间的方法、装置、设备及存储介质
CN114492788A (zh) 训练深度学习模型的方法和装置、电子设备及存储介质
CN111680597A (zh) 人脸识别模型处理方法、装置、设备和存储介质
CN112580723B (zh) 多模型融合方法、装置、电子设备和存储介质
CN113449148B (zh) 视频分类方法、装置、电子设备及存储介质
CN112016524B (zh) 模型训练方法、人脸识别方法、装置、设备和介质
CN111680599B (zh) 人脸识别模型处理方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant