CN111708876A - 生成信息的方法和装置 - Google Patents
生成信息的方法和装置 Download PDFInfo
- Publication number
- CN111708876A CN111708876A CN202010546991.9A CN202010546991A CN111708876A CN 111708876 A CN111708876 A CN 111708876A CN 202010546991 A CN202010546991 A CN 202010546991A CN 111708876 A CN111708876 A CN 111708876A
- Authority
- CN
- China
- Prior art keywords
- interest point
- search
- vector
- local
- time window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本申请公开了一种生成信息的方法和装置,涉及云计算技术领域、自然语言处理技术领域和人工智能深度学习技术领域。方案为:将基于当前用户输入的目标检索词的表征向量输入预先训练的图神经网络,得到图神经网络输出的与目标检索词相关的兴趣点序列,其中,图神经网络基于注意力机制将全局关联图和局部关联图序列作为输出兴趣点序列的约束,全局关联图为基于所有用户的历史检索数据所确定的检索词节点与兴趣点节点之间的关联关系图,局部关联图序列包括基于当前用户的历史检索数据所确定的至少两个历史时间窗口中每个历史时间窗口的检索词节点与兴趣点节点之间的关联关系图;根据兴趣点序列,确定向用户推送的目标兴趣点的信息。
Description
技术领域
本公开涉及计算机技术领域,具体涉及云计算技术领域、自然语言处理技术领域和人工智能深度学习技术领域,尤其涉及生成信息的方法和装置。
背景技术
现有技术方案中,关于检索词-兴趣点匹配的方法主要包括以下两种:
在第一种方法中,可以基于用户历史记录中的检索词与兴趣点的文本信息,计算当前检索词与兴趣点的匹配度,以返回匹配度最高的兴趣点。
在第二种方法中,可以基于用户检索词与兴趣点的文本相关性,结合静态地理信息,计算当前检索词与兴趣点的匹配度,以返回匹配度最高的兴趣点。
发明内容
本公开实施例提供了生成信息的方法和装置。
第一方面,本公开实施例提供了一种生成信息的方法,方法包括:基于当前用户输入的目标检索词,确定目标检索词的表征向量;将目标检索词的表征向量输入预先训练的图神经网络,得到图神经网络输出的与目标检索词相关的兴趣点序列,其中,图神经网络基于注意力机制将全局关联图和局部关联图序列作为输出兴趣点序列的约束,全局关联图为基于所有用户的历史检索数据所确定的检索词节点与兴趣点节点之间的关联关系图,局部关联图序列包括基于当前用户的历史检索数据所确定的至少两个历史时间窗口中每个历史时间窗口的检索词节点与兴趣点节点之间的关联关系图;根据兴趣点序列,确定向用户推送的目标兴趣点的信息。
第二方面,本公开实施例提供了一种生成信息的装置,装置包括:目标向量确定模块,被配置成基于当前用户输入的目标检索词,确定目标检索词的表征向量;兴趣点序列输出模块,被配置成将目标检索词的表征向量输入预先训练的图神经网络,得到图神经网络输出的与目标检索词相关的兴趣点序列,其中,图神经网络基于注意力机制将全局关联图和局部关联图序列作为输出兴趣点序列的约束,全局关联图为基于所有用户的历史检索数据所确定的检索词节点与兴趣点节点之间的关联关系图,局部关联图序列包括基于当前用户的历史检索数据所确定的至少两个历史时间窗口中每个历史时间窗口的检索词节点与兴趣点节点之间的关联关系图;目标兴趣点确定模块,被配置成根据兴趣点序列,确定向用户推送的目标兴趣点的信息。
第三方面,本公开的实施例提供了一种电子设备/服务器/智能终端,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面中任一实施例的方法。
第四方面,本公开的实施例提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面任一实施例中的方法。
本公开实施例提供的生成信息的方法和装置,首先基于当前用户输入的目标检索词,确定所述目标检索词的表征向量;之后,将所述目标检索词的表征向量输入预先训练的图神经网络,得到所述图神经网络输出的与所述目标检索词相关的兴趣点序列,其中,所述图神经网络基于注意力机制将全局关联图和局部关联图序列作为输出所述兴趣点序列的约束,所述全局关联图为基于所有用户的历史检索数据所确定的检索词节点与兴趣点节点之间的关联关系图,所述局部关联图序列包括基于当前用户的历史检索数据所确定的至少两个历史时间窗口中每个历史时间窗口的检索词节点与兴趣点节点之间的关联关系图;最后,根据所述兴趣点序列,确定向用户推送的目标兴趣点的信息。
在这一过程中,由于在确定与所述目标检索词相关的兴趣点序列时,同时参考了基于所有用户的历史检索数据所确定的全局关联图、基于当前用户的历史检索数据所确定的至少两个历史时间窗口中每个历史时间窗口的局部关联图,从而可以基于用户偏好及其所处的时间窗口快速准确地确定兴趣点序列,从而提高向用户推送的目标兴趣点的信息的针对性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
通过阅读参照以下附图所作的对非限制性实施例详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开可以应用于其中的示例性系统架构图;
图2a是根据本公开实施例的生成信息的方法的一个实施例的流程示意图;
图2b是根据本公开实施例的生成信息的方法中所采用的图结构的一个实施例的示意性架构图;
图3是根据本公开实施例的生成信息的方法的一个示例性应用场景;
图4是根据本公开实施例的生成信息的方法中图神经网络基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束的方法的一个实施例的流程示意图;
图5是根据本公开实施例的生成信息的装置的一个实施例的示例性结构图;
图6是本公开的用来实现本申请实施例的生成信息的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本公开的生成信息的方法或生成信息的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种应用,例如图像采集应用、音频播放应用、流媒体处理应用、多方交互应用、人工智能应用、游戏应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是支持文档处理应用的各种电子设备,包括但不限于智能终端、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103提供支持的后台服务器。后台服务器可以对接收到的请求等数据进行分析等处理,并将处理结果反馈给终端设备。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
在实践中,本公开实施例所提供的生成信息的方法可以由终端设备101、102、103和/或服务器105执行,生成信息的装置也可以设置于终端设备101、102、103和/或服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
请参考图2a,图2a示出了根据本公开的生成信息的方法的一个实施例的流程200。该生成信息的方法包括以下步骤:
步骤201,基于当前用户输入的目标检索词,确定目标检索词的表征向量。
在本实施例中,生成信息的方法的执行主体(例如图1所示的终端或服务器)可以从用户使用的终端获取当前用户输入的检索词,并将该检索词作为需要生成信息的目标检索词,进而对目标检索词进行处理,得到目标检索词的表征向量。
对目标检索词进行处理以得到目标检索词的表征向量的方法,可以为现有技术或未来发展的技术中的基于文本确定向量的方法,本申请对此不作限定。例如,词向量的本质是通过向量的方式来表示每一个词汇,最简单的方法是01向量,向量的维度为词的总数,第N个词可以表达为第N位为1,向量中其余的元素全部为0。
此外,获得词向量时,还可以是采用word2vec等方案通过对一套语料库的训练,通过利用每个词与上下文间关系(可分为CBOW或Skip-gram方法)来进行的词嵌入(WordEmbedding)。所谓的词嵌入,其实就是将超高维度抽象化的词向量嵌入到一个较低维度的空间中。当然除了word2vec,现在也有wordrank、GloVe、fastText等其它词向量度量方案。在经过词嵌入处理后,可以把原本稀疏的高维度01词向量降到几百维左右的稠密向量空间中,并且保留住词与词之间的隐含关联。
步骤202,将目标检索词的表征向量输入预先训练的图神经网络,得到图神经网络输出的与目标检索词相关的兴趣点序列。
在本实施例中,图神经网络(包括GNN及其变体、DeepWalk、GraphSage等)对图形中节点间的依赖关系进行建模,可以直接在图结构上运行。此处的图结构(如图2b所示),是由两种部件组成的一种数据结构:顶点(vertices,也称为节点nodes)和边(edges)。一个图G,可以用它包含的顶点V和边E的集合来描述。
具体地,本实施例中的图神经网络可以基于注意力机制,将全局关联图和局部关联图序列作为输出兴趣点序列的约束。其中的注意力机制,可以对全局关联图和局部关联图序列中的数据进行加权变化,以对注意力焦点投入更多注意力资源,获取更多所需要关注目标的细节信息,而抑制其他无用信息。
上述的全局关联图和局部关联图,均采用图(Graph)结构来实现。其中,全局关联图为:基于所有用户的历史检索数据所确定的检索词节点与兴趣点节点之间的关联关系图。局部关联图序列可以包括:基于当前用户的历史检索数据所确定的至少两个历史时间窗口中每个历史时间窗口的检索词节点与兴趣点节点之间的关联关系图。
在一个具体的示例中,图神经网络可以采用注意力机制进行以下学习以掌握检索词与兴趣点之间的关系:学习全局关联图中检索词与兴趣点之间的关系,同时学习局部关联图序列中当前用户的随时间窗口变化的检索词与兴趣点之间的关系。之后,当上述执行主体向图神经网络中输入当前用户的目标检索词后,图神经网络可以从学习到的关系中查找与目标检索词相同或相近的检索词,并将查找到的检索词所对应的兴趣点排序为与目标检索词相关的兴趣点序列,并输出与目标检索词相关的兴趣点序列。
以GraphSage为例,可以将每个节点由其邻域的聚合(aggregation)表示。因此,即使图中出现了在训练过程中没有看到的目标检索词节点,该目标检索词节点仍然可以用目标检索词节点的邻近节点来恰当地表示。
步骤203,根据兴趣点序列,确定向用户推送的目标兴趣点的信息。
在本实施例中,上述执行主体可以将上述步骤202中确定的兴趣点序列作为向用户推送的目标兴趣点的信息,或者对上述兴趣点序列进行进一步的分析和处理,从而生成向用户推送的目标兴趣点的信息。
本公开上述实施例的生成信息的方法,由于在确定与所述目标检索词相关的兴趣点序列时,同时参考了基于所有用户的历史检索数据所确定的全局关联图、基于当前用户的历史检索数据所确定的至少两个历史时间窗口中每个历史时间窗口的局部关联图,从而可以基于用户偏好及其所处的时间窗口快速准确地确定兴趣点序列,从而提高向用户推送的目标兴趣点的信息的针对性。
在上述实施例的步骤202中的全局关联图的一些可选实现方式中,上述全局关联图可以基于以下步骤确定:基于所有用户的历史检索数据,确定检索词与兴趣点的全局配对数据;将全局配对数据中的检索词和兴趣点,分别作为全局检索词节点和全局兴趣点节点;在配对次数大于等于预设值的检索词节点和兴趣点节点之间建立边连接,得到全局关联图。
在本实现方式中,全局配对数据是指从所有用户的历史检索数据所确定的检索词和兴趣点的配对数据。在所有用户的检索词节点与兴趣点节点的全局关联图Gg中,任意一条边都是由一个检索词节点和兴趣点节点连接而成的,并且由于两者同时匹配的频率往往能体现其相关性,因此对于距离多于或等于预设值的任意一组检索词节点与兴趣点节点建立边连接eij,也即连一条边。以下以预设值为3为例,基于全局配对数据,得到公式:
其中,vi表示顶点i,vj表示顶点j,Q表示全局配对数据中的检索词集合,P表示全局配对数据中的兴趣点集合,freq(vi,vj)表示顶点i,j之间的共同出现频率,也即共现频率。
本领域技术人员可以理解的是,此处的预设值为3,仅为对于本申请的预设值的示例,并不代表对预设值的限定。这里的预设值,可以根据本领域技术人员的经验或具体的应用场景限定为其它数值(如1,2,4,5等),此处不再赘述。
本实现方式中的全局关联图的确定方法,在所有全局配对数据中配对次数大于预设值的检索词和兴趣点之间,建立了边连接,从而得到了全局关联图,提高了采用全局关联图所呈现的检索词与兴趣点之间的关联关系的有效性。
在上述实施例的步骤202中的局部关联图序列的一些可选实现方式中,上述局部关联图序列可以基于以下步骤确定:基于当前用户的历史检索数据,确定检索词与兴趣点的局部配对数据;对于历史时间窗口序列的每一个历史时间窗口,将该历史时间窗口中的局部配对数据中的检索词和兴趣点分别作为局部检索词节点和局部兴趣点节点,并在局部检索词节点和局部兴趣点节点之间,建立数量与局部检索词节点和局部兴趣点节点的共现频率相等的边连接,得到该历史时间窗口的局部关联图,从而可以由各个历史时间窗口的局部关联图,形成对应历史时间窗口序列的局部关联图序列。
在本实现方式中,局部配对数据是指从当前用户的历史检索数据所确定的检索词和兴趣点的配对数据。对于当前用户来说,由于其搜索频率较所有用户相比低很多,而且在个性化推荐当中起到主导作用,所以在构建当前用户的局部关联图Gs中,可以基于局部配对数据,将上述的eij设置为:
其中,vi表示顶点i,vj表示顶点j,Q表示全局配对数据中的检索词集合,P表示全局配对数据中的兴趣点集合,freq(vi,vj)表示顶点i,j之间的共同出现频率,也即共现频率。此处,当vi∈Q,vj∈P时,顶点i,j之间的共同出现频率freq(vi,vj)与边连接eij的数量相同。针对若干个历史时间窗口,将依次构建相对应的个体用户的关联图序列。反观整体用户关联图,较短时间段的匹配情况不会影响到检索词与兴趣点的大致匹配关系,因此整体用户的关联图只有一个。
本实现方式中的局部关联图序列的确定方法,在所有局部配对数据中具有配对关系的检索词和兴趣点之间,建立了边连接,且边连接的数量与配对关系的共现频率相同,从而得到了针对个体用户的局部关联图序列,提高了采用局部关联图序列所呈现的检索词与兴趣点之间的关联关系的有效性。
以下结合图3,描述本公开的生成信息的方法的示例性应用场景。
如图3所示,图3示出了根据本公开的生成信息的方法的一个示例性应用场景。
如图3所示,生成信息的方法300运行于电子设备310中,可以包括:
首先,基于当前用户输入的目标检索词301,确定目标检索词的表征向量302;
之后,将目标检索词的表征向量302输入预先训练的图神经网络303,得到图神经网络303输出的与目标检索词相关的兴趣点序列304;其中,图神经网络303基于注意力机制305将全局关联图306和局部关联图序列307作为输出兴趣点序列304的约束308;
最后,根据兴趣点序列304,确定向用户推送的目标兴趣点的信息309。
应当理解,上述图3中所示出的生成信息的方法的应用场景,仅为对于生成信息的方法的示例性描述,并不代表对该方法的限定。例如,上述图3中示出的各个步骤,可以进一步采用更为细节的实现方法。也可以在上述图3的基础上,进一步增加对生成的信息进一步处理的步骤。
进一步参考图4,图4示出了根据本公开实施例的图神经网络基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束的方法的一个实施例的示意性流程图。
如图4所示,本实施例的图神经网络基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束的方法一个实施例的示意性流程图的方法400,可以包括:
步骤401,基于全局关联图的各条边的权重,确定各个检索词节点的第一权重邻接矩阵、各个兴趣点节点的第二权重邻接矩阵。
在本实施例中,生成信息的方法的执行主体(例如图1所示的终端或服务器)可以采用现有技术或未来发展的技术中确定图的边的权重的方法,来针对每一个检索词节点,确定该检索词节点的第一权重邻接矩阵;并针对每一个兴趣点节点,确定该兴趣点节点的第二权重邻接矩阵。
在一个具体的示例中,可以采用注意力机制来确定各个检索词节点的第一权重邻接矩阵、各个兴趣点节点的第二权重邻接矩阵。此时的注意力机制,可以对当前节点的邻接节点和边连接的数据进行加权变化,以对注意力焦点投入更多注意力资源,获取更多所需要关注目标的细节信息,而抑制其他无用信息。
在本实施例的一些可选实现方式中,上述全局关联图的各条边的权重,可以基于以下步骤确定:在图神经网络中,采用注意力机制,基于全局配对数据的检索词的表征向量、兴趣点的表征向量、检索词与兴趣点的边连接和检索位置,确定全局关联图的各条边的注意力系数;基于全局关联图的各条边的注意力系数和各条边的检索词节点与所有邻居兴趣点的边连接的注意力系数,确定全局关联图的各条边的权重。
在本实现方式中,考虑了检索词的表征向量、兴趣点的表征向量、检索词与兴趣点的边连接,还考虑了检索位置,以期所确定的注意力系数结合检索位置这一变化因素。
在一个具体的示例中,对于全局关联图,假设q,p,gv分别表示检索词、兴趣点和检索位置,则根据注意力机制,以检索词q为例,其与兴趣点p之间边的权重为:
cqp=Attng(Xq,Xp,eqp,gv) (公式4)
其中,exp函数,是以自然常数e为底的指数函数,cqp是全局关联图中qp边连接的注意力系数,基于全局配对数据的检索词的表征向量Xq、兴趣点的表征向量Xp、检索词与兴趣点的边连接eqp和检索位置gv所确定,up表示与检索词顶点vq有边相连的邻居兴趣点,表示与检索词顶点vq有边相连的邻居兴趣点集合,a,b,c,d分别指Xq,Xp,eqp,gv。LeakyRelu为激活函数,Wabc、Wab、Wc、Wd分别为图神经网络中需要学习的参数。
本实现方式中的确定全局关联图的各条边的权重的方法,通过引入检索位置这一参数,从而在使用注意力机制来实时学习检索词与兴趣点之间的静态关联关系时,提高了所确定的全局关联图的各条边的权重与检索位置的相关性,提高了权重的针对性。
在确定全局关联图的各条边的权重之后,可以根据全局关联图的各条边的权重,确定各个检索词节点的第一权重邻接矩阵、各个兴趣点节点的第二权重邻接矩阵。基于各条边的权重确定节点的权重邻接矩阵的方法,为本领域现有技术,此处不再赘述。
步骤402,基于全局关联图中的兴趣点的表征向量和检索词的第一权重邻接矩阵,确定更新后的检索词的全局表征向量。
在本实施例中,基于检索词的第一权重邻接矩阵,可以将与检索词存在关联关系的兴趣点的信息结合至检索词的表征向量中,从而得到更新后的检索词的全局表征向量。这里的更新后的检索词的全局表征向量,是指检索词的表征向量在全局关联图的基础上更新后得到的检索词的表征向量。
其中,σ表示激活函数,AQ为检索词节点基于全局关联图Gg确定的第一权重邻接矩阵,WP为图神经网络模型中需要学习的与检索词具有关联关系的兴趣点的参数矩阵,XP为兴趣点的表征向量,bP为图神经网络模型中需要学习的与检索词具有关联关系的兴趣点的参数。
步骤403,基于全局关联图中的检索词的表征向量和兴趣点的第二权重邻接矩阵,确定更新后的兴趣点的全局表征向量。
在本实施例中,基于兴趣点的第二权重邻接矩阵,可以将与兴趣点存在关联关系的检索词的信息结合至兴趣点的表征向量中,从而得到更新后的兴趣点的全局表征向量。这里的更新后的兴趣点的全局表征向量,是指兴趣点的表征向量在全局关联图的基础上更新后得到的兴趣点的表征向量。
其中,σ表示激活函数,AP为兴趣点节点基于全局关联图Gg确定的第二权重邻接矩阵,WQ为图神经网络模型中需要学习的与兴趣点具有关联关系的检索词的参数矩阵,XQ为检索词的表征向量,bQ为图神经网络模型中需要学习的与兴趣点具有关联关系的检索词的参数。
可以理解的是,步骤401至步骤403可以为确定更新后的检索词的全局表征向量、更新后的兴趣点的全局表征向量的方法,该确定更新后的检索词的全局表征向量、更新后的兴趣点的全局表征向量的方法与图2a中的生成信息的方法相比,考虑了各个检索词节点及其邻接权重矩阵、各个兴趣点节点及其邻接权重矩阵,从而丰富了更新后的检索词的全局表征向量、更新后的兴趣点的全局表征向量的所考虑的维度,提高了更新后的检索词的全局表征向量、更新后的兴趣点的全局表征向量的全面性和准确性。
步骤404,采用自回归滑动平均模型,学习各个历史时间窗口内局部关联图中的检索词与兴趣点的边连接。
在本实施例中,自回归滑动平均模型是研究时间序列的重要方法,由自回归模型(AR模型)与滑动平均模型(MA模型)为基础“混合”而成,适用范围广且预测误差小。在这里,可以采用自回归滑动平均模型(ARMA模型,Auto-Regression and Moving Average Model)学习历史时间窗口内检索词与兴趣点的相关性的演变历程。
步骤405,采用时间卷积网络模型,基于各个历史时间窗口内局部关联图中的检索词与兴趣点的边连接,聚合各个历史时间窗口内的检索词的预测表征向量,得到预测的检索词的局部表征向量,聚合各个历史时间窗口内的兴趣点的预测表征向量,得到预测的兴趣点的局部表征向量。
在本实施例中,时间卷积网络模型可以根据一个已知序列出现的先后顺序去评判未来的时间点上,新的可能信息是什么。预测出新的可能信息是什么之后,采用损失函数评价预测结果的好坏,并基于评价训练时间卷积网络的模型。
在这里,采用时间卷积网络模型,可以将各个历史时间窗口内局部关联图中的检索词与兴趣点的边连接作为聚合各个历史时间窗口内的检索词的预测表征向量、聚合各个历史时间窗口内的兴趣点的预测表征向量的约束,从而得到预测的检索词的局部表征向量、预测的兴趣点的局部表征向量。
在一个具体的示例中,可以采用以下公式确定预测的检索词的局部表征向量:
应当理解,确定预测的兴趣点的局部表征向量的方式与确定预测的检索词的局部表征向量的方式类似,此处不再赘述。
在本实施例的一些可选实现方式中,各个历史时间窗口内的检索词的预测表征向量基于以下步骤确定:对于每一个历史时间窗口的检索词,基于该历史时间窗口的局部配对数据中的以下数据的注意力系数确定更新后的检索词的局部表征向量:检索词的表征向量、用户信息和检索时刻;对于每一个历史时间窗口的检索词,基于该历史时间窗口内检索词与兴趣点的边连接所确定的各条边的权重,确定各个检索词节点的第三权重邻接矩阵;对于每一个历史时间窗口的检索词,基于更新后的检索词的表征向量和第三权重邻接矩阵,确定下一历史时间窗口的检索词的隐藏向量;对于每一个历史时间窗口的检索词,基于更新后的检索词的表征向量、下一历史时间窗口的检索词的隐藏向量和第三权重邻接矩阵,确定下一个历史时间窗口的检索词的预测表征向量。
在本实现方式中,对于个体用户的局部关联图,考虑检索词与兴趣点的动态关联性,可以根据历史时间窗口依次生成若干个关联图来体现不同时期下检索词与兴趣点的相关性。之后,可以基于注意力机制,实时地计算不同时刻和不同用户所体现的检索词与兴趣点之间的动态关系。此时,局部关联图中的边连接的权重也随时间和用户的变化而变化。
在一个具体的示例中,可以采用以下公式确定更新后的检索词的表征向量:
之后,对于每一个历史时间窗口的检索词,基于该历史时间窗口内局部关联图中的检索词与兴趣点的边连接所确定的各条边的权重,确定各个检索词节点的第三权重邻接矩阵。
在这里,基于历史时间窗口内局部关联图中的检索词与兴趣点的边连接确定各个检索词节点的各条边的权重的方式,与步骤401中基于全局关联图的各条边的权重,确定各个检索词节点的第一权重邻接矩阵的方式为同一思路,此处不再赘述。
之后,针对每一个时间窗口的更新后的检索词的表征向量和第三权重邻接矩阵,可以确定下一历史时间窗口的检索词的隐藏向量。
在这里,在确定下一历史时间窗口的检索词的隐藏向量时,可以根据经验或实际应用场景设定基于每一个时间窗口的更新后的检索词的表征向量和第三权重邻接矩阵确定下一历史时间窗口的检索词的隐藏向量的公式的参数,本申请对此并不限定。
在一个具体的示例中,可以采用以下公式确定下一历史时间窗口的检索词的隐藏向量:
其中,为第t+1个历史时间窗口的检索词的隐藏向量,K1为时间卷积网络模型中的超参数,为自回归模型的参数,记录着k-path可到达的节点,At为第三权重邻接矩阵,k表示在第t个历史时间窗口中距当前点距离k跳的点,k的取值区间为[1,K1-1],为第t个历史时间窗口的检索词的隐藏向量,Wk为与k相关的时间卷积网络中需要学习的参数,为第t个时间窗口内更新后的检索词的表征向量,Z0为时间卷积网络模型中需要学习的参数。
之后,对于每一个历史时间窗口的检索词,基于更新后的检索词的表征向量、下一历史时间窗口的检索词的隐藏向量和第三权重邻接矩阵,可以确定下一个历史时间窗口的检索词的预测表征向量。
在这里,在确定下一个历史时间窗口的检索词的预测表征向量时,可以根据经验或实际应用场景设定基于更新后的检索词的表征向量、下一历史时间窗口的检索词的隐藏向量和第三权重邻接矩阵,可以确定下一个历史时间窗口的检索词的预测表征向量的公式的参数,本申请对此并不限定。
在一个具体的示例中,可以采用以下公式确定下一个历史时间窗口的检索词的预测表征向量:
其中,为第t+1个时间窗口内更新后的检索词的表征向量,为下一历史时间窗口的检索词的隐藏向量,为自回归模型的参数,At为第三权重邻接矩阵,k表示在第t个历史时间窗口中距当前检索词节点距离k跳的点,k的取值区间为[1,K2-1],为第t个时间窗口内更新后的检索词的表征向量,Zk为与k相关的时间卷积网络中需要学习的参数。
本实现方式中的确定检索词的预测表征向量的方法,基于各个历史时间窗口的检索词的表征向量、用户信息和检索时刻,各个历史时间窗口内检索词与兴趣点的边连接所确定的各条边的权重,确定更新后的检索词的表征向量、下一历史时间窗口的检索词的隐藏向量和下一个历史时间窗口的检索词的预测表征向量,由于在这一过程中考虑了各个检索词的表征向量、用户信息、检索时刻和边连接的权重,丰富了确定检索词的预测表征向量时所参考的信息,使得检索词的预测表征向量更富有针对性,表达更为全面。
在本实施例的一些可选实现方式中,各个历史时间窗口内的兴趣点的预测表征向量基于以下步骤确定:对于每一个历史时间窗口的兴趣点,基于该历史时间窗口的局部配对数据中的以下数据的注意力系数确定更新后的兴趣点的局部表征向量:兴趣点的表征向量、用户和检索时刻;对于每一个历史时间窗口的兴趣点,基于该历史时间窗口内检索词与兴趣点的边连接所确定的各条边的权重,确定各个兴趣点节点的第四权重邻接矩阵;对于每一个历史时间窗口的兴趣点,基于更新后的兴趣点的表征向量、兴趣点节点的第四权重邻接矩阵,确定下一历史时间窗口的兴趣点的隐藏向量;对于每一个历史时间窗口的兴趣点,基于更新后的兴趣点的表征向量、下一历史时间窗口的兴趣点的隐藏向量和第四权重邻接矩阵,确定下一个历史时间窗口的兴趣点的预测表征向量。
在本实现方式中,对于个体用户的局部关联图,考虑检索词与兴趣点的动态关联性,可以根据历史时间窗口依次生成若干个关联图来体现不同时期下检索词与兴趣点的相关性。之后,可以基于注意力机制,实时地计算不同时刻和不同用户所体现的检索词与兴趣点之间的动态关系。此时,局部关联图中的边连接的权重也随时间和用户的变化而变化。
进而,基于局部关联图中的边连接的权重,可以计算兴趣点节点的第四权重邻接矩阵,进而基于第四权重邻接矩阵和更新后的兴趣点的表征向量,确定下一历史时间窗口的兴趣点的隐藏向量,再基于兴趣点节点的第四权重邻接矩阵、更新后的兴趣点的表征向量、下一历史时间窗口的兴趣点的隐藏向量和第四权重邻接矩阵,确定下一个历史时间窗口的兴趣点的预测表征向量。
在一个具体的示例中,本实现方式中各个历史时间窗口内的兴趣点的预测表征向量的确定方法,与上述实现方式中各个历史时间窗口内的检索词的预测表征向量的确定方法类似,也即可以参考公式(8)、(9)、(10)、(11)来确定各个历史时间窗口内的兴趣点的预测表征向量。
本实现方式中的确定兴趣点的预测表征向量的方法,基于各个历史时间窗口的兴趣点的表征向量、用户信息和检索时刻,各个历史时间窗口内检索词与兴趣点的边连接所确定的各条边的权重,确定更新后的兴趣点的表征向量、下一历史时间窗口的兴趣点的隐藏向量和下一个历史时间窗口的兴趣点的预测表征向量,由于考虑了各个兴趣点的表征向量、用户信息、检索时刻和边连接的权重,丰富了确定兴趣点的预测表征向量时所参考的信息,使得兴趣点的预测表征向量更富有针对性,表达更为全面。
可以理解的是,步骤404至步骤405可以为确定预测的检索词的局部表征向量、预测的兴趣点的局部表征向量的方法,该确定预测的检索词的局部表征向量、预测的兴趣点的局部表征向量的方法与图2a中的生成信息的方法相比,考虑了基于局部关联图确定的检索词与兴趣点的边连接,并考虑了局部关联图的时间序列,从而丰富了所确定的预测的检索词的局部表征向量、预测的兴趣点的局部表征向量所包含的信息,提高了所确定的预测的检索词的局部表征向量、预测的兴趣点的局部表征向量的准确度。
步骤406,融合更新后的检索词的全局表征向量与预测的检索词的局部表征向量,得到融合后的检索词的表征向量。
在本实施例中,融合更新后的检索词的全局表征向量与预测的检索词的局部表征向量的方式,可以为现有技术或未来发展的技术中用于融合两个向量的方式,本申请对此不做限定。例如,可以采用拼接、相加或预先训练的向量融合模型,来对两个向量进行融合。
在一个具体的示例中,可以采用以下公式确定融合后的检索词的表征向量:
其中,||为向量合并运算,表示对应检索词的第s层的神经网络,为预测的检索词的局部表征向量,为更新后的检索词的全局表征向量。σ为sigmoid激活方程,s的取值范围为[1,S],为检索词的第s层的神经网络需要学习的参数。
步骤407,融合更新后的兴趣点的全局表征向量与预测的兴趣点的局部表征向量,得到融合后的兴趣点的表征向量。
在本实施例中,融合更新后的兴趣点的全局表征向量与预测的兴趣点的局部表征向量的方式,可以为现有技术或未来发展的技术中用于融合两个向量的方式,本申请对此不做限定。例如,可以采用拼接、相加或预先训练的向量融合模型,来对两个向量进行融合。
在一个具体的示例中,可以采用以下公式确定融合后的兴趣点的表征向量:
其中,||为向量合并运算,表示对应兴趣点的第s层的神经网络,为预测的兴趣点的局部表征向量,为更新后的兴趣点的全局表征向量。σ为sigmoid激活方程,s的取值范围为[1,S],为兴趣点的第s层的神经网络需要学习的参数。
步骤408,匹配融合后的检索词的表征向量和融合后的兴趣点的表征向量,得到匹配得分。
在本实施例中,可以采用现有技术或未来发展的技术中匹配两个向量的方法来对融合后的检索词的表征向量和融合后的兴趣点的表征向量进行匹配,本申请对此不做限定。例如,将两个向量矩阵进行点积运算,根据点积运算的结果确定两者的匹配度。或者根据两个向量的距离计算两个向量的相似度,从而确定两者的匹配度等。
在一个具体的示例中,可以采用以下公式确定匹配得分:
其中,表示计算融合后的检索词的表征向量和融合后的兴趣点的表征向量的余弦相似度,表示融合后的检索词的表征向量与融合后的兴趣点的表征向量的点积,表示融合后的检索词的表征向量的长度,表示融合后的兴趣点的表征向量的长度。
步骤409,基于匹配得分大于等于预设阈值的融合后的兴趣点序列,确定所预测的与目标检索词相关联的兴趣点序列。
在本实施例中,上述执行主体可以从融合后的检索词的表征向量中,查找与目标检索词的表征向量相同或相似的融合后的检索词的表征向量,并将与查找到的融合后的检索词的表征向量的匹配得分大于等于预设阈值的融合后的兴趣点序列,作为所预测的与目标检索词相关联的兴趣点序列。
可以理解的是,步骤406至步骤409可以为确定所预测的与目标检索词相关联的兴趣点序列的方法,该确定所预测的与目标检索词相关联的兴趣点序列的方法与图2a中所述的生成信息的方法相比,分别对更新后的检索词的全局表征向量与预测的检索词的局部表征向量、更新后的兴趣点的全局表征向量与预测的兴趣点的局部表征向量进行了融合,得到了表达更为完整的融合后的检索词和融合后的兴趣点,之后匹配融合后的检索词的表征向量和融合后的兴趣点的表征向量,得到匹配得分,可以精确匹配融合后的检索词和融合后的兴趣点的表征向量,提高匹配得分的准确度,再基于匹配得分大于等于预设阈值的融合后的兴趣点序列,确定所预测的与目标检索词相关联的兴趣点序列,提高了所确定的兴趣点序列与目标检索词的相关性。
在上述图2a或图4所示的生成信息的方法中,图神经网络的损失函数可以采用现有技术或未来发展的技术中确定损失函数的方法来确定损失函数,本申请对此不做限定,例如,可以采用L1损失函数或L2损失函数。
在上述的实施例的一些可选实现方式中,图神经网络的损失函数基于负采样和L1正则化项确定。
在本实现方式中,可以采用负采样方法以及L1正则化项来设计目标函数。
在一个具体的示例中,可以采用以下公式确定图神经网络的损失函数:
O=O1+λO2 (公式17)
O1=-logΠQ,P+Pr(P+|Q) (公式18)
其中,P+、P-分别是正负样本。P′是正负样本集合里的兴趣点,与横线上面的全局配对数据中的兴趣点的集合P做区分,Pr(P|Q)表示基于检索词Q确定兴趣点P的概率,训练优化的目标是最小化目标函数O,即给定检索词Q,O1确定预测的兴趣点与真实的兴趣点之间的概率差,而O2是防止参数过拟合,其中,为L1范数。
本实现方式中的图神经网络的损失函数,考虑了负采样方法和L1正则项,从而可以基于预测的兴趣点与真实的兴趣点之间的概率差O1以及防止参数过拟合的L1范数函数O2,进行有监督的学习,从而提高图神经网络所输出的兴趣点序列的准确性。
进一步参考图5,本实施例的生成信息的装置500,可以包括:目标向量确定模块501,被配置成基于当前用户输入的目标检索词,确定目标检索词的表征向量;兴趣点序列输出模块502,被配置成将目标检索词的表征向量输入预先训练的图神经网络,得到图神经网络输出的与目标检索词相关的兴趣点序列,其中,图神经网络基于注意力机制将全局关联图和局部关联图序列作为输出兴趣点序列的约束,全局关联图为基于所有用户的历史检索数据所确定的检索词节点与兴趣点节点之间的关联关系图,局部关联图序列包括基于当前用户的历史检索数据所确定的至少两个历史时间窗口中每个历史时间窗口的检索词节点与兴趣点节点之间的关联关系图;目标兴趣点确定模块503,被配置成根据兴趣点序列,确定向用户推送的目标兴趣点的信息。
在本实施例的一些可选实现方式中,兴趣点序列输出模块中的图神经网络所采用的全局关联图基于以下模块确定(图中未示出):全局配对数据确定模块,被配置成基于所有用户的历史检索数据,确定检索词与兴趣点的全局配对数据;全局节点确定模块,被配置成将全局配对数据中的检索词和兴趣点,分别作为全局检索词节点和全局兴趣点节点;全局关联图确定模块,被配置成在配对次数大于等于预设值的检索词节点和兴趣点节点之间建立边连接,得到全局关联图。
在本实施例的一些可选实现方式中,兴趣点序列输出模块中的图神经网络所采用的局部关联图序列基于以下模块确定(图中未示出):局部配对数据确定模块,被配置成基于当前用户的历史检索数据,确定检索词与兴趣点的局部配对数据;局部关联图确定模块,被配置成对于历史时间窗口序列的每一个历史时间窗口,将该历史时间窗口中的局部配对数据中的检索词和兴趣点分别作为局部检索词节点和局部兴趣点节点,并在局部检索词节点和局部兴趣点节点之间,建立数量与局部检索词节点和局部兴趣点节点的共现频率相等的边连接,得到该历史时间窗口的局部关联图。
在本实施例的一些可选实现方式中,图神经网络包括用于实现基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束的以下模块(图中未示出):邻接矩阵确定模块,被配置成基于全局关联图的各条边的权重,确定各个检索词节点的第一权重邻接矩阵、各个兴趣点节点的第二权重邻接矩阵;检索词表征向量确定模块,被配置成基于全局关联图中的兴趣点的表征向量和检索词的第一权重邻接矩阵,确定更新后的检索词的全局表征向量;兴趣点表征向量确定模块,被配置成,基于全局关联图中的检索词的表征向量和兴趣点的第二权重邻接矩阵,确定更新后的兴趣点的全局表征向量。
在本实施例的一些可选实现方式中,邻接矩阵确定模块中全局关联图的各条边的权重基于以下模块确定(图中未示出):注意力系数确定模块,被配置成采用注意力机制,基于全局配对数据的检索词的表征向量、兴趣点的表征向量、检索词与兴趣点的边连接和检索位置,确定全局关联图的各条边的注意力系数;权重确定模块,被配置成基于全局关联图的各条边的注意力系数和各条边的检索词节点与所有邻居兴趣点的边连接的注意力系数,确定全局关联图的各条边的权重。
在本实施例的一些可选实现方式中,图神经网络还包括用于实现基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束的以下模块(图中未示出):边连接学习模块,被配置成采用自回归滑动平均模型,学习各个历史时间窗口内局部关联图中的检索词与兴趣点的边连接;预测向量聚合模块,被配置成采用时间卷积网络模型,基于各个历史时间窗口内局部关联图中的检索词与兴趣点的边连接,聚合各个历史时间窗口内的检索词的预测表征向量,得到预测的检索词的局部表征向量,聚合各个历史时间窗口内的兴趣点的预测表征向量,得到预测的兴趣点的局部表征向量。
在本实施例的一些可选实现方式中,预测向量聚合模块中各个历史时间窗口内的检索词的预测表征向量基于以下模块确定(图中未示出):更新检索词向量确定模块,被配置成对于每一个历史时间窗口的检索词,基于该历史时间窗口的局部配对数据中的以下数据的注意力系数确定更新后的检索词的局部表征向量:检索词的表征向量、用户信息和检索时刻;检索词权重矩阵确定模块,被配置成对于每一个历史时间窗口的检索词,基于该历史时间窗口内检索词与兴趣点的边连接所确定的各条边的权重,确定各个检索词节点的第三权重邻接矩阵;检索词隐藏向量确定模块,被配置成对于每一个历史时间窗口的检索词,基于更新后的检索词的表征向量和第三权重邻接矩阵,确定下一历史时间窗口的检索词的隐藏向量;检索词预测向量确定模块,被配置成对于每一个历史时间窗口的检索词,基于更新后的检索词的表征向量、下一历史时间窗口的检索词的隐藏向量和第三权重邻接矩阵,确定下一个历史时间窗口的检索词的预测表征向量。
在本实施例的一些可选实现方式中,预测向量聚合模块中各个历史时间窗口内的兴趣点的预测表征向量基于以下模块确定(图中未示出):更新兴趣点向量确定模块,被配置成对于每一个历史时间窗口的兴趣点,基于该历史时间窗口的局部配对数据中的以下数据的注意力系数确定更新后的兴趣点的局部表征向量:兴趣点的表征向量、用户和检索时刻;兴趣点权重矩阵确定模块,被配置成对于每一个历史时间窗口的兴趣点,基于该历史时间窗口内检索词与兴趣点的边连接所确定的各条边的权重,确定各个兴趣点节点的第四权重邻接矩阵;兴趣点隐藏向量确定模块,被配置成对于每一个历史时间窗口的兴趣点,基于更新后的兴趣点的表征向量、第四权重邻接矩阵,确定下一历史时间窗口的兴趣点的隐藏向量;兴趣点预测向量确定模块,被配置成对于每一个历史时间窗口的兴趣点,基于更新后的兴趣点的表征向量、下一历史时间窗口的兴趣点的隐藏向量和第四权重邻接矩阵,确定下一个历史时间窗口的兴趣点的预测表征向量。
在本实施例的一些可选实现方式中,图神经网络还包括用于实现基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束的以下模块(图中未示出):检索词融合模块,被配置成融合更新后的检索词的全局表征向量与预测的检索词的局部表征向量,得到融合后的检索词的表征向量;兴趣点融合模块,被配置成融合更新后的兴趣点的全局表征向量与预测的兴趣点的局部表征向量,得到融合后的兴趣点的表征向量;匹配得分确定模块,被配置成匹配融合后的检索词的表征向量和融合后的兴趣点的表征向量,得到匹配得分;兴趣点序列确定模块,被配置成基于匹配得分大于等于预设阈值的融合后的兴趣点序列,确定所预测的与目标检索词相关联的兴趣点序列。
在本实施例的一些可选实现方式中,图神经网络的损失函数基于负采样和L1正则化项确定。
应当理解,装置500中记载的各个模块与参考图2a-图4描述的方法中记载的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于装置500及其中包含的各个模块,在此不再赘述。
如图6所示,是根据本申请实施例的生成信息的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的生成信息的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的生成信息的方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的生成信息的方法对应的程序指令/模块(例如,图5所示的目标向量确定模块501、兴趣点序列输出模块502和目标兴趣点确定模块503)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的生成信息的方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据生成信息的方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至生成信息的方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
生成信息的方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与生成信息的方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请实施例的技术方案,可以基于用户偏好及其所处的时间窗口快速准确地确定兴趣点序列,从而提高向用户推送的目标兴趣点的信息的针对性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (22)
1.一种生成信息的方法,所述方法包括:
基于当前用户输入的目标检索词,确定所述目标检索词的表征向量;
将所述目标检索词的表征向量输入预先训练的图神经网络,得到所述图神经网络输出的与所述目标检索词相关的兴趣点序列,其中,所述图神经网络基于注意力机制将全局关联图和局部关联图序列作为输出所述兴趣点序列的约束,所述全局关联图为基于所有用户的历史检索数据所确定的检索词节点与兴趣点节点之间的关联关系图,所述局部关联图序列包括基于当前用户的历史检索数据所确定的至少两个历史时间窗口中每个历史时间窗口的检索词节点与兴趣点节点之间的关联关系图;
根据所述兴趣点序列,确定向用户推送的目标兴趣点的信息。
2.根据权利要求1所述的方法,其中,所述全局关联图基于以下步骤确定:
基于所有用户的历史检索数据,确定检索词与兴趣点的全局配对数据;
将全局配对数据中的检索词和兴趣点,分别作为全局检索词节点和全局兴趣点节点;
在配对次数大于等于预设值的检索词节点和兴趣点节点之间建立边连接,得到全局关联图。
3.根据权利要求1所述的方法,其中,所述局部关联图序列基于以下步骤确定:
基于当前用户的历史检索数据,确定检索词与兴趣点的局部配对数据;
对于历史时间窗口序列的每一个历史时间窗口,将该历史时间窗口中的局部配对数据中的检索词和兴趣点分别作为局部检索词节点和局部兴趣点节点,并在所述局部检索词节点和所述局部兴趣点节点之间,建立数量与所述局部检索词节点和所述局部兴趣点节点的共现频率相等的边连接,得到该历史时间窗口的局部关联图。
4.根据权利要求1所述的方法,其中,所述图神经网络基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束,包括:
基于所述全局关联图的各条边的权重,确定各个检索词节点的第一权重邻接矩阵、各个兴趣点节点的第二权重邻接矩阵;
基于所述全局关联图中的兴趣点的表征向量和检索词的第一权重邻接矩阵,确定更新后的检索词的全局表征向量;
基于所述全局关联图中的检索词的表征向量和兴趣点的第二权重邻接矩阵,确定更新后的兴趣点的全局表征向量。
5.根据权利要求4所述的方法,其中,所述全局关联图的各条边的权重基于以下步骤确定:
采用注意力机制,基于所述全局配对数据的检索词的表征向量、兴趣点的表征向量、检索词与兴趣点的边连接和检索位置,确定所述全局关联图的各条边的注意力系数;
基于所述全局关联图的各条边的注意力系数和各条边的检索词节点与所有邻居兴趣点的边连接的注意力系数,确定所述全局关联图的各条边的权重。
6.根据权利要求4所述的方法,其中,所述图神经网络基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束,还包括:
采用自回归滑动平均模型,学习各个历史时间窗口内局部关联图中的检索词与兴趣点的边连接;
采用时间卷积网络模型,基于所述各个历史时间窗口内局部关联图中的检索词与兴趣点的边连接,聚合各个历史时间窗口内的检索词的预测表征向量,得到预测的检索词的局部表征向量,聚合各个历史时间窗口内的兴趣点的预测表征向量,得到预测的兴趣点的局部表征向量。
7.根据权利要求6所述的方法,其中,所述各个历史时间窗口内的检索词的预测表征向量基于以下步骤确定:
对于每一个历史时间窗口的检索词,基于该历史时间窗口的所述局部配对数据中的以下数据的注意力系数确定更新后的检索词的局部表征向量:检索词的表征向量、用户信息和检索时刻;
对于每一个历史时间窗口的检索词,基于该历史时间窗口内检索词与兴趣点的边连接所确定的各条边的权重,确定各个检索词节点的第三权重邻接矩阵;
对于每一个历史时间窗口的检索词,基于所述更新后的检索词的表征向量和所述第三权重邻接矩阵,确定下一历史时间窗口的检索词的隐藏向量;
对于每一个历史时间窗口的检索词,基于所述更新后的检索词的表征向量、所述下一历史时间窗口的检索词的隐藏向量和所述第三权重邻接矩阵,确定下一个历史时间窗口的检索词的预测表征向量。
8.根据权利要求6或7所述的方法,其中,所述各个历史时间窗口内的兴趣点的预测表征向量基于以下步骤确定:
对于每一个历史时间窗口的兴趣点,基于该历史时间窗口的所述局部配对数据中的以下数据的注意力系数确定更新后的兴趣点的局部表征向量:兴趣点的表征向量、用户和检索时刻;
对于每一个历史时间窗口的兴趣点,基于该历史时间窗口内检索词与兴趣点的边连接所确定的各条边的权重,确定各个兴趣点节点的第四权重邻接矩阵;
对于每一个历史时间窗口的兴趣点,基于所述更新后的兴趣点的表征向量、所述第四权重邻接矩阵,确定下一历史时间窗口的兴趣点的隐藏向量;
对于每一个历史时间窗口的兴趣点,基于所述更新后的兴趣点的表征向量、所述下一历史时间窗口的兴趣点的隐藏向量和所述第四权重邻接矩阵,确定下一个历史时间窗口的兴趣点的预测表征向量。
9.根据权利要求6所述的方法,其中,所述图神经网络基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束,还包括:
融合所述更新后的检索词的全局表征向量与所述预测的检索词的局部表征向量,得到融合后的检索词的表征向量;
融合所述更新后的兴趣点的全局表征向量与所述预测的兴趣点的局部表征向量,得到融合后的兴趣点的表征向量;
匹配所述融合后的检索词的表征向量和融合后的兴趣点的表征向量,得到匹配得分;
基于所述匹配得分大于等于预设阈值的融合后的兴趣点序列,确定所预测的与所述目标检索词相关联的兴趣点序列。
10.根据权利要求1所述的方法,其中,所述图神经网络的损失函数基于负采样和L1正则化项确定。
11.一种生成信息的装置,所述装置包括:
目标向量确定模块,被配置成基于当前用户输入的目标检索词,确定所述目标检索词的表征向量;
兴趣点序列输出模块,被配置成将所述目标检索词的表征向量输入预先训练的图神经网络,得到所述图神经网络输出的与所述目标检索词相关的兴趣点序列,其中,所述图神经网络基于注意力机制将全局关联图和局部关联图序列作为输出所述兴趣点序列的约束,所述全局关联图为基于所有用户的历史检索数据所确定的检索词节点与兴趣点节点之间的关联关系图,所述局部关联图序列包括基于当前用户的历史检索数据所确定的至少两个历史时间窗口中每个历史时间窗口的检索词节点与兴趣点节点之间的关联关系图;
目标兴趣点确定模块,被配置成根据所述兴趣点序列,确定向用户推送的目标兴趣点的信息。
12.根据权利要求11所述的装置,其中,所述兴趣点序列输出模块中的所述图神经网络所采用的所述全局关联图基于以下模块确定:
全局配对数据确定模块,被配置成基于所有用户的历史检索数据,确定检索词与兴趣点的全局配对数据;
全局节点确定模块,被配置成将全局配对数据中的检索词和兴趣点,分别作为全局检索词节点和全局兴趣点节点;
全局关联图确定模块,被配置成在配对次数大于等于预设值的检索词节点和兴趣点节点之间建立边连接,得到全局关联图。
13.根据权利要求11所述的装置,其中,所述兴趣点序列输出模块中的所述图神经网络所采用的所述局部关联图序列基于以下模块确定:
局部配对数据确定模块,被配置成基于当前用户的历史检索数据,确定检索词与兴趣点的局部配对数据;
局部关联图确定模块,被配置成对于历史时间窗口序列的每一个历史时间窗口,将该历史时间窗口中的局部配对数据中的检索词和兴趣点分别作为局部检索词节点和局部兴趣点节点,并在所述局部检索词节点和所述局部兴趣点节点之间,建立数量与所述局部检索词节点和所述局部兴趣点节点的共现频率相等的边连接,得到该历史时间窗口的局部关联图。
14.根据权利要求11所述的装置,其中,所述图神经网络包括用于实现基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束的以下模块:
邻接矩阵确定模块,被配置成基于所述全局关联图的各条边的权重,确定各个检索词节点的第一权重邻接矩阵、各个兴趣点节点的第二权重邻接矩阵;
检索词表征向量确定模块,被配置成基于所述全局关联图中的兴趣点的表征向量和检索词的第一权重邻接矩阵,确定更新后的检索词的全局表征向量;
兴趣点表征向量确定模块,被配置成,基于所述全局关联图中的检索词的表征向量和兴趣点的第二权重邻接矩阵,确定更新后的兴趣点的全局表征向量。
15.根据权利要求14所述的装置,其中,所述邻接矩阵确定模块中全局关联图的各条边的权重基于以下模块确定:
注意力系数确定模块,被配置成采用注意力机制,基于所述全局配对数据的检索词的表征向量、兴趣点的表征向量、检索词与兴趣点的边连接和检索位置,确定所述全局关联图的各条边的注意力系数;
权重确定模块,被配置成基于所述全局关联图的各条边的注意力系数和各条边的检索词节点与所有邻居兴趣点的边连接的注意力系数,确定所述全局关联图的各条边的权重。
16.根据权利要求14所述的装置,其中,所述图神经网络还包括用于实现基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束的以下模块:
边连接学习模块,被配置成采用自回归滑动平均模型,学习各个历史时间窗口内局部关联图中的检索词与兴趣点的边连接;
预测向量聚合模块,被配置成采用时间卷积网络模型,基于所述各个历史时间窗口内局部关联图中的检索词与兴趣点的边连接,聚合各个历史时间窗口内的检索词的预测表征向量,得到预测的检索词的局部表征向量,聚合各个历史时间窗口内的兴趣点的预测表征向量,得到预测的兴趣点的局部表征向量。
17.根据权利要求16所述的装置,其中,所述预测向量聚合模块中所述各个历史时间窗口内的检索词的预测表征向量基于以下模块确定:
更新检索词向量确定模块,被配置成对于每一个历史时间窗口的检索词,基于该历史时间窗口的所述局部配对数据中的以下数据的注意力系数确定更新后的检索词的局部表征向量:检索词的表征向量、用户信息和检索时刻;
检索词权重矩阵确定模块,被配置成对于每一个历史时间窗口的检索词,基于该历史时间窗口内检索词与兴趣点的边连接所确定的各条边的权重,确定各个检索词节点的第三权重邻接矩阵;
检索词隐藏向量确定模块,被配置成对于每一个历史时间窗口的检索词,基于所述更新后的检索词的表征向量和所述第三权重邻接矩阵,确定下一历史时间窗口的检索词的隐藏向量;
检索词预测向量确定模块,被配置成对于每一个历史时间窗口的检索词,基于所述更新后的检索词的表征向量、所述下一历史时间窗口的检索词的隐藏向量和所述第三权重邻接矩阵,确定下一个历史时间窗口的检索词的预测表征向量。
18.根据权利要求16或17所述的装置,其中,所述预测向量聚合模块中所述各个历史时间窗口内的兴趣点的预测表征向量基于以下模块确定:
更新兴趣点向量确定模块,被配置成对于每一个历史时间窗口的兴趣点,基于该历史时间窗口的所述局部配对数据中的以下数据的注意力系数确定更新后的兴趣点的局部表征向量:兴趣点的表征向量、用户和检索时刻;
兴趣点权重矩阵确定模块,被配置成对于每一个历史时间窗口的兴趣点,基于该历史时间窗口内检索词与兴趣点的边连接所确定的各条边的权重,确定各个兴趣点节点的第四权重邻接矩阵;
兴趣点隐藏向量确定模块,被配置成对于每一个历史时间窗口的兴趣点,基于所述更新后的兴趣点的表征向量、所述第四权重邻接矩阵,确定下一历史时间窗口的兴趣点的隐藏向量;
兴趣点预测向量确定模块,被配置成对于每一个历史时间窗口的兴趣点,基于所述更新后的兴趣点的表征向量、所述下一历史时间窗口的兴趣点的隐藏向量和所述第四权重邻接矩阵,确定下一个历史时间窗口的兴趣点的预测表征向量。
19.根据权利要求16所述的装置,其中,所述图神经网络还包括用于实现基于注意力机制将全局关联图和局部关联图序列作为图神经网络所预测的兴趣点序列的约束的以下模块:
检索词融合模块,被配置成融合所述更新后的检索词的全局表征向量与所述预测的检索词的局部表征向量,得到融合后的检索词的表征向量;
兴趣点融合模块,被配置成融合所述更新后的兴趣点的全局表征向量与所述预测的兴趣点的局部表征向量,得到融合后的兴趣点的表征向量;
匹配得分确定模块,被配置成匹配所述融合后的检索词的表征向量和融合后的兴趣点的表征向量,得到匹配得分;
兴趣点序列确定模块,被配置成基于所述匹配得分大于等于预设阈值的融合后的兴趣点序列,确定所预测的与所述目标检索词相关联的兴趣点序列。
20.根据权利要求11所述的装置,其中,所述图神经网络的损失函数基于负采样和L1正则化项确定。
21.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010546991.9A CN111708876B (zh) | 2020-06-16 | 2020-06-16 | 生成信息的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010546991.9A CN111708876B (zh) | 2020-06-16 | 2020-06-16 | 生成信息的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111708876A true CN111708876A (zh) | 2020-09-25 |
CN111708876B CN111708876B (zh) | 2023-07-18 |
Family
ID=72540622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010546991.9A Active CN111708876B (zh) | 2020-06-16 | 2020-06-16 | 生成信息的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111708876B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112015845A (zh) * | 2020-09-29 | 2020-12-01 | 北京百度网讯科技有限公司 | 地图检索测试的方法、装置、设备以及存储介质 |
CN112559879A (zh) * | 2020-12-24 | 2021-03-26 | 北京百度网讯科技有限公司 | 兴趣模型训练方法、兴趣点推荐方法、装置和设备 |
CN112861023A (zh) * | 2021-02-02 | 2021-05-28 | 北京百度网讯科技有限公司 | 地图信息处理方法、装置、设备、存储介质及程序产品 |
CN112966193A (zh) * | 2021-03-05 | 2021-06-15 | 北京百度网讯科技有限公司 | 出行意图推断方法、模型训练方法、相关装置及电子设备 |
CN113298117A (zh) * | 2021-04-26 | 2021-08-24 | 上海淇玥信息技术有限公司 | 基于图着色和图神经网络的图嵌入特征提取方法及装置 |
CN113407849A (zh) * | 2021-07-15 | 2021-09-17 | 百果园技术(新加坡)有限公司 | 一种粗排序的方法及装置 |
CN114926223A (zh) * | 2022-06-07 | 2022-08-19 | 北京百度网讯科技有限公司 | 落地页特征生成方法、落地页搜索方法及相关装置 |
CN115114997A (zh) * | 2022-07-18 | 2022-09-27 | 百度在线网络技术(北京)有限公司 | 确定空间约束特征的方法和条件随机场模型的训练方法 |
CN113298117B (zh) * | 2021-04-26 | 2024-04-26 | 上海淇玥信息技术有限公司 | 基于图着色和图神经网络的图嵌入特征提取方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180121798A1 (en) * | 2016-10-31 | 2018-05-03 | Microsoft Technology Licensing, Llc | Recommender system |
CN110119467A (zh) * | 2019-05-14 | 2019-08-13 | 苏州大学 | 一种基于会话的项目推荐方法、装置、设备及存储介质 |
CN110334245A (zh) * | 2019-05-20 | 2019-10-15 | 山东大学 | 一种基于时序属性的图神经网络的短视频推荐方法及装置 |
CN110619082A (zh) * | 2019-09-20 | 2019-12-27 | 苏州市职业大学 | 一种基于重复搜索机制的项目推荐方法 |
WO2020068831A1 (en) * | 2018-09-26 | 2020-04-02 | Visa International Service Association | Dynamic graph representation learning via attention networks |
CN110969516A (zh) * | 2019-12-25 | 2020-04-07 | 清华大学 | 一种商品推荐方法及装置 |
CN111026973A (zh) * | 2019-12-27 | 2020-04-17 | 支付宝(杭州)信息技术有限公司 | 一种商品兴趣度预测方法、装置及电子设备 |
CN111177355A (zh) * | 2019-12-30 | 2020-05-19 | 北京百度网讯科技有限公司 | 基于搜索数据的人机对话交互方法、装置和电子设备 |
-
2020
- 2020-06-16 CN CN202010546991.9A patent/CN111708876B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180121798A1 (en) * | 2016-10-31 | 2018-05-03 | Microsoft Technology Licensing, Llc | Recommender system |
WO2020068831A1 (en) * | 2018-09-26 | 2020-04-02 | Visa International Service Association | Dynamic graph representation learning via attention networks |
CN110119467A (zh) * | 2019-05-14 | 2019-08-13 | 苏州大学 | 一种基于会话的项目推荐方法、装置、设备及存储介质 |
CN110334245A (zh) * | 2019-05-20 | 2019-10-15 | 山东大学 | 一种基于时序属性的图神经网络的短视频推荐方法及装置 |
CN110619082A (zh) * | 2019-09-20 | 2019-12-27 | 苏州市职业大学 | 一种基于重复搜索机制的项目推荐方法 |
CN110969516A (zh) * | 2019-12-25 | 2020-04-07 | 清华大学 | 一种商品推荐方法及装置 |
CN111026973A (zh) * | 2019-12-27 | 2020-04-17 | 支付宝(杭州)信息技术有限公司 | 一种商品兴趣度预测方法、装置及电子设备 |
CN111177355A (zh) * | 2019-12-30 | 2020-05-19 | 北京百度网讯科技有限公司 | 基于搜索数据的人机对话交互方法、装置和电子设备 |
Non-Patent Citations (1)
Title |
---|
陈善学等: "基于矢量量化的颜色图像检索方法", 《电视技术》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112015845A (zh) * | 2020-09-29 | 2020-12-01 | 北京百度网讯科技有限公司 | 地图检索测试的方法、装置、设备以及存储介质 |
CN112015845B (zh) * | 2020-09-29 | 2024-02-06 | 北京百度网讯科技有限公司 | 地图检索测试的方法、装置、设备以及存储介质 |
CN112559879A (zh) * | 2020-12-24 | 2021-03-26 | 北京百度网讯科技有限公司 | 兴趣模型训练方法、兴趣点推荐方法、装置和设备 |
CN112559879B (zh) * | 2020-12-24 | 2023-10-03 | 北京百度网讯科技有限公司 | 兴趣模型训练方法、兴趣点推荐方法、装置和设备 |
CN112861023A (zh) * | 2021-02-02 | 2021-05-28 | 北京百度网讯科技有限公司 | 地图信息处理方法、装置、设备、存储介质及程序产品 |
CN112966193A (zh) * | 2021-03-05 | 2021-06-15 | 北京百度网讯科技有限公司 | 出行意图推断方法、模型训练方法、相关装置及电子设备 |
CN112966193B (zh) * | 2021-03-05 | 2023-07-25 | 北京百度网讯科技有限公司 | 出行意图推断方法、模型训练方法、相关装置及电子设备 |
CN113298117A (zh) * | 2021-04-26 | 2021-08-24 | 上海淇玥信息技术有限公司 | 基于图着色和图神经网络的图嵌入特征提取方法及装置 |
CN113298117B (zh) * | 2021-04-26 | 2024-04-26 | 上海淇玥信息技术有限公司 | 基于图着色和图神经网络的图嵌入特征提取方法及装置 |
CN113407849A (zh) * | 2021-07-15 | 2021-09-17 | 百果园技术(新加坡)有限公司 | 一种粗排序的方法及装置 |
CN114926223A (zh) * | 2022-06-07 | 2022-08-19 | 北京百度网讯科技有限公司 | 落地页特征生成方法、落地页搜索方法及相关装置 |
CN115114997A (zh) * | 2022-07-18 | 2022-09-27 | 百度在线网络技术(北京)有限公司 | 确定空间约束特征的方法和条件随机场模型的训练方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111708876B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111708876B (zh) | 生成信息的方法和装置 | |
EP3724785B1 (en) | Fast indexing with graphs and compact regression codes on online social networks | |
CN110366734B (zh) | 优化神经网络架构 | |
CN113039562A (zh) | 概率神经网络架构生成 | |
CN110807515A (zh) | 模型生成方法和装置 | |
CN107609185B (zh) | 用于poi的相似度计算的方法、装置、设备和计算机可读存储介质 | |
CN106973244A (zh) | 使用弱监督为图像配字幕 | |
CN112035683A (zh) | 用户交互信息处理模型生成方法和用户交互信息处理方法 | |
CN111667056B (zh) | 用于搜索模型结构的方法和装置 | |
JP7334205B2 (ja) | 目的地の予測方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム | |
CN111460384B (zh) | 策略的评估方法、装置和设备 | |
CN111340220B (zh) | 用于训练预测模型的方法和装置 | |
CN111582479A (zh) | 神经网络模型的蒸馏方法和装置 | |
CN114036398B (zh) | 内容推荐和排序模型训练方法、装置、设备以及存储介质 | |
CN111695695A (zh) | 用户决策行为量化分析方法及装置 | |
US20210248425A1 (en) | Reinforced text representation learning | |
CN110019849B (zh) | 一种基于注意力机制的视频关注时刻检索方法及装置 | |
CN112380104A (zh) | 用户属性识别方法、装置、电子设备及存储介质 | |
CN111666292A (zh) | 用于检索地理位置的相似度模型建立方法和装置 | |
CN111512299A (zh) | 用于内容搜索的方法及其电子设备 | |
CN111738418A (zh) | 超网络的训练方法和装置 | |
CN112269867A (zh) | 用于推送信息的方法、装置、设备以及存储介质 | |
CN112000763A (zh) | 兴趣点竞争关系确定方法、装置、设备和介质 | |
CN111353601A (zh) | 用于预测模型结构的延时的方法和装置 | |
CN114417194A (zh) | 推荐系统排序方法、参数预测模型训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |