CN113821724A - 一种基于时间间隔增强的图神经网络推荐方法 - Google Patents
一种基于时间间隔增强的图神经网络推荐方法 Download PDFInfo
- Publication number
- CN113821724A CN113821724A CN202111117332.4A CN202111117332A CN113821724A CN 113821724 A CN113821724 A CN 113821724A CN 202111117332 A CN202111117332 A CN 202111117332A CN 113821724 A CN113821724 A CN 113821724A
- Authority
- CN
- China
- Prior art keywords
- user
- graph
- conversation
- session
- time interval
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Accounting & Taxation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Finance (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种基于时间间隔增强的图神经网络推荐方法,该方法提出时间间隔增强会话图,Graph Transformer和当前会话中用户的偏好整合表示及预测三个模块以优化用户在当前会话中所隐含的偏好信息,提高对下一个物品点击预测的准确率,其步骤如下:(1)构建具有时间间隔的有向会话图;(2)充分学习每个物品的隐向量表示;(3)生成每个会话的最终嵌入向量;(4)为每个会话的下一次点击物品作出推荐;本发明将用户点击物品的序列构建为具有时间间隔的关系图;设计一个嵌入时间间隔的Graph Transformer来学习物品之间复杂的交互信息;再使用注意力网络融合用户在整个点击序列过程中的整体行为偏好和最后点击物品的当前兴趣,这样可以有效预测用户下一次点击的物品的准确性。
Description
技术领域
本发明主要涉及的技术领域,具体为一种基于时间间隔增强的图神经网络推荐方法。
背景技术
现有的图神经网络推荐方法,如“基于会话的循环神经网络推荐方法”主要的步骤有:(1)将会话中的物品按照用户点击的时间先后顺序输入一个编码器,其中编码器分为全局编码器和局部编码器。(2)全局编码器用一个循环神经网络扫描序列后,用最后一次行为(已聚集当前会话所有物品特征)的隐状态表示用户的序列行为;局部编码器用另一个循环神经网络计算输出每个物品的权重,并以所有隐状态的加权和表示用户长期兴趣特征。(3)将全局编码器和局部编码器得到的特征向量连在一起,并将其转换到与物品嵌入特征一样的大小。(4)利用点积计算节点间彼此的相似度,按计算出的相关性给出预测结果。
又如“基于会话的图神经网络推荐方法”,主要的步骤有:(1)将所有的会话序列按照用户点击的时间先后顺序构建为有向图。(2)使用图神经网络学习所构图中每一个节点的隐向量表示。(3)通过一个注意力架构模型得到每个会话嵌入向量的最终表示(即用户在当前会话的偏好)。(4)将学习到的用户偏好同所有候选物品进行相似度计算,并给出用户在当前会话中的下一次可能点击物品的预测。
针对上述中的相关技术,发明人认为第一个方法利用全局编码器获得整个会话顺序行为的信息,局部编码器可以自适应地选择当前会话中的重要物品,以捕获用户的主要偏好目的,但是对于行为有限的会话序列,很难从每个会话中准确的估计当前用户的偏好表示,并且忽略了物品之间复杂的转换特性;
发明人认为第二个方法通过将会话序列构图,并通过图神经网络挖掘物品之间潜在的复杂关系,但忽略了用户在点击过程中不同物品之间的时间间隔特性,时间间隔较短的点击行为也应该被视为强烈的兴趣评估信号,而且可以使会话间更具有可辨别性。
发明内容
为了改善其行为有限的会话序列,很难从每个会话中准确的估计当前用户的偏好表示,并且忽略了物品之间复杂的转换特性的问题和忽略了用户在点击过程中不同物品之间的时间间隔特性的问题,本发明提供一种基于时间间隔增强的图神经网络推荐方法。
本发明采用如下的技术方案:该方法提出时间间隔增强会话图,GraphTransformer和当前会话中用户的偏好整合表示及预测三个模块以优化用户在当前会话中所隐含的偏好信息,提高对下一个物品点击预测的准确率,其步骤如下:
(1)将每一个会话序列都建模为具有时间间隔的有向会话图,每一个节点(物品)都被嵌入到统一的空间得到初始的节点向量,基于节点向量,每一个会话被建模成一个嵌入向量;
(2)采用Graph Transformer学习物品之间复杂的交互信息得到每一个物品的隐向量表示;其中,嵌入一种有效的相对位置时间函数,以增强会话序列理解能力;
(3)利用注意力机制将每个会话中用户的整体行为偏好和当前兴趣进行整合生成的最终表示向量;
(4)计算所有候选物品的推荐概率,并给出在该次会话中用户下一次可能点击的不同物品的预测概率。
进一步的,其中步骤(1)中构建具有时间间隔的有向会话图:(1-1)首先我们先获会话序列中各物品间对应的时间间隔,对于每个会话序列,为充分挖掘用户在点击物品过程中的停留时间间隔信息,我们在用户交互序列过程中引入了时间间隔的概念。
进一步的,其中步骤(2)中充分学习每个物品的隐向量表示:将时间间隔作为位置嵌入向量与物品的嵌入向量结合起来,增强物品之间的关系并使所构建的会话图具有更强的可区分性。
进一步的,其中步骤(3)中生成每个会话的最终嵌入向量:将用户的点击序列细化为整体行为偏好和当前偏好,然后使用权重函数将它们合并作为用户在当前会话中的最终偏好嵌入。
进一步的,其中步骤(4)中为每个会话的下一次点击物品作出推荐:将已经获得会话中用户的最终偏好表示,使用它为每个候选物品计算一个分数来进行推荐。
与现有技术相比,本发明的有益效果为:
本发明首先将用户点击物品的序列构建为具有时间间隔的关系图;设计一个嵌入时间间隔的Graph Transformer来学习物品之间复杂的交互信息;再使用注意力网络融合用户在整个点击序列过程中的整体行为偏好和最后点击物品的当前兴趣,这样可以有效预测用户下一次点击的物品的准确性。
以下将结合附图与具体的实施例对本发明进行详细的解释说明。
附图说明
图1为本发明的时间信息增强图神经网络流程图。
具体实施方式
请着重参照附图1,本发明提供一种基于时间间隔增强的图神经网络推荐方法,该方法提出时间间隔增强会话图,Graph Transformer和当前会话中用户的偏好整合表示及预测三个模块以优化用户在当前会话中所隐含的偏好信息,提高对下一个物品点击预测的准确率,其步骤如下:
(1)将每一个会话序列都建模为具有时间间隔的有向会话图,每一个节点(物品)都被嵌入到统一的空间得到初始的节点向量,基于节点向量,每一个会话被建模成一个嵌入向量;
(2)采用Graph Transformer学习物品之间复杂的交互信息得到每一个物品的隐向量表示;其中,嵌入一种有效的相对位置时间函数,以增强会话序列理解能力;
(3)利用注意力机制将每个会话中用户的整体行为偏好和当前兴趣进行整合生成的最终表示向量;
(4)计算所有候选物品的推荐概率,并给出在该次会话中用户下一次可能点击的不同物品的预测概率。
请着重参照附图1,其中步骤(1)中构建具有时间间隔的有向会话图:首先我们先获会话序列中各物品间对应的时间间隔,对于每个会话序列,为充分挖掘用户在点击物品过程中的停留时间间隔信息,我们在用户交互序列过程中引入了时间间隔的概念。
请着重参照附图1,其中步骤(2)中充分学习每个物品的隐向量表示:将时间间隔作为位置嵌入向量与物品的嵌入向量结合起来,增强物品之间的关系并使所构建的会话图具有更强的可区分性。
请着重参照附图1,其中步骤(3)中生成每个会话的最终嵌入向量:将用户的点击序列细化为整体行为偏好和当前偏好,然后使用权重函数将它们合并作为用户在当前会话中的最终偏好嵌入。
请着重参照附图1,其中步骤(4)中为每个会话的下一次点击物品作出推荐:将已经获得会话中用户的最终偏好表示,使用它为每个候选物品计算一个分数来进行推荐。
具体过程如下:
设s,i和t分别表示会话序列,会话序列中的物品和每个物品点击时间距离最后一次点击物品的时间间隔。对于每一个会话序列有s=[it1,it2,...,itN],N表示当前会话中物品的数量,T=[tN-t1,tN-t2,...,tN-tN]=[t1,t2,...,tN];给定任何一个会话的前缀序列sk=[it1,it2,...,itk],基于时间间隔增强的图神经网络方法的目标是预测当前会话中用户下一个可能的点击物品it(k+1)。则系统的主要工作流程有:
1.构建具有时间间隔的有向会话图:给用户的时间会话序列s=[it1,it2,...,itN],两个物品itk和itN的时间间隔为(tN-tk)。另外,为了更好的得到个性化的时间间隔,我们将当前会话中的所有时间间隔除以当前序列中最长的时间间隔(除0之外)得到归一化的时间间隔。每个会话序列对应的时间间隔可以表示为R=[r1,r2,...,rN];
与序列结构相比,图结构包含更丰富的信息。为了捕捉会话中物品间的复杂交互,我们将会话序列构建为会话图G。给定用户的会话序列s=[it1,it2,...,itN],通过单击物品时间顺序排序。我们把每一个物品当作一个节点,当用户点击物品it(k+1)和之后继续物品itk时,我们认为两个物品之间存在一条边。在这项工作中,会话序列可以建模为加权有向图G=(V,R,E),其中V=[it1,it2,...,itN]是节点集,R=[r1,r2,...,rN]是对应的时间间隔,E={e1,...,eM}是边的集合。在嵌入层,我们创建一个初始的嵌入矩阵I∈Ri*d将每个节点i映射到嵌入空间得到节点向量ci,其中d是节点的嵌入维度。同理,我们将时间间隔嵌入同一维度,可以表示为R=[r1,r2,...,rN]。邻接矩阵表示节点之间的关系。此外,考虑到用户在会话序列中可能会重复点击同一个物品,我们为每条边分配一个归一化的权重。权重的计算方法是将边出现的次数除以起始节点的度数;
2.充分学习每个物品的隐向量表示:对于会话图中的每个物品特征,我们使用拼接特征concat()操作合并对应的时间间隔特征rk。时间间隔的基本信息对于指示历史点击物品的实际时间距离可能没有帮助。因此,我们用一些核函数z(·)来对时间间隔进行变换,然后使用一个简单的MLP来减少它的维度以匹配物品特征。这样,会话图G将更具备独特性。会话中每个物品的嵌入向量Xi可以表示为以下形式:
Xi=concat(ci,W0z(rk)),
其中W0是可学习的参数向量,时间核函数z(·)可以灵活定义为线性运算、对数运算、指数运算等,最终我们选择了指数运算操作,其中a和b为对应的时间核函数参数:
z(R)=1000*a*e-R+b
进一步的,我们采用GraphTransformer进一步增强对物品关系的捕获能力。具体来说,对于上面得到节点特征向量X=[x1,x2,...,xN],我们计算从节点j到节点i的每条边使用多头注意力机制:
其中||符号表示M个多头注意力的连接操作,W是可训练参数,am对应多头注意力机制中每个头的参数,j是节点i的邻居节点,j∈Ni,其中Ni是会话图G中节点i的邻居节点集合。
虽然图注意力层已经能够将先前所有的点击物品,对应的时间间隔信息和绝对位置与自适应权重结合起来,但其是通过线性组合来实现的。为了使模型具有非线性能力,我们应用了两层前馈网络,层间进行非线性变换,其中W1,W2是矩阵权重,b1,b2是偏置向量,可以表示为:
此外,为了避免模型训练过程中出现过拟合、梯度消失等问题,我们在图注意力层和前馈层之后采用归一化和残差连接操作。物品最终的隐向量可以表示为:
3.生成每个会话的最终嵌入向量:用户在短时间内的兴趣演变具有时间敏感性。我们认为会话中的最后一次点击物品是当前用户偏好的重要信号。因此,对于任意会话序列s=[it1,it2,...,itN],取最后点击的物品向量XN作为用户的当前偏好,表示为:
接下来我们考虑用户在当前会话中的整体行为偏好。随着时间的推移,点击物品的重要性也会略有变化,所以我们进一步采用soft-attention机制,更好地表示当前会话中的整体行为偏好,其表示如下:,
其中g,W3,W4是训练参数,b3是偏置向量。
然后我们自适应的权衡用户在会话中的的整体行为偏好和当前偏好作为最终的偏好表示:
H=ωh1+(1-ω)hs;
4.为每个会话的下一次点击物品作出推荐:通过softmar函数获得模型的预测输出向量,其表示如下:
最后,我们对每个会话图应用交叉熵损失。其可以衡量实际值与预测值之间的相似性。此外,交叉熵还具有避免梯度下降过程中均方误差导致学习率下降的优势。因此,我们将优化函数定义为预测结果和真实值y之间的交叉熵:
上述结合附图和公式对本发明进行了示例性描述,显然本发明具体实现并不受上述方式的限制,只要采用了本发明的方法构思和技术方案进行的这种非实质改进,或未经改进将本发明的构思和技术方案直接应用于其他场合的,均在本发明的保护范围之内。
Claims (5)
1.一种基于时间间隔增强的图神经网络推荐方法,其特征在于,该方法提出时间间隔增强会话图,Graph Transformer和当前会话中用户的偏好整合表示及预测三个模块以优化用户在当前会话中所隐含的偏好信息,提高对下一个物品点击预测的准确率,其步骤如下:
(1)将每一个会话序列都建模为具有时间间隔的有向会话图,每一个节点(物品)都被嵌入到统一的空间得到初始的节点向量,基于节点向量,每一个会话被建模成一个嵌入向量;
(2)采用Graph Transformer学习物品之间复杂的交互信息得到每一个物品的隐向量表示;其中,嵌入一种有效的相对位置时间函数,以增强会话序列理解能力;
(3)利用注意力机制将每个会话中用户的整体行为偏好和当前兴趣进行整合生成的最终表示向量;
(4)计算所有候选物品的推荐概率,并给出在该次会话中用户下一次可能点击的不同物品的预测概率。
2.根据权利要求1所述的一种基于时间间隔增强的图神经网络推荐方法,其特征在于,其中步骤(1)中构建具有时间间隔的有向会话图:首先我们先获会话序列中各物品间对应的时间间隔,对于每个会话序列,为充分挖掘用户在点击物品过程中的停留时间间隔信息,我们在用户交互序列过程中引入了时间间隔的概念。
3.根据权利要求1所述的一种基于时间间隔增强的图神经网络推荐方法,其特征在于,其中步骤(2)中充分学习每个物品的隐向量表示:将时间间隔作为位置嵌入向量与物品的嵌入向量结合起来,增强物品之间的关系并使所构建的会话图具有更强的可区分性。
4.根据权利要求1所述的一种基于时间间隔增强的图神经网络推荐方法,其特征在于,其中步骤(3)中生成每个会话的最终嵌入向量:将用户的点击序列细化为整体行为偏好和当前偏好,然后使用权重函数将它们合并作为用户在当前会话中的最终偏好嵌入。
5.根据权利要求1所述的一种基于时间间隔增强的图神经网络推荐方法,其特征在于,其中步骤(4)中为每个会话的下一次点击物品作出推荐:将已经获得会话中用户的最终偏好表示,使用它为每个候选物品计算一个分数来进行推荐。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111117332.4A CN113821724B (zh) | 2021-09-23 | 2021-09-23 | 一种基于时间间隔增强的图神经网络推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111117332.4A CN113821724B (zh) | 2021-09-23 | 2021-09-23 | 一种基于时间间隔增强的图神经网络推荐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113821724A true CN113821724A (zh) | 2021-12-21 |
CN113821724B CN113821724B (zh) | 2023-10-20 |
Family
ID=78920927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111117332.4A Active CN113821724B (zh) | 2021-09-23 | 2021-09-23 | 一种基于时间间隔增强的图神经网络推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113821724B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116485501A (zh) * | 2023-04-28 | 2023-07-25 | 北京邮电大学 | 一种基于图嵌入与注意力机制的图神经网络会话推荐方法 |
CN116542720A (zh) * | 2023-07-05 | 2023-08-04 | 湖北工业大学 | 一种基于图卷积网络的时间增强信息序列推荐方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120310959A1 (en) * | 2011-06-03 | 2012-12-06 | Huhn Derrick S | System and method for managing a partitioned database of user relationship data |
CN110278461A (zh) * | 2019-07-01 | 2019-09-24 | 腾讯科技(深圳)有限公司 | 信息推荐界面显示方法、装置、车载终端及存储介质 |
CN110807156A (zh) * | 2019-10-23 | 2020-02-18 | 山东师范大学 | 一种基于用户序列点击行为的兴趣推荐方法及系统 |
CN111435377A (zh) * | 2019-01-11 | 2020-07-21 | 腾讯科技(深圳)有限公司 | 应用推荐方法、装置、电子设备以及存储介质 |
CN112035746A (zh) * | 2020-09-01 | 2020-12-04 | 湖南大学 | 一种基于时空序列图卷积网络的会话推荐方法 |
CN112258262A (zh) * | 2020-09-15 | 2021-01-22 | 浙江大学 | 一种基于卷积自注意力网络的会话推荐方法 |
-
2021
- 2021-09-23 CN CN202111117332.4A patent/CN113821724B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120310959A1 (en) * | 2011-06-03 | 2012-12-06 | Huhn Derrick S | System and method for managing a partitioned database of user relationship data |
CN111435377A (zh) * | 2019-01-11 | 2020-07-21 | 腾讯科技(深圳)有限公司 | 应用推荐方法、装置、电子设备以及存储介质 |
CN110278461A (zh) * | 2019-07-01 | 2019-09-24 | 腾讯科技(深圳)有限公司 | 信息推荐界面显示方法、装置、车载终端及存储介质 |
CN110807156A (zh) * | 2019-10-23 | 2020-02-18 | 山东师范大学 | 一种基于用户序列点击行为的兴趣推荐方法及系统 |
CN112035746A (zh) * | 2020-09-01 | 2020-12-04 | 湖南大学 | 一种基于时空序列图卷积网络的会话推荐方法 |
CN112258262A (zh) * | 2020-09-15 | 2021-01-22 | 浙江大学 | 一种基于卷积自注意力网络的会话推荐方法 |
Non-Patent Citations (2)
Title |
---|
J LI ET AL.: "Time interval aware self-attention for sequential recommendation", PROCEEDINGS OF THE 13TH INTERNATIONAL CONFERENCE ON WEB SEARCH AND DATA MINING * |
胡承佐 等: "基于复杂结构信息的图神经网络序列推荐算法", 计算机工程 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116485501A (zh) * | 2023-04-28 | 2023-07-25 | 北京邮电大学 | 一种基于图嵌入与注意力机制的图神经网络会话推荐方法 |
CN116485501B (zh) * | 2023-04-28 | 2024-02-27 | 北京邮电大学 | 一种基于图嵌入与注意力机制的图神经网络会话推荐方法 |
CN116542720A (zh) * | 2023-07-05 | 2023-08-04 | 湖北工业大学 | 一种基于图卷积网络的时间增强信息序列推荐方法及系统 |
CN116542720B (zh) * | 2023-07-05 | 2023-09-19 | 湖北工业大学 | 一种基于图卷积网络的时间增强信息序列推荐方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113821724B (zh) | 2023-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rafiei et al. | Probabilistic forecasting of hourly electricity price by generalization of ELM for usage in improved wavelet neural network | |
Shen et al. | Forecasting exchange rate using deep belief networks and conjugate gradient method | |
CN109544306B (zh) | 一种基于用户行为序列特征的跨领域推荐方法及装置 | |
Dwivedi et al. | Distributed physics informed neural network for data-efficient solution to partial differential equations | |
CN113821724B (zh) | 一种基于时间间隔增强的图神经网络推荐方法 | |
Wang et al. | A hybrid framework for reservoir characterization using fuzzy ranking and an artificial neural network | |
CN110110372B (zh) | 一种用户时序行为自动切分预测方法 | |
CN110766060B (zh) | 基于深度学习的时间序列相似度的计算方法、系统及介质 | |
CN113239897B (zh) | 基于时空特征组合回归的人体动作评价方法 | |
CN110188263B (zh) | 一种面向异构时距的科学研究热点预测方法及系统 | |
WO2019018533A1 (en) | NEURO-BAYESIAN ARCHITECTURE FOR THE IMPLEMENTATION OF GENERAL ARTIFICIAL INTELLIGENCE | |
JPWO2019229931A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN114971784B (zh) | 一种融合自注意力机制基于图神经网络的会话推荐方法与系统 | |
CN113935489A (zh) | 基于量子神经网络的变分量子模型tfq-vqa及其两级优化方法 | |
CN111058840A (zh) | 一种基于高阶神经网络的有机碳含量(toc)评价方法 | |
CN115687772A (zh) | 一种基于顺序依赖增强自注意力网络的序列推荐方法 | |
CN114238765A (zh) | 一种基于区块链的位置注意力推荐方法 | |
CN112241802A (zh) | 一种风电功率的区间预测方法 | |
CN105740815B (zh) | 一种基于深度递归分层条件随机场的人体行为识别方法 | |
CN112559904A (zh) | 一种基于门机制和多模态图网络的会话社交推荐方法 | |
CN116257691A (zh) | 基于潜在图结构挖掘和用户长短期兴趣融合的推荐方法 | |
WO2023212390A1 (en) | Neural network methods | |
CN115470406A (zh) | 一种基于双通道信息融合的图神经网络会话推荐方法 | |
CN110796195B (zh) | 一种包含在线小样本激励的图像分类方法 | |
Nguyen et al. | Gaussian Process for Trajectories |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |