CN114722182A - 一种基于知识图谱的在线课推荐方法及系统 - Google Patents
一种基于知识图谱的在线课推荐方法及系统 Download PDFInfo
- Publication number
- CN114722182A CN114722182A CN202210213438.2A CN202210213438A CN114722182A CN 114722182 A CN114722182 A CN 114722182A CN 202210213438 A CN202210213438 A CN 202210213438A CN 114722182 A CN114722182 A CN 114722182A
- Authority
- CN
- China
- Prior art keywords
- user
- course
- vector
- learning
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 239000013598 vector Substances 0.000 claims abstract description 100
- 238000012549 training Methods 0.000 claims abstract description 46
- 230000006399 behavior Effects 0.000 claims abstract description 18
- 238000013136 deep learning model Methods 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 27
- 239000011159 matrix material Substances 0.000 claims description 16
- 239000013604 expression vector Substances 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 230000000737 periodic effect Effects 0.000 claims description 4
- 108091026890 Coding region Proteins 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000004590 computer program Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 210000002569 neuron Anatomy 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Strategic Management (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Computing Systems (AREA)
- Tourism & Hospitality (AREA)
- Artificial Intelligence (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Library & Information Science (AREA)
- Animal Behavior & Ethology (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种基于知识图谱的在线课推荐方法及系统,其包括:根据在线课程的信息和特征,提取实体构建在线课程知识图谱;将知识图谱中的三元组输入到表示学习模型中进行特征学习,得出实体和关系向量;提取用户的历史修读记录并与课程库相对应,获得用户课程‑序列数据;使用深度学习模型transformer encoder部分学习加入时间信息的历史记录,训练用户画像;将用户画像与目标课程向量拼接,获得维度扩展的新向量,输入到DNN网络,训练学习模型;根据训练后的学习模型输出的点击概率,为用户生成推荐列表。本发明能更好地捕获用户的时间学习兴趣,根据目标用户的连续选课行为向目标用户推荐课程;可广泛在知识图谱和深度学习领域中应用。
Description
技术领域
本发明涉及一种知识图谱和深度学习领域,特别是关于一种基于知识图谱的在线课推荐方法及系统。
背景技术
在线学习平台为任何人提供了访问大量课程的低成本机会。然而,大量的课程使得用户很难选择一个合适的课程,严重阻碍了在线学习平台上的用户保留率和课程完 成率。
传统的推荐方法是基于过滤的方法,包括协同过滤,基于内容的和混合推荐,这些方法通过平均或加权平均用户的历史行为(如课程注册、课程书签等)来描述用户兴 趣,而简单的融合策略未能捕捉用户时序行为背后的时间学习兴趣。在线用户的时间 学习兴趣可以表现为两种形式:兴趣漂移和兴趣演化。兴趣漂移不是认为用户的兴趣随 时间的推移是不变的,而是表明用户对课程学习的兴趣是动态的、多元化的。兴趣演 变表明,随着时间的推移,用户获得知识、技能和经验,他们的学习兴趣也在不断发 展。例如,在学习了“c++Basic Programming”这门课程之后,可能会学习“c++Advanced Programming”,因为前者是后者的高级课程。然而,在课程推荐设计中,上述基于用 户课程注册序列的学习兴趣形式尚未得到研究。深度学习模型被广泛采用,通过将历 史顺序行为编码为一个隐藏的状态向量来捕获用户的时间兴趣。虽然状态向量有助于 编码历史注册行为之间的顺序依赖关系,但它未能从课程之间的潜在知识连接中挖掘 出时间学习兴趣。时间信息有助于理解在线学习行为,持续学习的人和间断性学习的 人的学习模式和兴趣是完全不同的。并且近年来,知识图谱被广泛用于将外部知识纳 入推荐者。在我们的背景下,知识图可以提供互补的、可区分的课程语义信息,因此, 结合知识图的推荐者可以更好地捕获和合理地扩展课程语义相关性背后的时间学习兴 趣。
发明内容
针对上述问题,本发明的目的是提供一种基于知识图谱的在线课推荐方法及系统, 结合深度学习和知识图的推荐方案,以更好地捕获用户的时间学习兴趣。能根据目标用户的连续选课行为向目标用户推荐课程。
为实现上述目的,本发明采取以下技术方案:一种基于知识图谱的在线课推荐方法,其包括:根据在线课程的信息和特征,提取实体构建在线课程知识图谱;将所述 知识图谱中的三元组输入到表示学习模型中进行特征学习,得出实体和关系向量;提 取用户的历史修读记录,并与课程库相对应,获得用户课程-序列数据;对每个用户, 使用深度学习模型transformer encoder部分学习加入时间信息的历史记录,训练用户 画像,以刻画用户的喜好;将用户画像与目标课程向量拼接,获得维度扩展的新向量, 输入到DNN网络,训练学习模型;根据训练后的所述学习模型输出的点击概率,为 用户生成推荐列表。
进一步,所述根据在线课程的信息和特征,提取实体构建在线课程知识图谱,包括:
根据用户的历史学习记录和课程相关的特征,提取实体和关系;
将提取的实体和关系进行编号,将实体e从0开始编号到n,将关系r也从0开始 编号;
通过关系r关联头实体eh和尾实体et,将编号构成三元组<eh,r,et>。
进一步,所述将所述知识图谱中的三元组输入到表示学习模型中进行特征学习,得出实体和关系向量,包括:
基于负采样方法训练所述学习模型,对于正例三元组<eh,r,et>通过更换头尾结点得到负例三元组<eh′,r,et′>;
初始化所述学习模型的参数,包括映射矩阵和节点关系表示向量;
基于正例三元组和负例三元组的学习,最大化负例三元组头尾节点的距离,最小化正例三元组头尾节点的距离,根据损失函优化模型,不断更新参数,直到损失函数 停止下降,学习模型收敛,学习模型输出实体和关系的表示向量。
进一步,所述使用深度学习模型transformer encoder部分学习加入时间信息的历史 记录,训练用户画像,包括:
统计用户历史记录的最大长度、最小长度和平均长度,选择固定长度作为maxlen为基准分割历史学习记录,若用户历史记录不足maxlen则补0,并加上正无穷数;
对用户历史序列进行顺序和时间编码,使课程表示向量中包含知识图谱的信息和用户行为信息;
使用多头注意力机制对历史序列训练权重,将维度d拆分成为h份,每一份的维度为d/h,每一份向量包含了不同的信息;
多头注意力层的输出送到归一化和残差连接层进行处理,特征包含残差连接和归一化,相当于在输出向量中加入输入向量;
输出进入前馈神经网络Feed Forward Neural Network层经过两层激活函数做全连 接维度变换;
前馈神经网络的输出再次输入残差连接与归一化;
用户历史序列经过transformer的学习后,输出经过学习后的课程向量序列,将表示向量相加作为用户画像的向量表示。
进一步,所述对用户历史序列进行顺序和时间编码,包括:
对每位用户,每一条记录进行编号,按照课程学习顺序编码为k=[0,1,2...,n],序号 i代表用户加入平台后学习的第i门课;
使用注册课程时间间隔进一步捕捉用户行为包含的信息,计算每一门注册时间ti与注册第一门课程t0的时间间隔Δt0i;
对时间间隔Δt0i做minmax标准化,将Δt0i缩放到0-kmax之间,kmax代表用户历 史记录的长度,缩放后的时间间隔表示为t(vk);
将位置信息和时间信息加和,得到最终编码顺序信息TPos(vk)=k+t(vk);
使用sin和cos周期函数,扩展TPos(vk)维度与课程向量表示的维度相同;
将TPos(vk)输入到对应课程的向量表示中,使课程表示向量中包含知识图谱的信息和用户行为信息。
进一步,所述将用户画像与目标课程向量拼接,获得维度扩展的新向量,输入到DNN网络,训练学习模型,包括:
经过DNN网络做全连接变换,使用梯度下降方法迭代更新权重,利用若干个权 重系数矩阵W,偏倚向量b来和输入值向量x进行线性运算和激活运算,从输入层开始, 一层层的向后计算,一直到运算到输出层,得到输出结果值,DNN输出的数据范围设 置为0-1,表示预测推荐分数;
将用户集合划分为训练集和测试集,将训练集输入到学习模型中学习,直到学习模型收敛。
进一步,所述根据训练后的所述学习模型输出的点击概率,为用户生成推荐列表,包括:
采用测试数据的用户集输入训练好的学习模型中,课程候选集合为除输入模型学习外的全部课程,以模拟真实场景;
在候选集中的每一个候选物品,都和用户历史记录组合进行学习模型学习,输出点击概率;
对所有物品的点击概率值从高到低进行排序,选择排序后的前K个物品作为推荐结果,输出物品的id编号;
重复上述过程,直到输出所有用户的推荐列表。
一种基于知识图谱的在线课推荐系统,其包括:提取模块,根据在线课程的信息和特征,提取实体构建在线课程知识图谱;特征学习模块,将所述知识图谱中的三元 组输入到表示学习模型中进行特征学习,得出实体和关系向量;数据获取模块,提取 用户的历史修读记录,并与课程库相对应,获得用户课程-序列数据;处理模块,对每 个用户,使用深度学习模型transformer encoder部分学习加入时间信息的历史记录, 训练用户画像,以刻画用户的喜好;训练模块,将用户画像与目标课程向量拼接,获 得维度扩展的新向量,输入到DNN网络,训练学习模型;推荐列表生成模块,根据 训练后的所述学习模型输出的点击概率,为用户生成推荐列表。
一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令, 所述指令当由计算设备执行时,使得所述计算设备执行上述方法中的任一方法。
一种计算设备,其包括:一个或多个处理器、存储器及一个或多个程序,其中一 个或多个程序存储在所述存储器中并被配置为所述一个或多个处理器执行,所述一个 或多个程序包括用于执行上述方法中的任一方法的指令。
本发明由于采取以上技术方案,其具有以下优点:
1、本发明可以通过对用户历史记录的学习,在课程库中自动搜索与用户兴趣匹配的课程,自动推荐给用户,实现了个性化推荐,提高用户的使用体验。并捕捉用户短 期和长期兴趣的演变,提升用户黏性。
2、本发明引入知识图谱,将课程知识整合到序列推荐中,以捕捉课程之间潜在知识连接,通过构建包含课程丰富元信息的知识图,考虑课程的丰富语义和高阶连通性, 利用知识图的嵌入来表示课程,提升了模型的推荐效果。
3、本发明引入了Transformer来提取用户序列学习行为背后的学习兴趣和用户画像,Transformer模块中的多头自注意机制可以自动捕获序列内课程之间的依赖关系。
4、本发明通过对课程学习序列中第一门课程的注册时间与每门课程的注册时间之 间的时间间隔进行编码,捕捉了依赖于时间的短期和长期学习兴趣演变。例如,在在 线学习平台上,用户往往会在短时间内注册多种多样的课程,长期来看,完成基础课 程后,会发生兴趣的进阶演变。此创新提升了推荐效果。
附图说明
图1是本发明一实施例中的在线课程推荐方法整体流程示意图;
图2是本发明一实施例中的知识图谱实例;
图3是本发明一实施例中的知识图谱表示学习流程图;
图4是本发明一实施例中的用户画像及概率预测流程图;
图5是本发明一实施例中的计算设备结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例 是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本 领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单 数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含” 和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
本发明提供一种基于知识图谱和深度学习的在线课程推荐方法及系统,本发明根据在线课程的特征构建在线课程知识图谱,利用在线课程知识图谱中概念实体间的关 系连接增强学习课程实体的向量表示,并结合深度学习模型transformer来通过用户历 史记录学习用户画像。本发明采用的加入时间感知的transformer模型能够根据用户行 为的时间间隔来描述用户的长短期兴趣,能表示兴趣的多样性和延展性。在课程库中 查找与当前用户匹配的课程结合输入到DNN网络中输出点击概率,从而推荐最匹配 的前N个课程。而无需用户自己在海量内容中挑选所需的学习内容,不仅节省时间, 而且可提高用户的使用体验。
在本发明的一个实施例中,提供一种基于知识图谱的在线课推荐方法,本实施例以该方法应用于终端进行举例说明,可以理解的是,该方法也可以应用于服务器,还 可以应用于包括终端和服务器的系统,并通过终端和服务器的交互实现。本实施例中, 如图1所示,该方法包括以下步骤:
1)根据在线课程的信息和特征,提取实体构建在线课程知识图谱;其中,实体包括老师、学校、概念和领域等;
2)将知识图谱中的三元组输入到表示学习模型中进行特征学习,得出实体和关系向量;
3)提取用户的历史修读记录,并与课程库相对应,获得用户课程-序列数据;
4)对每个用户,使用深度学习模型transformer encoder部分学习加入时间信息的 历史记录,训练用户画像,以刻画用户的喜好;
5)将用户画像与目标课程向量拼接,获得维度扩展的新向量,输入到DNN网络, 训练学习模型;
6)根据训练后的学习模型输出的点击概率,为用户生成推荐列表。
上述步骤1)中,根据在线课程的信息和特征,提取实体构建在线课程知识图谱,包括以下步骤:
1.1)根据用户的历史学习记录和课程相关的特征,提取实体和关系;
知识图谱是一个由节点和边组成的网络,节点表示实体,边表示实体之间的关系。抽取课程属性信息映射成知识图谱的节点,共提取老师、学校、概念、领域和所需先 修课程作为知识图谱中的节点,将节点之间的关系映射成为网络中的边,共五类关系, 分别是:(1)老师和课程之间存在讲授关系,(2)学校和课程之间存在开设关系,(3)课程 和概念之间存在包含关系,(4)概念和领域之间存在属于关系,(5)课程与课程之间存在 先修关系。图谱实例如图2所示。
1.2)将提取的实体和关系进行编号,将实体e从0开始编号到n,将关系r也从0 开始编号;
1.3)通过关系r关联头实体eh和尾实体et,将编号构成三元组<eh,r,et>。
上述步骤2)中,将知识图谱中的三元组输入到表示学习模型中进行特征学习,如图3所示,得出实体和关系向量,包括以下步骤:
2.1)基于负采样方法训练学习模型,对于正例三元组<eh,r,et>通过更换头尾结点得到负例三元组<eh′,r,et′>;
2.2)初始化学习模型的参数,包括映射矩阵和节点关系表示向量;
根据构建的正负三元组,训练表示学习模型。对于头实体和尾实体,使用不同的映射矩阵投影到关系空间中。
在训练过程中,使用一个向量表示实体和关系,另一个向量构造映射矩阵,表示如何将实体映射到关系空间;每个实体对有唯一的矩阵。
映射矩阵的构造方式为:
映射矩阵由实体和关系定义,I为单位矩阵,采用生成的矩阵(由r和h向量决定)来修改单位矩阵。
h⊥=Mrhh
t⊥=Mrth
式中,h⊥表示头实体投影到关系空间后的嵌入,t⊥表示尾实体投影到关系空间后的嵌入;
2.3)基于正例三元组和负例三元组的学习,最大化负例三元组头尾节点的距离,最小化正例三元组头尾节点的距离,根据损失函优化模型,不断更新参数,直到损失 函数停止下降,学习模型收敛,学习模型输出实体和关系的表示向量。
其中,损失函数L(h,r,t)为:
L(h,r,t)=max(0,dpos-dneg+margin)
式中,h表示头实体嵌入,t表示尾实体嵌入,dpos表示正例三元组的得分,dneg表 示负例三元组的得分,margin表示正负例样本分数差的阈值。
通过损失函数为L(h,r,t)最大化正例负例的距离。其中d的计算如下:
d=||h+r-t||
训练过程损失函数不断减小,直到模型收敛。
上述步骤4)中,在transformer中,融入了一种时间感知位置编码模块,不仅可 以捕获顺序,还可以捕获课程学习序列中课程的注册时间。根据用户的历史记录,结 合知识图谱表示学习后生成的课程向量,每一个用户都会得到序列化的历史课程向量 表示。首先为课程的位置顺序进行标号,然后将课程的加入时间间隔进行编码,标准 化后与位置编码相加。将含有位置和时间信息的课程输入到transformer encoder模型 中。模型特征包括:multihead attention、position wise forward network。
在本实施例中,使用深度学习模型transformer encoder部分学习加入时间信息的历 史记录,训练用户画像,如图4所示,包括以下步骤:
4.1)统计用户历史记录的最大长度、最小长度和平均长度,选择固定长度作为maxlen(表示划分训练数据中的设定用户历史记录最大长度)为基准分割历史学习记 录,若用户历史记录不足maxlen则补0;在本实施例中,对此部分数据做遮盖操作,赋 予该位置正无穷的数,在后续计算中将此位置忽略,不影响模型训练。
使用函数L(y,y′)=max(0,margin-y+y′)计算距离表示得分,y是正样本的得 分,y′是负样本的得分。
对每一个用户构建其历史记录集合S,在S中选取前N个作为模型训练的输入, 记为maxlen,将后m个物品集用于验证模型效果。
对于用户的每一个历史记录,从知识图谱学习后的向量集合中选取物品I的语义向量,构成向量序列输入。
从知识图谱课程向量集合中,排除用户输入模型训练的课程集,剩余全部作为测试集。
4.2)Transformer模型并不具有顺序特征,因此对用户历史序列进行顺序和时间编 码,使课程表示向量中包含知识图谱的信息和用户行为信息;
4.3)使用多头注意力机制对历史序列训练权重,将维度d拆分成为h份,每一份的维度为d/h,每一份向量包含了不同的信息;
在本实施例中,通过多个注意力机制同时训练,每一个注意力机制输出赋予权重的向量表示hi,将多头的结果拼接得到整个注意力层的最终结果。
4.3.1)注意力机制Attention是点积运算模式:
4.3.2)最终将输出结果按照向量维度拼接而成。
MultiHead(H)=Concat(head1;head2;...;headh)
headi=Attention(HWQ,HWK,HWV)
其中,headi是Attention的输出,h是头的数量,而WQ、WK和WV是每个头的投 影矩阵。HWQ,HWK,HWV都表示投影矩阵与输入的点乘,用于抽取信息, MultiHead(H)表示多头注意力机制的最终输出,headh表示多头注意力机制中每个头 的输出。
4.4)多头注意力层的输出送到归一化和残差连接层进行处理,特征包含残差连接和归一化,相当于在输出向量中加入输入向量,即输出结构变为f(x)=f(x)+x,这 样做的好处是在对x求偏导时,加入一项常数项,避免了梯度消失的问题;x表示输入 向量。
4.5)输出进入前馈神经网络Feed Forward Neural Network层经过两层激活函数做 全连接维度变换;其中,第一层的激活函数是RELU,第二层是一个线性激活函数;
在本实施例中,函数FFN可以表示为:FFN(x)=max(0,xW1+b1)W2+b2,W 和b分别表示权重矩阵和偏置。输入的维度是d,经过两层激活函数,输出维度最终变 回d维度。
4.6)前馈神经网络的输出再次输入残差连接与归一化;
4.7)用户历史序列经过transformer的学习后,输出经过学习后的课程向量序列,将表示向量相加作为用户画像的向量表示。
其中,步骤4.2)中,对用户历史序列进行顺序和时间编码,包括以下步骤:
4.2.1)对每位用户,每一条记录进行编号,按照课程学习顺序编码为k=[0,1,2...,n], 序号i代表用户加入平台后学习的第i门课;
4.2.2)由于用户有在短时间内注册多个课程的操作,也有两个课程注册时间相隔时间很长的操作,因此使用注册课程时间间隔进一步捕捉用户行为包含的信息,计算 每一门注册时间ti与注册第一门课程t0的时间间隔Δt0i;
例如,对于一个用户,有在一次在线过程中的操作,如数据结构10:20,java系 统10:21。也有相隔时间很长的操作,如c++2020-05-13,概率论与数理统计2020-12-05。 经过长时间的跨度,用户在此过程中可能已经学习前面的课程,并且兴趣是不断演变 的,因此仅使用位置信息描述用户行为是不准确的。
4.2.3)为了能够针对用户个性化描述注册课程时间间隔,对时间间隔Δt0i做minmax标准化,将Δt0i缩放到0-kmax之间,kmax代表用户历史记录的长度,缩放后 的时间间隔表示为t(vk);vk表示原时间差,t(vk)表示缩放后的时间间隔。
其中,
Xstd=Xstd*(max-min)+min
式中,Xstd表示数据的标准差,X表示用户的历史记录时间差序列;
max设为该历史记录最大长度,min为0,将注册时间间隔Δt0i缩放到0-kmax之 间。
4.2.4)将位置信息和时间信息加和,得到最终编码顺序信息TPos(vk);
TPos(vk)=k+t(vk)
4.2.5)使用sin和cos周期函数,扩展最终编码顺序信息TPos(vk)维度与课程向量表示的维度相同;
其中,使用sin和cos周期函数将其扩展到与向量相同的维度n,如下计算每个维的值pk(i):
4.2.6)将TPos(vk)输入到对应课程的向量表示中,使课程表示向量中包含知识图谱的信息和用户行为信息;
其中,Transformer encoder层是由多头注意力机制(Multi-Head Self-Attention Layer), 前馈网络(Position-wise Feed-Forward Layer)和归一和连接(Addand Norm)组合而成的。
上述步骤5)中,将用户画像与目标课程向量拼接,获得维度扩展的新向量,输入到DNN网络,训练学习模型,具体为:
经过DNN网络做全连接变换,使用梯度下降方法迭代更新权重,利用若干个权 重系数矩阵W,偏倚向量b来和输入值向量x进行线性运算和激活运算,从输入层开始, 一层层的向后计算,一直到运算到输出层,得到输出结果值,DNN输出的数据范围设 置为0-1,表示预测推荐分数;
将用户集合划分为训练集和测试集,将训练集输入到学习模型中学习,直到学习模型收敛。
DNN网络是向前传播神经网络,具有许多隐藏层的神经网络。DNN内部的神经 网络层可分为三种类型:第一层是输入层,最后一层是输出层,中间层是隐藏层。它 每一层完全连接,第i层的任意一个神经元一定与第i+1层的任意一个神经元相连。 层与层的关系使用激活函数和线性关系连接,为z=σ(∑wixi+b)。其中σ为激活函 数,w为线性关系系数,b为偏差。
具体包括以下步骤:
5.2)使用随机梯度下降算法迭代更新权重,通过每个样本来迭代更新一次,公式如下:
式中,J(θ)表示损失函数值,m表示样本量,hθ(xi)表示模型预测值,yi表示实际值,θ表示参数;
利用每个样本的损失函数对求偏导得到对应的梯度,来更新:
5.3)当损失函数不再下降,模型收敛,则输出预测推荐分数,数据范围设置为0-1。
上述步骤6)中,根据训练后的学习模型输出的点击概率,为用户生成推荐列表,包括以下步骤:
6.1)采用测试数据的用户集输入训练好的学习模型中,课程候选集合为除输入模型学习外的全部课程,以模拟真实场景;
6.2)在候选集中的每一个候选物品,都和用户历史记录组合进行学习模型学习,输出点击概率;
6.3)对所有物品的点击概率值从高到低进行排序,选择排序后的前K个物品作为推荐结果,输出物品的id编号;
6.4)重复上述步骤,直到输出所有用户的推荐列表。
在本发明的一个实施例中,提供一种基于知识图谱的在线课推荐系统,其包括:
提取模块,根据在线课程的信息和特征,提取实体构建在线课程知识图谱;
特征学习模块,将知识图谱中的三元组输入到表示学习模型中进行特征学习,得出实体和关系向量;
数据获取模块,提取用户的历史修读记录,并与课程库相对应,获得用户课程- 序列数据;
处理模块,对每个用户,使用深度学习模型transformer encoder部分学习加入时间信息的历史记录,训练用户画像,以刻画用户的喜好;
训练模块,将用户画像与目标课程向量拼接,获得维度扩展的新向量,输入到DNN网络,训练学习模型;
推荐列表生成模块,根据训练后的学习模型输出的点击概率,为用户生成推荐列表。
本实施例提供的系统是用于执行上述各方法实施例的,具体流程和详细内容请参照上述实施例,此处不再赘述。
如图5所示,为本发明一实施例中提供的计算设备结构示意图,该计算设备可以是终端,其可以包括:处理器(processor)、通信接口(Communications Interface)、存储器(memory)、显示屏和输入装置。其中,处理器、通信接口、存储器通过通信总线完 成相互间的通信。该处理器用于提供计算和控制能力。该存储器包括非易失性存储介 质、内存储器,该非易失性存储介质存储有操作系统和计算机程序,该计算机程序被 处理器执行时以实现一种在线课程推荐方法;该内存储器为非易失性存储介质中的操 作系统和计算机程序的运行提供环境。该通信接口用于与外部的终端进行有线或无线 方式的通信,无线方式可通过WIFI、管理商网络、NFC(近场通信)或其他技术实现。 该显示屏可以是液晶显示屏或者电子墨水显示屏,该输入装置可以是显示屏上覆盖的 触摸层,也可以是计算设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键 盘、触控板或鼠标等。处理器可以调用存储器中的逻辑指令,以执行如下方法:根据 在线课程的信息和特征,提取实体构建在线课程知识图谱;将知识图谱中的三元组输 入到表示学习模型中进行特征学习,得出实体和关系向量;提取用户的历史修读记录, 并与课程库相对应,获得用户课程-序列数据;对每个用户,使用深度学习模型 transformer encoder部分学习加入时间信息的历史记录,训练用户画像,以刻画用户的 喜好;将用户画像与目标课程向量拼接,获得维度扩展的新向量,输入到DNN网络, 训练学习模型;根据训练后的学习模型输出的点击概率,为用户生成推荐列表。
此外,上述的存储器中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解, 本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可 以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干 指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本 发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬 盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算设备的限定,具体的计算设 备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件 布置。
在本发明的一个实施例中,提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令, 当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的方法, 例如包括:根据在线课程的信息和特征,提取实体构建在线课程知识图谱;将知识图 谱中的三元组输入到表示学习模型中进行特征学习,得出实体和关系向量;提取用户 的历史修读记录,并与课程库相对应,获得用户课程-序列数据;对每个用户,使用深 度学习模型transformer encoder部分学习加入时间信息的历史记录,训练用户画像, 以刻画用户的喜好;将用户画像与目标课程向量拼接,获得维度扩展的新向量,输入 到DNN网络,训练学习模型;根据训练后的学习模型输出的点击概率,为用户生成 推荐列表。
在本发明的一个实施例中,提供一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储服务器指令,该计算机指令使计算机执行上述各实施例提供的方 法,例如包括:根据在线课程的信息和特征,提取实体构建在线课程知识图谱;将知 识图谱中的三元组输入到表示学习模型中进行特征学习,得出实体和关系向量;提取 用户的历史修读记录,并与课程库相对应,获得用户课程-序列数据;对每个用户,使 用深度学习模型transformer encoder部分学习加入时间信息的历史记录,训练用户画 像,以刻画用户的喜好;将用户画像与目标课程向量拼接,获得维度扩展的新向量, 输入到DNN网络,训练学习模型;根据训练后的学习模型输出的点击概率,为用户 生成推荐列表。
上述实施例提供的一种计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的 每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供 这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处 理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理 器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多 个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定 方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个 方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算 机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或 方框图一个方框或多个方框中指定的功能的步骤。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其 依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行 等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技 术方案的精神和范围。
Claims (10)
1.一种基于知识图谱的在线课推荐方法,其特征在于,包括:
根据在线课程的信息和特征,提取实体构建在线课程知识图谱;
将所述知识图谱中的三元组输入到表示学习模型中进行特征学习,得出实体和关系向量;
提取用户的历史修读记录,并与课程库相对应,获得用户课程-序列数据;
对每个用户,使用深度学习模型transformer encoder部分学习加入时间信息的历史记录,训练用户画像,以刻画用户的喜好;
将用户画像与目标课程向量拼接,获得维度扩展的新向量,输入到DNN网络,训练学习模型;
根据训练后的所述学习模型输出的点击概率,为用户生成推荐列表。
2.如权利要求1所述基于知识图谱的在线课推荐方法,其特征在于,所述根据在线课程的信息和特征,提取实体构建在线课程知识图谱,包括:
根据用户的历史学习记录和课程相关的特征,提取实体和关系;
将提取的实体和关系进行编号,将实体e从0开始编号到n,将关系r也从0开始编号;
通过关系r关联头实体eh和尾实体et,将编号构成三元组<eh,r,et>。
3.如权利要求1所述基于知识图谱的在线课推荐方法,其特征在于,所述将所述知识图谱中的三元组输入到表示学习模型中进行特征学习,得出实体和关系向量,包括:
基于负采样方法训练所述学习模型,对于正例三元组<eh,r,et>通过更换头尾结点得到负例三元组<eh',r,et′>;
初始化所述学习模型的参数,包括映射矩阵和节点关系表示向量;
基于正例三元组和负例三元组的学习,最大化负例三元组头尾节点的距离,最小化正例三元组头尾节点的距离,根据损失函优化模型,不断更新参数,直到损失函数停止下降,学习模型收敛,学习模型输出实体和关系的表示向量。
4.如权利要求1所述基于知识图谱的在线课推荐方法,其特征在于,所述使用深度学习模型transformer encoder部分学习加入时间信息的历史记录,训练用户画像,包括:
统计用户历史记录的最大长度、最小长度和平均长度,选择固定长度作为maxlen为基准分割历史学习记录,若用户历史记录不足maxlen则补0,并加上正无穷数;
对用户历史序列进行顺序和时间编码,使课程表示向量中包含知识图谱的信息和用户行为信息;
使用多头注意力机制对历史序列训练权重,将维度d拆分成为h份,每一份的维度为d/h,每一份向量包含了不同的信息;
多头注意力层的输出送到归一化和残差连接层进行处理,特征包含残差连接和归一化,相当于在输出向量中加入输入向量;
输出进入前馈神经网络Feed Forward Neural Network层经过两层激活函数做全连接维度变换;
前馈神经网络的输出再次输入残差连接与归一化;
用户历史序列经过transformer的学习后,输出经过学习后的课程向量序列,将表示向量相加作为用户画像的向量表示。
5.如权利要求4所述基于知识图谱的在线课推荐方法,其特征在于,所述对用户历史序列进行顺序和时间编码,包括:
对每位用户,每一条记录进行编号,按照课程学习顺序编码为k=[0,1,2...,n],序号i代表用户加入平台后学习的第i门课;
使用注册课程时间间隔进一步捕捉用户行为包含的信息,计算每一门注册时间ti与注册第一门课程t0的时间间隔Δt0i;
对时间间隔Δt0i做minmax标准化,将Δt0i缩放到0-kmax之间,kmax代表用户历史记录的长度,缩放后的时间间隔表示为t(vk);
将位置信息和时间信息加和,得到最终编码顺序信息TPos(vk)=k+t(vk);
使用sin和cos周期函数,扩展TPos(vk)维度与课程向量表示的维度相同;
将TPos(vk)输入到对应课程的向量表示中,使课程表示向量中包含知识图谱的信息和用户行为信息。
6.如权利要求1所述基于知识图谱的在线课推荐方法,其特征在于,所述将用户画像与目标课程向量拼接,获得维度扩展的新向量,输入到DNN网络,训练学习模型,包括:
经过DNN网络做全连接变换,使用梯度下降方法迭代更新权重,利用若干个权重系数矩阵W,偏倚向量b来和输入值向量x进行线性运算和激活运算,从输入层开始,一层层的向后计算,一直到运算到输出层,得到输出结果值,DNN输出的数据范围设置为0-1,表示预测推荐分数;
将用户集合划分为训练集和测试集,将训练集输入到学习模型中学习,直到学习模型收敛。
7.如权利要求1所述基于知识图谱的在线课推荐方法,其特征在于,所述根据训练后的所述学习模型输出的点击概率,为用户生成推荐列表,包括:
采用测试数据的用户集输入训练好的学习模型中,课程候选集合为除输入模型学习外的全部课程,以模拟真实场景;
在候选集中的每一个候选物品,都和用户历史记录组合进行学习模型学习,输出点击概率;
对所有物品的点击概率值从高到低进行排序,选择排序后的前K个物品作为推荐结果,输出物品的id编号;
重复上述过程,直到输出所有用户的推荐列表。
8.一种基于知识图谱的在线课推荐系统,其特征在于,包括:
提取模块,根据在线课程的信息和特征,提取实体构建在线课程知识图谱;
特征学习模块,将所述知识图谱中的三元组输入到表示学习模型中进行特征学习,得出实体和关系向量;
数据获取模块,提取用户的历史修读记录,并与课程库相对应,获得用户课程-序列数据;
处理模块,对每个用户,使用深度学习模型transformer encoder部分学习加入时间信息的历史记录,训练用户画像,以刻画用户的喜好;
训练模块,将用户画像与目标课程向量拼接,获得维度扩展的新向量,输入到DNN网络,训练学习模型;
推荐列表生成模块,根据训练后的所述学习模型输出的点击概率,为用户生成推荐列表。
9.一种存储一个或多个程序的计算机可读存储介质,其特征在于,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行如权利要求1至7所述方法中的任一方法。
10.一种计算设备,其特征在于,包括:一个或多个处理器、存储器及一个或多个程序,其中一个或多个程序存储在所述存储器中并被配置为所述一个或多个处理器执行,所述一个或多个程序包括用于执行如权利要求1至7所述方法中的任一方法的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210213438.2A CN114722182A (zh) | 2022-03-04 | 2022-03-04 | 一种基于知识图谱的在线课推荐方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210213438.2A CN114722182A (zh) | 2022-03-04 | 2022-03-04 | 一种基于知识图谱的在线课推荐方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114722182A true CN114722182A (zh) | 2022-07-08 |
Family
ID=82235138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210213438.2A Pending CN114722182A (zh) | 2022-03-04 | 2022-03-04 | 一种基于知识图谱的在线课推荐方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114722182A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115098791A (zh) * | 2022-08-24 | 2022-09-23 | 中建电子商务有限责任公司 | 一种实时岗位推荐方法和系统 |
CN116188220A (zh) * | 2023-04-23 | 2023-05-30 | 深圳易财信息技术有限公司 | 基于云学习的财务培训方法、系统、设备及存储介质 |
CN117349492A (zh) * | 2023-12-06 | 2024-01-05 | 国信蓝桥教育科技股份有限公司 | 一种基于学习数据的课程推荐方法及系统 |
CN117668239A (zh) * | 2023-05-22 | 2024-03-08 | 南京邮电大学 | 一种基于知识图谱的知识点动态推荐与教学反馈系统及其实现方法 |
CN117910994A (zh) * | 2024-03-19 | 2024-04-19 | 浙江之科智慧科技有限公司 | 一种基于深度学习的课程推荐方法、系统与存储介质 |
CN118378956A (zh) * | 2024-06-21 | 2024-07-23 | 杭州杰竞科技有限公司 | 一种基于ai学员课后点评方法和系统 |
-
2022
- 2022-03-04 CN CN202210213438.2A patent/CN114722182A/zh active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115098791A (zh) * | 2022-08-24 | 2022-09-23 | 中建电子商务有限责任公司 | 一种实时岗位推荐方法和系统 |
CN115098791B (zh) * | 2022-08-24 | 2023-01-10 | 中建电子商务有限责任公司 | 一种实时岗位推荐方法和系统 |
CN116188220A (zh) * | 2023-04-23 | 2023-05-30 | 深圳易财信息技术有限公司 | 基于云学习的财务培训方法、系统、设备及存储介质 |
CN116188220B (zh) * | 2023-04-23 | 2023-07-07 | 深圳易财信息技术有限公司 | 基于云学习的财务培训方法、系统、设备及存储介质 |
CN117668239A (zh) * | 2023-05-22 | 2024-03-08 | 南京邮电大学 | 一种基于知识图谱的知识点动态推荐与教学反馈系统及其实现方法 |
CN117349492A (zh) * | 2023-12-06 | 2024-01-05 | 国信蓝桥教育科技股份有限公司 | 一种基于学习数据的课程推荐方法及系统 |
CN117349492B (zh) * | 2023-12-06 | 2024-05-31 | 国信蓝桥教育科技股份有限公司 | 一种基于学习数据的课程推荐方法及系统 |
CN117910994A (zh) * | 2024-03-19 | 2024-04-19 | 浙江之科智慧科技有限公司 | 一种基于深度学习的课程推荐方法、系统与存储介质 |
CN118378956A (zh) * | 2024-06-21 | 2024-07-23 | 杭州杰竞科技有限公司 | 一种基于ai学员课后点评方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Huo et al. | Knowledge modeling via contextualized representations for LSTM-based personalized exercise recommendation | |
CN111460249B (zh) | 一种基于学习者偏好建模的个性化学习资源推荐方法 | |
CN114722182A (zh) | 一种基于知识图谱的在线课推荐方法及系统 | |
Pandey et al. | RKT: relation-aware self-attention for knowledge tracing | |
Ghosh et al. | Context-aware attentive knowledge tracing | |
US11631338B2 (en) | Deep knowledge tracing with transformers | |
CN109376222B (zh) | 问答匹配度计算方法、问答自动匹配方法及装置 | |
CN108921657B (zh) | 一种基于知识增强记忆网络的序列推荐方法 | |
Yin et al. | Tracing knowledge instead of patterns: Stable knowledge tracing with diagnostic transformer | |
CN113283488B (zh) | 一种基于学习行为的认知诊断方法及系统 | |
CN114358657B (zh) | 一种基于模型融合的岗位推荐方法及装置 | |
CN112256971A (zh) | 一种序列推荐方法及计算机可读存储介质 | |
CN114254127A (zh) | 学生能力画像方法、学习资源推荐方法及装置 | |
Gao et al. | Modeling the effort and learning ability of students in MOOCs | |
CN114429212A (zh) | 智能学习知识能力跟踪方法、电子设备及存储介质 | |
He et al. | Multi-type factors representation learning for deep learning-based knowledge tracing | |
CN116186409A (zh) | 一种结合难度与薄弱知识点的多样化习题推荐方法、系统及设备 | |
Huang et al. | Learning consistent representations with temporal and causal enhancement for knowledge tracing | |
US20240037133A1 (en) | Method and apparatus for recommending cold start object, computer device, and storage medium | |
Xu et al. | Modeling Student Performance using Feature Crosses Information for Knowledge Tracing | |
Zhou | Research on teaching resource recommendation algorithm based on deep learning and cognitive diagnosis | |
CN114357306A (zh) | 一种基于元关系的课程推荐方法 | |
Yue et al. | Augmenting interpretable knowledge tracing by ability attribute and attention mechanism | |
Chu et al. | Improve Temporal Awareness of LLMs for Sequential Recommendation | |
Xian et al. | Design of an English vocabulary e-learning recommendation system based on word bag model and recurrent neural network algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |