CN117852640A - 基于增强动态键值记忆网络的知识追踪方法 - Google Patents
基于增强动态键值记忆网络的知识追踪方法 Download PDFInfo
- Publication number
- CN117852640A CN117852640A CN202311850373.3A CN202311850373A CN117852640A CN 117852640 A CN117852640 A CN 117852640A CN 202311850373 A CN202311850373 A CN 202311850373A CN 117852640 A CN117852640 A CN 117852640A
- Authority
- CN
- China
- Prior art keywords
- students
- vector
- matrix
- student
- skill
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000007774 longterm Effects 0.000 claims abstract description 8
- 238000003064 k means clustering Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 73
- 238000012549 training Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000003068 static effect Effects 0.000 claims description 14
- 230000003213 activating effect Effects 0.000 claims description 11
- 230000007246 mechanism Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 4
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 230000008569 process Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000009954 braiding Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开的基于增强动态键值记忆网络的知识追踪方法,包括以下步骤:步骤1、构建增强的动态键值记忆网络模型,动态评估学生的学习能力和练习题的难度;步骤2、采用K‑means聚类算法根据步骤1所得学生的学习能力对学生分组;步骤3、根据步骤1所得练习题的难度、步骤2所得学生分组结果及练习题的技能与回答正确率二元组构建丰富的模型输入特征;步骤4、根据步骤3所得模型输入特征进行长期序列建模并输出预测结果。本发明的基于增强动态键值记忆网络的知识追踪方法,解决了在利用现有技术评估学生技能学习能力时准确度低导致无法准确开展个性化教学支持的问题。
Description
技术领域
本发明属于智慧教育技术领域,具体涉及基于增强动态键值记忆网络的知识追踪方法。
背景技术
知识追踪(Knowledge Tracking,KT)旨在根据学生与过去练习题之间的交互序列来预测学生的未来表现,并跟踪他们技能掌握水平随时间的变化。
传统的KT模型主要包括贝叶斯知识追踪、表现因子分析和知识追踪机等。然而,这些模型使用简单的离散随机状态变量,这导致它们难以建模复杂的知识结构和关系;另外,这些模型假设当前的学习状态只与前一个状态有关,忽略了更长期的依赖关系,因此在处理一些需要先前多个状态的KT任务时性能下降。近年来,许多学者在KT领域广泛运用深度学习技术。深度知识追踪(Deep Knowledge Tracing,DKT)是最早将深度学习技术应用于知识追踪的模型,随后,出现了一系列改进DKT的方法。例如,动态键值记忆网络、深度项目反应理论和练习感知知识追踪等。
与传统KT模型相比,深度学习KT模型能够学习到更复杂、更抽象的知识结构和关系,也能捕捉到更长期的信息。然而,它们将所有学生视为一个整体,没有考虑到学生之间的个体差异。针对这一问题,有学者提出了具有动态学生分类的深度知识追踪和记忆网络上的动态学生分类。上述两个模型都是根据学生的学习能力对学生进行分组,并以组为单位进行训练,继而为学生提供更个性化的指导。具体地,上述两个模型在每个时间间隔上直接统计原始数据集的correct字段中1或0的个数,计算出正确率和错误率之间的差值并将其表示为学生的学习能力。然而,一方面,作差法表示学生能力的方法非线性建模能力不足,且不够细粒度;另一方面,长期序列建模时容易出现过拟合问题。
发明内容
本发明的目的在于提供基于增强动态键值记忆网络的知识追踪方法,解决了在利用现有技术评估学生技能学习能力时准确度低导致无法准确开展个性化教学支持的问题。
本发明所采用的技术方案是:基于增强动态键值记忆网络的知识追踪方法,包括以下步骤:
步骤1、构建增强的动态键值记忆网络模型,动态评估学生的学习能力和练习题的难度;
步骤2、采用K-means聚类算法根据步骤1所得学生的学习能力对学生分组;
步骤3、根据步骤1所得练习题的难度、步骤2所得学生分组结果及练习题的技能与回答正确率二元组构建丰富的模型输入特征;
步骤4、根据步骤3所得模型输入特征进行长期序列建模并输出预测结果。
本发明的特点还在于,
步骤1具体包括以下步骤:
步骤1.1、考虑技能之间的先决关系来计算查询向量与静态键矩阵之间的相关权重;
步骤1.2、通过读操作预测学生正确回答练习题的概率;
步骤1.3、根据学生的作答情况并结合学生当前的知识掌握状态来更新值矩阵;
步骤1.4、通过学生对技能的掌握程度进一步抽象来表示学生的学习能力,对练习题的嵌入进一步抽象来表示练习题的难度。
步骤1.1具体包括以下步骤:
步骤1.1.1、计算模型输入即练习题涉及技能的连续向量表示,记为嵌入向量kt;
步骤1.1.2、利用先决关系编码矩阵建模技能之间存在的先决关系,计算公式如下:
(Mk)′=Mk(1+P)
其中,P是技能间的先决关系矩阵,P∈{0,1}|N|×|N|是一个二元矩阵,如果技能sk1∈K是技能sk2∈K的先决条件,则P[sk1,sk2]=1,否则P[sk1,sk2]=0;Mk是存储所有技能的静态键矩阵,N是技能数量,是全体实数,dk是存储槽维度,(Mk)′是考虑了技能之间先决关系的静态键矩阵;
步骤1.1.3、通过嵌入向量kt与增强的键矩阵(Mk)′中的每个存储槽(Mk(i))′做内积,再通过Softmax层激活得到相关权重。
步骤1.2具体包括以下步骤:
步骤1.2.1、利用步骤1.1计算得到的相关权重对动态值矩阵的所有存储槽进行加权并求和,获得读取向量;
步骤1.2.2、将读取向量与练习题自身进行拼接传递到Tanh层获得包含了学生的技能掌握水平和练习题难度信息的汇总向量ft。
步骤1.3具体包括以下步骤:
步骤1.3.1、通过学生的作答情况(st,at)与嵌入矩阵B相乘得到技能增长向量vt;
步骤1.3.2、使用注意力机制将包含了汇总向量ft与技能增长向量vt进行融合,计算公式如下:
α=Softmax(W1ft+Wvvt+b1)
其中,W1和Wv是可学习的权重矩阵,b1是偏差向量,α是更新值矩阵时ft和vt的重要性,是学生的自适应技能增长;
步骤1.3.3、将技能增长写入值矩阵,对值矩阵进行更新。
步骤1.4具体为:将汇总向量ft作为增强的动态键值记忆网络模型全连接层的输入,再通过Tanh层激活得到学生的学习能力;将嵌入向量kt传递给一个全连接层,再通过Tanh层激活得到练习题的难度;计算公式如下:
θtj=Tanh(Wθft+bθ)
βj=Tanh(Wβkt+bβ)
其中,Wθ和Wβ是权重矩阵,bθ和bβ是偏差向量,θtj是学生在时间步t对练习题涉及的技能j的学习能力,βj是练习题的难度;学生sti在第z个时间间隔内的学习能力定义如下:
其中,是学生sti在第z个时间间隔内对不同技能的学习能力,矩阵中的每个元素θtj是学生sti在时间步t对技能j的学习能力;矩阵的行表示不同的技能,列表示不同的时间步;/>是学生学习能力的细粒度非线性的表示;学生sti在时间间隔1到z对所有技能的学习能力计算公式如下:
其中,θzj是学生sti在第z个时间间隔内对技能j的整体学习能力,(θj)1:z是学生sti从时间间隔1到z对技能j的整体学习能力,是形状为1×N的向量,其中每个元素表示学生sti从时间间隔1到z对相应技能的平均学习能力。
步骤3具体为:给定学生的做题记录x={x1,x2,…,xt},其中xt=(st,at),at∈{0,1},st是学生在t时间步上所做的练习题涉及的技能;at是相应的得分情况,at=1表示回答正确,at=0表示回答错误;将xt的one-hot编码嵌入向量xt与t时间步上学生所属分组ct和练习题难度dt拼接构建丰富的模型输入特征。
步骤4中采用循环门控单元GRU作为学生知识状态随时间变化的序列建模工具,具体为:在隐藏层中,将响应序列划分为多个时间间隔,每个时间间隔的最后一个节点作为下一个时间间隔的第一个节点;对于时间间隔z内的时间步t,将上一时间步的隐藏状态ht-1和当前时间步的输入xt联合作为GRU的输入,计算当前时间步的隐藏状态;然后,将当前时间步GRU的输出向量ht作为Sigmoid层的输入,经过Sigmoid层处理得到输出yt。
本发明的有益效果是:本发明的基于增强动态键值记忆网络的知识追踪方法,通过在动态键值记忆网络求解相关权重的过程中,考虑了技能之间的先决关系,从而更好地捕捉技能之间的依赖关系、优化注意力的分配;在动态键值记忆网络的写操作中,通过将包含有学生技能掌握水平和练习题信息的汇总向量与技能增长向量进行融合的方式,解决了忽视当前技能掌握状态的问题,并在融合时使用注意力机制,自适应地确定各部分的重要性,进而更准确地评估学生的学习能力,并为学生提供更准确的个性化教学和支持;进一步增加序列建模模型的输入特征,并采用参数较少的门控单元GRU作为学生知识状态随时间变化的序列建模工具,进一步地缓解了模型的过拟合问题,从而提高了对学生回答问题时正确率的预测准确度。
附图说明
图1是本发明的基于增强动态键值记忆网络的知识追踪方法的流程示意图。
具体实施方式
下面结合附图以及具体实施方式对本发明进行详细说明。
实施例1
本发明提供了基于增强动态键值记忆网络的知识追踪方法,具体为:首先,动态评估学生能力和练习题难度,在利用动态键值记忆网络计算相关权重时,考虑技能之间的先决关系;更新值矩阵时,结合学生当前的技能掌握情况,并利用注意力机制自适应地确定不同组成部分的重要性,更准确地捕捉学生的技能增长模式。其次,依据学生能力对学生进行动态分组。最后,构建丰富的输入特征,并使用参数较少的门控循环单元(Gate RecurrentUnit,GRU)实现长期序列建模。
本发明解决了现有技术中存在的建模学生能力时非线性表达能力不足且不够细粒度的问题,同时进一步缓解了模型的过拟合,具体为:
(1)在动态键值记忆网络求解相关权重的过程中,考虑了技能之间的先决关系,从而更好地捕捉技能之间的依赖关系、优化注意力的分配。
(2)在动态键值记忆网络的写操作中,通过将包含有学生技能掌握水平和练习题信息的汇总向量与技能增长向量进行融合的方式,解决了忽视当前技能掌握状态的问题,并在融合时使用注意力机制,自适应地确定各部分的重要性,进而更准确地评估学生的学习能力,并为学生提供更准确的个性化教学和支持。
(3)进一步增加序列建模模型的输入特征,并采用参数较少的门控单元GRU作为学生知识状态随时间变化的序列建模工具,进一步地缓解了模型的过拟合问题。
通过上述方式,本发明提供的基于增强动态键值记忆网络的知识追踪方法,提高了评估学生学习能力时的准确性,进而为学生提供准确的个性化教学和支持。
实施例2
本发明提供了基于增强动态键值记忆网络的知识追踪方法,包括以下步骤:
S1:动态评估学生的学习能力和练习题的难度
利用增强动态键值记忆网络在设定的每个时间间隔上动态地评估学生的学习能力和练习题的难度。具体包括:
S11:考虑技能之间的先决关系来计算查询向量与静态键矩阵之间的相关权重;具体包括:
首先,计算模型输入即练习题涉及技能的连续向量表示,并将其记为kt;其次,利用先决关系编码矩阵建模技能之间存在的先决关系,计算公式如下:
(Mk)′=Mk(1+P)
其中,P是技能间的先决关系矩阵,Mk是存储所有技能的静态键矩阵,N是技能数量,是全体实数,dk是存储槽维度,(Mk)′是考虑了技能之间先决关系的静态键矩阵,这意味着,如果技能sk1是技能sk2的先决条件,那么静态矩阵的相应位置将被赋予更大的权重;最后通过嵌入向量kt与增强的键矩阵(Mk)′中的每个存储槽(Mk(i))′做内积,再通过Softmax层激活得到相关权重。
S12:通过读操作预测学生正确回答练习题的概率。
S13:根据学生的作答情况并结合学生当前的知识掌握状态来更新值矩阵,其中,值矩阵用来存储和更新学生对相应技能的掌握水平;使用注意力机制来融合包含了学生技能掌握水平、练习题信息的汇总向量和技能增长向量,自适应确定各部分的重要性;具体包括:
首先,通过学生的作答情况(st,at)与嵌入矩阵B相乘得到技能增长向量vt;其次,使用注意力机制将包含了学生技能掌握水平和练习题汇总信息的向量的ft与vt进行融合,通过这种方式自适应地确定各部分的重要性,计算公式如下:
α=Softmax(W1ft+Wvvt+b1)
其中,W1和Wv是可学习的权重矩阵,b1是偏差向量,α是更新值矩阵时ft和vt的重要性,是学生的自适应技能增长;然后,将上述得出的技能增长写入值矩阵;最后,对值矩阵进行更新。
S14:基于学生对每个技能的掌握情况来计算该学生的学习能力;类似地,对练习题的嵌入进一步抽象来表示练习题的困难程度;具体包括:
通过对学生对技能的掌握程度进一步抽象来表示学生的学习能力,具体而言,将通过增强动态键值记忆网络求出的学生对当前技能的掌握程度ft作为全连接层的输入,再通过Tanh层激活得到学生的学习能力;类似地,将练习题的嵌入向量kt传递给一个全连接层,再通过Tanh层激活即可得到练习题的难度,计算公式如下:
θtj=Tanh(Wθft+bθ)
βj=Tanh(Wβkt+bβ)
其中,Wθ和Wβ都是权重矩阵,bθ和bβ是偏差向量,θtj是学生在时间步t对练习题涉及的技能j的学习能力,βj是练习题的难度;学生sti在第z个时间间隔内的学习能力定义如下:
其中,是学生sti在第z个时间间隔内对不同技能的学习能力,矩阵中的每个元素θtj是学生sti在时间步t对技能j的学习能力;矩阵的行表示不同的技能,列表示不同的时间步;/>是学生学习能力的细粒度非线性的表示。在实际教学过程中,我们除了想知道学生在每个时间步上对某项技能的学习能力外,还可能希望得到学生在某个阶段对某项技能的整体学习能力,学生sti在时间间隔1到z对所有技能的学习能力计算公式如下:
其中,θzj是学生sti在第z个时间间隔内对技能j的整体学习能力,(θj)1:z是学生sti从时间间隔1到z对技能j的整体学习能力,是形状为1×N的向量,其中每个元素表示学生sti从时间间隔1到z对相应技能的平均学习能力。
S2:学生动态分组
基于K-means算法,在每个时间间隔上根据学生的学习能力对学生进行动态分组。
S3:长期序列建模
给定学生的做题记录x={x1,x2,…,xt},其中xt=(st,at),at∈{0,1},st是学生在t时间步上所做的练习题涉及的技能;at是该题相应的得分情况,at=1表示回答正确,at=0表示回答错误;将xt的one-hot编码嵌入向量xt与t时间步上学生所属分组ct和练习题难度dt拼接构建丰富的输入特征,通过门控循环单元(Gate Recurrent Unit,GRU)得出预测结果。具体包括:
将xt={st,at,ct,dt}的one-hot编码向量作为模型的输入,其中st是学生在时间步t所做练习题涉及到的技能,at表示回答的正确与否,ct是学生sti在时间间隔z上被分配到的与之能力相似的聚类簇中心,dt是时间步t上相应练习题的难度;采用GRU作为学生知识状态随时间变化的序列建模工具。
实施例3
本发明提供了基于增强动态键值记忆网络的知识追踪方法,本实施例按照8:2的比例将数据集划分为训练集和测试集,如图1所示,该方法包含以下步骤:
S1:数据收集及预处理
本实例中的数据集可以从智慧教育公开数据集进行获取,可以是ASSISTment2009、ASSISTment2017、STATICS2011等。以ASSISTment2009为例,说明数据处理过程。该数据集来自于ASSISTments在线学习平台,删除原始数据集中空的和重复的记录后,包含了4151名学生在124个技能上的325637条回答记录。
S2:构建增强的动态键值记忆网络
S21:动态键值记忆网络主要由计算相关权重、读操作和写操作构成。在计算相关权重时,考虑技能之间的先决关系来计算查询向量与静态键矩阵之间的相关权重。具体地,首先,计算模型输入即练习题的连续向量表示,并将其记为kt。其次,利用先决关系编码矩阵建模技能之间存在的先决关系,计算公式如下:
(Mk)′=Mk(1+P)
其中,P是技能间的先决关系矩阵,P∈{0,1}|N|×|N|是一个二元矩阵,如果技能sk1∈K是技能sk2∈K的先决条件,则P[sk1,sk2]=1,否则,P[sk1,sk2]=0;技能之间先决关系的识别可以通过已经提出的算法自动完成,也可以由专家手动标注。Mk是存储所有技能的静态键矩阵,N是技能数量,是全体实数,dk是存储槽维度,(Mk)′是考虑了技能之间先决关系的静态键矩阵,这意味着,如果技能sk1是技能sk2的先决条件,那么静态矩阵的相应位置将被赋予更大的权重。最后,通过嵌入向量kt与增强的键矩阵(Mk)′中的每个存储槽(Mk(i))′做内积,再通过Softmax层激活得到相关权重。
S22:通过读操作预测学生正确回答问题的概率。具体地,首先,利用之前计算得到的相关权重对动态值矩阵的所有存储槽进行加权并求和,从而获得读取向量。其次,将读取向量与练习题自身进行拼接传递到Tanh层获得包含了学生的技能掌握水平和练习题难度信息的汇总向量。
S23:根据学生的作答情况并结合学生当前的知识掌握状态来更新值矩阵。具体地,首先,通过学生的作答情况(st,at)与嵌入矩阵B相乘得到技能增长向量vt。其次,使用注意力机制将包含了学生技能掌握水平和练习题汇总信息的向量的ft与vt进行融合,通过这种方式自适应地确定各部分的重要性,计算公式如下:
α=Softmax(W1ft+Wvvt+b1)
其中,W1和Wv是可学习的权重矩阵,b1是偏差向量,α是更新值矩阵时ft和vt的重要性,是学生的自适应技能增长。然后,将上述得出的技能增长写入值矩阵。最后,对值矩阵进行更新。
S24:通过对学生对技能的掌握程度进一步抽象来表示学生的学习能力。具体而言,将通过增强动态键值记忆网络求出的学生对当前技能的掌握程度ft作为全连接层的输入,再通过Tanh层激活得到学生的学习能力;类似地,将问题的嵌入向量kt传递给一个全连接层,再通过Tanh层激活即可得到练习题的难度;计算公式如下:
θtj=Tanh(Wθft+bθ)
βj=Tanh(Wβkt+bβ)
其中,Wθ和Wβ都是权重矩阵,bθ和bβ是偏差向量,θtj是学生在时间步t对练习题涉及的技能j的学习能力,βj是练习题的难度;学生sti在第z个时间间隔内的学习能力定义如下:
其中,是学生sti在第z个时间间隔内对不同技能的学习能力,矩阵中的每个元素θtj是学生sti在时间步t对技能j的学习能力;矩阵的行表示不同的技能,列表示不同的时间步;/>是学生学习能力的细粒度非线性的表示。在实际教学过程中,通常除了想知道学生在每个时间步上对某项技能的学习能力外,还可能希望得到学生在某个阶段对某项技能的整体学习能力,学生sti在时间间隔1到z对所有技能的学习能力计算公式如下:
其中,θzj是学生sti在第z个时间间隔内对技能j的整体学习能力,(θj)1:z是学生sti从时间间隔1到z对技能j的整体学习能力,是形状为1×N的向量,其中每个元素表示学生sti从时间间隔1到z对相应技能的平均学习能力。
S3:采用K-means聚类算法根据学生能力对学生分组
在每个时间间隔内,根据K-means聚类算法将学生分配到能力相近的小组。具体地包括以下步骤:(1)初始化聚类中心;(2)将每个数据点分配到距离簇中心最近的组中;(3)更新聚类中心;(4)重复步骤(2)和(3),一直到聚类中心不再发生变化。
S4:构建丰富的模型输入特征
构建丰富的模型输入特征,进一步缓解过拟合。具体地,将xt={st,at,ct,dt}的one-hot编码向量作为模型的输入,其中st是学生在时间步t所做练习题涉及到的技能,at表示回答的正确与否,ct是学生sti在时间间隔z上被分配到的与之能力相似的聚类簇中心,dt是时间步t上相应问题的难度。
S5:长期序列建模及输出预测结果
采用参数较少的循环门控单元GRU作为学生知识状态随时间变化的序列建模工具。具体地,在隐藏层中,将响应序列划分为多个时间间隔,每个时间间隔的最后一个节点作为下一个时间间隔的第一个节点。对于时间间隔z内的时间步t,将上一时间步的隐藏状态ht-1和当前时间步的输入xt联合作为GRU的输入,从而计算当前时间步的隐藏状态。然后,将当前时间步GRU的输出向量ht作为Sigmoid层的输入,经过该层处理得到输出yt。模型的训练采用交叉熵损失函数。
S6:对增强动态键值记忆网络进行参数设置
增强动态键值记忆网络的键矩阵(Mk)′和值矩阵练习题嵌入矩阵和答案嵌入矩阵都是从均值为0、标准差为0.1的高斯分布中随机初始化的,键矩阵(Mk)′和值矩阵/>的维度分别设置为50和100。将学生每20次的尝试视为一个时间间隔。在学生动态分组过程中,每个时间间隔的学生学习能力聚类数固定为7。在长时期序列建模过程中,超参数设置详情如下:GRU的隐藏单元大小设置为200,GRU层数为1。对于数据集,批处理大小设置为32,对应于每个学生的32个分割序列。采用学习率为0.01的Adam优化器来训练模型。为了提高训练过程中的稳定性和平滑性,将裁剪域限定在50内。同时,使用0.5的dropout来缓解过拟合。
Claims (8)
1.基于增强动态键值记忆网络的知识追踪方法,其特征在于,包括以下步骤:
步骤1、构建增强的动态键值记忆网络模型,动态评估学生的学习能力和练习题的难度;
步骤2、采用K-means聚类算法根据步骤1所得学生的学习能力对学生分组;
步骤3、根据步骤1所得练习题的难度、步骤2所得学生分组结果及练习题的技能与回答正确率二元组构建丰富的模型输入特征;
步骤4、根据步骤3所得模型输入特征进行长期序列建模并输出预测结果。
2.如权利要求1所述的基于增强动态键值记忆网络的知识追踪方法,其特征在于,所述步骤1具体包括以下步骤:
步骤1.1、考虑技能之间的先决关系来计算查询向量与静态键矩阵之间的相关权重;
步骤1.2、通过读操作预测学生正确回答练习题的概率;
步骤1.3、根据学生的作答情况并结合学生当前的知识掌握状态来更新值矩阵;
步骤1.4、通过学生对技能的掌握程度进一步抽象来表示学生的学习能力,对练习题的嵌入进一步抽象来表示练习题的难度。
3.如权利要求2所述的基于增强动态键值记忆网络的知识追踪方法,其特征在于,所述步骤1.1具体包括以下步骤:
步骤1.1.1、计算模型输入即练习题涉及技能的连续向量表示,记为嵌入向量kt;
步骤1.1.2、利用先决关系编码矩阵建模技能之间存在的先决关系,计算公式如下:
(Mk)′=Mk(1+P)
其中,P是技能间的先决关系矩阵,P∈{0,1}|N|×|N|是一个二元矩阵,如果技能sk1∈K是技能sk2∈K的先决条件,则P[sk1,sk2]=1,否则P[sk1,sk2]=0;Mk是存储所有技能的静态键矩阵,N是技能数量,是全体实数,dk是存储槽维度,(Mk)′是考虑了技能之间先决关系的静态键矩阵;
步骤1.1.3、通过嵌入向量kt与增强的键矩阵(Mk)′中的每个存储槽(Mk(i))′做内积,再通过Softmax层激活得到相关权重。
4.如权利要求3所述的基于增强动态键值记忆网络的知识追踪方法,其特征在于,所述步骤1.2具体包括以下步骤:
步骤1.2.1、利用步骤1.1计算得到的相关权重对动态值矩阵的所有存储槽进行加权并求和,获得读取向量;
步骤1.2.2、将读取向量与练习题自身进行拼接传递到Tanh层获得包含了学生的技能掌握水平和练习题难度信息的汇总向量ft。
5.如权利要求4所述的基于增强动态键值记忆网络的知识追踪方法,其特征在于,所述步骤1.3具体包括以下步骤:
步骤1.3.1、通过学生的作答情况(st,at)与嵌入矩阵B相乘得到技能增长向量vt;
步骤1.3.2、使用注意力机制将包含了汇总向量ft与技能增长向量vt进行融合,计算公式如下:
α=Softmax(W1ft+Wvvt+b1)
其中,W1和Wv是可学习的权重矩阵,b1是偏差向量,α是更新值矩阵时ft和vt的重要性,是学生的自适应技能增长;
步骤1.3.3、将技能增长写入值矩阵,对值矩阵进行更新。
6.如权利要求5所述的基于增强动态键值记忆网络的知识追踪方法,其特征在于,所述步骤1.4具体为:将汇总向量ft作为增强的动态键值记忆网络模型全连接层的输入,再通过Tanh层激活得到学生的学习能力;将嵌入向量kt传递给一个全连接层,再通过Tanh层激活得到练习题的难度;计算公式如下:
θtj=Tanh(Wθft+bθ)
βj=Tanh(Wβkt+bβ)
其中,Wθ和Eβ是权重矩阵,bθ和bβ是偏差向量,θtj是学生在时间步t对练习题涉及的技能j的学习能力,βj是练习题的难度;学生sti在第z个时间间隔内的学习能力定义如下:
其中,是学生sti在第z个时间间隔内对不同技能的学习能力,矩阵中的每个元素θtj是学生sti在时间步t对技能j的学习能力;矩阵的行表示不同的技能,列表示不同的时间步;/>是学生学习能力的细粒度非线性的表示;学生sti在时间间隔1到z对所有技能的学习能力计算公式如下:
其中,θzj是学生sti在第z个时间间隔内对技能j的整体学习能力,(θj)1:z是学生sti从时间间隔1到z对技能j的整体学习能力,是形状为1×N的向量,其中每个元素表示学生sti从时间间隔1到z对相应技能的平均学习能力。
7.如权利要求1所述的基于增强动态键值记忆网络的知识追踪方法,其特征在于,所述步骤3具体为:给定学生的做题记录x={x1,x2,…,xt},其中xt=(st,at),at∈{0,1},st是学生在t时间步上所做的练习题涉及的技能;at是相应的得分情况,at=1表示回答正确,at=0表示回答错误;将xt的one-hot编码嵌入向量xt与t时间步上学生所属分组ct和练习题难度dt拼接构建丰富的模型输入特征。
8.如权利要求1所述的基于增强动态键值记忆网络的知识追踪方法,其特征在于,所述步骤4中采用循环门控单元GRU作为学生知识状态随时间变化的序列建模工具,具体为:在隐藏层中,将响应序列划分为多个时间间隔,每个时间间隔的最后一个节点作为下一个时间间隔的第一个节点;对于时间间隔z内的时间步t,将上一时间步的隐藏状态ht-1和当前时间步的输入xt联合作为GRU的输入,计算当前时间步的隐藏状态;然后,将当前时间步GRU的输出向量ht作为Sigmoid层的输入,经过Sigmoid层处理得到输出yt。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311850373.3A CN117852640A (zh) | 2023-12-28 | 2023-12-28 | 基于增强动态键值记忆网络的知识追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311850373.3A CN117852640A (zh) | 2023-12-28 | 2023-12-28 | 基于增强动态键值记忆网络的知识追踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117852640A true CN117852640A (zh) | 2024-04-09 |
Family
ID=90534030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311850373.3A Pending CN117852640A (zh) | 2023-12-28 | 2023-12-28 | 基于增强动态键值记忆网络的知识追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117852640A (zh) |
-
2023
- 2023-12-28 CN CN202311850373.3A patent/CN117852640A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111460249B (zh) | 一种基于学习者偏好建模的个性化学习资源推荐方法 | |
CN111695779B (zh) | 一种知识追踪方法、装置及存储介质 | |
CN111814982B (zh) | 面向多跳问答的动态推理网络系统及方法 | |
Minn et al. | Dynamic student classiffication on memory networks for knowledge tracing | |
CN112800323B (zh) | 一种基于深度学习的智能教学系统 | |
CN113033808A (zh) | 一种基于习题难度和学生能力的深度嵌入知识追踪方法 | |
CN113344053B (zh) | 一种基于试题异构图表征与学习者嵌入的知识追踪方法 | |
Sun et al. | Muti-behavior features based knowledge tracking using decision tree improved DKVMN | |
CN113360635B (zh) | 一种基于自注意和预训练机制的智能教学方法及系统 | |
CN111291940A (zh) | 一种基于Attention深度学习模型的学生辍课预测方法 | |
CN114299349B (zh) | 一种基于多专家系统和知识蒸馏的众包图像学习方法 | |
CN115545160B (zh) | 一种多学习行为协同的知识追踪方法及系统 | |
CN110704510A (zh) | 一种结合用户画像的题目推荐方法及系统 | |
CN114385801A (zh) | 一种基于分层细化lstm网络的知识追踪方法及系统 | |
CN112116137A (zh) | 一种基于混合深度神经网络的学生辍课预测方法 | |
CN115544158A (zh) | 应用于智能教育系统的多知识点动态知识追踪方法 | |
Hagedoorn et al. | Massive open online courses temporal profiling for dropout prediction | |
CN111985560B (zh) | 知识追踪模型的优化方法、系统及计算机存储介质 | |
CN113052316A (zh) | 基于因果推理的知识追踪方法、系统、设备及存储介质 | |
Su et al. | Optimizing spaced repetition schedule by capturing the dynamics of memory | |
CN117852640A (zh) | 基于增强动态键值记忆网络的知识追踪方法 | |
CN114021721A (zh) | 一种基于学习过程片段的时空注意力知识追踪方法 | |
Jiang et al. | Learning analytics in a blended computer education course | |
CN114943276B (zh) | 基于树型注意力机制的深度知识追踪方法 | |
CN115952838B (zh) | 一种基于自适应学习推荐系统生成方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |