CN116611517A - 融合图嵌入和注意力的知识追踪方法 - Google Patents
融合图嵌入和注意力的知识追踪方法 Download PDFInfo
- Publication number
- CN116611517A CN116611517A CN202310481693.XA CN202310481693A CN116611517A CN 116611517 A CN116611517 A CN 116611517A CN 202310481693 A CN202310481693 A CN 202310481693A CN 116611517 A CN116611517 A CN 116611517A
- Authority
- CN
- China
- Prior art keywords
- answer
- attention
- matrix
- question
- learner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 239000013598 vector Substances 0.000 claims abstract description 72
- 230000006998 cognitive state Effects 0.000 claims abstract description 32
- 230000007246 mechanism Effects 0.000 claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 82
- 239000011159 matrix material Substances 0.000 claims description 80
- 238000004364 calculation method Methods 0.000 claims description 45
- 230000004913 activation Effects 0.000 claims description 17
- 238000010586 diagram Methods 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 10
- 238000013139 quantization Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 230000006399 behavior Effects 0.000 claims description 4
- 238000003491 array Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Tourism & Hospitality (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Economics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种融合图嵌入和注意力的知识追踪方法,通过在线学习系统后台获取若干条答题记录,构建得到题目和技能点的关联结构图,进行图嵌入得到每个题目节点和技能点节点的嵌入向量,构建包括多头注意力模块,点积模块和Sigmoid模块的认知状态预测模型,通过在线学习系统后台获取不同学习者的若干条答题记录,对认知状态预测模型进行训练,对于需要进行知识追踪的学习者,将其历史答题记录的信息输入训练好的认知状态预测模型中,得到该学习者答对下一道题目的预测概率。本发明利用图结构表达每个题目和技能点的关联关系,并将题目难易程度编码为属性信息一并作为认知状态预测的依据,基于自注意力机制进行认知状态预测,提高知识追踪的准确率。
Description
技术领域
本发明属于教育数据挖掘技术领域,更为具体地讲,涉及一种融合图嵌入和注意力的知识追踪方法。
背景技术
大规模在线学习平台的普及和智能化教学数据分析的应用,为个性化精准教学提供了有利的保障,在线学习平台能够保存学习者详细的交互活动和历史行为轨迹,利用这些数据,可以针对学习者个体,生成自适应的学习路径和推送个性化的学习资源,实现“千人千面”的因材施教。知识追踪(Knowledge Tracing)利用学习者回答一组习题的正误序列,估计学习者对技能点的掌握状态,并预测学习者能够答对下一道题目的概率。但由于学习活动的多样性和知识体系的复杂性,现阶段要进行精准的认知状态诊断仍然是一项具有挑战的任务。
按照建模方法的不同,现有知识追踪方法可以分为3类:贝叶斯知识追踪(Bayesian Knowledge Tracing,BKT)、基于逻辑回归模型的可加性因素模型(AdditiveFactor Model,AFM),以及基于循环神经网络的深度知识追踪(Deep Knowledge Tracing,DKT)。
其中,BKT方法将潜在的知识状态看做二元变量,在每一轮学习交互后,根据学习者是否掌握某个技能点,使用隐马尔科夫模型更新二元变量的值。但由于现实中的技能点与变量之间的对应是模糊的,因此BKT无法捕捉不同技能点之间的关系,也因此丧失了对复杂知识的建模能力。AFM方法假设学习是一个渐进的变化过程,而非一个离散的过渡;该方法融入了练习次数和学习率两个变量表达对学习者知识状态的影响,实现了知识状态从静态评估到动态分析的跨越。但AFM方法需要大量依赖专家经验来标注出领域知识,因此人工成本较高。DKT方法使用循环神经网络来预测知识状态,通过独热(One-hot)编码或压缩感知算法将输入的学习状态数据转化为向量表示,经过输入层、隐藏层的特征提取,由输出层预测出学习者下一次答题的成绩。与传统机器学习模型相比,循环神经网络在表征时间状态方面具有高维、连续的优势,因此更适合对复杂知识体系的建模。DKT的预测性能优于传统的机器学习方法,但其隐藏层的参数因不具有教学的可解释性,比如具有相同技能点的题目也可能存在难度上的差异。近年来,基于注意力机制的Transformer被广泛引入到深度学习模型,有效提升了预测准确性,但它的训练成本和计算消耗较高,极大地制约了其在知识追踪任务中的应用。
发明内容
本发明的目的在于克服现有技术的不足,提供一种融合图嵌入和注意力的知识追踪方法,利用图结构表达每个题目和技能点的关联关系,并将题目难易程度编码为属性信息一并作为认知状态预测的依据,基于自注意力机制进行认知状态预测,提高知识追踪的准确率。
为实现上述发明目的,本发明融合图嵌入和注意力的知识追踪方法包括以下步骤:
S1:通过在线学习系统后台获取若干条答题记录,从中提取出题目信息集合技能点信息集合/>记题目数量为NX、技能点数量为NS,对每个题目和技能点进行编码,得到M-1维编码向量,M的值根据实际需要确定;提取每条答题记录的信息,包括题目编码、技能点编码、学习者编号、表示学习者答题是否正确的学习者答题标识,当学习者回答正确,学习者答题标识为1,否则为0;根据答题记录为每位学习者生成历史行为记录集合,每条记录包含该学习者回答的题目编号、答题标识和题目对应的技能者编号集合;
S2:将NX个题目和NS个技能点作为节点,当某个题目和某个技能点在同一答题记录中出现,则在对应节点生成边,从而生成题目和技能点的关联结构图G,为每个节点生成初始向量,然后进行图嵌入得到每个题目节点和技能点节点的嵌入向量,嵌入向量的维度为M,从而得到题目特征矩阵和技能点特征矩阵/>
S3:构建认知状态预测模型,包括多头注意力模块,点积模块和Sigmoid模块,其中:
多头注意力模块用于采用多头注意力机制,从学习者的D条历史答题纪录提取出大小为M×M的知识状态矩阵W并发送给点积模块,其中多头注意力机制中查询为学习者的D条历史答题纪录中第d条历史答题纪录中题目嵌入向量xd,键/>为学习者的D条历史答题纪录中第d条历史答题纪录中技能点的嵌入向量sd,sd表示第d条历史答题记录中题目所涉及技能点嵌入向量的平均向量,值/>为D条历史答题纪录中第d条历史答题纪录中的答题向量ed,ed表示第d条历史答题记录中题目的编码向量和学习者答题标识所拼接得到的答题向量;
点积模块用于将待预测的下一道题目的嵌入向量和知识状态矩阵W进入点积计算,得到特征矩阵/>并发送至Sigmoid模块。
Sigmoid模块用于采用Sigmoid非线性激活函数对特征矩阵进行处理,得到学习者答对待预测题目的概率/>
S4:通过在线学习系统后台获取不同学习者的若干条答题记录,然后划分为长度为D+1的答题记录序列;对于每个答题记录序列,得到每条答题记录中题目的嵌入向量xd和学习者答题标识yd,将D+1入嵌入向量和前D个学习者答题正确标识yd作为输入,将第D+1个答题标识作为期望输出,对认知状态预测模型进行训练;
S5:对于需要进行知识追踪的学习者,获取其最近D道题目的答题记录,将每条答题记录中题目的嵌入向量记为x′d,学习者答题正确与否标识记为y′d,将待回答的下一道题目的嵌入向量记为将以上信息输入至步骤S4训练完成的认知状态预测模型,得到该学习者答对下一道题目的预测概率。
进一步地,步骤S2中图嵌入所采用的损失函数Loss的计算公式如下:
Loss=(1-α)*(L1(X,S)+L2(X)+L3(S))+(α)*L4(X,S,θ)
其中,L1(X,S)表示题目和技能点的关联性损失函数,计算方法如下:
对于第i个题目和第j个技能点,i∈{1,2,…,NX},j∈{1,2,…,NS},记第i个题目的当前特征向量为xi,记第j个题目的当前特征向量为sj,j=1,2,…,NS,如果第i个题目和第j个技能点在图G中存在连接边,则令关联系数rij=1,否则令关联系数rij=0;采用如下公式计算第i个题目和第j个技能点之间的局部邻近度
其中,σ()表示sigmoid非线性激活函数;
然后采用如下公式计算得到题目和技能点之间的关联性损失函数L1(X,S):
L2(X)表示题目相似度的交叉熵损失函数,其计算方法如下:
其中,rii′ X表示第i个题目和第i′个题目之间真实的关联关系,如果第i个题目和第i′个题目都是同一个技能点节点的邻居节点,则rii′ X=1,否则rii′ X=0,表示第i个题目和第i′个题目之间的相关性估计值,/>
L3(S)表示技能点相似度的交叉熵损失函数,其计算方法如下:
其中,rjj′ S表示第j个技能点和第j′个技能点之间真实的关联关系,如果第j个技能点和第j′个技能点都是同一个题目节点的邻居节点,则rjj′ S=1,否则rjj′ S=0,表示技能点之间的相关性估计值,/>
L4(Q,S)表示题目难度损失函数,其计算方法如下:
对于第i个题目,根据步骤S1收集的答题记录统计得到该题目的正确率Ui,然后采用预设的非线性激活函数将正确率映射为难度属性特征Ci=wTUi+b,w、b分别表示非线性激活函数的权重和偏置项;采用LeakyReLu作为激活函数Ci进行处理,得到正确率估计值
其中,Leak为常数项;
然后采用如下公式计算题目的难度损失函数L4(Q,S):
其中,表示表示非线性激活层的权重w和偏置项b构成的向量,|| ||2表示求取二范数,λ是用来控制经验误差项与正则化项之间关系的系数。
进一步地,步骤S3中多头注意力模块包括线性变换模块、注意力计算层、拼接层和全连接层,其中:
线性变换模块包括H组线性层,H的值应该实际需要确定,每组线性层包括第一线性层、第二线性层和第三线性层,用于分别对查询Qd、键Kd、值Vd进行线性变换,然后将线性变换后的查询矩阵、键矩阵、值矩阵发送给注意力计算层,第h组线性层中:
第一线性层用于对输入的查询Qd进行线性计算,得到查询矩阵Qd,h=Linear(Qd)=QdWQ,h并发送给注意力计算层,其中表示查询的第h个权重矩阵;
第二线性层用于对输入的键Kd进行线性计算,得到键矩阵Kd,h=Linear(Kd)=KdWK,h并发送至注意力计算层,其中表示键的第h个权重矩阵;
第三线性层用于对输入的值Vd进行线性计算,得到值矩阵Vd,h=Linear(Kd)=KdWK,h并发送至注意力计算层,其中表示键的第h个权重矩阵;
注意力计算层用于分别采用注意力机制对接收的H组查询矩阵Qd,h、键矩阵Kd,h和值矩阵Vd,h进行计算,得到对应的注意力矩阵Headh=Attention(Qd,h,Kd,h,Vd,h),然后发送给拼接层;
拼接层用于对H个注意力矩阵Headh进行拼接,得到多头注意力矩阵Multi_Head(Q,K,V)=Concat(Head1,...,HeadH)WO,其中WO是待训练的参数矩阵,然后将多头注意力矩阵Multi_Head(Q,K,V)发送至全连接层;
全连接层用于对多头注意力矩阵Multi_Head(Q,K,V)进行降维处理,得到大小为K×K的知识状态矩阵W。
进一步地,注意力计算层的计算方法如下:
首先对查询Qd,h和键Kd,h进行二制量化操作,具体方法为:
记待进行二制量化操作的矩阵为F,从矩阵F中随机抽取M个子矩阵作为支持样本,γ表示预设的子矩阵大小,将子矩阵任意组合得到M×(M-1)个子矩阵对(fm,fm′),m,m′=1,2,…,M且m≠m′;然后使用核函数κ(fm,fm′):/>学习一组哈希函数映射H:/>λ表示哈希函数的数量;然后进行哈希函数映射得到:
上式中,κ()表示哈希核函数,表示权重矩阵,/>用于对核函数进行归一化处理,且归一化后的核函数均值为0,g:/>是由定义的映射,H(fm)即为子矩阵fm通过哈希函数映射后的向量;
记查询Qd,h抽取得到的子矩阵为(qd,h)m,哈希函数映射后的向量为H((qd,h)m),键Kd,h取得到的子矩阵为(kd,h)m,哈希函数映射后的向量为H((kd,h)m);对于子矩阵对(qd,h)m,(kd,h)m′),m,m′=1,2,…,M,将对应的向量H((qd,h)m)和H((kd,h)m′)的距离作为相似度,选择前β个相似度最大的子矩阵对构成集合选择前β个相似度最小的子矩阵对构成集合β的值根据实际需要设置;然后采用如下公式计算对应的注意力衰减标签Yd,h((qd,h)m,(kd,h)m′)):
从而得到大小为M×M的注意力衰减标签矩阵Yd,h;
采用如下公式计算得到注意力矩阵Headh:
进一步地,步骤S4中认知状态预测模型训练的损失函数采用交叉熵损失函数。
本发明融合图嵌入和注意力的知识追踪方法,通过在线学习系统后台获取若干条答题记录,构建得到题目和技能点的关联结构图,进行图嵌入得到每个题目节点和技能点节点的嵌入向量,构建包括多头注意力模块,点积模块和Sigmoid模块的认知状态预测模型,通过在线学习系统后台获取不同学习者的若干条答题记录,对认知状态预测模型进行训练,对于需要进行知识追踪的学习者,将其历史答题记录的信息输入训练好的认知状态预测模型中,得到该学习者答对下一道题目的预测概率。
本发明具有以下有益效果:
1)本发明通过构建题目和时技能点的关联结构图,通过学习者与技能点所关联题目的交互记录,真实模拟学习者对技能点掌握状态的变化;
2)本发明在知识状态提取过程中,结合注意力机制,为不同题目的交互记录分配差异化的权重,及时更新学习者的知识状态特征,从而更加准确地预测下一道题目能够答对的概率;
3)本发明可以通过低功耗注意力机制,显著降低计算能耗,缩短认知状态预测模型的训练时间。
附图说明
图1是本发明融合图嵌入和注意力的知识追踪方法的具体实施方式结构图;
图2是本实施例中图嵌入过程示意图;
图3是本发明中认知状态预测模型的结构图;
图4是本实施例多头注意力模块的结构图;
图5是本实施例本发明和对比方法的知识追踪性能对比图;
图6是本实施例中本发明和对比方法在ASSIS09数据集上的训练时间对比图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
图1是本发明融合图嵌入和注意力的知识追踪方法的具体实施方式结构图。如图1所示,本发明融合图嵌入和注意力的知识追踪方法的具体步骤包括:
S101:获取知识追踪训练数据:
通过在线学习系统后台获取若干条答题记录,从中提取出题目信息集合技能点信息集合/>记题目数量为NX、技能点数量为NS,对每个题目和技能点进行编码,得到M-1维编码向量,M的值根据实际需要确定。提取每条答题记录的信息,包括题目编码、技能点编码、学习者编号、表示学习者答题是否正确的学习者答题标识,当学习者回答正确,学习者答题标识为1,否则为0。根据答题记录为每位学习者生成历史行为记录集合,每条记录包含该学习者回答的题目编号、答题标识和题目对应的技能者编号集合。
S102:基于图结构进行嵌入表征:
将NX个题目和NS个技能点作为节点,当某个题目和某个技能点在同一答题记录中出现,则在对应节点生成边,从而生成题目和技能点的关联结构图G,为每个节点生成初始向量,然后进行图嵌入得到每个题目节点和技能点节点的嵌入向量,嵌入向量的维度为M,从而得到题目特征矩阵和技能点特征矩阵/>
图2是本实施例中图嵌入过程示意图。如图2所示,题目和技能点的关联结构图G中每个节点都关联节点属性、节点连接边以及关系属性,在图嵌入过程中通过聚合操作获得图中每个节点的邻居采样,利用邻居采样结果对节点信息进行更新,得到每个节点的低维度嵌入向量。本发明中为了提高嵌入向量的准确性,在图嵌入的损失函数设计中,考虑了“题目——技能点”间的局部依赖性、“题目——题目”间的相似性和“技能点——技能点”间的相似性,同时为了有效提取图结构中包含的知识,所有学习者在当前题目节点上的回答正确率也转换为属性特征嵌入至图结构中,使学习到的图嵌入向量中保留题目难度信息。本实施例中图嵌入损失函数Loss的计算公式如下:
Loss=(1-α)*(L1(X,S)+L2(X)+L3(S))+(α)*L4(X,S,θ)
其中,L1(X,S)表示题目和技能点的关联性损失函数,计算方法如下:
对于第i个题目和第j个技能点,i∈{1,2,…,NX},j∈{1,2,…,NS},记第i个题目的当前特征向量为xi,记第j个题目的当前特征向量为sj,j=1,2,…,NS,如果第i个题目和第j个技能点在图G中存在连接边,则令关联系数rij=1,否则令关联系数rij=0。采用如下公式计算第i个题目和第j个技能点之间的局部邻近度
其中,σ()表示sigmoid非线性激活函数,通过sigmoid函数可将关系值归一化至[0,1]的区间内,从而将关系值转换为概率,从而表征题目和技能的局部邻近度。上标T表示转置。
然后采用如下公式计算得到题目和技能点之间的关联性损失函数L1(X,S):
L2(X)表示题目相似度的交叉熵损失函数,其计算方法如下:
根据题目和技能点的关联结构图G,如果两个题目节点都具有某个公共邻居的技能点节点,则可以聚合邻居的关系信息作为题目间的相似性,因此采用如下公式计算题目相似度的交叉熵损失函数L2(X):
其中,rii′ X表示第i个题目和第i′个题目之间真实的关联关系,如果第i个题目和第i′个题目都是同一个技能点节点的邻居节点,则rii′ X=1,否则rii′ X=0,表示第i个题目和第i′个题目之间的相关性估计值,/>
L3(S)表示技能点相似度的交叉熵损失函数,其计算方法如下:
与题目类似,如果两个技能点节点都具有某个公共邻居的一点点节点,则可以聚合邻居的关系信息作为技能点间的相似性,因此采用如下公式计算题目相似度的交叉熵损失函数L3(S):
其中,rjj′ S表示第j个技能点和第j′个技能点之间真实的关联关系,如果第j个技能点和第j′个技能点都是同一个题目节点的邻居节点,则rjj′ S=1,否则 表示技能点之间的相关性估计值,/>
L4(Q,S)表示题目难度损失函数,其计算方法如下:
从答题记录中可以提取出所有学习者在当前题目节点上的正确率,因此本发明在图嵌入阶段将此类信息映射为难度属性嵌入至图模型中,作为学习者知识状态预测的辅助特征。对于第i个题目,根据步骤S101收集的答题记录统计得到该题目的正确率Ui,然后采用预设的非线性激活函数将正确率映射为难度属性特征Ci=wTUi+b,w、b分别表示非线性激活函数的权重和偏置项。传统的sigmoid非线性激活函数在模型训练阶段容易出现梯度消失问题,因此本实施例中选用Leaky Rectified linear unit(LeakyReLu)作为激活函数对难度属性特征Ci进行处理,得到正确率估计值
其中,Leak为常数项,用于保留梯度值中的负数信息。
根据上式可见,当wi TUi+bi小于等于0时,输出强制等于0。使用LeakyReLu激活函数,可以使输出具有一定的稀疏性,从而加快模型的收敛速度。
然后采用如下公式计算题目的难度损失函数L4(Q,S):
其中,表示表示非线性激活层的权重w和偏置项b构成的向量,||||2表示求取二范数,λ是用来控制经验误差项与正则化项之间关系的系数,使模型具有更好的泛化性能。
综上所述,本实施例在图嵌入过程中采用联合训练,使用梯度下降算法进行优化,直至损失函数不再减小,得到训练完成的图结构嵌入信息,得到每个题目节点和技能点节点的嵌入向量。
S103:构建认知状态预测模型:
为了实现对学习者进行认知状态预测,本发明基于多头注意力机制构建了认知状态预测模型。图3是本发明中认知状态预测模型的结构图。如图3所示,本发明中认知状态预测模型包括多头注意力模块,点积模块和Sigmoid模块,其中:
多头注意力模块用于采用多头注意力机制,从学习者的D条历史答题纪录提取出大小为M×M的知识状态矩阵W并发送给点积模块,其中多头注意力机制中查询为学习者的D条历史答题纪录中第d条历史答题纪录中题目嵌入向量xd,键/>为学习者的D条历史答题纪录中第d条历史答题纪录中技能点的嵌入向量sd,sd表示第d条历史答题记录中题目所涉及技能点嵌入向量的平均向量,值/>为D条历史答题纪录中第d条历史答题纪录中的答题向量ed,ed表示第d条历史答题记录中题目的编码向量和学习者答题标识所拼接得到的答题向量。
图4是本实施例多头注意力模块的结构图。如图4所示,本实施例中多头注意力模块包括线性变换模块、注意力计算层、拼接层和全连接层,其中:
线性变换模块包括H组线性层,H的值应该实际需要确定,每组线性层包括第一线性层、第二线性层和第三线性层,用于分别对查询Qd、键Kd、值Vd进行线性变换,然后将线性变换后的查询矩阵、键矩阵、值矩阵发送给注意力计算层,第h组线性层中:
第一线性层用于对输入的查询Qd进行线性计算,得到查询矩阵Qd,h=Linear(Qd)=QdWQ,h并发送给注意力计算层,其中表示查询的第h个权重矩阵。
第二线性层用于对输入的键Kd进行线性计算,得到键矩阵Kd,h=Linear(Kd)=KdWK,h并发送至注意力计算层,其中表示键的第h个权重矩阵。
第三线性层用于对输入的值Vd进行线性计算,得到值矩阵Vd,h=Linear(Kd)=KdWK,h并发送至注意力计算层,其中表示键的第h个权重矩阵。
注意力计算层用于分别采用注意力机制对接收的H组查询矩阵Qd,h、键矩阵Kd,h和值矩阵Vd,h进行计算,得到对应的注意力矩阵Headh=Attention(Qd,h,Kd,h,Vd,h),然后发送给拼接层。
基于常规的注意力计算方式,本实施例中注意力矩阵可以采用如下公式计算:
为了提高多头注意力模块的运算效率,降低计算开销,本实施例中采用低功耗注意力机制,具体方法为:假设查询Qd和键Kd都是单位向量,可使用二值化对其进行量化表达,则注意力机制计算近似为:
上式中,表示外积操作,为了避免分母值为0,在每个内积操作后引入一个偏差项c,使得H(Qd,h)H(Kd,h)T+c≥0;H()表示哈希函数。
虽然上述公式将注意力机制的复杂度降低为了线性运算,公式中依然存在很多浮点乘法运算,还需要进一步改进,具体方法为:
首先对查询Qd,h和键Kd,h进行二制量化操作,具体方法为:
记待进行二制量化操作的矩阵为F,从矩阵F中随机抽取M个子矩阵作为支持样本,γ表示预设的子矩阵大小,将子矩阵任意组合得到M×(M-1)个子矩阵对(fm,fm′),m,m′=1,2,…,M且m≠m′。然后使用核函数κ(fm,fm′):/>学习一组哈希函数映射H:/>λ表示哈希函数的数量。从而把上式中的二值化与精确浮点值之间的乘法运算,替换为简单的加法运算,从而减少计算能耗。此时可以进行哈希函数映射得到:
上式中,κ()表示哈希核函数,表示权重矩阵,/>用来对核函数进行归一化处理,且归一化后的核函数均值为0,g:/>是由定义的映射,H(fm)即为子矩阵fm通过哈希函数映射后的向量。
通过上述二值量化,将原始的高维查询Qd,h和键Kd,h映射至保持了相近性的低维空间中,降低计算复杂度。记查询Qd,h抽取得到的子矩阵为(qd,h)m,哈希函数映射后的向量为H((qd,h)m),键Kd,h取得到的子矩阵为(kd,h)m,哈希函数映射后的向量为H((kd,h)m)。对于子矩阵对(qd,h)m,(kd,h)m′),m,m′=1,2,…,M,将对应的向量H((qd,h)m)和H((kd,h)m′)的距离作为相似度,选择前β个相似度最大的子矩阵对构成集合选择前β个相似度最小的子矩阵对构成集合/>β的值根据实际需要设置。然后采用如下公式计算对应的注意力衰减标签Yd,h((qd,h)m,(kd,h)m′)):
从而得到大小为M×M的注意力衰减标签矩阵Yd,h。注意力矩阵Headh通过值Vd,h与注意力衰减标签Yd,h加权计算得到,具体计算表达式:
上式中,知识状态是由其历史做题记录,联合全部子空间的处理结果进行线性变换而得到,反映不同题目对学习者知识状态更新的贡献度,从而使用轻量化的逐位运算代替了低效的浮点乘法运算,量化出了学习者对不同知识点的掌握情况。
拼接层用于对H个注意力矩阵Headh进行拼接,得到多头注意力矩阵Multi_Head(Q,K,V)=Concat(Head1,...,HeadH)WO,其中WO是待训练的参数矩阵,然后将多头注意力矩阵Multi_Head(Q,K,V)发送至全连接层。
全连接层用于对多头注意力矩阵Multi_Head(Q,K,V)进行降维处理,得到大小为M×M的知识状态矩阵W。
点积模块用于将待预测题目的嵌入向量和知识状态矩阵W进入点积计算,得到矩阵/>并发送给Sigmoid模块。
Sigmoid模块用于采用Sigmoid非线性激活函数对矩阵进行处理,得到学习者答对待预测题目的概率/>
S104:训练认知状态预测模型:
通过在线学习系统后台获取不同学习者的若干条答题记录,然后划分为长度为D+1的答题记录序列。对于每个答题记录序列,得到每条答题记录中题目的嵌入向量xd和学习者答题标识yd,将D+1个嵌入向量和前D个学习者答题正确标识yd作为输入,将第D+1个答题标识作为期望输出,对认知状态预测模型进行训练。
本实施例中,认知状态预测模型训练所采用的损失函数采用交叉熵损失函数,其计算公式如下:
其中,表示真实的答题标识,pt+1表示根据学习者当前认知状态所预测出的答题标识。通过模型的参数训练,减小交叉熵的值,以保证模型的预测效果与真实标签逐渐近似。
S105:认知状态预测:
对于需要进行知识追踪的学习者,获取其最近D道题目的答题记录,将每条答题记录中题目的嵌入向量记为x′d,学习者答题正确与否标识记为y′d,将待回答的下一道题目的嵌入向量记为将以上信息输入至步骤S104训练完成的认知状态预测模型,得到该学习者答对下一道题目的预测概率。
为了更好地说明本发明的技术效果,采用具体实例对本发明进行实验验证。本发明采用三个公开数据集:ASSISTments2009、ASSISTments2012和EdNet,并选用深度知识追踪(DKT)模型作为对比方法,采用准确率(Accuracy,ACC)和曲线下面积(Area Under theCurve,AUC)作为评价指标对技术效果进行评价。本次实验验证中,本发明分为采用常规注意力机制和低功耗注意力机制两种实现方式。表1是本发明和两种对比方法在3个公开数据集上的评价指标对比表。
表1
图5是本实施例本发明和对比方法的知识追踪性能对比图。图5中“本发明(Normal)”表示采用常规注意力机制,“本发明(Lite)”表示采用低功耗注意力机制,“本发明(Normal)”和“本发明(Lite)”的AUC曲线几乎重叠。如表1和图5所示,本发明在三个公开数据集上的性能在3个数据集上的AUC和ACC值显著优于DKT模型,特别是在ASSISTments2009数据集上提升值最大,AUC值相比DKT方法提升到了0.855,ACC值相比DKT提升到了0.831。
图6是本实施例中本发明和对比方法在ASSIS09数据集上的训练时间对比图。如图6所示,在同一数据集下,DKT方法的训练时间为29.83秒/轮次,本发明采用常规注意力机制为75.36秒/轮次,而低功耗注意力机制下降为33.91秒/轮次,因此本发明采用低功耗注意力机制时与经典的DKT方法训练时长接近,相较于采用常规注意力机制时在保持预测精度的同时显著降低了计算开销。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (5)
1.一种融合图嵌入和注意力机制的知识追踪方法,其特征在于,包括如下步骤:
S1:通过在线学习系统后台获取若干条答题记录,从中提取出题目信息集合技能点信息集合/>记题目数量为NX、技能点数量为NS,对每个题目和技能点进行编码,得到M-1维编码向量,M的值根据实际需要确定;提取每条答题记录的信息,包括题目编码、技能点编码、学习者编号、表示学习者答题是否正确的学习者答题标识,当学习者回答正确,学习者答题标识为1,否则为0;根据答题记录为每位学习者生成历史行为记录集合,每条记录包含该学习者回答的题目编号、答题标识和题目对应的技能者编号集合;
S2:将NX个题目和NS个技能点作为节点,当某个题目和某个技能点在同一答题记录中出现,则在对应节点生成边,从而生成题目和技能点的关联结构图G,为每个节点生成初始向量,然后进行图嵌入得到每个题目节点和技能点节点的嵌入向量,嵌入向量的维度为M,从而得到题目特征矩阵和技能点特征矩阵/>
S3:构建认知状态预测模型,包括多头注意力模块,点积模块和Sigmoid模块,其中:
多头注意力模块用于采用多头注意力机制,从学习者的D条历史答题纪录提取出大小为M×M的知识状态矩阵W并发送给点积模块,其中多头注意力机制中查询为学习者的D条历史答题纪录中第d条历史答题纪录中题目嵌入向量xd,键/>为学习者的D条历史答题纪录中第d条历史答题纪录中技能点的嵌入向量sd,sd表示第d条历史答题记录中题目所涉及技能点嵌入向量的平均向量,值/>为D条历史答题纪录中第d条历史答题纪录中的答题向量ed,ed表示第d条历史答题记录中题目的编码向量和学习者答题标识所拼接得到的答题向量;
点积模块用于将待预测的下一道题目的嵌入向量和知识状态矩阵W进入点积计算,得到特征矩阵/>并发送至Sigmoid模块。
Sigmoid模块用于采用Sigmoid非线性激活函数对特征矩阵进行处理,得到学习者答对待预测题目的概率/>
S4:通过在线学习系统后台获取不同学习者的若干条答题记录,然后划分为长度为D+1的答题记录序列;对于每个答题记录序列,得到每条答题记录中题目的嵌入向量xd和学习者答题标识yd,将D+1个嵌入向量和前D个学习者答题正确标识yd作为输入,将第D+1个答题标识作为期望输出,对认知状态预测模型进行训练;
S5:对于需要进行知识追踪的学习者,获取其最近D道题目的答题记录,将每条答题记录中题目的嵌入向量记为x′d,学习者答题正确与否标识记为y′d,将待回答的下一道题目的嵌入向量记为将以上信息输入至步骤S4训练完成的认知状态预测模型,得到该学习者答对下一道题目的预测概率。
2.根据权利要求1所述的知识追踪方法,其特征在于,所述步骤S2中图嵌入所采用的损失函数Loss的计算公式如下:
Loss=(1-α)*(L1(X,S)+L2(X)+L3(S))+(α)*L4(X,S,θ)
其中,L1(X,S)表示题目和技能点的关联性损失函数,计算方法如下:
对于第i个题目和第j个技能点,i∈{1,2,…,NX},j∈{1,2,…,NS},记第i个题目的当前特征向量为xi,记第j个题目的当前特征向量为sj,j=1,2,…,NS,如果第i个题目和第j个技能点在图G中存在连接边,则令关联系数rij=1,否则令关联系数rij=0;采用如下公式计算第i个题目和第j个技能点之间的局部邻近度
其中,σ()表示sigmoid非线性激活函数;
然后采用如下公式计算得到题目和技能点之间的关联性损失函数L1(X,S):
L2(X)表示题目相似度的交叉熵损失函数,其计算方法如下:
其中,rii′ X表示第i个题目和第i′个题目之间真实的关联关系,如果第i个题目和第i′个题目都是同一个技能点节点的邻居节点,则rii′ X=1,否则rii′ X=0,表示第i个题目和第i′个题目之间的相关性估计值,/>
L3(S)表示技能点相似度的交叉熵损失函数,其计算方法如下:
其中,rjj′ S表示第j个技能点和第j′个技能点之间真实的关联关系,如果第j个技能点和第j′个技能点都是同一个题目节点的邻居节点,则rjj′ S=1,否则rjj′ S=0,表示技能点之间的相关性估计值,/>
L4(Q,S)表示题目难度损失函数,其计算方法如下:
对于第i个题目,根据步骤S1收集的答题记录统计得到该题目的正确率Ui,然后采用预设的非线性激活函数将正确率映射为难度属性特征Ci=wTUi+b,w、b分别表示非线性激活函数的权重和偏置项;采用LeakyReLu作为激活函数Ci进行处理,得到正确率估计值
其中,Leak为常数项;
然后采用如下公式计算题目的难度损失函数L4(Q,S):
其中,表示表示非线性激活层的权重w和偏置项b构成的向量,||||2表示求取二范数,λ是用来控制经验误差项与正则化项之间关系的系数。
3.根据权利要求1所述的知识追踪方法,其特征在于,所述步骤S3中多头注意力模块包括线性变换模块、注意力计算层、拼接层和全连接层,其中:
线性变换模块包括H组线性层,H的值应该实际需要确定,每组线性层包括第一线性层、第二线性层和第三线性层,用于分别对查询Qd、键Kd、值Vd进行线性变换,然后将线性变换后的查询矩阵、键矩阵、值矩阵发送给注意力计算层,第h组线性层中:
第一线性层用于对输入的查询Qd进行线性计算,得到查询矩阵Qd,h=Linear(Qd)=QdWQ,h并发送给注意力计算层,其中表示查询的第h个权重矩阵;
第二线性层用于对输入的键Kd进行线性计算,得到键矩阵Kd,h=Linear(Kd)=KdWK,h并发送至注意力计算层,其中表示键的第h个权重矩阵;
第三线性层用于对输入的值Vd进行线性计算,得到值矩阵Vd,h=Linear(Kd)=KdWK,h并发送至注意力计算层,其中表示键的第h个权重矩阵;
注意力计算层用于分别采用注意力机制对接收的H组查询矩阵Qd,h、键矩阵Kd,h和值矩阵Vd,h进行计算,得到对应的注意力矩阵Headh=Attention(Qd,h,Kd,h,Vd,h),然后发送给拼接层;
拼接层用于对H个注意力矩阵Headh进行拼接,得到多头注意力矩阵Multi_Head(Q,K,V)=Concat(Head1,...,HeadH)WO,其中WO是待训练的参数矩阵,然后将多头注意力矩阵Multi_Head(Q,K,V)发送至全连接层;
全连接层用于对多头注意力矩阵Multi_Head(Q,K,V)进行降维处理,得到大小为K×K的知识状态矩阵W。
4.根据权利要求1所述的知识追踪方法,其特征在于,所述注意力计算层的计算方法如下:
首先对查询Qd,h和键Kd,h进行二制量化操作,具体方法为:
记待进行二制量化操作的矩阵为F,从矩阵F中随机抽取M个子矩阵作为支持样本,γ表示预设的子矩阵大小,将子矩阵任意组合得到M×(M-1)个子矩阵对(fm,fm′),m,m′=1,2,…,M且m≠m′;然后使用核函数κ(fm,fm′):/>学习一组哈希函数映射H:/>λ表示哈希函数的数量;然后进行哈希函数映射得到:
上式中,κ()表示哈希核函数,表示权重矩阵,/>用于对核函数进行归一化处理,且归一化后的核函数均值为0,g:/>是由定义的映射,H(fm)即为子矩阵fm通过哈希函数映射后的向量;
记查询Qd,h抽取得到的子矩阵为(qd,h)m,哈希函数映射后的向量为H((qd,h)m),键Kd,h取得到的子矩阵为(kd,h)m,哈希函数映射后的向量为H((kd,h)m);对于子矩阵对(qd,h)m,(kd,h)m′),m,m′=1,2,…,M,将对应的向量H((qd,h)m)和H((kd,h)m′)的距离作为相似度,选择前β个相似度最大的子矩阵对构成集合选择前β个相似度最小的子矩阵对构成集合β的值根据实际需要设置;然后采用如下公式计算对应的注意力衰减标签Yd,h((qd,h)m,(kd,h)m′)):
从而得到大小为M×M的注意力衰减标签矩阵Yd,h;
采用如下公式计算得到注意力矩阵Headh:
5.根据权利要求1所述的知识追踪方法,其特征在于,所述步骤S4中认知状态预测模型训练的损失函数采用交叉熵损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310481693.XA CN116611517A (zh) | 2023-04-27 | 2023-04-27 | 融合图嵌入和注意力的知识追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310481693.XA CN116611517A (zh) | 2023-04-27 | 2023-04-27 | 融合图嵌入和注意力的知识追踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116611517A true CN116611517A (zh) | 2023-08-18 |
Family
ID=87684567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310481693.XA Pending CN116611517A (zh) | 2023-04-27 | 2023-04-27 | 融合图嵌入和注意力的知识追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116611517A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117474094A (zh) * | 2023-12-22 | 2024-01-30 | 云南师范大学 | 基于Transformer的融合领域特征的知识追踪方法 |
-
2023
- 2023-04-27 CN CN202310481693.XA patent/CN116611517A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117474094A (zh) * | 2023-12-22 | 2024-01-30 | 云南师范大学 | 基于Transformer的融合领域特征的知识追踪方法 |
CN117474094B (zh) * | 2023-12-22 | 2024-04-09 | 云南师范大学 | 基于Transformer的融合领域特征的知识追踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110070183B (zh) | 一种弱标注数据的神经网络模型训练方法及装置 | |
Liu et al. | Improving knowledge tracing via pre-training question embeddings | |
CN110264091B (zh) | 学生认知诊断方法 | |
CN109142171B (zh) | 基于特征扩张的融合神经网络的城市pm10浓度预测方法 | |
CN113610173B (zh) | 一种基于知识蒸馏的多跨域少样本分类方法 | |
CN113360635B (zh) | 一种基于自注意和预训练机制的智能教学方法及系统 | |
CN113344053B (zh) | 一种基于试题异构图表征与学习者嵌入的知识追踪方法 | |
CN113361685B (zh) | 一种基于学习者知识状态演化表示的知识追踪方法及系统 | |
Dai et al. | Hybrid deep model for human behavior understanding on industrial internet of video things | |
CN116611517A (zh) | 融合图嵌入和注意力的知识追踪方法 | |
CN115546196A (zh) | 一种基于知识蒸馏的轻量级遥感影像变化检测方法 | |
CN112860847A (zh) | 视频问答的交互方法及系统 | |
CN113378581B (zh) | 一种基于多元概念注意力模型的知识追踪方法及系统 | |
CN115408603A (zh) | 一种基于多头自注意力机制的在线问答社区专家推荐方法 | |
CN114898136A (zh) | 一种基于特征自适应的小样本图像分类方法 | |
CN115293249A (zh) | 一种基于动态时序预测的电力系统典型场景概率预测方法 | |
Yue et al. | Augmenting interpretable knowledge tracing by ability attribute and attention mechanism | |
CN113935458A (zh) | 基于卷积自编码深度学习的空气污染多站点联合预测方法 | |
Zhang et al. | Learning ability community for personalized knowledge tracing | |
Yang et al. | Skill-Oriented Hierarchical Structure for Deep Knowledge Tracing | |
CN116151242B (zh) | 一种编程学习场景的智能习题推荐方法、系统及储存介质 | |
US20210365794A1 (en) | Discovering Novel Artificial Neural Network Architectures | |
Yang et al. | An Improved Quality Evaluation Method for Foreign Trade English Using GA‐RBF Neural Network | |
Habijan et al. | Evaluating LightGBM Classifier for Knowledge Tracing on EdNet Dataset | |
CN116701577A (zh) | 基于对抗训练的知识追踪增强方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |