CN114385801A - 一种基于分层细化lstm网络的知识追踪方法及系统 - Google Patents
一种基于分层细化lstm网络的知识追踪方法及系统 Download PDFInfo
- Publication number
- CN114385801A CN114385801A CN202111617839.6A CN202111617839A CN114385801A CN 114385801 A CN114385801 A CN 114385801A CN 202111617839 A CN202111617839 A CN 202111617839A CN 114385801 A CN114385801 A CN 114385801A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- student
- layer
- lstm network
- students
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000013135 deep learning Methods 0.000 claims abstract description 17
- 230000008569 process Effects 0.000 claims abstract description 12
- 230000007246 mechanism Effects 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 11
- 230000015654 memory Effects 0.000 claims description 11
- 238000003860 storage Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 230000005055 memory storage Effects 0.000 claims description 4
- 238000005065 mining Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 3
- 102000002274 Matrix Metalloproteinases Human genes 0.000 claims description 2
- 108010000684 Matrix Metalloproteinases Proteins 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims description 2
- 230000007547 defect Effects 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 abstract 1
- 238000012549 training Methods 0.000 description 8
- 238000007792 addition Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 235000000332 black box Nutrition 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013401 experimental design Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明针对现有深度学习方法模型的不足,提出了一种基于分层细化LSTM网络的知识追踪方法及系统,属于知识追踪技术领域,该方法包括:构件深度追踪知识模型:通过初步学习层、双层注意力层、深入学习层的层次化过程,在学生学习的过程中得到学生的知识掌握情况;学生知识掌握情况融合自注意力机制作为LSTM网络的输入,计算得到学生的最终知识掌握情况;基于学生的最终知识掌握情况预测学生回答问题是否正确。本发明提高了知识追踪的性能,同时在一定程度上提供了可解释性,可以更好的帮助学习者的制定个性化计划。
Description
技术领域
本发明属于知识追踪技术领域,具体涉及一种基于分层细化LSTM网络的知识追踪方法及系统。
背景技术
近年来,随着互联网在线教育地迅猛发展,例如MOOC、Udemy、Lynda等智能教学系统和大规模在线开放课程平台日益普及,这为学生自主学习和辅助教学提供了可能。在线学习系统的普及拥有几个重要的优点,从教育研究的角度来看,最显著的是留下学习者详细的学习轨迹,提供了调查不同轨迹下学习者行为效能的条件,帮助教育者完成对学习者的个性化导学。而个性化导学任务中的关键问题则是知识追踪,其特点是自动化和个性化,其任务是根据学生的历史学习轨迹来自动追踪学生的知识水平随时间的变化过程,以便能够准确地预测学生在未来的学习中的表现,从而提供相应的学习辅导。
具体来说,在线平台的学习者学习知识点之后,平台会有相对应的习题来检验学习者是否完全掌握该知识点。知识追踪任务将学习者在平台已回答过的习题序列放入模型中训练,模型能捕获序列中该学习者对知识的掌握程度的变化,当新的习题来到时,模型根据学习者对该习题相关知识的掌握程度来预测学习者是否能够回答正确。
目前知识追踪任务较为流行的模型可以分为两大类。一类是基于传统机器学习的模型,其中较为流行的有项目反应理论(IRT)、贝叶斯追踪(BKT)等方法,但是他们的缺点也较为明显,由于这些方法是基于统计学的数据分析,而数据表现出来的部分不够明显,因此它们知识追踪的性能比较差。而另一类则是基于深度学习的模型。ChrisPiech等人将深度学习引入了知识跟踪领域,极大地促进了知识跟踪的发展。随后学者在此基础上研究深度学习方法应用于知识追踪并且在性能上相对于传统的机器学习有很大的提升。但现存的深度学习方法模型仍然有以下不足:
(1)虽然将深度学习与知识追踪结合之后知识追踪任务的性能有了很大的提升,但知识追踪任务的准确率仍有较大的提升空间,同时说明了模型并不能对学生的知识状态完全掌握。
(2)现存的所有模型的输入数据形式较为单一,不利于模型的挖掘与分析。
(3)由于神经网络的“黑盒性质”,基于深度学习的知识追踪方法缺乏可解释性。
发明内容
本发明针对现有深度学习方法模型的不足,提出了一种基于分层细化LSTM网络的知识追踪方法及系统,提高知识追踪的性能,可以更好的帮助学习者的制定个性化计划。
为实现上述目的,本发明的第一方面,提供了一种基于分层细化LSTM网络的知识追踪方法,包括:
S1构建深度追踪知识模型:通过初步学习层、双层注意力层、深入学习层的层次化过程,在学生学习的过程中得到学生的知识掌握情况;
S2学生知识掌握情况融合自注意力机制作为LSTM网络的输入,计算得到学生的最终知识掌握情况;
S3基于学生的最终知识掌握情况预测学生回答问题是否正确。
作为优选,所述初步学习层的知识状态捕捉包括如下步骤:
第一步,对原始数据集中每个学生的答题数据进行预处理,统计数据集中所有问题和知识点的数量,并对每个问题和知识点进行编号;
第二步:问题定义,给定一个学生在某一特定学习任务上的表现的观测序列X={x1,x2,x3,...,xt},xt={qt,rt},其中qt代表回答的问题成分,rt代表该学生回答该问题的对错,rt={0,1};
第三步:输入层,从原始数据集中提取相关要素,并构建模型的输入:
qt的数量为N,xt的向量为2N;
第四步:数据细化层,通过学生的历史答题记录计算得到问题难度值和学生对知识点掌握程度的知识状态值,对qt进行数据细化分类并挖掘问题中更深层次的信息:
dt=Wd·qt+bd
et=We·qt+be
dt表示问题的难度,et表示问题中包含的知识点以及其关系,Wd、bd表示的是问题难度的权重矩阵和偏置矩阵,We、be表示知识点的权重矩阵与偏置矩阵,
第五步:初步提取层,利用LSTM对学生掌握的知识状态ht进行初步提取。
作为优选,所述原始数据集包括每个学生的编号信息、学生的历史答题信息。
作为优选,所述双层注意力层包括问题层面和学生知识状态层面,所述问题层面包括问题难度和该问题所包含的知识点,所述学生知识状态层面包括学生的知识状态ht,问题层面和学生知识状态层面分别使用自注意力机制快速提取出权重更大的问题难度矩阵与知识点矩阵
作为优选,t时刻之前的问题层面和学生知识状态层面作为历史信息储存在记忆存储器中,记忆存储器包括记忆存储器记忆存储器记忆存储器存储t时刻之前问题难度的历史信息,存储t时刻之前问题所包含的知识点的历史信息,存储t时刻之前学生知识状态的历史信息。
作为优选,利用交叉熵损失函数来检验预测值与实际值的接近程度,并利用该函数进一步训练预测值模型的输入输出,使该预测模型的参数达到最优。
按照本发明的第二方面,提供了一种基于分层细化LSTM网络的知识追踪系统,包括:
数据获取模块,用于获取每个学生的编号信息、学生的历史答题序列记录;
数据处理模块:对学生掌握的知识状态进行初步提取,并在问题层面和知识状态层面提取出权重更大的问题难度矩阵与知识点矩阵;
数据输出模块:输出学生回答问题正确的概率并评判学生是否能够回答正确。
按照本发明的第二方面,提供了一种计算机可读存取介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法。
与现有技术相比,本发明具有以下有益效果:本发明建立了一种新的分层深度网络架构。在分层细化LSTM架构中,首先在预提取层完成对学生t时刻的知识状态的初步捕获,然后将问题不同知识点特征的嵌入和初步知识状态输入到另一个LSTM网络中进行深层次的训练,并基于最终的学生知识状态做出预测;
本发明还设计了基于数据表示的细化:除了预提取层LSTM之外,我们还安排了对问题的嵌入矩阵来记录知识点的历史表达,并为状态提取LSTM产生更有效的特征信息。
附图说明
图1为基于分层细化LSTM网络的知识追踪方法的流程图;
图2为分层细化LSTM网络的知识追踪模型结构示意图;
图3为LSTM长短期记忆神经网络的结构示意图。
具体实施方式
下面结合附图所表示的实施例对本发明作进一步描述:
如图1到图3所示,一种基于分层细化LSTM网络的知识追踪方法,本发明提出的分层细化LSTM网络的知识追踪模型显著的提高了知识追踪任务的性能,除此之外,还对知识追踪的模型输入进行细化表示。具体步骤如下:
第一步,将每个学生的编号信息、学生的历史答题信息收集作为原始数据集。将原始数据集中的问题按照学生进行预处理,然后统计数据集中所有问题与知识点的数量,并对每个问题与概念进行编号,这样做方便模型进行训练。
第二步,对于每个学生,统计学生的答题序列,每个答题序列包含三行数据,第一行表示该学生答题的数量,第二行表示该学生答题的问题编号,第三行则表示学生是否正确回答该问题,正确回答则为1,否则为0。给定一个学生在某一特定学习任务上的表现的观测序列X={x1,x2,x3,...,xt},xt={qt,rt},其中qt代表回答的问题成分,是one-hot编码格式。rt代表该学生回答该问题的对错,rt={0,1}。
第三步,从原始数据中提取相关要素,并构建模型的输入。第一步已经统计到每个学生的答题序列,但是单个编号表达的信息有限。因此,我们使用one-hot编码格式对每个问题以及答题情况进行处理。在t时刻,模型的输入xt由两部分组成。第一部分为维度为N的qt,是由N个不同的习题组成。它是一个one-hot编码,只有对应题号的位置为1,其余位置则为0。第二部分是rt,它是一个二进制的值,0或1组成,代表对应问题qt是否回答正确,正确为1,否则为0。如果该问题学生回答正确,在qt后面再拼接rt,1,如果回答错误,则拼接rt,0。
第四步,由于模型的输入xt是一个较为单一、信息量较少且稀疏的数据,那么可供模型学习的信息就比较少。一般地,解决这类问题通常采用嵌入的方法,将数据映射到高维空间从而深度挖掘数据中的信息。因此,本发明对qt进行数据细化分类并挖掘问题中更深层次的信息。本层定义两个表示矩阵来表示上述的两个因素,dt表示问题的难度,et表示问题中包含的知识点以及其关系。具体过程如下:
dt=Wd·qt+bd
et=We·qt+be
第五步,对学生的知识状态进行初步提取,本层采用LSTM(长短期记忆网络)来获取学生的知识状态随时间的变化,它在深度知识追踪任务中展现了出色的性能。LSTM通过三个门来获取学生的知识状态ht,分别是遗忘门ft,输入门it,输出门ot,除此之外还有细胞状态Ct它将信息传递到每个单元,解决了RNN不能捕获长期依赖的问题。
遗忘门:在学生做题序列随着时间的变化,学生知识状态的掌握会慢慢降低,当经过足够长时间之后,学生就会逐渐遗忘某些知识。而遗忘门正是模拟该过程,使用sigmoid激活函数输出一个0到1之间的数,在t时刻其公式为:
ft=σ(Wf·[ht-1,xt]+bf)
输入门:接收当前时间新的输入并更新当前的细胞状态。每当学生在做题时对相关概念的知识状态就会加深或者新增对这个新概念的知识状态,这样我们就需要去更新在这时刻学生的知识状态的变化。在时间为t时其公式为:
it=σ(Wi·[ht-1,xt]+bi),
输出门:输出门模拟学生的知识状态根据当前学习的知识与历史知识遗忘的变化过程,输出当前学生的知识状态ht。在t时刻其公式为:
ot=σ(Wo·[ht-1,xt]+bo),
第六步,学生在做一道题时,这道题与前段时间做的题具有较高的相似度,那么学生能否正确回答这道题在很大程度上会依赖于是否正确回答类似的题。而且在真实的数据集中,学生与题目的交互往往都是稀疏的,而使用合适的注意力机制从历史序列中找出与当前知识概念相关的概念进行交互,能够很好地解决数据稀疏的问题。通过第四步与第五步得到了问题层面的问题难度与问题所包含知识点的表示矩阵和当前的学生的知识状态矩阵,本层对这两个层面分别使用自注意力机制结合历史信息得到新的问题难度矩阵与知识点矩阵由于问题层面与知识状态层面采用相同的自注意力机制方式,根据自注意力基本公式:Att(Q,K,V)=ω(QKT)V,本层定义了一个关于本模型注意力机制的通式。首先,定义了变量K、V的表示,如下式所示:
K=V=T
在上式中,T在问题层面表示的是问题的难度dt或该问题的相关概念et,而在学生知识状态层面则表示当前学生的知识状态ht。然后,定义了Q的表示,如下所示:
Q=tanh(Wt·T+bt)
受DKVMN模型的启发,本层分别定义了三个记忆存储器用来分别存储t时刻之前的所有问题层面与知识状态层面的历史信息。存储t时刻之前问题难度的历史信息,存储t时刻之前问题所包含的知识点的历史信息,存储t时刻之前学生知识状态的历史信息。DKVMN中记忆存储器的存储的是每个问题的嵌入表示,是固定大小的存储器;而本层的存储器记录了问题和学生知识状态的历史信息,是随着学生做题数量的增加而增加的存储器。因此,虽然付出了外部存储器的存储消耗,但能够记录更加全面详细的历史信息,可以使得模型能够更好的学习。
当前的信息与以前的信息的相关性取决于注意力权重,本层采用点积的方式来计算注意力权重。然后通过值与相关权重的对应相乘得到最终的注意力值Vattention,如下式所示:
Vattention=MatMul(softmax(K·Q),V),
其中·表示点积,MatMul函数表示对应相乘相加。在本模型中,t时刻的Vattention仅与t时刻之前的Vi相关,其中i<t,即对于一个查询Qi,Km不应该被考虑,其中i<m。一般地,解决这个问题的常用方法是遮住超前状态的权重,而本层使用外部存储器将t时刻之前的状态都保存下来,因此不会出现超前状态的情况。
第七步,本发明认为学生能否正确回答问题取决于两个层面的契合度,即问题层面和学生的知识状态层面,只有当这两个层面的契合较高时,学生才能正确回答该问题。其中问题层面包括问题的难度和问题中包含的概知识点。例如,一个学生经过一段时间的学习可以对十以内的数字进行加减乘除运算,现有一道题是计算5+6*(3-1),分析可知,这道题的难度这个学生可以解决,而这道题包含的知识点主要有十以内的数字、加法、减法、乘法等,因此可以判断该学生能正确回答该问题。而当一道题为x2+4x+4=625求x的值时,该学生并未掌握一元二次函数且存在大于十的数字,因此可以判断该学生无法正确回答该问题。
在第五步骤操作下,我们可以初步得到学生的知识掌握情况,当前许多深度知识追踪模型就是基于此来进行预测当前时间学生能否答对该问题。而我们认为此时的知识状态并不足以精确地预测该任务。因此,本发明结合得到的新的问题难度矩阵知识点矩阵以及学生的初步知识状态ht作为深入学习层的输入来计算问题层面与学生知识状态层面的契合程度并且追踪学生对该问题各方面的最终掌握情况由于过程与初步学习层类似,总结其公式如下式所示:
本层设置的隐藏层的维度为200,这也是将所有数据集中对问题和概念进行分类得出的结果。
本发明制作了大量的实验设计寻找合适的超参数,具体如下,将每个数据集划分80%用来做训练集,20%用来做测试集,其中测试集用来评价模型的性能与提前停止模型训练。在所有数据集上都使用5-折交叉验证的方法,并且所有模型对每个数据集都采用5次实验取平均值的方式进行性能评估。本文使用tensorflow框架、Adam优化器来训练模型,设置最大训练次数为500,裁剪时最大梯度范数设置为5.0,学习率设置范围为[0.001,0.01],网络中权重矩阵与偏置的初始化使用的是平均值为0,标准差为0.01的正态分布。训练的批次一般设置为64,但是具体的设置会按照数据集的大小,例如a2012数据集数量较大,训练的批次设置为32。为防止过拟合的情况,使用了dropout,在训练的时候设置参数为0.5。
为了验证本发明在解决知识追踪任务上的优势,本实施例在8个公开数据集上进行了实验,即ASS09-up,ASSIST2012,ASSIST2015,ASSIST_challenge,statics2011,synthetic,AICFE-math,AICFE-phy。我们还对比了5个最新的知识追踪模型,分别为深度知识追踪模型(DKT),改进的深度知识追踪模型(DKT+),动态键值记忆网络模型(DKVMN),自注意力知识追踪模型(SAKT),卷积知识追踪模型(CKT)。我们使用AUC(Area Under Curve)指标来度量模型的结果,它是ROC曲线下与坐标轴围成的面积,AUC的值越接近1,代表模型的效果越好,越接近真实。表1展示的是本方法在8个公开数据集上对比5个最新模型的对比结果,从结果中我们可以看出,本发明所提出的分层细化LSTM知识追踪模型明显优于现有技术方案。
表1 六个方法在八个数据集上的性能对比结果
对应本发明中的一种基于分层细化LSTM网络的知识追踪方法,本发明还提供了一种基于分层细化LSTM网络的知识追踪系统,包括:
数据获取模块,用于获取每个学生的编号信息、学生的历史答题序列记录;
数据处理模块:对学生掌握的知识状态进行初步提取,并在问题层面和知识状态层面提取出权重更大的问题难度矩阵与知识点矩阵;
数据输出模块:输出学生回答问题正确的概率并评判学生是否能够回答正确。
本发明实施例还公开了一种计算机可读存取介质,该计算机可读存储介质内存储有计算机指令集,计算机指令集被被处理器执行时实现如上文任一实施例所提供的基于分层细化LSTM网络的知识追踪方法。
文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (10)
1.一种基于分层细化LSTM网络的知识追踪方法,其特征在于,
S1构建深度追踪知识模型:通过初步学习层、双层注意力层、深入学习层的层次化过程,在学生学习的过程中得到学生的知识掌握情况;
S2学生知识掌握情况融合自注意力机制作为LSTM网络的输入,计算得到学生的最终知识掌握情况;
S3基于学生的最终知识掌握情况预测学生回答问题是否正确。
2.根据权利要求1所述的基于分层细化LSTM网络的知识追踪方法,其特征在于,所述初步学习层的知识状态捕捉包括如下步骤:
第一步,对原始数据集中每个学生的答题数据进行预处理,统计数据集中所有问题和知识点的数量,并对每个问题和知识点进行编号;
第二步:问题定义,给定一个学生在某一特定学习任务上的表现的观测序列X={x1,x2,x3,...,xt},xt={qt,rt},其中qt代表回答的问题成分,rt代表该学生回答该问题的对错,rt={0,1};
第三步:输入层,从原始数据集中提取相关要素,并构建模型的输入:
qt的数量为N,xt的向量为2N;
第四步:数据细化层,通过学生的历史答题记录计算得到问题难度值和学生对知识点掌握程度的知识状态值,对qt进行数据细化分类并挖掘问题中更深层次的信息:
dt=Wd·qt+bd
et=We·qt+be
第五步:初步提取层,利用LSTM对学生掌握的知识状态ht进行初步提取。
3.根据权利要求2所述的基于分层细化LSTM网络的知识追踪方法,其特征在于,所述原始数据集包括每个学生的编号信息、学生的历史答题信息。
8.根据权利要求1所述的基于分层细化LSTM网络的知识追踪方法,其特征在于,利用交叉熵损失函数来检验预测值与实际值的接近程度,并利用该函数进一步训练预测值模型的输入输出,使该预测模型的参数达到最优。
9.一种基于分层细化LSTM网络的知识追踪系统,其特征在于,包括:
数据获取模块,用于获取每个学生的编号信息、学生的历史答题序列记录;
数据处理模块:对学生掌握的知识状态ht进行初步提取,并在问题层面和知识状态层面提取出权重更大的问题难度矩阵与知识点矩阵;
数据输出模块:输出学生回答问题正确的概率并评判学生是否能够回答正确。
10.一种计算机可读存取介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8中任一项的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111617839.6A CN114385801A (zh) | 2021-12-27 | 2021-12-27 | 一种基于分层细化lstm网络的知识追踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111617839.6A CN114385801A (zh) | 2021-12-27 | 2021-12-27 | 一种基于分层细化lstm网络的知识追踪方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114385801A true CN114385801A (zh) | 2022-04-22 |
Family
ID=81197411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111617839.6A Pending CN114385801A (zh) | 2021-12-27 | 2021-12-27 | 一种基于分层细化lstm网络的知识追踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114385801A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114861916A (zh) * | 2022-06-13 | 2022-08-05 | 合肥工业大学 | 一种融合知识联想路径的认知跟踪方法 |
CN114911975A (zh) * | 2022-05-05 | 2022-08-16 | 金华航大北斗应用技术有限公司 | 一种基于图注意力网络的知识追踪方法 |
CN114971972A (zh) * | 2022-06-16 | 2022-08-30 | 兰州理工大学 | 融合遗忘因素和习题难度的深度知识追踪方法及智能终端 |
CN116127048A (zh) * | 2023-04-04 | 2023-05-16 | 江西师范大学 | 融合习题和学习行为表征的顺序自注意力知识追踪模型 |
CN117911915A (zh) * | 2023-12-07 | 2024-04-19 | 华南师范大学 | 一种基于迁移学习的跨课程知识追踪方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110428010A (zh) * | 2019-08-05 | 2019-11-08 | 中国科学技术大学 | 知识追踪方法 |
KR102213478B1 (ko) * | 2020-02-18 | 2021-02-08 | (주)뤼이드 | 인공 지능 학습 기반의 사용자 지식 추적 시스템 및 그것의 동작 방법 |
CN112529155A (zh) * | 2020-12-07 | 2021-03-19 | 华中师范大学 | 动态知识掌握建模方法、建模系统、存储介质及处理终端 |
CN113033808A (zh) * | 2021-03-08 | 2021-06-25 | 西北大学 | 一种基于习题难度和学生能力的深度嵌入知识追踪方法 |
-
2021
- 2021-12-27 CN CN202111617839.6A patent/CN114385801A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110428010A (zh) * | 2019-08-05 | 2019-11-08 | 中国科学技术大学 | 知识追踪方法 |
KR102213478B1 (ko) * | 2020-02-18 | 2021-02-08 | (주)뤼이드 | 인공 지능 학습 기반의 사용자 지식 추적 시스템 및 그것의 동작 방법 |
CN112529155A (zh) * | 2020-12-07 | 2021-03-19 | 华中师范大学 | 动态知识掌握建模方法、建模系统、存储介质及处理终端 |
CN113033808A (zh) * | 2021-03-08 | 2021-06-25 | 西北大学 | 一种基于习题难度和学生能力的深度嵌入知识追踪方法 |
Non-Patent Citations (1)
Title |
---|
马骁睿;徐圆;朱群雄;: "一种结合深度知识追踪的个性化习题推荐方法", 小型微型计算机系统, no. 05, 15 May 2020 (2020-05-15) * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114911975A (zh) * | 2022-05-05 | 2022-08-16 | 金华航大北斗应用技术有限公司 | 一种基于图注意力网络的知识追踪方法 |
CN114911975B (zh) * | 2022-05-05 | 2024-04-05 | 金华航大北斗应用技术有限公司 | 一种基于图注意力网络的知识追踪方法 |
CN114861916A (zh) * | 2022-06-13 | 2022-08-05 | 合肥工业大学 | 一种融合知识联想路径的认知跟踪方法 |
CN114861916B (zh) * | 2022-06-13 | 2024-03-05 | 合肥工业大学 | 一种融合知识联想路径的认知跟踪方法 |
CN114971972A (zh) * | 2022-06-16 | 2022-08-30 | 兰州理工大学 | 融合遗忘因素和习题难度的深度知识追踪方法及智能终端 |
CN116127048A (zh) * | 2023-04-04 | 2023-05-16 | 江西师范大学 | 融合习题和学习行为表征的顺序自注意力知识追踪模型 |
CN116127048B (zh) * | 2023-04-04 | 2023-06-27 | 江西师范大学 | 融合习题和学习行为表征的顺序自注意力知识追踪模型 |
CN117911915A (zh) * | 2023-12-07 | 2024-04-19 | 华南师范大学 | 一种基于迁移学习的跨课程知识追踪方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111460249B (zh) | 一种基于学习者偏好建模的个性化学习资源推荐方法 | |
CN114385801A (zh) | 一种基于分层细化lstm网络的知识追踪方法及系统 | |
Sonkar et al. | qdkt: Question-centric deep knowledge tracing | |
CN113610235B (zh) | 一种基于深度知识追踪的适应性学习支持装置及方法 | |
CN110991645A (zh) | 一种基于知识模型的自适应学习方法、系统及存储介质 | |
CN111695779A (zh) | 一种知识追踪方法、装置及存储介质 | |
CN113360635B (zh) | 一种基于自注意和预训练机制的智能教学方法及系统 | |
CN114911975A (zh) | 一种基于图注意力网络的知识追踪方法 | |
CN114021722A (zh) | 一种融合认知刻画的注意力知识追踪方法 | |
CN117540104B (zh) | 一种基于图神经网络的学习群体差异评价方法与系统 | |
CN114372137A (zh) | 一种融合深度知识追踪的动态感知试题推荐方法及系统 | |
CN115544158A (zh) | 应用于智能教育系统的多知识点动态知识追踪方法 | |
CN113361791A (zh) | 一种基于图卷积的学生成绩预测方法 | |
CN113239699A (zh) | 一种融合多特征的深度知识追踪方法及系统 | |
CN117473041A (zh) | 一种基于认知策略的编程知识追踪方法 | |
CN114861754A (zh) | 一种基于外部注意力机制的知识追踪方法及系统 | |
CN114971066A (zh) | 融合遗忘因素和学习能力的知识追踪方法及系统 | |
CN118114815A (zh) | 一种基于知识、思维和能力的三元编程状态追踪方法 | |
CN113378581A (zh) | 一种基于多元概念注意力模型的知识追踪方法及系统 | |
CN116777695A (zh) | 融合项目反应的时序卷积知识追踪方法 | |
CN117349362A (zh) | 一种动态知识认知层级挖掘方法、系统、设备及终端 | |
CN116644380A (zh) | 一种面向计算机编程试题的多模态特征融合知识追踪方法 | |
CN114943276B (zh) | 基于树型注意力机制的深度知识追踪方法 | |
CN115795015A (zh) | 一种试题难度增强的综合知识追踪方法 | |
CN114997461B (zh) | 一种联合学习与遗忘的时间敏感的答题正确性预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |