CN113724110A - 一种可解释的深度知识追踪方法、系统及其应用 - Google Patents
一种可解释的深度知识追踪方法、系统及其应用 Download PDFInfo
- Publication number
- CN113724110A CN113724110A CN202110993091.3A CN202110993091A CN113724110A CN 113724110 A CN113724110 A CN 113724110A CN 202110993091 A CN202110993091 A CN 202110993091A CN 113724110 A CN113724110 A CN 113724110A
- Authority
- CN
- China
- Prior art keywords
- learner
- model
- knowledge
- knowledge tracking
- answer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000010219 correlation analysis Methods 0.000 claims abstract description 6
- 230000004044 response Effects 0.000 claims description 5
- 241001522296 Erithacus rubecula Species 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 8
- 230000006399 behavior Effects 0.000 abstract description 3
- 230000019771 cognition Effects 0.000 abstract description 2
- 238000012549 training Methods 0.000 description 18
- 238000011156 evaluation Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 238000012360 testing method Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 235000017166 Bambusa arundinacea Nutrition 0.000 description 1
- 235000017491 Bambusa tulda Nutrition 0.000 description 1
- 241001330002 Bambuseae Species 0.000 description 1
- 235000015334 Phyllostachys viridis Nutrition 0.000 description 1
- 239000011425 bamboo Substances 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Economics (AREA)
- Mathematical Physics (AREA)
- Tourism & Hospitality (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- General Business, Economics & Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Marketing (AREA)
- Educational Technology (AREA)
- Primary Health Care (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于在线教育技术领域,具体涉及一种知识追踪方法、系统及其应用。一种可解释的深度知识追踪方法,包括:以学习者的历史答题记录为输入,通过构建的基于门控循环单元的深度知识追踪模型,预测学习者对目标题目的作答情况;利用分层相关性传播算法对输入的历史答题记录与模型的预测结果进行相关性分析,获得学习者的知识掌握情况。本发明构建基于门控循环单元(GRU)构建知识追踪模型,模拟学习者的知识遗忘行为,更加符合学习者的认知,提高知识掌握预测性能;同时,提出将分层相关性传播算法引入至所构建的模型中对模型的预测结果进行分析解释,获得学习过程中各知识点之间的关联性,从而了解学习者对各知识点的掌握情况,以便于接下来对学习者进行个性化、针对性的学习指导。
Description
技术领域
本发明属于在线教育技术领域,具体涉及一种知识追踪方法、系统及其应用。
背景技术
在在线学习普及的大环境下,各大在线学习平台如雨后春笋般建立,在线教育如火如荼,学习资源的使用率和传播率空前提高。据中国互联网信息中心统计,截止到2020年底,在线教育用户达到了3.42亿人,是2016年用户人数的2倍多(中国互联网络信息中心(CNNIC).第47次中国互联网络发展现状统计报告[R].2021:55-57.),尤其在今年上半年新冠疫情爆发期间,全国各地中小学都采用了在线学习的方式。然而在线学习的留存率和完成率却始终不符合预期(赵磊,邓彤,吴卓平.基于数据挖掘的MOOC学习者学业成绩预测与群体特征分析[J].重庆高教研究,2021:1-13.),有研究调查了221门大规模在线开放课程(MOOC),结果发现,在MOOC平台上注册的学习者的完成率在0.7%~52.1%之间,平均仅有12.6%完成了课程学习,约4/5的学习者无法及格(Jordan K.Massive open onlinecourse completion rates revisited:assessment,length and attrition[J].TheInternational Review of Research in Open and Distributed Learning,2015,16(3):341-358.)。除此之外,在一项对2万余名本科生疫情期间的在线学习情况的调查中,研究人员发现,学习者对教学平台的满意度较低,仅有一半的学习者表示满意(王飞,王忠勇,王晓川.疫情期间在线教学效果对线上“金课”建设的启示——基于郑州大学24315名本科生的在线教学满意度调查与分析[J].中国教育信息化,2021,7:31-35.)。
究其原因,虽然目前的在线学习平台能够满足知识传递的需要,但平台更多的停留在知识被动呈现层面,教学模式仍然是传统教学模式的复刻。且比起传统教学,在线学习被诟病最多的在于不能实时获取学习者的学习状态,即不知道学习者掌握了哪些知识,没有掌握哪些知识,在什么时候应该给予学习者帮助……此外,在一个拥有数百万用户的在线课程中,教师无法兼顾到每一位学习者,以至于学习者无法清晰的了解自身的知识掌握水平,学习效率低下,降低了学习者对在线学习平台的好感度,最终导致线上学习的高辍学率。
由此可见,预测学习者的知识掌握情况,从而提供个性化指导是提升在线学习质量的关键。另一方面,在大规模在线开放课程中,可以从学习者与平台的互动中获得大量的数据,这些数据可以侧面的反应学习者的学习状态,如何处理这些数据重构学习者的知识掌握情况成为了重中之重。为了解决这个问题,实时地获知学习者的学习状态和知识掌握状态,为学习者提供个性化的指导,知识追踪技术应运而生。
当前主流的知识追踪模型除了传统的知识追踪模型外,在深度学习技术快速发展的推动下,神经网络被广泛应用于设计知识追踪模型以获得更好的预测性能,例如深度学习中循环神经网络(Recurrent Neural Network,RNN)可用来训练时间序列的数据(Schuster M,Paliwal K.Bidirectional recurrent neural networks[J].IEEETransactions on Signal Processing,2002,45(11):2673-2681.)。因此,将深度学习技术应用于知识追踪领域可构建基于深度学习的知识追踪模型,也称为深度知识追踪模型(Deep Knowledge Tracing,DKT)(Piech C,Spencer J,Huang J.Deep knowledge tracing[J].Computer Science,2015:1-9.)。然而,这些模型面临着缺乏可解释性的问题,也阻碍了它们在教育教学中的实际应用。
发明内容
本发明的目的是针对现有传统的知识追踪模型或方法存在的问题,提出了一种可解释的深度知识追踪方法、系统及其应用,本发明基于门控循环单元(GRU)构建知识追踪模型,提高模型预测性能,并通过引入分层相关性传播(LRP)算法解决模型可解释性差的问题。
为了实现上述目的,本发明的其中一个方面提供一种可解释的深度知识追踪方法,包括:以学习者的历史答题记录为输入,通过构建的基于门控循环单元的深度知识追踪模型,预测学习者对目标题目的作答情况;利用分层相关性传播算法对输入的历史答题记录与模型的预测结果进行相关性分析,获得学习者的知识掌握情况。
优选地,所述的基于门控循环单元的深度知识追踪模型包括重置门、更新门;所述的重置门用于根据输入的历史答题记录,对所要遗忘的答题记录进行选择;所述更新门用于确定需要记忆到到未来的答题记录。
本发明的另一方面提供一种可解释的深度知识追踪系统,该系统包括预测模型,用于根据学习者的历史答题记录,预测学习者对目标题目的作答情况;
解释模块,利用分层相关性传播算法对输入的历史答题记录与模型的预测结果进行相关性分析,获得学习者的知识掌握情况。
优选地,所述的解释模块,计算输入的每一个题目的答题情况与模型预测结果之间的相关系数;根据相关系数的大小,判断输入题目与目标题目之间的关联程度。
本发明的第三个方面提供一种所述的可解释的深度知识追踪系统的应用,该系统用于在线学习中实现对学习者的个性化学习指导。
优选地,该系统可用于支持智能教学系统或MOOC平台。
本发明提供的可解释的深度知识追踪方法、系统及其应用,具有的有益效果在于:本发明构建的基于门控循环单元(GRU)构建知识追踪模型,模拟学习者的知识遗忘行为,更加符合学习者的认知,提高知识掌握预测性能;同时,提出将分层相关性传播算法引入至所构建的模型中对模型的预测结果进行分析解释,获得学习过程中各知识点之间的关联性,从而了解学习者对各知识点的掌握情况,以便于接下来对学习者进行个性化、针对性的学习指导。
附图说明
图1为本发明实施例中构建的模型的示意图;其中,(a)基于门控循环单元的知识追踪模型结构图,(b)为(a)的展开形式;
图2是分层相关性传播算法示意图;
图3为分层相关性传播算法对模型预测结果的分析解释原理示意图;
图4为本发明实施例中LSTM和GRU模型的评估结果;
图5是本发明实施例中删除实验模型准确率变化图,其中,(a)基于LSTM知识追踪模型学习者作答正确的练习序列、(b)基于LSTM知识追踪模型学习者作答错误的练习序列、(c)基于GRU知识追踪模型学习者作答正确的练习序列和(d)基于GRU知识追踪模型学习者作答错误的练习序列;
图6为本发明实施例提供的可解释的深度知识追踪系统结构图。
具体实施方式
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细的说明。附图中给出了本发明的较佳的实施例。但是,本发明可以以许多不同的形式来实现,并不限于本说明书所描述的实施例。相反地,提供这些实施例的目的是使对本发明公开内容的理解更加透彻全面。
实施例1本发明提供得的其中一个实施例是:一种可解释的深度知识追踪方法,该方法包括:
1、构建基于门控循环单元的深度知识追踪模型
本实施例基于门控循环单元(GRU)构建深度知识追踪模型,以更好地模拟知识遗忘行为,提高预测性能。门控循环单元(Gated recurrent unit,GRU)是循环神经网络的另一种变式,其输入和输出的结构与普通的RNN相似,模型结构具体如图1(a)所示,包括重置门和更新门,其中图1(a)的展开形式如图1(b)所示,模型的算法实现过程如下:
第一步:重置,直接作用于前面的隐藏层,决定要遗忘过去的多少信息(答题记录),如公式(1)、(2)所示。
rt=σ(wrhht-1+wrxxt+br) (1)
其中,rt是重置门,为候选的需要记忆的答题记录,σ为sigmoid函数,tanh为激活函数,ht-1为上一时刻隐藏层,xt为该时刻的输入(题目和相应的作答情况),wrh、wrx、whh、whx和br、bh分别为权重矩阵和偏置项。ht为当前隐藏层,是指根据输入的历史答题情况(包括题目和相应的作答情况),在当前时刻记忆的答题记录。
第二步:更新,如公式(3)(4)(5)所示。
zt=σ(wzhht-1+wzxxt+bz) (3)
yt=σ(wyhht+by) (5)
其中,zt为更新门,ht为当前隐藏层,yt是模型的输出。
具体来说,更新门的sigmoid层决定要前一时间步记忆的多少答题记录传递到未来,zt与的乘积表示当前时间步保留到最终记忆的答题记录,该信息加上前一时间步保留至最终记忆的答题记录就是GRU输出的内容,最后基于ht计算出yt,即学习者对当前题目回答正确的概率。
例如:学习者共做了S1、S2、S3这3道练习题,S1、S2两道练习题均作答正确,S3作答错误,将这3道练习题的作答情况输入预测模型,模型预测练习题S4作答正确的概率。
2、采用LRP算法分析知识追踪模型的预测结果
在基于GRU的深度知识追踪模型中,从模型的输入(xt)开始,向前移动,经过重置门和更新门,最终输出对知识掌握情况的预测(yt)。而分层相关性传播(LRP)算法则从模型的输出(yt)开始,反向移动,直到到达模型输入(xt)为止,对模型的预测结果进行分析解释。如图3所示,将输出的相关性向后分配,计算出每个节点对结果的贡献,最后计算出 表示当前输入与模型预测结果的相关值,表示当前输入题目的答题情况对最终的预测结果贡献度。
具体算法实现过程如下:
其中,wyh、whh、whx为模型训练的权重值,by、bh是模型训练的偏置项,ht为当前时刻的隐藏状态,ht-1为前一个时刻的隐藏状态,yt为模型的输出,xt为模型的输入,rt为重置门,zt为更新门。
例如:模型预测练习题S4作答正确,为了知道为什么模型会预测练习题S4做对,本发明采用LRP算法,对输入的S1、S2、S3的作答情况与S4的预测结果进行分析,分别计算出S1、S2、S3的作答情况与S4预测结果的相关系数,假如S1、S2的作答情况与预测结果的相关系数较大,表明S4与S1、S2存在强相关,由于S1、S2均作答正确,预测S4也作答正确,揭示S1、S2、S4属于同一知识点或者同一知识概念下的相关知识点;因此,S1、S2的作答情况对S4的预测结果起到较大的影响作用。
S3的作答情况与S4预测结果的相关系数较小,说明S4与S3相关性较低,揭示S4与S3可能属于不同的知识概念。因此,S3的作答情况与S4的预测结果之间没有联系,即S3的作答情况不影响S4的预测结果。
实施例2为了验证本发明构建的知识追踪模型的性能,本实施例进行了计算及对比实验。
首先在训练模型前,对数据进行预处理;其次是模型的训练和测试,进行基于LSTM的知识追踪模型(对比例)和基于GRU的知识追踪模型(本发明)对比实验,接着对两组实验计算得到的评估系数进行统计,使用T检验求出两组评估系数有无显著性差异。最后在模型训练测试完毕后进行模型的解释,导入上一步保存的模型中的权重值和偏置项,计算出输入所对应的相关系数。
模型代码依托于python语言实现,实验过程中使用的外置包及其版本如下:Python 3.7.9,Tensorflow 2.0.0,Keras 2.3.1。实验机器的处理器为Intel(R)Core(TM)i7-8700T 2.40GHz RAM=8GB
1、数据集
目前,用于训练知识追踪模型的公开的数据集有KDD Cup、Simylated-5、Assistments等,详细信息见表1。相较而言,Assistments公开数据集是较权威的并可公开获得的知识追踪数据集。Assistments2009数据集收集于Assistments在线辅导平台,包含了50多万条小学数学习题提交的数据;与Assistments2009相比,Assistments2015的学习者数量和答题数量更多,但每个学习者平均作答的问题数量较少。通过综合比较上述数据集的学习者、知识点和答题数量,本发明最终选取了Assistments2009数据集模型。
表1已有的公开数据集描述
2、参数配置
在这一部分中,本发明设置了深度知识追踪模型的程序中所需要的参数设置,主要涉及到七个参数,参数及具体设置见表2。
(1)设置批处理数据大小:将训练的数据分批次输入,每次都用一个批处理数据大小(batch size=20)的数据进行训练,这样可以加快模型的训练速度;
(2)设置判断正确的范围:预测结果在0-1之间,其中0.6-1判断为答题正确,0-0.6判断为答题错误;
(3)设置隐藏节点的个数:如果设置的隐藏节点过少,则无法很好的学习输入的信息,如果隐藏节点个数过多,则会使网络结构过于复杂,程序中设置的隐藏节点的个数为200;
(4)设置损失函数,损失函数调用了Keras库中的交叉熵损失函数(binary crossentropy),该损失函数适用于二分类的数据;
(5)设置激活函数:激活函数可以使线性的神经网络非线性化,实现对数据更好的学习,程序中使用了sigmod函数和tanh函数作为激活函数;
(6)设置丢弃概率(Dropout):为了防止模型的过拟合,需要在深度网络的训练过程中按照随机的概率将部分神经单元暂时丢弃,程序中设置的随机丢弃的概率为0.5;
(7)设置训练次数(Epoch):程序中设置训练的次数为50次,当训练过程中的迭代次数超过50之后,模型就会停止训练。通过设置训练次数,可以控制训练时间进而避免无用的训练。
表2参数设置
3、结果分析
(1)模型预测评估
模型的评估指标包括:准确率(Accuracy):表示的是所有的样本中被正确预测样本的比例;混淆矩阵(Confusion matrix):能够比较全面的分析分类模型的好坏;由混淆矩阵又衍生出几种指标,精准率(Precision):表示在预测为正的样本中,实际为正的样本所占的比例;召回率(Recall):实际为正的样本中被正确预测的比例;F1分数(F1score)则综合考虑了精准率和召回率,是最广泛的模型评估指标。准确率、精确率、召回率和F1分数都是处于0-1之间的,且得分越高,说明模型越好。
单一的评估往往不能说明模型的好坏,故本发明中采用了准确率、精确率、召回率和F1分数混合评估的方法。图4为LSTM和GRU模型的评估结果,实线为基于LSTM的深度知识追踪模型的评估系数,虚线为基于GRU的深度知识追踪模型的评估系数,从图4中可看出,两类深度学习模型在50次训练中都保持了较高的性能,其中,基于GRU的知识追踪模型的准确率、精确率和F1分数的得分大部分都高于基于LSTM模型的得分,而召回率二者则不相上下。
为了求证在图4中观察到的评估系数在两类模型中是否有显著性的差异,进一步进行T检验,检验结果如表3所示。由T检验可得,基于GRU的深度知识追踪模型的准确率显著的高于基于LSTM的深度知识追踪模型,t=-6.48,p<0.01;基于GRU的深度知识追踪模型的精确率显著的高于基于LSTM的深度知识追踪模型,t=-9.38,p<0.01;基于GRU的深度知识追踪模型的F1分数显著的高于基于LSTM的深度知识追踪模型,t=-2.49,p=0.01;基于GRU的深度知识追踪模型和基于LSTM的深度知识追踪模型在召回率(t=0.69,p=0.49)和实验时间(t=-0.24,p=0.81)上没有显著的差异。
表3模型评估系数的描述性统计和T检验
(2)模型解释评估
在对模型的可解释性评估中,本发明先随机抽取了一位学习者的做题记录作为个案,来具体说明模型的解释结果。如表4所示,该学习者共做了8个题目,涉及到三个知识概念:加法、矩形和减法,表4详细的列出了前7个题目的知识概念和答题情况,实际数据中第8个题目为减法,且学习者回答正确。基于LSTM的知识追踪模型和基于GRU的知识追踪模型预测的第8个题目回答正确的概率分别为0.80和0.72,和实际作答情况一致。
本发明采用LRP算法对基于LSTM的知识追踪模型和基于GRU的知识追踪模型的预测结果进行解释分析,计算得到的相关系数结果如表4最后两行所示,在“LSTM模型相关系数”这一行中可见,和输出结果相关系数最高的为第6、7题,也就是说,LRP算法认为这两个做题记录对于“预测下一题(减法题)是否做对”很重要。其次,LRP算法认为加法运算的做题记录,即第1、2题对预测亦举足轻重(r1=0.18,r2=0.21),而矩形这一知识概念和“预测下一题(减法题)是否做对”的相关关系非常弱(r3=0.08,r4=0.01)。这与本领域技术人员实际的认知一致,即加法运算和减法运算都属于算数领域的,关系密切,矩形属于几何领域,与减法关系疏远。在GRU模型中,同样能观察到上述规律,明了LRP算法解释深度知识追踪模型是可行的。
从该个案中,本发明得到了一个有实际意义的解释结果,即同一知识概念下相同或相关知识点之间存在的相关性能够影响同类题目的作答情况预测结果。通过该解释结果,可以了解学习者对相关知识概念的掌握情况,为下一步对学习者进行个性化学习指导打下基础。
表4 LRP算法解释模型个案
实施例3为了定量、全面的验证LRP算法的解释效果,本发明进一步提供了删除实验。具体来说,为保证删除后序列剩余的个数不会太少,本实施例选取了长度为15的练习序列,将前14个问题作为深度知识追踪模型的输入,最后一个问题验证模型预测是否正确。结果表明,LSTM模型在58179条序列中正确预测了40546条,GRU模型在57532条序列中正确预测了40578条。
接着,本发明根据学习者的答题情况将模型正确预测的练习序列分为两类,一类为学习者作答正确,另一类为学习者作答错误。分别对两类数据采用LRP算法,计算相关系数。每一类又分为A、B两组,A组按照相关性绝对值递减的顺序删除做题记录,B组随机删除与A组数量相同的做题记录。模型准确率变化如图5所示,横坐标为删除做题记录的个数,纵坐标为模型预测的准确率,图5表示分别为:(a)基于LSTM知识追踪模型学习者作答正确的练习序列、(b)基于LSTM知识追踪模型学习者作答错误的练习序列、(c)基于GRU知识追踪模型学习者作答正确的练习序列和(d)基于GRU知识追踪模型学习者作答错误的练习序列。以图5中(a)图为例,使用LSTM模型学习者作答正确的练习序列,A组按照相关性绝对值递减的顺序删除做题记录后,深度知识追踪模型的性能显著降低,由1降到了0.67。而B组随机删除做题记录后,模型的性能没有大幅度的改变,由1降到了0.92。这直观的说明了LRP算法能够正确的算出对预测结果重要的输入。
通过上述删除实验,进一步验证了LRP算法可以有效地解释模型,对输入的知识点之间的内在联系进行科学的分析和解释,从而获得学习者对相关知识概念的掌握情况,为个性化指导学习者的学习提供理论支持和依据。
实施例4本发明提供一种可解释的深度知识追踪系统,如图6所示,该系统包括预测模型,用于根据学习者的历史答题情况,预测学习者对目标题目的作答情况;
解释模块,利用分层相关性传播算法对输入的历史答题情况与模型的预测结果进行相关性分析,获得学习者的知识掌握情况。
其中,解释模块计算输入的每一个题目的答题情况与预测题目的答题情况预测结果之间的相关系数;相关系数较大的,表明题目之间具有较强关联性,属于同一知识点或相关知识点。存在强相关性的题目的历史作答情况对同类预测题目的作答情况预测结果具有较大影响。
实施例5本发明提供的可解释的深度知识追踪系统,可以用于支持智能教学系统和MOOC平台,实现根据学习者的历史做题记录,对学习者与平台的交互记录(作答正确与否、作答时间)进行建模,刻画学习者在各个时间节点的知识掌握情况,进而预测学习者在下一时间点的表现,从而了解学习者对相关知识概念的掌握情况,实现平台对学习者的个性化学习指导。
Claims (6)
1.一种可解释的深度知识追踪方法,其特征在于,包括:以学习者的历史答题记录为输入,通过构建的基于门控循环单元的深度知识追踪模型,预测学习者对目标题目的作答情况;利用分层相关性传播算法对输入的历史答题记录与模型的预测结果进行相关性分析,获得学习者的知识掌握情况。
2.根据权利要求1所述的可解释的深度知识追踪方法,其特征在于,所述的基于门控循环单元的深度知识追踪模型包括重置门、更新门;所述的重置门用于根据输入的历史答题记录,对所要遗忘的答题记录进行选择;所述更新门用于确定需要记忆到未来的答题记录。
3.一种可解释的深度知识追踪系统,其特征在于:该系统包括预测模型,用于根据学习者的历史答题记录,预测学习者对目标题目的作答情况;
解释模块,利用分层相关性传播算法对输入的历史答题记录与模型的预测结果进行相关性分析,获得学习者的知识掌握情况。
4.根据权利要求3所述的可解释的深度知识追踪系统,其特征在于:所述的解释模块,计算输入的每一个题目的答题情况与模型预测结果之间的相关系数;根据相关系数的大小,判断输入题目与目标题目之间的关联程度。
5.一种如权利要求3或4所述的可解释的深度知识追踪系统的应用,其特征在于:该系统用于在线学习中实现对学习者的个性化学习指导。
6.一种如权利要求3或4所述的可解释的深度知识追踪系统的应用,其特征在于:该系统用于支持智能教学系统或MOOC平台。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110993091.3A CN113724110A (zh) | 2021-08-27 | 2021-08-27 | 一种可解释的深度知识追踪方法、系统及其应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110993091.3A CN113724110A (zh) | 2021-08-27 | 2021-08-27 | 一种可解释的深度知识追踪方法、系统及其应用 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113724110A true CN113724110A (zh) | 2021-11-30 |
Family
ID=78678342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110993091.3A Pending CN113724110A (zh) | 2021-08-27 | 2021-08-27 | 一种可解释的深度知识追踪方法、系统及其应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113724110A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114358425A (zh) * | 2022-01-06 | 2022-04-15 | 杭州数理大数据技术有限公司 | 一种试题选择方法、装置、电子设备及存储介质 |
CN114781710A (zh) * | 2022-04-12 | 2022-07-22 | 云南师范大学 | 一种综合学习过程及题目知识点难度特征的知识追踪方法 |
CN114971425A (zh) * | 2022-07-27 | 2022-08-30 | 深圳市必提教育科技有限公司 | 数据库信息监控方法、装置、设备及存储介质 |
CN116308935A (zh) * | 2023-05-19 | 2023-06-23 | 湖南师范大学 | 基于多特征建模和多层次评价的学习预警方法及装置 |
CN116578694A (zh) * | 2023-04-21 | 2023-08-11 | 华南师范大学 | 解纠缠知识追踪方法、系统、装置和介质 |
CN117973527A (zh) * | 2024-04-02 | 2024-05-03 | 云南师范大学 | 一种基于gru捕捉问题上下文特征的知识追踪方法 |
CN118278512A (zh) * | 2024-05-31 | 2024-07-02 | 东北师范大学 | 一种基于深度学习模型可解释性的知识追踪可视分析系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107688870A (zh) * | 2017-08-15 | 2018-02-13 | 中国科学院软件研究所 | 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置 |
US20190340505A1 (en) * | 2018-05-03 | 2019-11-07 | Siemens Aktiengesellshaft | Determining influence of attributes in recurrent neural net-works trained on therapy prediction |
CN111241807A (zh) * | 2019-12-31 | 2020-06-05 | 浙江大学 | 一种基于知识引导注意力的机器阅读理解方法 |
CN112085168A (zh) * | 2020-09-11 | 2020-12-15 | 浙江工商大学 | 一种基于动态键值门控循环网络的知识追踪方法及系统 |
CN112116092A (zh) * | 2020-08-11 | 2020-12-22 | 浙江师范大学 | 可解释性知识水平追踪方法、系统和存储介质 |
US20210150341A1 (en) * | 2019-11-18 | 2021-05-20 | UMNAI Limited | Architecture for an explainable neural network |
WO2021099338A1 (en) * | 2019-11-18 | 2021-05-27 | UMNAI Limited | Architecture for an explainable neural network |
-
2021
- 2021-08-27 CN CN202110993091.3A patent/CN113724110A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107688870A (zh) * | 2017-08-15 | 2018-02-13 | 中国科学院软件研究所 | 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置 |
US20190340505A1 (en) * | 2018-05-03 | 2019-11-07 | Siemens Aktiengesellshaft | Determining influence of attributes in recurrent neural net-works trained on therapy prediction |
US20210150341A1 (en) * | 2019-11-18 | 2021-05-20 | UMNAI Limited | Architecture for an explainable neural network |
WO2021099338A1 (en) * | 2019-11-18 | 2021-05-27 | UMNAI Limited | Architecture for an explainable neural network |
CN111241807A (zh) * | 2019-12-31 | 2020-06-05 | 浙江大学 | 一种基于知识引导注意力的机器阅读理解方法 |
CN112116092A (zh) * | 2020-08-11 | 2020-12-22 | 浙江师范大学 | 可解释性知识水平追踪方法、系统和存储介质 |
CN112085168A (zh) * | 2020-09-11 | 2020-12-15 | 浙江工商大学 | 一种基于动态键值门控循环网络的知识追踪方法及系统 |
Non-Patent Citations (1)
Title |
---|
LU YU ET AL.: "Towards interpretable deep learning models for knowledge tracing", 《PROCEEDINGS OF THE 21ST INTERNATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE IN EDUCATION(AIED)》, pages 185 - 190 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114358425A (zh) * | 2022-01-06 | 2022-04-15 | 杭州数理大数据技术有限公司 | 一种试题选择方法、装置、电子设备及存储介质 |
CN114781710A (zh) * | 2022-04-12 | 2022-07-22 | 云南师范大学 | 一种综合学习过程及题目知识点难度特征的知识追踪方法 |
CN114971425A (zh) * | 2022-07-27 | 2022-08-30 | 深圳市必提教育科技有限公司 | 数据库信息监控方法、装置、设备及存储介质 |
CN116578694A (zh) * | 2023-04-21 | 2023-08-11 | 华南师范大学 | 解纠缠知识追踪方法、系统、装置和介质 |
CN116578694B (zh) * | 2023-04-21 | 2024-01-09 | 华南师范大学 | 解纠缠知识追踪方法、系统、装置和介质 |
CN116308935A (zh) * | 2023-05-19 | 2023-06-23 | 湖南师范大学 | 基于多特征建模和多层次评价的学习预警方法及装置 |
CN116308935B (zh) * | 2023-05-19 | 2023-08-08 | 湖南师范大学 | 基于多特征建模和多层次评价的学习预警方法及装置 |
CN117973527A (zh) * | 2024-04-02 | 2024-05-03 | 云南师范大学 | 一种基于gru捕捉问题上下文特征的知识追踪方法 |
CN117973527B (zh) * | 2024-04-02 | 2024-06-07 | 云南师范大学 | 一种基于gru捕捉问题上下文特征的知识追踪方法 |
CN118278512A (zh) * | 2024-05-31 | 2024-07-02 | 东北师范大学 | 一种基于深度学习模型可解释性的知识追踪可视分析系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113724110A (zh) | 一种可解释的深度知识追踪方法、系统及其应用 | |
Liu et al. | Ekt: Exercise-aware knowledge tracing for student performance prediction | |
CN110807469B (zh) | 融合长短时记忆与贝叶斯网络的知识追踪方法及系统 | |
CN109509126A (zh) | 一种基于用户学习行为的个性化试题推荐方法 | |
CN114372137B (zh) | 一种融合深度知识追踪的动态感知试题推荐方法及系统 | |
CN112085168A (zh) | 一种基于动态键值门控循环网络的知识追踪方法及系统 | |
CN114021722A (zh) | 一种融合认知刻画的注意力知识追踪方法 | |
CN109840595A (zh) | 一种基于群体学习行为特征的知识追踪方法 | |
Yang et al. | A novel quantitative relationship neural network for explainable cognitive diagnosis model | |
Gao et al. | Modeling the effort and learning ability of students in MOOCs | |
CN114429212A (zh) | 智能学习知识能力跟踪方法、电子设备及存储介质 | |
CN117473041A (zh) | 一种基于认知策略的编程知识追踪方法 | |
KR20220136952A (ko) | 복수의 시험 도메인에 적용되는 전이요소로 학습된 인공지능 모델을 통해 사용자의 실력을 평가하는 장치, 시스템 및 그것의 동작방법 | |
CN115544158A (zh) | 应用于智能教育系统的多知识点动态知识追踪方法 | |
CN112784154B (zh) | 一种带有数据增强的线上教学推荐系统 | |
Ma et al. | Dtkt: An improved deep temporal convolutional network for knowledge tracing | |
Yi | [Retracted] Research on English Teaching Reading Quality Evaluation Method Based on Cognitive Diagnostic Evaluation | |
CN116166998B (zh) | 一种联合全局和局部特征的学生表现预测方法 | |
Hare et al. | Optimize student learning via random forest-based adaptive narrative game | |
CN114971972A (zh) | 融合遗忘因素和习题难度的深度知识追踪方法及智能终端 | |
Lee et al. | Prescribing deep attentive score prediction attracts improved student engagement | |
Hao et al. | Intelligent analysis on the rationalization of children’s physical education curriculum based on recurrent neural networks | |
Yue et al. | Augmenting interpretable knowledge tracing by ability attribute and attention mechanism | |
Feng et al. | A MOOC-Based Hybrid Teaching Model of College English. | |
Huang et al. | T-BMIRT: Estimating representations of student knowledge and educational components in online education |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |