CN111985560B - 知识追踪模型的优化方法、系统及计算机存储介质 - Google Patents

知识追踪模型的优化方法、系统及计算机存储介质 Download PDF

Info

Publication number
CN111985560B
CN111985560B CN202010838186.3A CN202010838186A CN111985560B CN 111985560 B CN111985560 B CN 111985560B CN 202010838186 A CN202010838186 A CN 202010838186A CN 111985560 B CN111985560 B CN 111985560B
Authority
CN
China
Prior art keywords
feature
representing
knowledge
feature subset
subset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010838186.3A
Other languages
English (en)
Other versions
CN111985560A (zh
Inventor
盛宇轩
王斌
冀星昀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202010838186.3A priority Critical patent/CN111985560B/zh
Publication of CN111985560A publication Critical patent/CN111985560A/zh
Application granted granted Critical
Publication of CN111985560B publication Critical patent/CN111985560B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Tourism & Hospitality (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机数据处理技术领域,公开了一种知识追踪模型的优化方法、系统及计算机存储介质,以减少模型需要训练的参数,有效避免人工选择带来的误差,保证模型能够收敛到全局最优,提高数据处理的效率并降低对计算机资源的占用。本发明方法,包括:将领域互信息算法与随机森林算法进行深度融合以选择特征子集;对被选择的特征子集中的特征进行编码;对编码结果进行降维;以及将降维后的编码结果输入LSTM神经网络进行训练。

Description

知识追踪模型的优化方法、系统及计算机存储介质
技术领域
本发明涉及计算机数据处理技术领域,尤其涉及一种知识追踪模型的优化方法、系统及计算机存储介质。
背景技术
进入二十一世纪以来,随着互联网技术的飞速发展,教育信息化的步伐逐渐加快。近年来,教育信息化技术逐渐走入日常教学,人们不断探索并改进网络教学模式。该模式打破了传统课堂教学模式中的地域限制,使学生能够随时随地享受优质的教学资源。随着在线教育逐渐被人们认可,慕课网、网易云课堂等大型在线开放式网络课程平台由于其高质量的在线课程,吸引了国内外大量用户注册使用。利用从这些平台收集的数据,研究人员能够深入了解学生的学习过程,进而为教师、学生提供个性化服务。
知识追踪是教育数据挖掘领域的一个重要研究课题,其目标是随着时间推移不断对学生知识掌握状态进行建模,通过估计学生的知识掌握程度,预测学生在后续练习中的表现状况。由于学生之间的知识背景和学习能力存在巨大的差异,教师一对一辅导能够针对差异为学生设计个性化的学习路径,所以这种模式往往能够获得更好的效果。但是,一对一辅导的效果很大程度上依赖于教师的经验知识。因此,如何对学生的能力进行评估是个性化教育教学中的重要环节。知识追踪模型是解决该问题的一类方法,该模型试图通过学生的练习情况,对学生的知识掌握情况进行评估。知识追踪模型中通常是用学生的题目作答情况作为观测变量,学生的知识掌握作为隐含变量,通过一系列题目作答情况构建学生的知识掌握情况,然后更进一步地对学生未来表现情况进行预测。知识追踪模型已经被广泛应用于教育系统中,实现了学习评价的智能化,有助于推进个性化教育,为教师、学生提供更好的教育服务。
发明内容
本发明目的在于公开一种知识追踪模型的优化方法、系统及计算机存储介质,以减少模型需要训练的参数,有效避免人工选择带来的误差,保证模型能够收敛到全局最优,提高数据处理的效率并降低对计算机资源的占用。
为实现上述目的,本发明公开了一种知识追踪模型的优化方法,包括:
步骤S1、选择特征子集;
步骤S2、对被选择的特征子集中的特征进行编码;
步骤S3、对编码结果进行降维;
步骤S4、以及将降维后的编码结果输入LSTM(Long Short-Term Memory,长短期记忆网络)神经网络进行训练;
其中,所述步骤S1具体包括:
步骤S11、初始化待选择特征子集U;
步骤S12、使用领域互信息计算各个特征之间的相关性矩阵S;
步骤S13、根据数据集构建包含M棵决策树的随机森林,初始化决策树i=1;计算特征子集中每个特征在第i棵决策树上的分类失误率
Figure BDA0002640452930000021
步骤S14、对于i=2,3,…,M,重复上述步骤S11,并计算特征x的重要性vimx
Figure BDA0002640452930000022
xi表示第i个决策树中预评估特征变量x的取值,x′i表示对第i个决策树的预评估变量x进行扰动后的对应的取值,
Figure BDA0002640452930000023
表示第i个分类树对应的袋外数据未发生扰动前在该树上分类失误率,
Figure BDA0002640452930000024
表示第i个分类树对应的袋外数据发生扰动后在该树上的分类失误率;然后返回至步骤S12以循环对特征子集U中的每个特征计算重要性;
步骤S15、以重要性对各个特征进行排序;选择特征重要性排序中最不重要的特征y,确定所述相关性矩阵S中与特征y相关性高于阈值的特征集合W;如果集合W为空,更新待选择特征子集U=U-y,并结束此次循环;否则,对于W中任一特征,分别计算在使用U-W+w集合时随机森林的袋外分数,并更新待选择特征子集U=U-W+w,其中,w为最大袋外分数对应的特征;然后以新的特征子集返回至步骤S12并循环,直至确定满足目标数量的最终特征子集。
本发明具有以下有益效果:
将领域互信息算法与随机森林算法进行深度融合,可将满足目标数量的最终特征子集最多缩减至两个,有效减少了模型需要训练的参数,也有效避免了人工选择带来的误差,保证模型能够收敛到全局最优,提高数据处理的效率的同时也降低了对计算机资源的占用。
下面将参照附图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明优选实施例公开的NMIRF算法对比RF算法的特征的选择情况示意图;
图2是本发明优选实施例公开的NMIRF算法对比RF算法评价结果示意图;
图3是本发明优选实施例公开的BKT及其扩展模型进行比较结果示意图。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖的多种不同方式实施。
实施例1
本实施例公开一种知识追踪模型的优化方法,包括:
步骤S1、选择特征子集。
特征选择的目的是利用数据集合建立有效的模型。根据评估方法不同,特征选择算法一般分为以下两大类:Filter类和Wrapper类。Filter方法特征选择速度较快,但是忽略了待选择变量与模型最终目标的相关性,可能无法筛选出最优的子集;Wrapper方法选择精度高,但是每次选择都需要重新训练模型,无法处理大数据量的任务。单一的选择方法都有各自的局限性,而混合选择算法能够在集成各自优点的同时避免各自的缺点。
本实施例中,该步骤S1具体包括:
步骤S11、初始化待选择特征子集U。
步骤S12、使用领域互信息计算各个特征之间的相关性矩阵S。
在该步骤中,给定邻域半径δ,样本xi的F邻域可表示为:
δF(xi)={xj|xj∈U,ΔF(xi,xj)≤δ}
其中:Δ代表距离计算函数,样本xi的F邻域可以解释为:在特征子集F所确定的空间中,所有与样本xi的距离小于指定邻域半径δ的样本的集合。
对于a1,a2∈U,具体特征a1和a2的邻域互信息计算公式如下:
Figure BDA0002640452930000031
对应地,特征a1和类别D之间的邻域互信息计算公式如下:
Figure BDA0002640452930000041
步骤S13、根据数据集构建包含M棵决策树的随机森林,初始化决策树i=1;计算特征子集中每个特征在第i棵决策树上的分类失误率
Figure BDA0002640452930000042
步骤S14、对于i=2,3,…,M,重复上述步骤S11,并计算特征x的重要性vimx
Figure BDA0002640452930000043
xi表示第i个决策树中预评估特征变量x的取值,x′i表示对第i个决策树的预评估变量x进行扰动后的对应的取值,
Figure BDA0002640452930000044
表示第i个分类树对应的袋外数据未发生扰动前在该树上分类失误率,
Figure BDA0002640452930000045
表示第i个分类树对应的袋外数据发生扰动后在该树上的分类失误率;然后返回至步骤S12以循环对特征子集U中的每个特征计算重要性。
步骤S15、以重要性对各个特征进行排序;选择特征重要性排序中最不重要的特征y,确定所述相关性矩阵S中与特征y相关性高于阈值的特征集合W;如果集合W为空,更新待选择特征子集U=U-y,并结束此次循环;否则,对于W中任一特征,分别计算在使用U-W+w集合时随机森林的袋外分数,并更新待选择特征子集U=U-W+w,其中,w为最大袋外分数对应的特征;然后以新的特征子集返回至步骤S12并循环,直至确定满足目标数量的最终特征子集。
步骤S2、对被选择的特征子集中的特征进行编码。
在该步骤中,优选地编码公式如下:
C(st,ct)=st+(max(s)+1)*ct
Figure BDA0002640452930000046
其中,C()表示使用交叉特征,O()表示one-hot编码,
Figure BDA0002640452930000047
表示将编码结果进行拼接。st代表知识点ID,ct代表对应练习的作答结果,ft代表通过特征工程模块选取的重要特征对应的取值,s表示s_t的取值集合,max()表示取最大值。
当所述步骤S15确定的最终特征子集数量为2,对应的两个特征的交叉特征编码方式为:
C(f,g)=f+(max(F)+1)*g
C(g,f)=g+(max(G)+1)*f
式中,f、g分别表示需要编码的两个特征,F、G分别代表特征f、g的取值集合。
本实施例中,在多特征编码方案中,相比于单独特征,使用交叉特征可以明显提高模型性能。而交叉特征带来的输入向量维度增加的问题,则可以通过使用自动编码降维来解决。
步骤S3、对编码结果进行降维。
本实施例中,优选地,使用欠完备自编码器对编码结果进行降维。欠完备自编码器是编码结果维度小于输入维度的一类自动编码器。与其他神经网络模型类似,欠完备自编码器使用梯度下降算法对模型参数进行训练。计算公式如下:
b′=h(b)
r=p(b′)
L(b,r)=(||b-r||)2
其中,b表示自编码器的输入,b′表示自编码器的编码结果,h()表示编码过程;r表示编码数据的解码结果,p()表示解码过程;L()表示重建误差平方,即输出和输入的误差平方。
步骤S4、以及将降维后的编码结果输入LSTM神经网络进行训练。
在该步骤中,优选地神经网络的输入对应的计算公式如下:
v′t=tanh(Wae*vt+bae)
其中,v′t表示原始编码vt使用AE处理后得到的编码结果,Wae、bae分别表示通过AE训练得到的权重矩阵和偏差矩阵;
LSTM神经网络涉及到的公式如下:
ht=tanh(Whxv′t+Whhht-1+bh)
yt=σ(Wyhht+by)
其中,tanh和σ表示激活函数,Whx、Whh、Wyh表示各自对应权重矩阵,bh、by表示对应的偏差矩阵,ht表示神经网络在t时刻的状态,yt表示t时刻学生所有知识点的掌握状态。
进一步的,本实施例在ht与yt之间使用dropout机制,并在下一个隐含状态时不使用dropout机制,以防止在训练期间的过拟合。
将本实施例的上述方法(简称为NMIRF算法)应用于一具体实例中,数据集为Assistments2009-2010,使用该数据集可以同时评估学生的掌握水平和教师的授课水平。该数据的基本格式如下表1:
表1:
Figure BDA0002640452930000061
对比本实施例NMIRF算法及传统随机森林(RF)算法对特征的选择情况。
图1展示了不同大小特征子集时,NMIRF算法与RF算法各自的选择方案。其中特征数为10时表示全部待筛选特征。由图1可知,除最终特征子集大小为3时两种算法的选择方案相同外,其他特征子集大小时选择方案均不相同。两种不同算法的评价结果如图2所示,图中纵轴表示袋外数据评分,横轴表示特征子集大小。观察实验结果可以发现,当特征子集大小大于3时,NMIRF算法的袋外数据评分均大于RF算法的评分。当特征子集大小为4时,相比子集大小为3的结果,RF算法在特征子集中增加了第一次响应时间(ms_first_response),而此前特征子集中已经存在与之强相关的特征overlap_time,这也是RF算法结果不如NMIRF算法结果的原因。
将数据中的学生随机分成5组,依次取其中一组作为测试数据集,进行实验,最终使用五次实验结果的平均值作为评价结果。模型评价标准采用AUC。本实施例使用基本DKT(深度知识追踪模型)作为基本模型,分别通过AE(Auto Encoder,自动编码器)降维、NMIRF自动特征提取对模型进行扩充。同时,也与BKT及其扩展模型进行比较。结果如图3所示。基本BKT的AUC值仅有0.73,通过不同的扩展方式模型效果均得到了不同程度的提升;扩展知识遗忘之后的模型BKT+F达到了略优于基本DKT的效果,AUC值达到0.83;BKT+FSA由于过多参数导致该模型效果略差于BKT+F。从图中可以发现,通过加入多特征(DKT+NMIRF)、对输入进行降维(DKT+AE)都能在一定程度上提升原模型DKT的效果;DKTwMF在数据集上达到了最优的结果0.867,达到所有模型中最优效果。
实施例2
与上述实施例1相对应的,本实施例公开一种知识追踪模型的优化系统,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
实施例3
同理,与上述实施例1相对应的,本实施例公开一种计算机存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述方法中的步骤。
综上,本发明上述各实施例所分别公开的知识追踪模型的优化方法、系统及计算机存储介质,至少具有以下有益效果:
将领域互信息算法与随机森林算法进行深度融合,可将满足目标数量的最终特征子集最多缩减至两个,有效减少了模型需要训练的参数,也有效避免了人工选择带来的误差,保证模型能够收敛到全局最优,从而更准确地对学生技能状态进行评估;提高数据处理的效率的同时也降低了对计算机资源的占用。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种知识追踪模型的优化方法,其特征在于,包括:
所述知识追踪模型用学生的题目作答情况作为观测变量,学生的知识掌握作为隐含变量,通过一系列题目作答情况构建学生的知识掌握情况,对学生未来后续练习中的表现情况进行预测;
步骤S1、选择特征子集;一个特征子集为一个学生的知识点与完成的对应的练习的作答结果;
步骤S2、对被选择的特征子集中的特征进行编码;编码公式如下:
C(st,ct)=st+(max(s)+1)*ct
Figure FDA0004052350600000011
其中,C()表示使用交叉特征,0()表示one-hot编码,
Figure FDA0004052350600000012
表示将编码结果进行拼接;st代表知识点ID,ct代表对应练习的作答结果,ft代表通过特征工程模块选取的重要特征对应的取值,s表示s_t的取值集合,max()表示取最大值;
步骤S3、对编码结果进行降维;
步骤S4、以及将降维后的编码结果输入LSTM神经网络进行训练;神经网络的输入对应的计算公式如下:
v′t=tanh(Wae*vt+bae)
其中,v′t表示原始编码vt使用AE处理后得到的编码结果,h()表示编码过程;Wae、bae分别表示通过AE训练得到的权重矩阵和偏差矩阵;
LSTM神经网络涉及到的公式如下:
ht=tanh(Whxv′t+Whhht-1+bh)
yt=σ(Wyhht+by)
其中,tanh和σ表示激活函数,Whx、Whh、Wyh表示各自对应权重矩阵,bh、by表示对应的偏差矩阵,ht表示神经网络在t时刻的状态,yt表示t时刻学生所有知识点的掌握状态;
其中,所述步骤S1具体包括:
步骤S11、初始化待选择特征子集U;
步骤S12、使用邻域互信息计算各个特征之间的相关性矩阵S;
步骤S13、根据数据集构建包含M棵决策树的随机森林,初始化决策树i=1;计算特征子集中每个特征在第i棵决策树上的分类失误率
Figure FDA0004052350600000013
步骤S14、对于i=2,3,...,M,重复上述步骤S11,并计算特征x的重要性vimx
Figure FDA0004052350600000021
xi表示第i个决策树中预评估特征变量x的取值,x′i表示对第i个决策树的预评估变量x进行扰动后的对应的取值,
Figure FDA0004052350600000022
表示第i个分类树对应的袋外数据未发生扰动前在该树上分类失误率,
Figure FDA0004052350600000023
表示第i个分类树对应的袋外数据发生扰动后在该树上的分类失误率;然后返回至步骤S12以循环对特征子集U中的每个特征计算重要性;
步骤S15、以重要性对各个特征进行排序;选择特征重要性排序中最不重要的特征y,确定所述相关性矩阵S中与特征y相关性高于阈值的特征集合W;如果集合W为空,更新待选择特征子集U=U-y,并结束此次循环;否则,对于W中任一特征,分别计算在使用U-W+w集合时随机森林的袋外分数,并更新待选择特征子集U=U-W+w,其中,w为最大袋外分数对应的特征;然后以新的特征子集返回至步骤S12并循环,直至确定满足目标数量的最终特征子集。
2.根据权利要求1所述的知识追踪模型的优化方法,其特征在于,所述步骤S15确定的最终特征子集数量为2,对应的两个特征的交叉特征编码方式为:
C(f,g)=f+(max(F)+1)*g
C(g,f)=g+(max(G)+1)*f
式中,f、g分别表示需要编码的两个特征,F、G分别代表特征f、g的取值集合。
3.根据权利要求1至2任一所述的知识追踪模型的优化方法,其特征在于,所述步骤S3采用欠完备自编码器对编码结果进行降维,计算公式如下:
b′=h(b)
r=p(b′)
L(b,r)=(||b-r||)2
其中,b表示自编码器的输入,b′表示自编码器的编码结果,h()表示编码过程;r表示编码数据的解码结果,p()表示解码过程;L()表示重建误差平方,即输出和输入的误差平方。
4.根据权利要求3所述的知识追踪模型的优化方法,其特征在于,还包括:
在ht与yt之间使用dropout机制,并在下一个隐含状态时不使用dropout机制,以防止在训练期间的过拟合。
5.一种知识追踪模型的优化系统,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至4任一所述方法的步骤。
CN202010838186.3A 2020-08-19 2020-08-19 知识追踪模型的优化方法、系统及计算机存储介质 Active CN111985560B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010838186.3A CN111985560B (zh) 2020-08-19 2020-08-19 知识追踪模型的优化方法、系统及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010838186.3A CN111985560B (zh) 2020-08-19 2020-08-19 知识追踪模型的优化方法、系统及计算机存储介质

Publications (2)

Publication Number Publication Date
CN111985560A CN111985560A (zh) 2020-11-24
CN111985560B true CN111985560B (zh) 2023-05-12

Family

ID=73434844

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010838186.3A Active CN111985560B (zh) 2020-08-19 2020-08-19 知识追踪模型的优化方法、系统及计算机存储介质

Country Status (1)

Country Link
CN (1) CN111985560B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052316B (zh) * 2021-03-01 2022-01-11 浙江师范大学 基于因果推理的知识追踪方法、系统、设备及存储介质
CN112990464B (zh) * 2021-03-12 2022-06-28 东北师范大学 一种知识追踪方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257052B (zh) * 2018-01-16 2022-04-22 中南大学 一种在线学生知识评估方法及其系统
US10943497B2 (en) * 2018-04-27 2021-03-09 Adobe Inc. Personalized e-learning using a deep-learning-based knowledge tracing and hint-taking propensity model
CN109325844A (zh) * 2018-06-25 2019-02-12 南京工业大学 多维数据下的网贷借款人信用评价方法
CN109902298B (zh) * 2019-02-13 2023-04-18 东北师范大学 一种自适应学习系统中领域知识建模及知识水平估测方法
CN111243751B (zh) * 2020-01-17 2022-04-22 河北工业大学 一种基于双重特征选择和XGBoost算法的心脏病预测方法
CN111524606B (zh) * 2020-04-24 2024-01-30 郑州大学第一附属医院 一种基于随机森林算法的肿瘤数据统计方法

Also Published As

Publication number Publication date
CN111985560A (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
CN113033808B (zh) 一种基于习题难度和学生能力的深度嵌入知识追踪方法
WO2020143130A1 (zh) 基于物理环境博弈的自主进化智能对话方法、系统、装置
CN113344053B (zh) 一种基于试题异构图表征与学习者嵌入的知识追踪方法
CN110321361B (zh) 基于改进的lstm神经网络模型的试题推荐判定方法
US20040143559A1 (en) System and method for developing artificial intelligence
CN111582694A (zh) 一种学习评估方法及装置
CN111985560B (zh) 知识追踪模型的优化方法、系统及计算机存储介质
US7493295B2 (en) Method, system and computer program for developing cortical algorithms
CN110490320B (zh) 基于预测机制和遗传算法融合的深度神经网络结构优化方法
CN113361685B (zh) 一种基于学习者知识状态演化表示的知识追踪方法及系统
CN111814982A (zh) 面向多跳问答的动态推理网络及方法
CN114385801A (zh) 一种基于分层细化lstm网络的知识追踪方法及系统
CN113190688A (zh) 基于逻辑推理和图卷积的复杂网络链接预测方法及系统
CN113591988B (zh) 知识认知结构分析方法、系统、计算机设备、介质、终端
CN114861754A (zh) 一种基于外部注意力机制的知识追踪方法及系统
CN116402133B (zh) 一种基于结构聚合图卷积网络的知识图谱补全方法及系统
CN115328971A (zh) 基于双图神经网络的知识追踪建模方法及系统
CN115329096A (zh) 一种基于图神经网络的交互式知识追踪方法
CN117253037A (zh) 语义分割模型结构搜索方法、自动语义分割方法及系统
CN115544158A (zh) 应用于智能教育系统的多知识点动态知识追踪方法
CN114971066A (zh) 融合遗忘因素和学习能力的知识追踪方法及系统
CN114861917A (zh) 贝叶斯小样本学习的知识图谱推理模型、系统及推理方法
CN117454971A (zh) 基于自适应掩码加权的投影式知识蒸馏方法
CN116644380A (zh) 一种面向计算机编程试题的多模态特征融合知识追踪方法
CN116823027A (zh) 一种基于关联技能知识的智能学生能力评估方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant