CN111985560B - 知识追踪模型的优化方法、系统及计算机存储介质 - Google Patents
知识追踪模型的优化方法、系统及计算机存储介质 Download PDFInfo
- Publication number
- CN111985560B CN111985560B CN202010838186.3A CN202010838186A CN111985560B CN 111985560 B CN111985560 B CN 111985560B CN 202010838186 A CN202010838186 A CN 202010838186A CN 111985560 B CN111985560 B CN 111985560B
- Authority
- CN
- China
- Prior art keywords
- feature
- representing
- knowledge
- feature subset
- subset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000005457 optimization Methods 0.000 title claims abstract description 7
- 238000007637 random forest analysis Methods 0.000 claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 8
- 230000009467 reduction Effects 0.000 claims abstract description 7
- 238000003066 decision tree Methods 0.000 claims description 15
- 238000011156 evaluation Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000015654 memory Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 25
- 230000004927 fusion Effects 0.000 abstract description 3
- 230000000875 corresponding effect Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Tourism & Hospitality (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机数据处理技术领域,公开了一种知识追踪模型的优化方法、系统及计算机存储介质,以减少模型需要训练的参数,有效避免人工选择带来的误差,保证模型能够收敛到全局最优,提高数据处理的效率并降低对计算机资源的占用。本发明方法,包括:将领域互信息算法与随机森林算法进行深度融合以选择特征子集;对被选择的特征子集中的特征进行编码;对编码结果进行降维;以及将降维后的编码结果输入LSTM神经网络进行训练。
Description
技术领域
本发明涉及计算机数据处理技术领域,尤其涉及一种知识追踪模型的优化方法、系统及计算机存储介质。
背景技术
进入二十一世纪以来,随着互联网技术的飞速发展,教育信息化的步伐逐渐加快。近年来,教育信息化技术逐渐走入日常教学,人们不断探索并改进网络教学模式。该模式打破了传统课堂教学模式中的地域限制,使学生能够随时随地享受优质的教学资源。随着在线教育逐渐被人们认可,慕课网、网易云课堂等大型在线开放式网络课程平台由于其高质量的在线课程,吸引了国内外大量用户注册使用。利用从这些平台收集的数据,研究人员能够深入了解学生的学习过程,进而为教师、学生提供个性化服务。
知识追踪是教育数据挖掘领域的一个重要研究课题,其目标是随着时间推移不断对学生知识掌握状态进行建模,通过估计学生的知识掌握程度,预测学生在后续练习中的表现状况。由于学生之间的知识背景和学习能力存在巨大的差异,教师一对一辅导能够针对差异为学生设计个性化的学习路径,所以这种模式往往能够获得更好的效果。但是,一对一辅导的效果很大程度上依赖于教师的经验知识。因此,如何对学生的能力进行评估是个性化教育教学中的重要环节。知识追踪模型是解决该问题的一类方法,该模型试图通过学生的练习情况,对学生的知识掌握情况进行评估。知识追踪模型中通常是用学生的题目作答情况作为观测变量,学生的知识掌握作为隐含变量,通过一系列题目作答情况构建学生的知识掌握情况,然后更进一步地对学生未来表现情况进行预测。知识追踪模型已经被广泛应用于教育系统中,实现了学习评价的智能化,有助于推进个性化教育,为教师、学生提供更好的教育服务。
发明内容
本发明目的在于公开一种知识追踪模型的优化方法、系统及计算机存储介质,以减少模型需要训练的参数,有效避免人工选择带来的误差,保证模型能够收敛到全局最优,提高数据处理的效率并降低对计算机资源的占用。
为实现上述目的,本发明公开了一种知识追踪模型的优化方法,包括:
步骤S1、选择特征子集;
步骤S2、对被选择的特征子集中的特征进行编码;
步骤S3、对编码结果进行降维;
步骤S4、以及将降维后的编码结果输入LSTM(Long Short-Term Memory,长短期记忆网络)神经网络进行训练;
其中,所述步骤S1具体包括:
步骤S11、初始化待选择特征子集U;
步骤S12、使用领域互信息计算各个特征之间的相关性矩阵S;
步骤S14、对于i=2,3,…,M,重复上述步骤S11,并计算特征x的重要性vimx;
xi表示第i个决策树中预评估特征变量x的取值,x′i表示对第i个决策树的预评估变量x进行扰动后的对应的取值,表示第i个分类树对应的袋外数据未发生扰动前在该树上分类失误率,表示第i个分类树对应的袋外数据发生扰动后在该树上的分类失误率;然后返回至步骤S12以循环对特征子集U中的每个特征计算重要性;
步骤S15、以重要性对各个特征进行排序;选择特征重要性排序中最不重要的特征y,确定所述相关性矩阵S中与特征y相关性高于阈值的特征集合W;如果集合W为空,更新待选择特征子集U=U-y,并结束此次循环;否则,对于W中任一特征,分别计算在使用U-W+w集合时随机森林的袋外分数,并更新待选择特征子集U=U-W+w,其中,w为最大袋外分数对应的特征;然后以新的特征子集返回至步骤S12并循环,直至确定满足目标数量的最终特征子集。
本发明具有以下有益效果:
将领域互信息算法与随机森林算法进行深度融合,可将满足目标数量的最终特征子集最多缩减至两个,有效减少了模型需要训练的参数,也有效避免了人工选择带来的误差,保证模型能够收敛到全局最优,提高数据处理的效率的同时也降低了对计算机资源的占用。
下面将参照附图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明优选实施例公开的NMIRF算法对比RF算法的特征的选择情况示意图;
图2是本发明优选实施例公开的NMIRF算法对比RF算法评价结果示意图;
图3是本发明优选实施例公开的BKT及其扩展模型进行比较结果示意图。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖的多种不同方式实施。
实施例1
本实施例公开一种知识追踪模型的优化方法,包括:
步骤S1、选择特征子集。
特征选择的目的是利用数据集合建立有效的模型。根据评估方法不同,特征选择算法一般分为以下两大类:Filter类和Wrapper类。Filter方法特征选择速度较快,但是忽略了待选择变量与模型最终目标的相关性,可能无法筛选出最优的子集;Wrapper方法选择精度高,但是每次选择都需要重新训练模型,无法处理大数据量的任务。单一的选择方法都有各自的局限性,而混合选择算法能够在集成各自优点的同时避免各自的缺点。
本实施例中,该步骤S1具体包括:
步骤S11、初始化待选择特征子集U。
步骤S12、使用领域互信息计算各个特征之间的相关性矩阵S。
在该步骤中,给定邻域半径δ,样本xi的F邻域可表示为:
δF(xi)={xj|xj∈U,ΔF(xi,xj)≤δ}
其中:Δ代表距离计算函数,样本xi的F邻域可以解释为:在特征子集F所确定的空间中,所有与样本xi的距离小于指定邻域半径δ的样本的集合。
对于a1,a2∈U,具体特征a1和a2的邻域互信息计算公式如下:
对应地,特征a1和类别D之间的邻域互信息计算公式如下:
步骤S14、对于i=2,3,…,M,重复上述步骤S11,并计算特征x的重要性vimx。
xi表示第i个决策树中预评估特征变量x的取值,x′i表示对第i个决策树的预评估变量x进行扰动后的对应的取值,表示第i个分类树对应的袋外数据未发生扰动前在该树上分类失误率,表示第i个分类树对应的袋外数据发生扰动后在该树上的分类失误率;然后返回至步骤S12以循环对特征子集U中的每个特征计算重要性。
步骤S15、以重要性对各个特征进行排序;选择特征重要性排序中最不重要的特征y,确定所述相关性矩阵S中与特征y相关性高于阈值的特征集合W;如果集合W为空,更新待选择特征子集U=U-y,并结束此次循环;否则,对于W中任一特征,分别计算在使用U-W+w集合时随机森林的袋外分数,并更新待选择特征子集U=U-W+w,其中,w为最大袋外分数对应的特征;然后以新的特征子集返回至步骤S12并循环,直至确定满足目标数量的最终特征子集。
步骤S2、对被选择的特征子集中的特征进行编码。
在该步骤中,优选地编码公式如下:
C(st,ct)=st+(max(s)+1)*ct
其中,C()表示使用交叉特征,O()表示one-hot编码,表示将编码结果进行拼接。st代表知识点ID,ct代表对应练习的作答结果,ft代表通过特征工程模块选取的重要特征对应的取值,s表示s_t的取值集合,max()表示取最大值。
当所述步骤S15确定的最终特征子集数量为2,对应的两个特征的交叉特征编码方式为:
C(f,g)=f+(max(F)+1)*g
C(g,f)=g+(max(G)+1)*f
式中,f、g分别表示需要编码的两个特征,F、G分别代表特征f、g的取值集合。
本实施例中,在多特征编码方案中,相比于单独特征,使用交叉特征可以明显提高模型性能。而交叉特征带来的输入向量维度增加的问题,则可以通过使用自动编码降维来解决。
步骤S3、对编码结果进行降维。
本实施例中,优选地,使用欠完备自编码器对编码结果进行降维。欠完备自编码器是编码结果维度小于输入维度的一类自动编码器。与其他神经网络模型类似,欠完备自编码器使用梯度下降算法对模型参数进行训练。计算公式如下:
b′=h(b)
r=p(b′)
L(b,r)=(||b-r||)2
其中,b表示自编码器的输入,b′表示自编码器的编码结果,h()表示编码过程;r表示编码数据的解码结果,p()表示解码过程;L()表示重建误差平方,即输出和输入的误差平方。
步骤S4、以及将降维后的编码结果输入LSTM神经网络进行训练。
在该步骤中,优选地神经网络的输入对应的计算公式如下:
v′t=tanh(Wae*vt+bae)
其中,v′t表示原始编码vt使用AE处理后得到的编码结果,Wae、bae分别表示通过AE训练得到的权重矩阵和偏差矩阵;
LSTM神经网络涉及到的公式如下:
ht=tanh(Whxv′t+Whhht-1+bh)
yt=σ(Wyhht+by)
其中,tanh和σ表示激活函数,Whx、Whh、Wyh表示各自对应权重矩阵,bh、by表示对应的偏差矩阵,ht表示神经网络在t时刻的状态,yt表示t时刻学生所有知识点的掌握状态。
进一步的,本实施例在ht与yt之间使用dropout机制,并在下一个隐含状态时不使用dropout机制,以防止在训练期间的过拟合。
将本实施例的上述方法(简称为NMIRF算法)应用于一具体实例中,数据集为Assistments2009-2010,使用该数据集可以同时评估学生的掌握水平和教师的授课水平。该数据的基本格式如下表1:
表1:
对比本实施例NMIRF算法及传统随机森林(RF)算法对特征的选择情况。
图1展示了不同大小特征子集时,NMIRF算法与RF算法各自的选择方案。其中特征数为10时表示全部待筛选特征。由图1可知,除最终特征子集大小为3时两种算法的选择方案相同外,其他特征子集大小时选择方案均不相同。两种不同算法的评价结果如图2所示,图中纵轴表示袋外数据评分,横轴表示特征子集大小。观察实验结果可以发现,当特征子集大小大于3时,NMIRF算法的袋外数据评分均大于RF算法的评分。当特征子集大小为4时,相比子集大小为3的结果,RF算法在特征子集中增加了第一次响应时间(ms_first_response),而此前特征子集中已经存在与之强相关的特征overlap_time,这也是RF算法结果不如NMIRF算法结果的原因。
将数据中的学生随机分成5组,依次取其中一组作为测试数据集,进行实验,最终使用五次实验结果的平均值作为评价结果。模型评价标准采用AUC。本实施例使用基本DKT(深度知识追踪模型)作为基本模型,分别通过AE(Auto Encoder,自动编码器)降维、NMIRF自动特征提取对模型进行扩充。同时,也与BKT及其扩展模型进行比较。结果如图3所示。基本BKT的AUC值仅有0.73,通过不同的扩展方式模型效果均得到了不同程度的提升;扩展知识遗忘之后的模型BKT+F达到了略优于基本DKT的效果,AUC值达到0.83;BKT+FSA由于过多参数导致该模型效果略差于BKT+F。从图中可以发现,通过加入多特征(DKT+NMIRF)、对输入进行降维(DKT+AE)都能在一定程度上提升原模型DKT的效果;DKTwMF在数据集上达到了最优的结果0.867,达到所有模型中最优效果。
实施例2
与上述实施例1相对应的,本实施例公开一种知识追踪模型的优化系统,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
实施例3
同理,与上述实施例1相对应的,本实施例公开一种计算机存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述方法中的步骤。
综上,本发明上述各实施例所分别公开的知识追踪模型的优化方法、系统及计算机存储介质,至少具有以下有益效果:
将领域互信息算法与随机森林算法进行深度融合,可将满足目标数量的最终特征子集最多缩减至两个,有效减少了模型需要训练的参数,也有效避免了人工选择带来的误差,保证模型能够收敛到全局最优,从而更准确地对学生技能状态进行评估;提高数据处理的效率的同时也降低了对计算机资源的占用。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种知识追踪模型的优化方法,其特征在于,包括:
所述知识追踪模型用学生的题目作答情况作为观测变量,学生的知识掌握作为隐含变量,通过一系列题目作答情况构建学生的知识掌握情况,对学生未来后续练习中的表现情况进行预测;
步骤S1、选择特征子集;一个特征子集为一个学生的知识点与完成的对应的练习的作答结果;
步骤S2、对被选择的特征子集中的特征进行编码;编码公式如下:
C(st,ct)=st+(max(s)+1)*ct
其中,C()表示使用交叉特征,0()表示one-hot编码,表示将编码结果进行拼接;st代表知识点ID,ct代表对应练习的作答结果,ft代表通过特征工程模块选取的重要特征对应的取值,s表示s_t的取值集合,max()表示取最大值;
步骤S3、对编码结果进行降维;
步骤S4、以及将降维后的编码结果输入LSTM神经网络进行训练;神经网络的输入对应的计算公式如下:
v′t=tanh(Wae*vt+bae)
其中,v′t表示原始编码vt使用AE处理后得到的编码结果,h()表示编码过程;Wae、bae分别表示通过AE训练得到的权重矩阵和偏差矩阵;
LSTM神经网络涉及到的公式如下:
ht=tanh(Whxv′t+Whhht-1+bh)
yt=σ(Wyhht+by)
其中,tanh和σ表示激活函数,Whx、Whh、Wyh表示各自对应权重矩阵,bh、by表示对应的偏差矩阵,ht表示神经网络在t时刻的状态,yt表示t时刻学生所有知识点的掌握状态;
其中,所述步骤S1具体包括:
步骤S11、初始化待选择特征子集U;
步骤S12、使用邻域互信息计算各个特征之间的相关性矩阵S;
步骤S14、对于i=2,3,...,M,重复上述步骤S11,并计算特征x的重要性vimx;
xi表示第i个决策树中预评估特征变量x的取值,x′i表示对第i个决策树的预评估变量x进行扰动后的对应的取值,表示第i个分类树对应的袋外数据未发生扰动前在该树上分类失误率,表示第i个分类树对应的袋外数据发生扰动后在该树上的分类失误率;然后返回至步骤S12以循环对特征子集U中的每个特征计算重要性;
步骤S15、以重要性对各个特征进行排序;选择特征重要性排序中最不重要的特征y,确定所述相关性矩阵S中与特征y相关性高于阈值的特征集合W;如果集合W为空,更新待选择特征子集U=U-y,并结束此次循环;否则,对于W中任一特征,分别计算在使用U-W+w集合时随机森林的袋外分数,并更新待选择特征子集U=U-W+w,其中,w为最大袋外分数对应的特征;然后以新的特征子集返回至步骤S12并循环,直至确定满足目标数量的最终特征子集。
2.根据权利要求1所述的知识追踪模型的优化方法,其特征在于,所述步骤S15确定的最终特征子集数量为2,对应的两个特征的交叉特征编码方式为:
C(f,g)=f+(max(F)+1)*g
C(g,f)=g+(max(G)+1)*f
式中,f、g分别表示需要编码的两个特征,F、G分别代表特征f、g的取值集合。
3.根据权利要求1至2任一所述的知识追踪模型的优化方法,其特征在于,所述步骤S3采用欠完备自编码器对编码结果进行降维,计算公式如下:
b′=h(b)
r=p(b′)
L(b,r)=(||b-r||)2
其中,b表示自编码器的输入,b′表示自编码器的编码结果,h()表示编码过程;r表示编码数据的解码结果,p()表示解码过程;L()表示重建误差平方,即输出和输入的误差平方。
4.根据权利要求3所述的知识追踪模型的优化方法,其特征在于,还包括:
在ht与yt之间使用dropout机制,并在下一个隐含状态时不使用dropout机制,以防止在训练期间的过拟合。
5.一种知识追踪模型的优化系统,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至4任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010838186.3A CN111985560B (zh) | 2020-08-19 | 2020-08-19 | 知识追踪模型的优化方法、系统及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010838186.3A CN111985560B (zh) | 2020-08-19 | 2020-08-19 | 知识追踪模型的优化方法、系统及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111985560A CN111985560A (zh) | 2020-11-24 |
CN111985560B true CN111985560B (zh) | 2023-05-12 |
Family
ID=73434844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010838186.3A Active CN111985560B (zh) | 2020-08-19 | 2020-08-19 | 知识追踪模型的优化方法、系统及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111985560B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113052316B (zh) * | 2021-03-01 | 2022-01-11 | 浙江师范大学 | 基于因果推理的知识追踪方法、系统、设备及存储介质 |
CN112990464B (zh) * | 2021-03-12 | 2022-06-28 | 东北师范大学 | 一种知识追踪方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108257052B (zh) * | 2018-01-16 | 2022-04-22 | 中南大学 | 一种在线学生知识评估方法及其系统 |
US10943497B2 (en) * | 2018-04-27 | 2021-03-09 | Adobe Inc. | Personalized e-learning using a deep-learning-based knowledge tracing and hint-taking propensity model |
CN109325844A (zh) * | 2018-06-25 | 2019-02-12 | 南京工业大学 | 多维数据下的网贷借款人信用评价方法 |
CN109902298B (zh) * | 2019-02-13 | 2023-04-18 | 东北师范大学 | 一种自适应学习系统中领域知识建模及知识水平估测方法 |
CN111243751B (zh) * | 2020-01-17 | 2022-04-22 | 河北工业大学 | 一种基于双重特征选择和XGBoost算法的心脏病预测方法 |
CN111524606B (zh) * | 2020-04-24 | 2024-01-30 | 郑州大学第一附属医院 | 一种基于随机森林算法的肿瘤数据统计方法 |
-
2020
- 2020-08-19 CN CN202010838186.3A patent/CN111985560B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111985560A (zh) | 2020-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113033808B (zh) | 一种基于习题难度和学生能力的深度嵌入知识追踪方法 | |
WO2020143130A1 (zh) | 基于物理环境博弈的自主进化智能对话方法、系统、装置 | |
CN113344053B (zh) | 一种基于试题异构图表征与学习者嵌入的知识追踪方法 | |
CN110321361B (zh) | 基于改进的lstm神经网络模型的试题推荐判定方法 | |
US20040143559A1 (en) | System and method for developing artificial intelligence | |
CN111582694A (zh) | 一种学习评估方法及装置 | |
CN111985560B (zh) | 知识追踪模型的优化方法、系统及计算机存储介质 | |
US7493295B2 (en) | Method, system and computer program for developing cortical algorithms | |
CN110490320B (zh) | 基于预测机制和遗传算法融合的深度神经网络结构优化方法 | |
CN113361685B (zh) | 一种基于学习者知识状态演化表示的知识追踪方法及系统 | |
CN111814982A (zh) | 面向多跳问答的动态推理网络及方法 | |
CN114385801A (zh) | 一种基于分层细化lstm网络的知识追踪方法及系统 | |
CN113190688A (zh) | 基于逻辑推理和图卷积的复杂网络链接预测方法及系统 | |
CN113591988B (zh) | 知识认知结构分析方法、系统、计算机设备、介质、终端 | |
CN114861754A (zh) | 一种基于外部注意力机制的知识追踪方法及系统 | |
CN116402133B (zh) | 一种基于结构聚合图卷积网络的知识图谱补全方法及系统 | |
CN115328971A (zh) | 基于双图神经网络的知识追踪建模方法及系统 | |
CN115329096A (zh) | 一种基于图神经网络的交互式知识追踪方法 | |
CN117253037A (zh) | 语义分割模型结构搜索方法、自动语义分割方法及系统 | |
CN115544158A (zh) | 应用于智能教育系统的多知识点动态知识追踪方法 | |
CN114971066A (zh) | 融合遗忘因素和学习能力的知识追踪方法及系统 | |
CN114861917A (zh) | 贝叶斯小样本学习的知识图谱推理模型、系统及推理方法 | |
CN117454971A (zh) | 基于自适应掩码加权的投影式知识蒸馏方法 | |
CN116644380A (zh) | 一种面向计算机编程试题的多模态特征融合知识追踪方法 | |
CN116823027A (zh) | 一种基于关联技能知识的智能学生能力评估方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |