CN117349362A - 一种动态知识认知层级挖掘方法、系统、设备及终端 - Google Patents
一种动态知识认知层级挖掘方法、系统、设备及终端 Download PDFInfo
- Publication number
- CN117349362A CN117349362A CN202311296995.6A CN202311296995A CN117349362A CN 117349362 A CN117349362 A CN 117349362A CN 202311296995 A CN202311296995 A CN 202311296995A CN 117349362 A CN117349362 A CN 117349362A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- learner
- learning
- test
- level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 128
- 230000001149 cognitive effect Effects 0.000 title claims abstract description 81
- 238000005065 mining Methods 0.000 title claims abstract description 56
- 238000012360 testing method Methods 0.000 claims abstract description 193
- 230000004044 response Effects 0.000 claims abstract description 60
- 230000003993 interaction Effects 0.000 claims abstract description 45
- 238000013528 artificial neural network Methods 0.000 claims abstract description 32
- 230000019771 cognition Effects 0.000 claims abstract description 31
- 239000000203 mixture Substances 0.000 claims abstract description 30
- 230000006399 behavior Effects 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 25
- 239000013598 vector Substances 0.000 claims abstract description 14
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims description 37
- 230000006870 function Effects 0.000 claims description 29
- 239000011159 matrix material Substances 0.000 claims description 25
- 238000010586 diagram Methods 0.000 claims description 22
- 238000011835 investigation Methods 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 12
- 238000004220 aggregation Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000006998 cognitive state Effects 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000002776 aggregation Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 9
- 238000012512 characterization method Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 230000007786 learning performance Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/26—Visual data mining; Browsing structured data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于个性化学习技术领域,公开了一种动态知识认知层级挖掘方法、系统、设备及终端,采集学习者的学习行为特征与学习资源特征,生成基于学习者‑试题‑知识交互异构图;从学习者‑试题‑知识交互异构图中分别提取子图,引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行表示学习;构建基于门控的知识状态更新层,预测学习者下一时刻对试题和知识点的掌握水平;构建基于线型神经网络的动态认知追踪层,根据学习者更新后的知识点掌握水平向量动态追踪学习者的认知层级;融合学习者对试题的掌握水平及对试题所考察知识点的掌握水平,预测下一时刻学习者的作答反应,并进行训练;应用训练后的参数预测学习者的学习知识状态。
Description
技术领域
本发明属于个性化学习技术领域,尤其涉及一种动态知识认知层级挖掘方法、系统、设备及终端。
背景技术
如今,随着科技的不断发展,加之疫情影响,在线教育正成为一种越来越受欢迎的学习方式。在线教育在给学生带来方便的同时,其学习效果仍面临许多挑战。其中之一就是如何实现对学生的个性化教学,以提高学习效果。为了充分利用在线学习平台提供的丰富学习资源,让每位学生都能够得到个性化的学习指导,根据学生的实际情况进行有针对性的教学,提高在线学习的效果,基于人工智能技术的智能辅导系统正在蓬勃发展。智能辅导系统需要从学生的学习历史中挖掘数据,以准确评估学生当前的知识水平。学习表现预测任务可以根据学生的历史学习记录,追踪学生在一段时间内的动态知识水平,确定学生的潜在知识状态,并预测他们未来的知识水平和答题情况。此外,学习表现预测还可以发现学生在学习过程中的常见问题,帮助教师发现和解决学生的学习困难,从而更好地帮助学生提高学习成绩。根据学习表现预测的结果,教师可以为学生制定个性化的教学计划,对学生的薄弱知识进行有针对性的强化。由此可见,学习表现预测是个性化教学的基础和关键模块,对智能辅导系统的发展和个性化学习的推进具有重要意义,是教育数据挖掘领域的研究热点之一。
当前认知层级挖掘方法主要可以分为基于传统机器学习方法和基于深度学习方法两类。传统的认知层级挖掘方法有项目反应理论模型,贝叶斯模型以及因子分析模型,这些方法虽然有较好的解释性,但是需要基于理论假设,人为构建模型的输入特征,而特征构建往往具有片面性和局限性,并不能充分挖掘数据中隐藏的信息,模型的预测效果一般。而主流的基于深度学习的学习表现预测模型利用历史作答记录,运用不同的神经网络结构提高实验效果,如使用LSTM或GRU等循环神经网络或者卷积神经网络结构处理序列数据,并对学生的知识状态进行建模。这些模型通过在模型中使用Attention机制、引入长短时记忆模型等技术,以提高模型的效果。这些方法往往以试题或试题包含的知识点作为特征,特征较为单一,虽然具有较好的预测效果,但其结果缺乏可解释性。
通过上述分析,现有技术存在的问题及缺陷为:
(1)目前的认知层级挖掘方法在将学生作答记录转化为与知识点的交互序列的前提下,忽略了试题中知识点之间的关系,也没有考虑试题与知识点之间的关联,导致作答记录中的一些高维信息无法被模型有效利用,可解释性差;
(2)目前的认知层级挖掘方法只能输出缺乏可解释性的隐藏知识状态,通常为一个0到1之间的小数,无法直接应用于教育场景。在真实的教育场景中,学生对知识的掌握状态不是只有“掌握”和“未掌握”两种状态,而是有不同的认知层级。
深度知识追踪模型是一种使用循环神经网络(RNN)的知识追踪模型。该模型通过追踪学生的学习过程,预测学生对未来知识点的掌握程度。深度知识追踪模型将学生的答题记录作为序列数据输入到RNN中,并在每个时间步上预测学生对下一个知识点的掌握程度。
现有技术存在的技术问题:
1.静态预测:现有的深度知识追踪模型主要是静态的,它们通常在一个固定的时间点预测学生的知识掌握状态,而不能动态地追踪和预测学生的认知层级和知识掌握变化。
2.忽视知识点间的关系:DKT模型主要关注在时间序列上的学习过程,但它忽视了知识点之间的关系。在实际教学中,知识点之间存在丰富的依赖和关联关系,这些关系在深度知识追踪模型中并没有得到充分的利用。
3.复杂性和解释性:DKT模型作为一个黑盒模型,其内部工作机制较为复杂,难以解释。这在一定程度上限制了它在教育领域的应用,因为教师和学生可能需要理解模型的预测结果,以便做出相应的教学或学习决策。
4.对数据的依赖性:DKT模型对大量的学生答题数据有很高的依赖性,但在实际情况中,每个学生的答题数据可能并不足够多,这可能会影响模型的预测准确性。
发明内容
针对现有技术存在的问题,本发明提供了一种动态知识认知层级挖掘方法。
本发明是这样实现的,一种动态知识认知层级挖掘方法,动态知识认知层级挖掘方法包括:
S1,采集学习者的学习行为特征与学习资源特征,生成基于学习者-试题-知识交互异构图;
S2,从学习者-试题-知识交互异构图中分别提取子图,引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行表示学习;
S3,构建基于门控的知识状态更新层,预测学习者下一时刻对试题和知识点的掌握水平;
S4,构建基于线型神经网络的动态认知追踪层,根据学习者更新后的知识点掌握水平向量动态追踪学习者的认知层级;
S5,融合学习者对试题的掌握水平及对试题所考察知识点的掌握水平,预测下一时刻学习者的作答反应,并构造损失函数进行训练;
S6,应用训练后的参数预测学习者的学习知识状态。
进一步,学习行为特征与学习资源特征是从学习者作答序列中采集得到的,学习行为特征为包含时序信息的作答反应特征:
s={(e1,k1,r1),(e2,k2,r2),…,(et,kt,rt)},s∈S
三元组(et,kt,rt)表示在t时刻,学生s作答了试题et,该试题考察了知识点kt,rt是学生的作答情况;如果学生回答错误,rt为0,如果学生作答正确,rt为et对知识点kt的考察层级(1:知道、2:掌握、3:应用);
学习资源特征包括学习资源的知识点特征,具体为学习资源中试题考察知识点的认知层级特征与学习资源中知识点与知识点之间的关联特征:
e={(k1,l1),(k2,l2),…,(kM,lM)},e∈E
其中,二元组(kM,lM)代表试题e考察了知识点kM,考察的层级为lM,M代表该题共考察了M个知识点;该课程包含的知识点集为|K|,k∈K,该课程包含的试题集为|E|,e∈E,l∈{1,2,3}代表该试题考察知识点k的层级,1代表知道,2代表掌握,3代表应用;
基于学习者-试题-知识点的异质图是基于学习者的作答序列和学习资源特征生成的,具体来说,学习者作答序列中,学习者按照一定顺序回答试题、每道试题考察不同的知识点,该过程包含了学生-试题-知识点之间大量的异质关系。基于学习者-试题-知识点的异质图SQK={V,E},其中V表示节点集,E表示边集。节点集包含三种类型的节点,分别为学生节点ns、试题节点nq和知识点节点nk;边集包含两种类型的边,分别为作答边ea和考察边et。
进一步,从学习者-试题-知识交互异构图中分别提取子图的具体过程包括:
提取学习者作答行为子图(SQ图),记录学习者作答试题的情况;提取试题考察知识点情况子图(QK图),表征试题与知识点之间的异质关系;提取知识点间关系子图(KK图),关注知识点与知识点之间的联系;
将学习者作答试题的情况表示为SQ图,SQ∈Rs_num×q_num,其中SQij为学习者i作答试题j的次数,s_num代表学习者数量,q_num代表试题数量;
将试题与知识点之间的联系表示为QK图,QK∈Rq_num×k_num,其中k_num代表知识点数量,若试题j考察了知识点k,则对应SQjk位置权重变高。QK(j)表示该矩阵的第j行,即与试题j相关联的知识点情况;(QK)T(k)表示该矩阵的第k列,即与知识点k相关联的试题情况;
将知识点与知识点之间的关联表示为KK图,提取KK关系基于统计的转移概率矩阵其中,KKab代表知识点a与b之间的关联程度,na,b代表知识点b在知识点a后被考察的次数;
进一步,引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行表示学习的具体过程包括:
在图卷积神经网络进行信息传播之前,聚合t时刻的节点嵌入表示与隐藏知识状态:
其中,α代表试题节点或知识点节点,所述方法需要两套参数用以学习试题与知识点的嵌入表示。代表t时刻试题或知识点的隐藏状态,xt∈{0,1,2,3}4N代表t时刻学习者的作答情况(0:答错,1:答对且知道,2:答对且掌握;3:答对且应用);Ex_α∈R4N×e代表试题或知识点与作答的嵌入矩阵,Eα∈RN×e是试题或知识点的嵌入矩阵,Eα(k)代表Eα的第k行,即试题k或知识点k的嵌入表示,e为嵌入的维度。其中,Ex_α,Eα均为可训练的矩阵;
根据图结构分别更新试题与知识点自身及其邻居的信息,节点自身的信息更新方法如下:
式中,和/>分别为可被训练的用于节点自身聚合的权重和偏置。激活函数采用ReLU;
在进行邻居节点的信息更新前,需要先聚合更新后的当前节点信息,随后进行邻居节点的信息更新:
其中,为当前节点更新后的嵌入表示,/>和/>分别为可被训练的用于邻居节点聚合的权重和偏置。激活函数采用ReLU;
由于试题节点与知识点节点的嵌入表示更新依据的图结构不同,其邻居节点的信息更新公式略有不同,当前试题节点的邻居节点信息更新方法为:
式中,SQ(stu_id)为当前时刻学习者序号行的答题情况,ct为当前时刻考察知识点行,QK(ct)为与当前考察知识点相关联的试题情况,当前知识点节点的邻居节点信息更新方法为:
式中,qt为当前时刻考察的试题情况,QK(qt)为与当前考察试题相关联的知识点情况,KK(ct)与(KK)T分别是KK图的第ct行与ct列,代表与当前考察知识点相关联的知识点情况。
进一步,构建基于门控的知识状态更新层预测学习者下一时刻对试题和知识点的掌握水平的具体过程包括:
将更新后的试题、知识点嵌入表示送入带门结构的神经网络,建模t+1时刻学习者对知识点和试题的掌握情况:
式中,Gea为擦除-加法门,其具体计算过程如下:
式中,tmp_erase和tmp_add分别代表门结构的擦除量与加法量,Werase,Wadd分别为擦除门与加法门的权重矩阵;berase,badd分别为擦除门与加法门对应的偏置项,σ为激活函数sigmoid;
式中,Ggru为选通门,其具体计算过程如下:
式中,为经过擦除-加法门后的学习者隐藏知识向量,/>为上一时刻的隐藏状态,/>为重置门,/>为更新门,/>为候选隐藏状态,σ为激活函数sigmoid,*代表哈达玛积。
进一步,构建基于线型神经网络的动态认知追踪层动态追踪学习者认知层级的具体过程包括:
通过在知识状态更新层获得的t+1时刻的知识隐藏状态,进行认知水平预测:
式中,Wl是针对所有知识点节点的认知状态权重矩阵,bk是知识点节点k的偏移量,σ是softmax函数,意为预测该时刻学生分别属于四种认知层级的性;
C=Argmax(lt)
式中lt指学生在下一时刻对所有概念的认知层级矩阵,用Argmax函数取预测性最高的一项的下标,即为学生在所有知识点上的认知层级C;
融合学习者对试题的掌握水平及对试题所考察知识点的掌握水平表示为:
式中,和/>是针对知识点节点和问题节点的作答预测权重矩阵,bk和bq是知识点k和问题q的偏移量,σ是sigmoid函数。/>和/>分别是学习者在t时刻对试题和知识点的掌握水平;
模型通过线性层拟合学生对t时刻考察题目与知识点的掌握情况,获得学生的答题情况yt,并采用最小化负对数似然(Negative Log-Likelihood,NLL)损失进行训练,以获得最好的模型表现;
所述预测下一时刻学习者的作答反应表示为:
pt=yt·qt+1
式中,qt+1为学习者下一时刻需要回答的试题,yt为学生在这一时刻对试题的反应向量,得到的结果p t即为学习者能正确回答该试题的概率;
根据预测的学习者作答反应结果与真实的学习者作答反应结果,采用最小化负对数似然损失进行训练:
L=logSoftmax(p t,ytrue)
最后,使用Adam优化器对以上模型网络参数进行更新。
本发明的另一目的在于提供一种动态知识认知层级挖掘系统,动态知识认知层级挖掘系统包括:
节点嵌入表示学习模块,用于根据学习者的学习行为特征与学习资源特征,生成对应的基于学习者-试题-知识交互异构图;利用学习者-试题-知识交互异构图生成子图,并引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行嵌入表示学习;
知识状态更新模块,用于通过构建门结构,对更新后的试题节点与知识点节点进行时序预测,计算学习者下一时刻对所有试题及知识点的掌握状态;
动态认知追踪模块,用于利用学习者对所有知识点的掌握状态向量,基于线性神经网络,动态追踪学习者对所有知识点的认知层级;
作答反应预测模块,用于以学习者的学习交互序列为基础,根据学习者下一时刻所要作答的试题特征,融合学习者对下一试题及其考察知识点的特征,预测学习者下一时刻的作答反应。
本发明的另一目的在于提供一种计算机设备,计算机设备包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行所述的动态知识认知层级挖掘方法的步骤。
本发明的另一目的在于提供一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行所述的动态知识认知层级挖掘方法的步骤。
本发明的另一目的在于提供一种信息数据处理终端,信息数据处理终端用于实现所述的动态知识认知层级挖掘系统。
结合上述的技术方案和解决的技术问题,本发明所要保护的技术方案所具备的优点及积极效果为:
第一,现有技术中基于深度学习的认知层级挖掘方法忽略了试题中知识点之间的关系,也没有考虑试题与知识点之间的关联,导致作答记录中的一些高维信息无法被模型有效利用,可解释性差。解决该问题的难度在于,如何有效提取并建模学习资源中试题与知识点、知识点与知识点之间的异质关系。本发明充分利用学习者的作答序列和学习资源,将学生的作答交互序列构建为一个SQK异质图,并将该图解构为SQ图、QK图和KK图。这三张图包含了学习者作答交互中学习者与试题的关系、课程结构中试题与知识点的关系,以及知识点之间的联系,更好的建模学生的作答交互行为,供模型开展后续更准确的预测。实验结果表明,在AUC、ACC和RMSE等方面都比其他基于深度学习的认知层级挖掘方法更好;
现有技术中的基于深度学习的认知层级挖掘方法只能输出缺乏可解释性的隐藏知识状态,通常为一个0到1之间的小数,无法直接应用于教育场景。在真实的教育场景中,学生对知识的掌握状态不是只有“掌握”和“未掌握”两种状态,而是有不同的认知层级。解决该问题的难度在于,如何将模型的输出从非零即一扩展到多分类的认知层级。本发明创新的提出了认知追踪问题,设计了动态认知追踪层,用以动态获取学生当前时刻的认知层级。
第二,本发明提出的基于学习交互异构图表征的动态知识认知层级挖掘方法,将学习者交互行为及学习资源特征表示为一个学习者-试题-知识交互异构图,并从中分别提取子图,引入图卷积神经网络,运用于不同节点的嵌入表示学习中,并利用更新后的节点表示与基于门结构的神经网络建模学生下一时刻对试题及知识点的掌握水平,预测学习者的作答反应,动态追踪学习者的认知水平,与传统的方法相比,将学习者交互行为及学习资源表示为异质图,并引入认知追踪任务,在预测的准确度上有了较大的提升,并具有较好的可解释性,改进了传统方法在学习表现预测方面的不足。
第三,作为本发明的权利要求的创造性辅助证据,还体现在以下几个重要方面:
(1)本发明的技术方案转化后的预期收益和商业价值为:
本发明提出的基于学习交互异构图表征的动态知识认知层级挖掘方法通过将学习者交互行为表示为异质图,并引入认知追踪模块,实现了依据学习者的历史作答数据动态输出学习者当前时刻对所有知识点的认知水平,使模型更具实际的教育意义,能够应用于真实的教育场景,给个性化教学提供可靠的支持,具有巨大的商业价值。
(2)本发明的技术方案填补了国内外业内技术空白:
现有技术中的基于深度学习的认知层级挖掘方法忽略了学习者对知识点的多种认知状态。本发明构建认知追踪层,实现对学习者知识状态及知识掌握情况更为丰富的预测分析。
(3)本发明的技术方案解决了人们一直渴望解决、但始终未能获得成功的技术难题:
现有技术中的基于深度学习的认知层级挖掘方法普遍忽视学习资源中试题与知识点,知识点与知识点之间的关联,忽略了对学生作答这一行为的建模。本发明充分建模学习者作答交互行为与学习资源中包含的关系,基于图结构针对性的更新学习者对试题及知识点的状态改变,从而实现了对学习者知识状态及知识掌握水平的预测与分析,提高了模型的可解释性,帮助学习者与教学者更有针对性的展开学习与教学。
(4)本发明的技术方案克服了技术偏见:
现有技术中基于深度学习的认知层级挖掘方法普遍忽视了学习者对知识点存在多认知层级这一前提条件,仅输出解释性较差的隐藏知识状态,本发明充分利用学习资源中的特征,结合试题对不同知识点的不同考察水平,动态追踪并评估学习者对知识点的认知层级,使得模型的输出更具可解释性。
第四,本发明主要步骤的获取的显著的技术进步。
(a)采集学习者的学习行为特征与学习资源特征,生成基于学习者-试题-知识交互异构图:
这个步骤的显著技术进步在于,它通过收集学习者的学习行为特征和学习资源特征,并以此生成一个异构图,为后续的分析和挖掘提供了数据基础。这种异构图可以更好地反映学习者,试题和知识点之间的交互关系,为后续的分析提供了丰富的信息。
(b)从学习者-试题-知识交互异构图中分别提取子图,引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行表示学习:
这个步骤的显著技术进步在于,它引入了图卷积神经网络,能够从复杂的图结构中抽取出有用的信息,并对试题节点和知识点节点进行表示学习。这种方法能够更好地捕获和表示试题和知识点之间的复杂关系。
(c)构建基于门控的知识状态更新层,预测学习者下一时刻对试题和知识点的掌握水平:
这个步骤的显著技术进步在于,它构建了一个基于门控的知识状态更新层,能够动态地预测学习者对试题和知识点的掌握水平。这种方法可以更精确地反映学习者的实际知识掌握状态,为后续的教学策略提供了重要的依据。
(d)构建基于线型神经网络的动态认知追踪层,根据学习者更新后的知识点掌握水平向量动态追踪学习者的认知层级:
这个步骤的显著技术进步在于,它引入了线型神经网络,通过动态追踪学习者的认知层级,提供了更深入的学习者表现分析。这种方法可以更好地理解学习者的学习过程,并提供更有效的教学建议。
(e)融合学习者对试题的掌握水平及对试题所考察知识点的掌握水平,预测下一时刻学习者的作答反应,并构造损失函数进行训练:
这个步骤的显著技术进步在于,它通过融合学习者对试题的掌握水平和对试题所考察知识点的掌握水平,预测学习者下一时刻的作答反应,从而实现了对学习者的学习进度和知识掌握情况的精确预测。
(f)应用训练后的参数预测学习者的学习知识状态:
这个步骤的显著技术进步在于,它能够使用训练后的模型预测学习者的学习知识状态,从而为教育者提供了准确的、个性化的教育建议,提高了教育效果的个性化和精准化。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图做简单的介绍,显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的动态知识认知层级挖掘方法流程图;
图2是本发明实施例提供的动态知识认知层级挖掘方法原理图;
图3是本发明实施例提供的动态知识认知层级挖掘系统结构图;
图4是本发明实施例提供的数据集TIMSS2019实验结果对比示意图;
图5是本发明实施例提供的数据集TIMSS2019在AUC指标上的训练过程示意图;
图6是本发明实施例提供的数据集TIMSS2019在ACC指标上的训练过程示意图;
图7是本发明实施例提供的数据集TIMSS2019在RMSE指标上的训练过程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种动态知识认知层级挖掘方法、系统、设备及终端,下面结合附图对本发明作详细的描述。
如图1所示,本发明实施例提供的动态知识认知层级挖掘方法包括以下步骤:
S101,提取学生试题交互序列中的试题的内容特征,生成基于学习者-试题-知识点的异质图,从学习者-试题-知识交互异构图中分别提取子图,引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行表示学习;
S102,构建基于门控的知识状态更新层,根据更新后的试题、知识点嵌入表示,预测学习者下一时刻的对各试题和知识点的掌握水平;
S103,结合学习者对知识点的掌握水平矩阵,基于线型神经网络,动态追踪学习者的认知层级;
S104,利用学习者下一时刻的对各知识点和试题的掌握水平,对学生的作答成绩进行预测,并利用训练参数分析学习者对各个知识点随时序变化的知识掌握程度。
本发明实施例提供的动态知识认知层级挖掘方法原理图如图2所示。
如图3所示,本发明实施例提供的动态知识认知层级挖掘系统包括:
节点嵌入表示学习模块,用于根据学习者的学习行为特征与学习资源特征,生成对应的基于学习者-试题-知识交互异构图;利用学习者-试题-知识交互异构图生成子图,并引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行嵌入表示学习;
知识状态更新模块,用于通过构建门结构,对更新后的试题节点与知识点节点进行时序预测,计算学习者下一时刻对所有试题及知识点的掌握状态;
动态认知追踪模块,用于利用学习者对所有知识点的掌握状态向量,基于线性神经网络,动态追踪学习者对所有知识点的认知层级;
作答反应预测模块,用于以学习者的学习交互序列为基础,根据学习者下一时刻所要作答的试题特征,融合学习者对下一试题及其考察知识点的特征,预测学习者下一时刻的作答反应。下面结合符号解释对本发明的技术方案作进一步描述。
本发明实施例涉及的符号如表1所示。
表1本发明实施例涉及的符号
/>
发明实施例提供的S101,具体包括:
(1.1)从学习者作答序列中采集学习者的学习行为特征与学习资源特征:
选取IEA(International Energy Agency)TIMSS数据集的第七个评估周期,在64个国家与8个基准系统的四年级和八年级中进行的交互数据,组成数据集TIMSS2019。具体地,本实施例选取了新西兰四年级学生数学方面的相关数据来进行实验,并移除了部分冗余数据。处理后,该数据集包含的最长交互数、知识点数、试题数等信息如下表2所示:
表2数据集TIMSS2019的相关信息
相关信息 | 数据集TIMSS2019 |
学习者与练习的最长交互数量 | 34个 |
知识点数 | 12个 |
试题数 | 213个 |
学习者数 | 5003个 |
知识点最高认知层级数 | 3级 |
试题平均考察知识点数目 | 1.76个 |
从数据集TIMSS2019中选择学习者的学习行为特征与学习资源特征,选择的外在学习行为特征以及资源特征如下表3所示。
表3数据集TIMSS2019中选择的特征
(1.2)基于学习者的作答序列和学习资源特征生成基于学习者-试题-知识点的交互异质图。
学习者作答序列中,学习者按照一定顺序回答试题、每道试题考察不同的知识点,且考察的层级各不相同,该过程包含了学生-试题-知识点之间大量的异质关系。构建基于学习者-试题-知识点的异质图SQK={V,E},其中V表示节点集,E表示边集。节点集包含三种类型的节点,分别为学生节点ns、试题节点nq和知识点节点nk;边集包含两种类型的边,分别为作答边ea和考察边et。
(1.3)所述从学习者-试题-知识交互异构图中分别提取子图:
提取学习者作答行为子图(SQ图),记录学习者作答试题的情况;提取试题考察知识点情况子图(QK图),表征试题与知识点之间的异质关系;提取知识点间关系子图(KK图),关注知识点与知识点之间的联系。
所述将学习者作答试题的情况表示为SQ图,SQ∈Rs_num×q_num,其中SQij为学习者i作答试题j的次数,s_num代表学习者数量,q_num代表试题数量。
所述将试题与知识点之间的联系表示为QK图,QK∈Rq_num×k_num,其中k_num代表知识点数量,若试题j考察了知识点k,则对应SQjk位置权重变高。QK(j)表示该矩阵的第j行,即与试题j相关联的知识点情况;(QK)T(k)表示该矩阵的第k列,即与知识点k相关联的试题情况。
所述将知识点与知识点之间的关联表示为KK图,提取KK关系基于统计的转移概率矩阵其中,KKab代表知识点a与b之间的关联程度,na,b代表知识点b在知识点a后被考察的次数,∑ka,k代表知识点a总共考察的次数;
(1.4)所述引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行表示学习的具体过程包括:
在图卷积神经网络进行信息传播之前,聚合t时刻的节点嵌入表示与隐藏知识状态。方法如下:
其中,α代表试题节点或知识点节点,所述方法需要两套参数用以学习试题与知识点的嵌入表示。代表t时刻试题或知识点的隐藏状态,xt∈{0,1,2,3}4N代表t时刻学习者的作答情况(0:答错,1:答对且知道,2:答对且掌握;3:答对且应用),αt代表t时刻试题节点或知识点节点的初始化表示。Ex_α∈R4N×e代表试题或知识点与作答的嵌入矩阵,Eα∈RN×e是试题或知识点的嵌入矩阵,Eα(k)代表Eα的第k行,即试题k或知识点k的嵌入表示,e为嵌入的维度。其中,Ex_α,Eα均为可训练的矩阵。
根据图结构分别更新试题与知识点自身及其邻居的信息。
所述节点自身的信息更新方法Fself如下:
式中,和/>分别为可被训练的用于节点自身聚合的权重和偏置。激活函数采用ReLU。
在进行邻居节点的信息更新前,需要先聚合更新后的当前节点信息,随后进行邻居节点的信息更新。方法如下:
其中,为当前节点更新后的嵌入表示,/>和/>分别为可被训练的用于邻居节点聚合的权重和偏置。激活函数采用ReLU。
具体来说,由于试题节点与知识点节点的嵌入表示更新依据的图结构不同,其邻居节点的信息更新公式略有不同。
分别的,当前试题节点的邻居节点信息更新方法如下:
式中,SQ(stu_id)为当前时刻学习者序号行的答题情况,ct为当前时刻考察知识点行,QK(ct)为与当前考察知识点相关联的试题情况;
当前知识点节点的邻居节点信息更新方法如下:
式中,qt为当前时刻考察的试题情况,QK(qt)为与当前考察试题相关联的知识点情况,KK(ct)与(KK)T分别是KK图的第ct行与ct列,代表与当前考察知识点相关联的知识点情况。
本发明实施例提供的S102,具体包括:
(2.1)将更新后的试题、知识点嵌入表示送入擦除-加法门,构建学习者在时序中遗忘与习得的过程:
式中,Gea为擦除-加法门,其具体计算过程如下:
式中,tmp_erase和tmp_add分别代表门结构的擦除量与加法量,Werase,Wadd分别为擦除门与加法门的权重矩阵;berase,badd分别为擦除门与加法门对应的偏置项,σ为激活函数sigmoid。
(2.2)将经过擦除-加法门后得到的掌握情况向量送入选通门,预测学习者下一时刻对试题和知识点的掌握水平:
式中,Ggru为选通门,其具体计算过程如下:
式中,为经过擦除-加法门后的学习者隐藏知识向量,/>为上一时刻的隐藏状态,/>为重置门,/>为更新门,/>为候选隐藏状态,σ为激活函数sigmoid,*代表哈达玛积。
本发明实施例提供的S103,具体包括:
(3.1)通过在知识状态更新层获得的t+1时刻的知识隐藏状态,进行认知水平预测:
式中,Wl是针对所有知识点节点的认知状态权重矩阵,bk是知识点节点k的偏移量。这里σ是softmax函数,意为预测该时刻学习者分别属于四种认知层级的性。
(3.2)通过Argmax函数取得学习者当前对所有知识点的认知层级
C=Argmax(lt)
式中lt指学生在下一时刻对所有概念的认知层级矩阵,用Argmax函数取预测性最高的一项的下标,即为学生在所有知识点上的认知层级C。
本发明实施例提供的S104,具体包括:
(4.1)融合学习者对试题的掌握水平及对试题所考察知识点的掌握水平表示:
式中,和/>是针对知识点节点和问题节点的作答预测权重矩阵,bk和bq是知识点k和问题q的偏移量,σ是sigmoid函数。/>和/>分别是学习者在t时刻对试题和知识点的掌握水平。
通过线性层拟合学生对t时刻考察题目与知识点的掌握情况,获得学生的答题情况yt。
(4.2)预测下一时刻学习者的作答反应表示:
p t=yt·qt+1
式中,qt+1为学习者下一时刻需要回答的试题,yt为学生在这一时刻对试题的反应向量,得到的结果p t即为学习者能正确回答该试题的概率。
(4.3)根据预测的学习者作答反应结果与真实的学习者作答反应结果,采用最小化负对数似然损失进行训练:
L=logSoftmax(p t,ytrue)
其中,ytrue为真实的学习者作答反应结果,p t为方法预测得到的学习者作答反应结果。
(4.4)使用Adam优化器对以上模型网络参数进行更新。
本发明的应用实施例提供了一种计算机设备,计算机设备包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行所述动态知识认知层级挖掘方法的步骤。
本发明的应用实施例提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行所述动态知识认知层级挖掘方法的步骤。
本发明的应用实施例提供了一种信息数据处理终端,信息数据处理终端用于实现所述动态知识认知层级挖掘系统。
本发明实验中,主要开发环境包括:Windows 10,Intel(R)Core(TM)i7-8565UCPU@1.80GHz,RAM 8.00GB,GTX 3090Ti graphics,Pytorch 1.2.0,Python 3.6,模型具体的超参数设置如下表4所示。
表4实验模型超参数设置情况
超参数 | 数值 |
batch_size | 32 |
epoch | 50 |
dropout | 0.5 |
learning_rate | 0.001 |
embedding_dim | 32 |
hidden_dim | 32 |
本发明将基于学习交互异构图表征的动态知识认知层级挖掘方法与基于图深度学习的认知层级挖掘方法进行对比,对比指标曲线下面积AUC,预测准确率ACC和均方根误差RMSE。评价指标AUC和ACC是衡量二分类模型优劣的一种评价指标,能在样本内部正负样本的不平衡的前提下依然准确地描述模型整体性能的优劣,AUC值和ACC值在0.5代表随机可获得的得分,分数越接近1则代表预测结果越准确。RMSE值用来量化预测值和真实值之间的差距。RMSE值越低,模型的表现就越好。
将本发明与基于图深度学习的认知层级挖掘方法进行了比较。为了实现比较的公平,两个模型中涉及相同模块的相应超参数都设置成了一样的,一种基于学习交互异构图表征的动态知识认知层级挖掘方法与基于图深度学习的认知层级挖掘方法在数据集TIMSS2019下的AUC、ACC、RMSE对比结果如表5所示,模型在数据集TIMSS2019上训练过程示意图如图5、图6、图7所示。
表5不同方法的实验结果对比
由实验结果可知:本发明提出的基于学习交互异构图表征的动态知识认知层级挖掘方法在数据集TIMSS2019上,AUC提升了2.8%,ACC提升了6.2%,RMSE下降了5.4%。说明本发明将学生的作答交互表示为一个异质图,提取并建模学习者-试题-知识点之间的高维信息及他们之间的关联,基于不同的图结构针对性的更新试题节点与知识点节点的嵌入表示,并将经过图神经网络更新后的节点表示作为循环神经网络的输入,有效的建模了学习者的作答行为,并利用了学习资源中包含的丰富特征,在学生作答预测任务上有更好的性能,其结果优于基于图深度学习的认知层级挖掘方法。实验表明,在AUC、ACC和RMSE方面,本发明提出的基于学习交互异构图表征的动态知识认知层级挖掘方法比基于图深度学习的认知层级挖掘方法更有效,总之,本发明具有最佳的实验效果。
综上,本发明提供的基于学习交互异构图表征的动态知识认知层级挖掘方法及系统不仅实现了更为精准的学习者作答反应预测,还能预测学习者对知识点的认知层级,从而辅助学生高效开展更有针对性的学习工作。该方法以从学习者作答序列中采集学习者的学习行为特征与学习资源特征,生成基于学习者-试题-知识交互异构图;从学习者-试题-知识交互异构图中分别提取子图,引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行表示学习;构建基于门控的知识状态更新层,预测学习者下一时刻对试题和知识点的掌握水平;构建基于线型神经网络的动态认知追踪层,根据学习者更新后的知识点掌握水平向量动态追踪学习者的认知层级;融合学习者对试题的掌握水平及对试题所考察知识点的掌握水平,预测下一时刻学习者的作答反应,并构造损失函数进行训练;应用训练后的参数预测学习者的学习知识状态。
实施例1:在线教育平台
在线教育平台可以利用这种动态知识认知层级挖掘方法,提高其个性化推荐的准确性和教育资源的使用效率。
1.在线教育平台可以收集学生的学习行为数据,如学习时间、频率、学习内容等,并收集学习资源的特征,如试题难度、知识点等,生成学习者-试题-知识交互异构图。
2.利用图卷积神经网络从异构图中提取子图,并对试题节点和知识点节点进行表示学习。
3.基于门控的知识状态更新层用于预测学生下一时刻对试题和知识点的掌握水平,基于线型神经网络的动态认知追踪层用于追踪学生的认知层级。
4.在预测学生的作答反应后,利用损失函数进行训练,优化模型。
5.最后,应用训练后的模型,预测学生的学习知识状态,并根据预测结果,为学生推送合适的学习资源,实现个性化学习。
实施例2:企业内部培训系统
企业可以应用这种方法在其内部培训系统中,以更有效地评估员工的学习进度和提供个性化的培训内容。
1.企业可以记录员工在培训系统上的学习行为,如学习的课程、完成的练习题等,并收集学习资源的特征,如试题难度、知识点等,生成学习者-试题-知识交互异构图。
2.利用图卷积神经网络从异构图中提取子图,并对试题节点和知识点节点进行表示学习。
3.通过基于门控的知识状态更新层预测员工下一时刻对试题和知识点的掌握水平,基于线型神经网络的动态认知追踪层追踪员工的认知层级。
4.在预测员工的作答反应后,利用损失函数进行训练,优化模型。
5.最后,应用训练后的模型,预测员工的学习知识状态,根据预测结果,为员工提供更合适的培训内容,实现个性化培训。
应当注意,本发明的实施方式可以通过硬件、软件或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域的普通技术人员可以理解上述的设备和方法可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本发明的设备及其模块可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合例如固件来实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种动态知识认知层级挖掘方法,其特征在于,采用基于学习者-试题-知识交互异构图的方式来理解学习者的学习行为和学习资源特征,使用图卷积神经网络从异构图中提取子图进行表示学习;该方法还构建了基于门控的知识状态更新层和基于线型神经网络的动态认知追踪层,能够动态地预测和追踪学习者对试题和知识点的掌握水平,以及学习者的认知层级;通过融合学习者对试题的掌握水平和对试题所考察知识点的掌握水平,预测下一时刻学习者的作答反应,并采用损失函数进行训练,预测学习者的学习知识状态。
2.如权利要求1所述的动态知识认知层级挖掘方法,其特征在于,包括:
S1,采集学习者的学习行为特征与学习资源特征,生成基于学习者-试题-知识交互异构图;
S2,从学习者-试题-知识交互异构图中分别提取子图,引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行表示学习;
S3,构建基于门控的知识状态更新层,预测学习者下一时刻对试题和知识点的掌握水平;
S4,构建基于线型神经网络的动态认知追踪层,根据学习者更新后的知识点掌握水平向量动态追踪学习者的认知层级;
S5,融合学习者对试题的掌握水平及对试题所考察知识点的掌握水平,预测下一时刻学习者的作答反应,并构造损失函数进行训练;
S6,应用训练后的参数预测学习者的学习知识状态。
3.如权利要求2所述的动态知识认知层级挖掘方法,其特征在于,学习行为特征与学习资源特征是从学习者作答序列中采集得到的,学习行为特征为包含时序信息的作答反应特征:
s={(e1,k1,r1),(e2,k2,r2),…,(et,kt,rt)},s∈S
三元组(et,kt,rt)表示在t时刻,学生s作答了试题et,该试题考察了知识点kt,rt是学生的作答情况;如果学生回答错误,rt为0,如果学生作答正确,rt为et对知识点kt的考察层级;
学习资源特征包括学习资源的知识点特征,具体为学习资源中试题考察知识点的认知层级特征与学习资源中知识点与知识点之间的关联特征:
e={(k1,l1),(k2,l2),...,(kM,lM)},e∈E
其中,二元组(kM,lM)代表试题e考察了知识点kM,考察的层级为lM,M代表该题共考察了M个知识点;该课程包含的知识点集为|K|,k∈K,该课程包含的试题集为|E|,e∈E,l∈{1,2,3}代表该试题考察知识点k的层级,1代表知道,2代表掌握,3代表应用;
基于学习者-试题-知识点的异质图是基于学习者的作答序列和学习资源特征生成的,学习者作答序列中,学习者按照一定顺序回答试题、每道试题考察不同的知识点,该过程包含了学生-试题-知识点之间大量的异质关系。基于学习者-试题-知识点的异质图SQK={V,E},其中V表示节点集,E表示边集。节点集包含三种类型的节点,分别为学生节点ns、试题节点nq和知识点节点nk;边集包含两种类型的边,分别为作答边ea和考察边et。
4.如权利要求1所述的动态知识认知层级挖掘方法,其特征在于,从学习者-试题-知识交互异构图中分别提取子图的具体过程包括:
提取学习者作答行为子图,记录学习者作答试题的情况;提取试题考察知识点情况子图,表征试题与知识点之间的异质关系;提取知识点间关系子图,关注知识点与知识点之间的联系;
将学习者作答试题的情况表示为SQ图,SQ∈Rs_num×q_num,其中SQij为学习者i作答试题j的次数,s_num代表学习者数量,q_num代表试题数量;
将试题与知识点之间的联系表示为QK图,QK∈Rq_num×k_num,其中k_num代表知识点数量,若试题j考察了知识点k,则对应SQjk位置权重变高。QK(j)表示该矩阵的第j行,即与试题j相关联的知识点情况;(QK)T(k)表示该矩阵的第k列,即与知识点k相关联的试题情况;
将知识点与知识点之间的关联表示为KK图,提取KK关系基于统计的转移概率矩阵其中,KKab代表知识点a与b之间的关联程度,na,b代表知识点b在知识点a后被考察的次数。
5.如权利要求1所述的动态知识认知层级挖掘方法,其特征在于,引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行表示学习的具体过程包括:
在图卷积神经网络进行信息传播之前,聚合t时刻的节点嵌入表示与隐藏知识状态:
其中,α代表试题节点或知识点节点,所述方法需要两套参数用以学习试题与知识点的嵌入表示。代表t时刻试题或知识点的隐藏状态,xt∈{0,1,2,3}4N代表t时刻学习者的作答情况;Ex_α∈R4N×e代表试题或知识点与作答的嵌入矩阵,Eα∈RN×e是试题或知识点的嵌入矩阵,Eα(k)代表Eα的第k行,即试题k或知识点k的嵌入表示,e为嵌入的维度。其中,Ex_α,Eα均为可训练的矩阵;
根据图结构分别更新试题与知识点自身及其邻居的信息,节点自身的信息更新方法如下:
式中,和/>分别为可被训练的用于节点自身聚合的权重和偏置。激活函数采用ReLU;
在进行邻居节点的信息更新前,需要先聚合更新后的当前节点信息,随后进行邻居节点的信息更新:
其中,为当前节点更新后的嵌入表示,/>和/>分别为可被训练的用于邻居节点聚合的权重和偏置。激活函数采用ReLU;
由于试题节点与知识点节点的嵌入表示更新依据的图结构不同,其邻居节点的信息更新公式略有不同,当前试题节点的邻居节点信息更新方法为:
式中,SQ(stu_id)为当前时刻学习者序号行的答题情况,ct为当前时刻考察知识点行,QK(ct)为与当前考察知识点相关联的试题情况,当前知识点节点的邻居节点信息更新方法为:
式中,qt为当前时刻考察的试题情况,QK(qt)为与当前考察试题相关联的知识点情况,KK(ct)与(KK)T分别是KK图的第ct行与ct列,代表与当前考察知识点相关联的知识点情况。
6.如权利要求1所述的动态知识认知层级挖掘方法,其特征在于,构建基于门控的知识状态更新层预测学习者下一时刻对试题和知识点的掌握水平的具体过程包括:
将更新后的试题、知识点嵌入表示送入带门结构的神经网络,建模t+1时刻学习者对知识点和试题的掌握情况:
式中,Gea为擦除-加法门,其具体计算过程如下:
式中,tmp_erase和tmp_add分别代表门结构的擦除量与加法量,Werase,Wadd分别为擦除门与加法门的权重矩阵;berase,badd分别为擦除门与加法门对应的偏置项,σ为激活函数sigmoid;
式中,Ggru为选通门,其具体计算过程如下:
式中,为经过擦除-加法门后的学习者隐藏知识向量,/>为上一时刻的隐藏状态,为重置门,/>为更新门,/>为候选隐藏状态,σ为激活函数sigmoid,*代表哈达玛积。
7.如权利要求1所述的动态知识认知层级挖掘方法,其特征在于,构建基于线型神经网络的动态认知追踪层动态追踪学习者认知层级的具体过程包括:
通过在知识状态更新层获得的t+1时刻的知识隐藏状态,进行认知水平预测:
式中,Wl是针对所有知识点节点的认知状态权重矩阵,bk是知识点节点k的偏移量,σ是softmax函数,意为预测该时刻学生分别属于四种认知层级的性;
C=Argmax(lt)
式中lt指学生在下一时刻对所有概念的认知层级矩阵,用Argmax函数取预测性最高的一项的下标,即为学生在所有知识点上的认知层级C;
融合学习者对试题的掌握水平及对试题所考察知识点的掌握水平表示为:
式中,和/>是针对知识点节点和问题节点的作答预测权重矩阵,bk和bq是知识点k和问题q的偏移量,σ是sigmoid函数。/>和/>分别是学习者在t时刻对试题和知识点的掌握水平;
模型通过线性层拟合学生对t时刻考察题目与知识点的掌握情况,获得学生的答题情况yt,并采用最小化负对数似然损失进行训练,以获得最好的模型表现;
所述预测下一时刻学习者的作答反应表示为:
p t=yt·qt+1
式中,qt+1为学习者下一时刻需要回答的试题,yt为学生在这一时刻对试题的反应向量,得到的结果p t即为学习者能正确回答该试题的概率;
根据预测的学习者作答反应结果与真实的学习者作答反应结果,采用最小化负对数似然损失进行训练:
L=logSoftmax(p t,ytrue)
最后,使用Adam优化器对以上模型网络参数进行更新。
8.一种动态知识认知层级挖掘系统,其特征在于,动态知识认知层级挖掘系统包括:
节点嵌入表示学习模块,用于根据学习者的学习行为特征与学习资源特征,生成对应的基于学习者-试题-知识交互异构图;利用学习者-试题-知识交互异构图生成子图,并引入图卷积神经网络,基于不同图结构对试题节点和知识点节点分别进行嵌入表示学习;
知识状态更新模块,用于通过构建门结构,对更新后的试题节点与知识点节点进行时序预测,计算学习者下一时刻对所有试题及知识点的掌握状态;
动态认知追踪模块,用于利用学习者对所有知识点的掌握状态向量,基于线性神经网络,动态追踪学习者对所有知识点的认知层级;
作答反应预测模块,用于以学习者的学习交互序列为基础,根据学习者下一时刻所要作答的试题特征,融合学习者对下一试题及其考察知识点的特征,预测学习者下一时刻的作答反应。
9.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1~7任意一项所述动态知识认知层级挖掘方法的步骤。
10.一种信息数据处理终端,其特征在于,所述信息数据处理终端用于实现如权利要求7所述动态知识认知层级挖掘系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311296995.6A CN117349362A (zh) | 2023-10-09 | 2023-10-09 | 一种动态知识认知层级挖掘方法、系统、设备及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311296995.6A CN117349362A (zh) | 2023-10-09 | 2023-10-09 | 一种动态知识认知层级挖掘方法、系统、设备及终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117349362A true CN117349362A (zh) | 2024-01-05 |
Family
ID=89356848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311296995.6A Pending CN117349362A (zh) | 2023-10-09 | 2023-10-09 | 一种动态知识认知层级挖掘方法、系统、设备及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117349362A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118364904A (zh) * | 2024-06-17 | 2024-07-19 | 湖南大学 | 基于多图的知识追踪方法及系统 |
-
2023
- 2023-10-09 CN CN202311296995.6A patent/CN117349362A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118364904A (zh) * | 2024-06-17 | 2024-07-19 | 湖南大学 | 基于多图的知识追踪方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110941723A (zh) | 一种知识图谱的构建方法、系统及存储介质 | |
CN112116092B (zh) | 可解释性知识水平追踪方法、系统和存储介质 | |
CN113344053B (zh) | 一种基于试题异构图表征与学习者嵌入的知识追踪方法 | |
Yang et al. | Knowledge-based recommender system using artificial intelligence for smart education | |
Lu et al. | CMKT: Concept map driven knowledge tracing | |
CN113283488B (zh) | 一种基于学习行为的认知诊断方法及系统 | |
CN114254127A (zh) | 学生能力画像方法、学习资源推荐方法及装置 | |
CN114021722A (zh) | 一种融合认知刻画的注意力知识追踪方法 | |
CN115455186A (zh) | 一种基于多模型的学情分析方法 | |
CN116186250A (zh) | 小样本条件下的多模态学习水平挖掘方法、系统及介质 | |
CN115238036A (zh) | 一种基于图注意力网络和文本信息的认知诊断方法及装置 | |
CN113378581B (zh) | 一种基于多元概念注意力模型的知识追踪方法及系统 | |
Firoozi et al. | Using active learning methods to strategically select essays for automated scoring | |
Ma et al. | Dtkt: An improved deep temporal convolutional network for knowledge tracing | |
Ali | Early Assessment of Student's Learning Outcomes using Prediction Model under Outcome-Based Education System. | |
Jiang et al. | Improving the performance and explainability of knowledge tracing via Markov blanket | |
Tang et al. | Personalized Learning Behavior Evaluation Method Based on Deep Neural Network | |
Yang et al. | [Retracted] A Classification Technique for English Teaching Resources and Merging Using Swarm Intelligence Algorithm | |
Weng et al. | Exploring the influence of students’ ICT use on mathematics and science moderated by school-related factors | |
Yue et al. | Augmenting interpretable knowledge tracing by ability attribute and attention mechanism | |
Zhou | Research on teaching resource recommendation algorithm based on deep learning and cognitive diagnosis | |
CN117349362A (zh) | 一种动态知识认知层级挖掘方法、系统、设备及终端 | |
Cabo | Use of Machine Learning to Identify Predictors of Student Performance in Writing Viable Computer Programs with Repetition Loops and Methods | |
Jiang et al. | Learning analytics in a blended computer education course | |
Liu | Exploring the blended learning model of music teaching skills for teacher trainees based on teacher training professional certification in the context of big data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |