CN112988844A - 一种基于学生练习序列的知识概念表示学习方法 - Google Patents

一种基于学生练习序列的知识概念表示学习方法 Download PDF

Info

Publication number
CN112988844A
CN112988844A CN202110347398.6A CN202110347398A CN112988844A CN 112988844 A CN112988844 A CN 112988844A CN 202110347398 A CN202110347398 A CN 202110347398A CN 112988844 A CN112988844 A CN 112988844A
Authority
CN
China
Prior art keywords
knowledge
student
exercise
concept
knowledge concept
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110347398.6A
Other languages
English (en)
Other versions
CN112988844B (zh
Inventor
李凡
张天成
刘恒宇
于戈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN202110347398.6A priority Critical patent/CN112988844B/zh
Publication of CN112988844A publication Critical patent/CN112988844A/zh
Application granted granted Critical
Publication of CN112988844B publication Critical patent/CN112988844B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2465Query processing support for facilitating data mining operations in structured databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/26Visual data mining; Browsing structured data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Fuzzy Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供一种基于学生练习序列的知识概念表示学习方法,涉及教育数据挖掘技术领域。该方法中设计了一个可解释的知识追踪模型来追踪学生知识概念掌握随时间的动态变化,提出了一个具有三种交互策略的对数线性模型,其通过分析学生知识概念掌握的动态变化,获得知识概念的分布式表征;此外,在模型设计中融入了猜测和失误因素;使用一个长短期记忆网络来近似后验分布;最后,使用醒眠算法来学习模型参数以及知识概念与题目的分布式表示。本发明通过分析学生的习题反应和知识概念掌握情况来了解知识概念之间的关系,通过大量的学生锻炼序列数据来构建知识概念图,用更优的性能来获取知识的分布式表示。

Description

一种基于学生练习序列的知识概念表示学习方法
技术领域
本发明涉及教育数据挖掘技术领域,尤其涉及一种基于学生练习序列的知识概念表示学习方法。
背景技术
近些年,随着慕课(Massive Open Online Courses,MOOCs),在线评判(OnlineJudging,OJ)系统等智能在线教育发展力度的加大,大量基于在线智能教育的应用迅速在大众心目中占据突出位置,包括知识追踪,习题推荐,学习路径推荐等。这类应用中的一个关键问题是如何有效地利用来自教育领域的知识概念。一种解决方案是知识概念表示学习,其将来自教育领域的知识概念投射到一个低维稠密实值的语义空间中。
知识概念表征学习是知识表征学习的一个分支。现有的知识表示学习方法都是利用一个现有的知识图谱来获取知识的分布式表示。然而现有的知识图构建方法大多都是基于文本数据的,例如来自教科书,视频课程字幕或维基百科。它们忽略了人类活动过程中产生的序列数据,如学生练习序列和用户浏览序列。在大多数在线教育系统中,没有知识概念图可以用来学习知识概念的分布式表示,也没有大量的文本数据可以用来构建知识概念图;然而,其拥有大量的学生锻炼序列数据。
教育心理学中的学习迁移理论认为,学生在学习新的知识概念时,会受到先前已学过的知识概念的影响。学生对知识概念的掌握和知识概念之间的关联是导致学习迁移现象的主要因素。因此,通过分析学生的习题反应和知识概念掌握情况来了解知识概念之间的关系是可行的。然而在利用学生练习序列获得知识概念的分布式表示时,依旧存在许多挑战:首先没有任何现有工作利用人类活动序列获得知识的分布式表示。其次,需要设计一种方法跟踪学生知识概念掌握随时间的动态变化,并利用学生知识概念的动态变化获取知识概念的分布式表示。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种基于学生练习序列的知识概念表示学习方法,通过分析学生的习题反应和知识概念掌握情况来了解知识概念之间的关系,通过大量的学生锻炼序列数据来构建知识概念图,用更优的性能来获取知识的分布式表示。
为解决上述技术问题,本发明所采取的技术方案是:
一种基于学生练习序列的知识概念表示学习方法,包括以下步骤:
步骤1:利用学习曲线和遗忘曲线作为先验,捕捉学生知识概念掌握程度随时间的动态变化;
步骤2:设计一个具有三种交互策略的对数线性模型,其中三种交互策略分别为学生-题目交互策略(UE)、题目-知识概念交互策略(EK)和知识概念-知识概念交互策略(KK),通过该对数线性模型利用学生的练习反馈和知识概念掌握情况来学习知识概念的分布式表示;此外为了更好建模学生练习反馈,在对数线性模型设计中融入学生的猜测和失误参数;
步骤3:为了解决基于学生练习序列的知识概念表示学习方法后验估计过程中的解释消融问题,使用一个长短时记忆(Long Short-Term Memory,LSTM)网络来近似基于学生练习序列的知识概念表示学习方法的后验分布;
步骤4:使用醒眠算法来学习基于学生练习序列的知识概念表示学习方法的参数,其中包括知识概念与题目的分布式表示结果;
步骤5:基于知识概念与题目的分布式表示,设计3个子模型分别用于优化知识追踪预测学生未来成绩、挖掘知识概念之间的关系、标注题目包含哪些知识概念。
采用上述技术方案所产生的有益效果在于:本发明提供的基于学生练习序列的知识概念表示学习方法,通过分析学生的习题反应和知识概念掌握情况来了解知识概念之间的关系,捕捉学生知识概念掌握程度随时间的动态变化,利用学生的练习反馈和知识概念掌握情况来学习知识概念的分布式表示,并融入学生的猜测和滑移因素,使用一个长短时记忆网络来近似模型的后验分布,使用醒眠算法来学习模型参数,设计基于知识概念与题目的分布式表示,设计3个子模型分别用于题目知识概念标注任务、知识概念关系挖掘任务以及学生未来表现预测任务,本发明考虑了知识概念的分布式表示的全连通神经网络的性能优于不考虑知识概念的分布式表示的网络,用更优的性能来获取知识的分布式表示。
附图说明
图1为本发明实施例提供的基于学生练习序列的知识概念表示学习方法流程图;
图2为本发明实施例提供的在HDU数据集上学习到的分布式表示的示例;
图3为本发明实施例提供的在线教育系统中进行知识概念表示学习的具体流程;
图4为本发明实施例提供的对某大学在线评测系统中学生练习记录的数据分析结果。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
假设在一个学习系统中有N个学生,M个题目和K个知识概念。在该系统中,学生练习日志记录了学生在不同时间进行的练习结果。学生i的练习序列表示为
Figure BDA0003001220160000021
其中,
Figure BDA0003001220160000031
表示学生i提交的题目ei,j作为第j条练习记录的一部分,提交时间为ti,j,结果为
Figure BDA00030012201600000311
(“接受”或者“错误答案”)。另外,有一个Q-矩阵,它表示为二进制矩阵Q∈RM *K,Qj,k=1表示题目j与知识概念k相关,而值为0表示相应题目和知识概念不相关。在不丧失一般性的情况下,知识概念表示学习及其应用可以表述为:
任务1.(知识概念表示学习)给定学生练习序列S和教育专家提供的Q矩阵,目标是学习知识概念的分布式表示。
任务2.(未来学生表现预测)给定学生的练习序列S,学生的知识概念掌握情况、知识概念的分布表示以及教育专家提供的Q矩阵,目标是预测学生在练习中的未来表现。
任务3.(知识概念关系预测)给定知识概念的分布式表示,目标是预测知识概念之间的关系。知识概念之间可能存在的关系包括上位关系,下位关系和异位关系。
任务4.(题目的知识概念预测)给定知识概念和题目的分布式表示,目标是预测给定题目所包含的知识概念。
如图1所示,本实施例提供一种基于学生练习序列的知识概念表示学习方法,具体步骤如下。
步骤1:建模学生知识概念掌握程度随时间的动态变化。
为了更好地跟踪学生的知识概念掌握情况,结合学习曲线和遗忘曲线建模学生的知识概念掌握情况。学生i在第t次练习时对知识概念k的掌握情况如下:
Figure BDA0003001220160000032
其中,
Figure BDA0003001220160000033
表示学生i在第t次练习时是否掌握知识概念k,值为1表示掌握,值为0表示未掌握;
Figure BDA0003001220160000034
是学生i在第t次练习时掌握知识概念k的概率,p(Fk)是学生忘记知识概念k的概率,p(Tk)是学生通过学习掌握知识概念k的概率。
为便于后续推导,将学生的知识概念掌握以矩阵形式定义如下:
Figure BDA0003001220160000035
Figure BDA0003001220160000036
其中,
Figure BDA0003001220160000037
表示学生i在第t次提交对于知识概念k的掌握程度;π(k)表示学生i对于知识概念k初始的掌握程度;
Figure BDA0003001220160000038
是转移矩阵。具体而言,
Figure BDA0003001220160000039
定义如下:
Figure BDA00030012201600000310
基于以下原则设计知识概念k的遗忘概率p(Fk=1)和学习概率p(Tk=1):首先,某一特定知识概念的练习间隔越长,遗忘该知识概念的概率越高;第二,某一特定知识概念在短时间内的练习次数越多,习得该知识概念的概率越高;最后,P(Fk=1)和P(Tk=1)公式如下:
Figure BDA0003001220160000041
Figure BDA0003001220160000042
其中,σ是sigmoid激活函数;Δtk是知识概念k的当前练习记录与前一练习记录之间的时间间隔;fk表示知识概念k在指定时间
Figure BDA00030012201600000412
内的练习频率,θf,k、θl1,k和θl2,k是知识概念k的遗忘和学习参数;bf,k和bl,k分别是对知识概念k的遗忘偏差和学习偏差;
Figure BDA0003001220160000043
是一个超参数。
步骤2:建模知识概念分布式表示、题目分布式表示和学生练习反馈。
设计一种基于三种交互策略的对数线性模型,其中三种交互策略分别为学生-题目交互策略(UE)、题目-知识概念交互策略(EK)和知识概念-知识概念交互策略(KK)。通过这三种交互策略,探究学生与题目之间、题目与知识概念之间、知识概念与概念之间的联系,进而学习到知识概念与题目的分布式表示。
对数线性模型定义如下。
Figure BDA0003001220160000044
其中,
Figure BDA0003001220160000045
ei,t是学生i在第t次练习记录中的练习题目标号,ri,t是学生i在第t次练习记录中的练习反馈;
Figure BDA0003001220160000046
是学生i在第t次练习记录时的所有知识概念掌握情况;
Figure BDA0003001220160000047
是学生i在第t次练习记录时的知识概念k掌握情况;
Figure BDA0003001220160000048
是相关知识概念k和题目ei,t的分布式表示;μ是一个全局偏差;wu,i
Figure BDA0003001220160000049
和wc,k分别是对学生i、题目ei,t和知识概念k的偏差;而
Figure BDA00030012201600000410
表示题目ei,t是否与知识概念k有关。
此外,在对学生的练习反馈建模时考虑学生的猜测与失误行为,具体如下:
Figure BDA00030012201600000411
其中,
Figure BDA0003001220160000051
是在题目ei,t上失误的概率;
Figure BDA00030012201600000528
是通过猜测正确回答题目ei,t的概率;
Figure BDA0003001220160000052
表示学生i考虑猜测与失误的情况下第t次练习答对题目这一事件;ri,t=1表示学生i未考虑猜测与失误的情况下第t次练习答对题目这一事件;
Figure BDA0003001220160000053
表示学生在题目ei,t上失误这一事件;
Figure BDA0003001220160000054
表示学生在题目ei,t上猜对这一事件;
Figure BDA0003001220160000055
Figure BDA0003001220160000056
定义如下:
Figure BDA0003001220160000057
Figure BDA0003001220160000058
其中,
Figure BDA0003001220160000059
Figure BDA00030012201600000510
分别为题目ei,t的猜测参数与失误参数,se=1表示学生在题目ei,t上失误这一事件;
Figure BDA00030012201600000527
表示学生在题目ei,t上猜对这一事件。
步骤3:利用LSTM网络拟合后验分布
Figure BDA00030012201600000511
使用一个LSTM网络来近似拟合后验分布
Figure BDA00030012201600000512
如下:
Figure BDA00030012201600000513
其中,
Figure BDA00030012201600000514
表示后验分布
Figure BDA00030012201600000515
的近似结果;φ表示qφ中的所有训练参数;σ是sigmoid激活函数;Wq、bq为全连接神经网络的参数;
Figure BDA00030012201600000516
为后验分布的特征向量。
将学生的练习反馈ri,t扩展到一个特征向量0=(0,0,...,0),该特征向量与练习嵌入xi,t具有相同的2de维度,de为题目与知识概念分布式表示结果的维度,后验分布的特征向量
Figure BDA00030012201600000517
如下所示:
Figure BDA00030012201600000518
其中,
Figure BDA00030012201600000519
是连接两个向量的操作,练习嵌入xi,t的定义如下:
Figure BDA00030012201600000520
Figure BDA00030012201600000521
其中,
Figure BDA00030012201600000522
是知识概念和题目的分布式表示。
步骤4:利用醒眠算法进行参数估计。
参数学习分为两个阶段:唤醒阶段和睡眠阶段。在唤醒阶段,给定学生练习反馈序列
Figure BDA00030012201600000523
学生练习题目序列ei和学生练习起始时间序列ti,首先使用近似估计的后验分布
Figure BDA00030012201600000524
对隐藏变量ui进行采样,隐藏变量ui表示学生知识概念的掌握程度序列,然后使用采样得到的学生知识概念的掌握程度序列ui以及学生练习反馈序列
Figure BDA00030012201600000525
学生练习题目序列ei和学生练习起始时间序列ti优化学生知识概念的掌握程度序列ui和学生练习反馈序列
Figure BDA00030012201600000526
服从的联合分布
Figure BDA0003001220160000061
的所有参数θ。在睡眠阶段,给定学生练习题目序列ei和学生练习起始时间序列ti,首先使用知识概念的掌握程度序列ui和学生练习反馈序列
Figure BDA0003001220160000062
服从的联合分布
Figure BDA0003001220160000063
对隐藏变量ui和观察变量
Figure BDA0003001220160000064
(其表示学生练习反馈序列)进行采样,然后使用学生练习题目序列ei和学生练习起始时间序列ti以及通过采样得到的学生知识概念的掌握程度序列ui和学生练习反馈序列
Figure BDA0003001220160000065
来优化
Figure BDA0003001220160000066
的参数φ。
唤醒阶段的优化目标如下:
Figure BDA0003001220160000067
其中,θ=[Ee,Ec,πk,θs,θg,θl,θf,bl,bf,wu,we,wc]表示
Figure BDA0003001220160000068
的所有参数,
Figure BDA0003001220160000069
为所有参数θ给定的
Figure BDA00030012201600000610
N是训练数据中的学生总数,ui~qφ(ui|ri)和
Figure BDA00030012201600000611
睡眠阶段的优化目标如下:
Figure BDA00030012201600000612
其中,φ表示
Figure BDA00030012201600000619
的所有参数,并且
Figure BDA00030012201600000613
步骤5:用户任务选择。
基于用户任务选择结果可以执行以下三种类型任务,预测学生未来成绩任务、知识概念之间的关系标注任务和题目知识概念标注任务。下面描述每个任务的具体执行过程。
任务1:利用知识概念分布式表示优化知识追踪预测学生未来成绩。
利用本发明提出方法获得的题目和知识概念的分布式表示以及学生对知识概念的掌握程度,来优化现有的知识跟踪模型(Knowledge Tracing Model,KTM)。优化后的KTM能更好的预测学生未来的表现。优化过程如下:
Figure BDA00030012201600000614
Figure BDA00030012201600000615
其中,
Figure BDA00030012201600000616
表示学生i在第t次练习时的嵌入结果;xi,t
Figure BDA00030012201600000617
Figure BDA00030012201600000618
通过步骤1和步骤3获得;yp(i,t)表示学生i在第t次练习中正确回答的概率;KTM是现有知识追踪模型,如DKT或EERNN。
任务2:利用知识概念分布式表示挖掘知识概念之间的关系。
给定现有知识概念图的一部分,可以建立一个有监督的模型来填补图中的知识概念关系空缺。本发明将这一目标简化为预测知识概念之间的包含关系。知识概念k1和k2之间的包含关系yr(k1,k2)预测如下:
hr=tanh(Wr,h*Er+br,h)
yr(k1,k2)=σ(Wr,o*hr+br,o)
其中,
Figure BDA0003001220160000071
表示知识概念k1和知识概念k2的联合嵌入,Wr,h、Wr,o、br,h和br,o是预测知识概念之间包含关系的全连通神经网络的训练参数,σ是sigmoid函数。
任务3:利用知识概念与题目分布式表示标注题目包含哪些知识概念。
给定Q-矩阵的一部分,用给定的Q-矩阵训练一个有监督的模型来判断某个题目是否包含某个知识概念。该有监督的模型用来填充Q-矩阵的缺失值,也能通过用概率矩阵代替原来的01矩阵来模糊化Q-矩阵。预测题目j和知识概念k的包含关系如下所示:
hQ=tanh(WQ,h*EQ+bQ,h)
yQ(j,k)=σ(WQ,o*hQ+bQ,o)
其中,EQ=[Ee,j,Ec,k,Ee,j-Ec,k]表示题目j和知识概念k的联合嵌入,WQ,h、WQ,o、bQ,h和bQ,o是预测题目知识概念标签的全连通神经网络的训练参数。
本实施例通过使用主成分分析法将学习到的题目与知识概念的分布式表示降低到2维。如图2所示,其为在HDU数据集上学习到的分布式表示的示例,该图直观地显示了知识概念和题目之间的关系。例如,知识概念13(最长公共子序列)是知识概念14(动态规划)的子问题,题目198考察了知识概念0(最短路径问题)。因此,在图4中,知识概念13和14之间以及题目198和知识概念0之间的距离相对较小。
本实施例使用在线评测系统中学生练习序列来获得知识概念分布式表示的方法,具体如图3所示。本发明首先利用学生练习过程中产生的丰富的学生练习序列数据与题目信息(题目包含了哪些知识概念)来追踪学生知识概念掌握程度随着时间的动态变化。最终通过分析学生知识概念随时间的动态变化来获取知识概念的分布式表示。
对从某大学的在线评测系统获得的学生练习序列进行数据分析,首先统计已经掌握知识概念j的学生的人数Ni,j,并且在第一次尝试中还正确地回答了一个涉及知识概念i的题目。为了消除知识概念i和j受欢迎程度的影响,对矩阵N执行行归一化和列中心化。结果如图4所示,其中行坐标表示知识概念j,列坐标表示知识概念i。结果表明,通过分析学生的练习序列和知识概念掌握情况,可以得出知识概念之间的关系。
本实施例从PKU在线评测平台和HDU在线评测平台爬取两个真实的数据集POJ和HDU进行实验。这两个数据集包括2018年6月至2018年11月期间提交的记录。在在线评测平台中,其允许学生重新提交代码,直到通过题目为止。此外,本实施例保留HDU数据集中的193个知识概念,POJ数据集中的146个知识概念(诸如“动态规划”、“Prim算法”和“深度搜索”等知识概念)来构建Q矩阵。还对记录少于15条的学生以及记录少于20条的题目进行了筛选。滤波后数据集的统计信息如表1所示。
表1数据集的统计信息
数据集 学生数量 题目数量 提交记录数量 平均提交数量
HDU 6865 2782 373787 54
POJ 4349 1810 196662 45
实验的软硬件环境如表2所示。
表2本实施例实验的软硬件环境
Figure BDA0003001220160000081
利用本发明获得的题目和知识概念的分布式表示,对现有的两种基于深度学习的KTMs (DKT和EERNN)进行了优化。使用80%的数据用于训练KCRE和KTMs,并使用剩余的20%测试KTMs的性能。其中KTMs的题目嵌入维数均为20,KTMs中LSTM网络的隐藏单元数为40,并且均包含L2正则化。
如表3所示,利用本发明优化的KTMs的性能明显优于原本的KTMs。同时考虑动态(UE)和静态(EK和KK)交互策略的分布式表示方法的性能优于只考虑动态交互策略和只考虑静态交互策略的分布式表示方法。此外,仅考虑动态交互策略(UE)的分布式表示方法的性能优于仅考虑静态交互策略(EK和KK)的分布式表示方法。其原因可能是动态信息(学生知识概念掌握的动态变化)比静态信息在预测学生未来成绩任务上对预测结果的影响更大。
表3预测学生未来成绩实验结果
Figure BDA0003001220160000082
Figure BDA0003001220160000091
利用一个知识概念图来训练一个全连通的神经网络来识别知识概念之间的包含关系。全连通神经网络具有30个隐单元,知识概念嵌入的维数为40。然而知识概念图的稀疏性导致了数据中正负样本数量的极度不平衡。为了克服这一问题,为每个正样本采样2个负样本。最后,每个数据点表示为(k1,k2,r),其中r表示知识概念k1和k2之间的关系(r=1表示知识概念k1包含知识概念k2,否则r=0)。使用50%的数据作为训练数据,其余50%作为测试数据。
如表4所示,考虑知识概念的分布式表示的全连通神经网络的性能比不考虑知识概念的分布式表示的网络要好得多。此外,同时考虑动态和静态交互的分布式表示方法比其他方法具有更好的性能。此外,考虑KK交互的分布式表示比考虑EK交互的分布式表示在预测知识概念之间的关系任务上拥有更好的性能。
表4预测知识概念之间关系的实验结果
Figure BDA0003001220160000101
利用Q矩阵训练一个全连接的神经网络来判断某个题目是否包含某个知识概念。全连通神经网络具有30个隐单元,知识概念嵌入的维数为40。由于Q矩阵的稀疏性,为每个正样本采样2个负样本。最后将每个数据点表示为(e,k,r),其中r=1表示问题e与知识概念k有关。将50%的数据用于训练,其余50%用于测试。
实验结果如表5所示。考虑了知识概念的分布式表示的全连通神经网络的性能优于不考虑知识概念的分布式表示的网络。同时考虑动态和静态交互的分布式表示方法在预测题目所包含的知识概念方面比其他方法具有更好的性能。此外,考虑EK交互的分布式表示比考虑KK交互的分布式表示在预测题目所包含的知识概念任务上表现出更好的性能。
表5预测题目包含知识概念的实验结果
Figure BDA0003001220160000102
Figure BDA0003001220160000111
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。

Claims (6)

1.一种基于学生练习序列的知识概念表示学习方法,其特征在于:包括以下步骤:
步骤1:利用学习曲线和遗忘曲线作为先验,捕捉学生知识概念掌握程度随时间的动态变化;
步骤2:设计一个具有三种交互策略的对数线性模型,其中三种交互策略分别为学生-题目交互策略(UE)、题目-知识概念交互策略(EK)和知识概念-知识概念交互策略(KK),通过这三种交互策略,探究学生与题目之间、题目与知识概念之间、知识概念与概念之间的联系,进而利用学生的练习反馈和知识概念掌握情况来学习知识概念的分布式表示;此外为了更好建模学生练习反馈,在对数线性模型设计中融入学生的猜测和失误参数;
步骤3:为了解决基于学生练习序列的知识概念表示学习方法后验估计过程中的解释消融问题,使用一个长短时记忆(Long Short-Term Memory,LSTM)网络来近似基于学生练习序列的知识概念表示学习方法的后验分布;
步骤4:使用醒眠算法来学习基于学生练习序列的知识概念表示学习方法的参数,其中包括知识概念与题目的分布式表示结果;
步骤5:基于知识概念与题目的分布式表示,设计3个子模型分别用于优化知识追踪预测学生未来成绩、挖掘知识概念之间的关系、标注题目包含哪些知识概念。
2.根据权利要求1所述的基于学生练习序列的知识概念表示学习方法,其特征在于:所述步骤1中,学生i在第t次练习时对知识概念k的掌握情况如下:
Figure FDA0003001220150000011
其中,
Figure FDA0003001220150000012
表示学生i在第t次练习时是否掌握知识概念k,值为1表示掌握,值为0表示未掌握;
Figure FDA0003001220150000013
是学生i在第t次练习时掌握知识概念k的概率,p(Fk)是学生忘记知识概念k的概率,p(Tk)是学生通过学习掌握知识概念k的概率;
将学生的知识概念掌握以矩阵形式定义如下:
Figure FDA0003001220150000014
Figure FDA0003001220150000015
其中,
Figure FDA0003001220150000016
表示学生i在第t次提交对于知识概念k的掌握程度;π(k)表示学生i对于知识概念k初始的掌握程度;
Figure FDA0003001220150000017
是转移矩阵,
Figure FDA0003001220150000018
定义如下:
Figure FDA0003001220150000019
基于以下原则设计知识概念k的遗忘概率p(Fk=1)和学习概率p(Tk=1):首先,某一特定知识概念的练习间隔越长,遗忘该知识概念的概率越高;第二,某一特定知识概念在短时间内的练习次数越多,习得该知识概念的概率越高;最后,P(Fk=1)和P(Tk=1)公式如下:
Figure FDA0003001220150000021
Figure FDA0003001220150000022
其中,σ是sigmoid激活函数;Δtk是知识概念k的当前练习记录与前一练习记录之间的时间间隔;fk表示知识概念k在指定时间
Figure FDA00030012201500000214
内的练习频率,θf,k、θl1,k和θl2,k是知识概念k的遗忘和学习参数;bf,k和bl,k分别是对知识概念k的遗忘偏差和学习偏差;
Figure FDA00030012201500000215
是一个超参数。
3.根据权利要求2所述的基于学生练习序列的知识概念表示学习方法,其特征在于:所述步骤2中,对数线性模型定义如下:
Figure FDA0003001220150000023
其中,
Figure FDA0003001220150000024
ei,t是学生i在第t次练习记录中的练习题目标号,ri,t是学生i在第t次练习记录中的练习反馈;
Figure FDA0003001220150000025
是学生i在第t次练习记录时的所有知识概念掌握情况;
Figure FDA0003001220150000026
是学生i在第t次练习记录时的知识概念k掌握情况;
Figure FDA0003001220150000027
是相关知识概念k和题目ei,t的分布式表示;μ是一个全局偏差;wu,i
Figure FDA0003001220150000028
和wc,k分别是对学生i、题目ei,t和知识概念k的偏差;而
Figure FDA0003001220150000029
表示题目ei,t是否与知识概念k有关;
在对学生的练习反馈建模时考虑学生的猜测与失误行为,具体如下:
Figure FDA00030012201500000210
其中,
Figure FDA00030012201500000211
是在题目ei,t上失误的概率;
Figure FDA00030012201500000212
是通过猜测正确回答题目ei,t的概率;
Figure FDA00030012201500000213
表示学生i考虑猜测与失误的情况下第t次练习答对题目这一事件;ri,t=1表示学生i未考虑猜测与失误的情况下第t次练习答对题目这一事件;
Figure FDA0003001220150000031
表示学生在题目ei,t上失误这一事件;
Figure FDA0003001220150000032
表示学生在题目ei,t上猜对这一事件;
Figure FDA0003001220150000033
Figure FDA0003001220150000034
定义如下:
Figure FDA0003001220150000035
Figure FDA0003001220150000036
其中,
Figure FDA0003001220150000037
Figure FDA0003001220150000038
分别为题目ei,t的猜测参数与失误参数,se=1表示学生在题目ei,t上失误这一事件;
Figure FDA0003001220150000039
表示学生在题目ei,t上猜对这一事件。
4.根据权利要求3所述的基于学生练习序列的知识概念表示学习方法,其特征在于:所述步骤3中,使用一个LSTM网络来近似拟合后验分布
Figure FDA00030012201500000310
如下:
Figure FDA00030012201500000311
其中,
Figure FDA00030012201500000312
表示后验分布
Figure FDA00030012201500000313
的近似结果;φ表示qφ中的所有训练参数;σ是sigmoid激活函数;Wq、bq为全连接神经网络的参数;
Figure FDA00030012201500000314
为后验分布的特征向量;
将学生的练习反馈ri,t扩展到一个特征向量0=(0,0,...,0),该特征向量与练习嵌入xi,t具有相同的2de维度,de为题目与知识概念分布式表示结果的维度,后验分布的特征向量
Figure FDA00030012201500000315
如下所示:
Figure FDA00030012201500000316
其中,
Figure FDA00030012201500000317
是连接两个向量的操作,练习嵌入xi,t的定义如下:
Figure FDA00030012201500000318
Figure FDA00030012201500000319
其中,
Figure FDA00030012201500000320
是知识概念和题目的分布式表示。
5.根据权利要求4所述的基于学生练习序列的知识概念表示学习方法,其特征在于:所述步骤4中,参数学习分为两个阶段:唤醒阶段和睡眠阶段;
在唤醒阶段,给定学生练习反馈序列
Figure FDA00030012201500000321
学生练习题目序列ei和学生练习起始时间序列ti,首先使用近似估计的后验分布
Figure FDA00030012201500000322
对隐藏变量ui进行采样,隐藏变量ui表示学生知识概念的掌握程度序列,然后使用采样得到的学生知识概念的掌握程度序列ui以及学生练习反馈序列
Figure FDA00030012201500000323
学生练习题目序列ei和学生练习起始时间序列ti优化学生知识概念的掌握程度序列yi和学生练习反馈序列
Figure FDA00030012201500000324
服从的联合分布
Figure FDA00030012201500000325
的所有参数θ;
在睡眠阶段,给定学生练习题目序列ei和学生练习起始时间序列ti,首先使用知识概念的掌握程度序列ui和学生练习反馈序列
Figure FDA00030012201500000418
服从的联合分布
Figure FDA0003001220150000041
对隐藏变量ui和观察变量
Figure FDA0003001220150000042
进行采样,然后使用学生练习题目序列ei和学生练习起始时间序列ti以及通过采样得到的学生知识概念的掌握程度序列ui和学生练习反馈序列
Figure FDA0003001220150000043
来优化
Figure FDA0003001220150000044
的参数φ;
唤醒阶段的优化目标如下:
Figure FDA0003001220150000045
其中,θ=[Ee,Ec,πk,θs,θg,θl,θf,bl,bf,wu,we,wc]表示
Figure FDA0003001220150000046
的所有参数,
Figure FDA0003001220150000047
为所有参数θ给定的
Figure FDA0003001220150000048
N是训练数据中的学生总数,ui~qφ(ui|ri)和
Figure FDA0003001220150000049
睡眠阶段的优化目标如下:
Figure FDA00030012201500000410
其中,φ表示
Figure FDA00030012201500000411
的所有参数,并且
Figure FDA00030012201500000412
6.根据权利要求5所述的基于学生练习序列的知识概念表示学习方法,其特征在于:所述步骤5中,每个任务的具体执行过程如下:
任务1:利用知识概念分布式表示优化知识追踪预测学生未来成绩;
利用获得的题目和知识概念的分布式表示以及学生对知识概念的掌握程度,来优化现有的知识跟踪模型KTM,优化后的KTM能更好的预测学生未来的表现;优化过程如下:
Figure FDA00030012201500000413
Figure FDA00030012201500000414
其中,
Figure FDA00030012201500000415
表示学生i在第t次练习时的嵌入结果;xi,t
Figure FDA00030012201500000416
Figure FDA00030012201500000417
通过步骤1和步骤3获得;yp(i,t)表示学生i在第t次练习中正确回答的概率;KTM是现有知识追踪模型;
任务2:利用知识概念分布式表示挖掘知识概念之间的关系;
给定现有知识概念图的一部分,建立一个有监督的模型来填补图中的知识概念关系空缺,将这一目标简化为预测知识概念之间的包含关系;知识概念k1和k2之间的包含关系yr(k1,k2)预测如下:
hr=tanh(Wr,h*Er+br,h)
yr(k1,k2)=σ(Wr,o*hr+br,o)
其中,
Figure FDA0003001220150000051
表示知识概念k1和知识概念k2的联合嵌入,Wr,h、Wr,o、br,h和br,o是预测知识概念之间包含关系的全连通神经网络的训练参数,σ是sigmoid函数;
任务3:利用知识概念与题目分布式表示标注题目包含哪些知识概念;
给定Q-矩阵的一部分,用给定的Q-矩阵训练一个有监督的模型来判断某个题目是否包含某个知识概念;该有监督的模型用来填充Q-矩阵的缺失值,也能通过用概率矩阵代替原来的01矩阵来模糊化Q-矩阵,预测题目j和知识概念k的包含关系如下所示:
hQ=tanh(WQ,h*EQ+bQ,h)
yQ(j,k)=σ(WQ,o*hQ+bQ,o)
其中,EQ=[Ee,j,Ec,k,Ee,j-Ec,k]表示题目j和知识概念k的联合嵌入,WQ,h、WQ,o、bQ,h和bQ,o是预测题目知识概念标签的全连通神经网络的训练参数。
CN202110347398.6A 2021-03-31 2021-03-31 一种基于学生练习序列的知识概念表示学习方法 Active CN112988844B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110347398.6A CN112988844B (zh) 2021-03-31 2021-03-31 一种基于学生练习序列的知识概念表示学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110347398.6A CN112988844B (zh) 2021-03-31 2021-03-31 一种基于学生练习序列的知识概念表示学习方法

Publications (2)

Publication Number Publication Date
CN112988844A true CN112988844A (zh) 2021-06-18
CN112988844B CN112988844B (zh) 2022-09-27

Family

ID=76338610

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110347398.6A Active CN112988844B (zh) 2021-03-31 2021-03-31 一种基于学生练习序列的知识概念表示学习方法

Country Status (1)

Country Link
CN (1) CN112988844B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116151329A (zh) * 2023-04-23 2023-05-23 山东师范大学 基于反事实图学习的学生知识状态追踪方法及系统
CN117390091A (zh) * 2023-12-13 2024-01-12 福建天晴数码有限公司 一种教育元宇宙中的知识追踪方法及终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109960804A (zh) * 2019-03-21 2019-07-02 江西风向标教育科技有限公司 一种题目文本句子向量生成方法及装置
US20200065668A1 (en) * 2018-08-27 2020-02-27 NEC Laboratories Europe GmbH Method and system for learning sequence encoders for temporal knowledge graph completion
CN112231491A (zh) * 2020-10-20 2021-01-15 中国科学技术大学 基于知识结构的相似试题识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200065668A1 (en) * 2018-08-27 2020-02-27 NEC Laboratories Europe GmbH Method and system for learning sequence encoders for temporal knowledge graph completion
CN109960804A (zh) * 2019-03-21 2019-07-02 江西风向标教育科技有限公司 一种题目文本句子向量生成方法及装置
CN112231491A (zh) * 2020-10-20 2021-01-15 中国科学技术大学 基于知识结构的相似试题识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HENGYU LIU等: "Tracking Knowledge Structures and Proficiencies of Students with Learning Transfer", 《IEEE ACCESS》 *
刘恒宇等: "知识追踪综述", 《华东师范大学学报(自然科学版》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116151329A (zh) * 2023-04-23 2023-05-23 山东师范大学 基于反事实图学习的学生知识状态追踪方法及系统
CN117390091A (zh) * 2023-12-13 2024-01-12 福建天晴数码有限公司 一种教育元宇宙中的知识追踪方法及终端
CN117390091B (zh) * 2023-12-13 2024-02-09 福建天晴数码有限公司 一种教育元宇宙中的知识追踪方法及终端

Also Published As

Publication number Publication date
CN112988844B (zh) 2022-09-27

Similar Documents

Publication Publication Date Title
Huo et al. Knowledge modeling via contextualized representations for LSTM-based personalized exercise recommendation
Egan Individual differences in human-computer interaction
CN110991645A (zh) 一种基于知识模型的自适应学习方法、系统及存储介质
Kinnebrew et al. Analyzing the temporal evolution of students’ behaviors in open-ended learning environments
Scheuer et al. Educational data mining
US10290221B2 (en) Systems and methods to customize student instruction
CN110941723A (zh) 一种知识图谱的构建方法、系统及存储介质
CN112988844B (zh) 一种基于学生练习序列的知识概念表示学习方法
CN113851020A (zh) 一种基于知识图谱的自适应学习平台
CN114372137A (zh) 一种融合深度知识追踪的动态感知试题推荐方法及系统
Tanner et al. Predicting and preventing student failure–using the k-nearest neighbour method to predict student performance in an online course environment
Rafferty et al. Assessing mathematics misunderstandings via bayesian inverse planning
CN113283488A (zh) 一种基于学习行为的认知诊断方法及系统
Wang Application of componential IRT model for diagnostic test in a standard-conformant eLearning system
Kozierkiewicz-Hetmańska A method for scenario recommendation in intelligent e-learning systems
Mendjoge et al. Review of knowledge representation techniques for Intelligent Tutoring System
Umutlu et al. Leveraging artificial intelligence techniques for effective scaffolding of personalized learning in workplaces
Seridi-Bouchelaghem et al. A neural network for generating adaptive lessons
Aleven et al. Domain modeling for AIED systems with connections to modeling student knowledge: A review
Zhou Research on teaching resource recommendation algorithm based on deep learning and cognitive diagnosis
Lee et al. Prescribing deep attentive score prediction attracts improved student engagement
Huang et al. T-BMIRT: Estimating representations of student knowledge and educational components in online education
Mandlazi et al. Evaluating Deep Sequential Knowledge Tracing Models for Predicting Student Performance
Wang et al. Gaskt: A graph-based attentive knowledge-search model for knowledge tracing
da Silva et al. Adaptation in educational hypermedia based on the classification of the user profile

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant