CN112988844B - 一种基于学生练习序列的知识概念表示学习方法 - Google Patents
一种基于学生练习序列的知识概念表示学习方法 Download PDFInfo
- Publication number
- CN112988844B CN112988844B CN202110347398.6A CN202110347398A CN112988844B CN 112988844 B CN112988844 B CN 112988844B CN 202110347398 A CN202110347398 A CN 202110347398A CN 112988844 B CN112988844 B CN 112988844B
- Authority
- CN
- China
- Prior art keywords
- knowledge
- student
- exercise
- concept
- knowledge concept
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000003993 interaction Effects 0.000 claims abstract description 39
- 238000009826 distribution Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000013461 design Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 238000005065 mining Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 230000008667 sleep stage Effects 0.000 claims description 4
- 238000002679 ablation Methods 0.000 claims description 2
- 229910052739 hydrogen Inorganic materials 0.000 claims description 2
- 239000001257 hydrogen Substances 0.000 claims description 2
- 125000004435 hydrogen atom Chemical class [H]* 0.000 claims description 2
- 230000015654 memory Effects 0.000 claims description 2
- 230000007704 transition Effects 0.000 claims description 2
- 230000004044 response Effects 0.000 abstract description 3
- 238000007418 data mining Methods 0.000 abstract description 2
- 230000006403 short-term memory Effects 0.000 abstract description 2
- 238000011156 evaluation Methods 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 230000008846 dynamic interplay Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002922 epistatic effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2465—Query processing support for facilitating data mining operations in structured databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/26—Visual data mining; Browsing structured data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Fuzzy Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供一种基于学生练习序列的知识概念表示学习方法,涉及教育数据挖掘技术领域。该方法中设计了一个可解释的知识追踪模型来追踪学生知识概念掌握随时间的动态变化,提出了一个具有三种交互策略的对数线性模型,其通过分析学生知识概念掌握的动态变化,获得知识概念的分布式表征;此外,在模型设计中融入了猜测和失误因素;使用一个长短期记忆网络来近似后验分布;最后,使用醒眠算法来学习模型参数以及知识概念与题目的分布式表示。本发明通过分析学生的习题反应和知识概念掌握情况来了解知识概念之间的关系,通过大量的学生锻炼序列数据来构建知识概念图,用更优的性能来获取知识的分布式表示。
Description
技术领域
本发明涉及教育数据挖掘技术领域,尤其涉及一种基于学生练习序列的知识概念表示学习方法。
背景技术
近些年,随着慕课(Massive Open Online Courses,MOOCs),在线评判(OnlineJudging,OJ)系统等智能在线教育发展力度的加大,大量基于在线智能教育的应用迅速在大众心目中占据突出位置,包括知识追踪,习题推荐,学习路径推荐等。这类应用中的一个关键问题是如何有效地利用来自教育领域的知识概念。一种解决方案是知识概念表示学习,其将来自教育领域的知识概念投射到一个低维稠密实值的语义空间中。
知识概念表征学习是知识表征学习的一个分支。现有的知识表示学习方法都是利用一个现有的知识图谱来获取知识的分布式表示。然而现有的知识图构建方法大多都是基于文本数据的,例如来自教科书,视频课程字幕或维基百科。它们忽略了人类活动过程中产生的序列数据,如学生练习序列和用户浏览序列。在大多数在线教育系统中,没有知识概念图可以用来学习知识概念的分布式表示,也没有大量的文本数据可以用来构建知识概念图;然而,其拥有大量的学生锻炼序列数据。
教育心理学中的学习迁移理论认为,学生在学习新的知识概念时,会受到先前已学过的知识概念的影响。学生对知识概念的掌握和知识概念之间的关联是导致学习迁移现象的主要因素。因此,通过分析学生的习题反应和知识概念掌握情况来了解知识概念之间的关系是可行的。然而在利用学生练习序列获得知识概念的分布式表示时,依旧存在许多挑战:首先没有任何现有工作利用人类活动序列获得知识的分布式表示。其次,需要设计一种方法跟踪学生知识概念掌握随时间的动态变化,并利用学生知识概念的动态变化获取知识概念的分布式表示。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种基于学生练习序列的知识概念表示学习方法,通过分析学生的习题反应和知识概念掌握情况来了解知识概念之间的关系,通过大量的学生锻炼序列数据来构建知识概念图,用更优的性能来获取知识的分布式表示。
为解决上述技术问题,本发明所采取的技术方案是:
一种基于学生练习序列的知识概念表示学习方法,包括以下步骤:
步骤1:利用学习曲线和遗忘曲线作为先验,捕捉学生知识概念掌握程度随时间的动态变化;
步骤2:设计一个具有三种交互策略的对数线性模型,其中三种交互策略分别为学生-题目交互策略(UE)、题目-知识概念交互策略(EK)和知识概念-知识概念交互策略(KK),通过该对数线性模型利用学生的练习反馈和知识概念掌握情况来学习知识概念的分布式表示;此外为了更好建模学生练习反馈,在对数线性模型设计中融入学生的猜测和失误参数;
步骤3:为了解决基于学生练习序列的知识概念表示学习方法后验估计过程中的解释消融问题,使用一个长短时记忆(Long Short-Term Memory,LSTM)网络来近似基于学生练习序列的知识概念表示学习方法的后验分布;
步骤4:使用醒眠算法来学习基于学生练习序列的知识概念表示学习方法的参数,其中包括知识概念与题目的分布式表示结果;
步骤5:基于知识概念与题目的分布式表示,设计3个子模型分别用于优化知识追踪预测学生未来成绩、挖掘知识概念之间的关系、标注题目包含哪些知识概念。
采用上述技术方案所产生的有益效果在于:本发明提供的基于学生练习序列的知识概念表示学习方法,通过分析学生的习题反应和知识概念掌握情况来了解知识概念之间的关系,捕捉学生知识概念掌握程度随时间的动态变化,利用学生的练习反馈和知识概念掌握情况来学习知识概念的分布式表示,并融入学生的猜测和滑移因素,使用一个长短时记忆网络来近似模型的后验分布,使用醒眠算法来学习模型参数,设计基于知识概念与题目的分布式表示,设计3个子模型分别用于题目知识概念标注任务、知识概念关系挖掘任务以及学生未来表现预测任务,本发明考虑了知识概念的分布式表示的全连通神经网络的性能优于不考虑知识概念的分布式表示的网络,用更优的性能来获取知识的分布式表示。
附图说明
图1为本发明实施例提供的基于学生练习序列的知识概念表示学习方法流程图;
图2为本发明实施例提供的在HDU数据集上学习到的分布式表示的示例;
图3为本发明实施例提供的在线教育系统中进行知识概念表示学习的具体流程;
图4为本发明实施例提供的对某大学在线评测系统中学生练习记录的数据分析结果。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
假设在一个学习系统中有N个学生,M个题目和K个知识概念。在该系统中,学生练习日志记录了学生在不同时间进行的练习结果。学生i的练习序列表示为其中,表示学生i提交的题目ei,j作为第j条练习记录的一部分,提交时间为ti,j,结果为(“接受”或者“错误答案”)。另外,有一个Q-矩阵,它表示为二进制矩阵Q∈RM *K,Qj,k=1表示题目i与知识概念k相关,而值为0表示相应题目和知识概念不相关。在不丧失一般性的情况下,知识概念表示学习及其应用可以表述为:
任务1.(知识概念表示学习)给定学生练习序列S和教育专家提供的Q矩阵,目标是学习知识概念的分布式表示。
任务2.(未来学生表现预测)给定学生的练习序列S,学生的知识概念掌握情况、知识概念的分布表示以及教育专家提供的Q矩阵,目标是预测学生在练习中的未来表现。
任务3.(知识概念关系预测)给定知识概念的分布式表示,目标是预测知识概念之间的关系。知识概念之间可能存在的关系包括上位关系,下位关系和异位关系。
任务4.(题目的知识概念预测)给定知识概念和题目的分布式表示,目标是预测给定题目所包含的知识概念。
如图1所示,本实施例提供一种基于学生练习序列的知识概念表示学习方法,具体步骤如下。
步骤1:建模学生知识概念掌握程度随时间的动态变化。
为了更好地跟踪学生的知识概念掌握情况,结合学习曲线和遗忘曲线建模学生的知识概念掌握情况。学生i在第t次练习时对知识概念k的掌握情况如下:
其中,表示学生i在第t次练习时是否掌握知识概念k,值为1表示掌握,值为0表示未掌握;是学生i在第t次练习时掌握知识概念k的概率,p(Fk)是学生忘记知识概念k的概率,p(Tk)是学生通过学习掌握知识概念k的概率。
为便于后续推导,将学生的知识概念掌握以矩阵形式定义如下:
基于以下原则设计知识概念k的遗忘概率p(Fk=1)和学习概率p(Tk=1):首先,某一特定知识概念的练习间隔越长,遗忘该知识概念的概率越高;第二,某一特定知识概念在短时间内的练习次数越多,习得该知识概念的概率越高;最后,p(Fk=1)和p(Tk=1)公式如下:
其中,σ是sigmoid激活函数;Δtk是知识概念k的当前练习记录与前一练习记录之间的时间间隔;fk表示知识概念k在指定时间内的练习频率,θf,k、θl1,k和θl2,k是知识概念k的遗忘和学习参数;bf,k和bl,k分别是对知识概念k的遗忘偏差和学习偏差;是一个超参数。
步骤2:建模知识概念分布式表示、题目分布式表示和学生练习反馈。
设计一种基于三种交互策略的对数线性模型,其中三种交互策略分别为学生-题目交互策略(UE)、题目-知识概念交互策略(EK)和知识概念-知识概念交互策略(KK)。通过这三种交互策略,探究学生与题目之间、题目与知识概念之间、知识概念与概念之间的联系,进而学习到知识概念与题目的分布式表示。
对数线性模型定义如下。
其中,ei,t是学生i在第t次练习记录中的练习题目标号,ri,t是学生i在第t次练习记录中的练习反馈;是学生i在第t次练习记录时的所有知识概念掌握情况;是学生i在第t次练习记录时的知识概念k掌握情况;Ec,k,是相关知识概念k和题目ei,t的分布式表示;μ是一个全局偏差;wu,i、和wc,k分别是对学生i、题目ei,t和知识概念k的偏差;而表示题目ei,t是否与知识概念k有关;第五项表达式为KK interactions,即知识概念之间的交互;第六项表达式为UE interactions,即用户与题目之间的交互;第七项表达式为EK interactions,即题目与知识概念之间的交互。
此外,在对学生的练习反馈建模时考虑学生的猜测与失误行为,具体如下:
其中,是在题目ei,t上失误的概率;是通过猜测正确回答题目ei,t的概率;表示学生i考虑猜测与失误的情况下第t次练习答对题目这一事件;ri,t=1表示学生i未考虑猜测与失误的情况下第t次练习答对题目这一事件;表示学生在题目ei,t上失误这一事件;表示学生在题目ei,t上猜对这一事件;和定义如下:
步骤4:利用醒眠算法进行参数估计。
参数学习分为两个阶段:唤醒阶段和睡眠阶段。在唤醒阶段,给定学生练习反馈序列学生练习题目序列ei和学生练习起始时间序列ti,首先使用近似估计的后验分布对隐藏变量ui进行采样,隐藏变量ui表示学生知识概念的掌握程度序列,然后使用采样得到的学生知识概念的掌握程度序列ui以及学生练习反馈序列学生练习题目序列ei和学生练习起始时间序列ti优化学生知识概念的掌握程度序列ui和学生练习反馈序列服从的联合分布的所有参数θ。在睡眠阶段,给定学生练习题目序列ei和学生练习起始时间序列ti,首先使用知识概念的掌握程度序列ui和学生练习反馈序列服从的联合分布对隐藏变量ui和观察变量(其表示学生练习反馈序列)进行采样,然后使用学生练习题目序列ei和学生练习起始时间序列ti以及通过采样得到的学生知识概念的掌握程度序列ui和学生练习反馈序列来优化的参数φ。
唤醒阶段的优化目标如下:
睡眠阶段的优化目标如下:
步骤5:用户任务选择。
基于用户任务选择结果可以执行以下三种类型任务,预测学生未来成绩任务、知识概念之间的关系标注任务和题目知识概念标注任务。下面描述每个任务的具体执行过程。
任务1:利用知识概念分布式表示优化知识追踪预测学生未来成绩。
利用本发明提出方法获得的题目和知识概念的分布式表示以及学生对知识概念的掌握程度,来优化现有的知识跟踪模型(Knowledge Tracing Model,KTM)。优化后的KTM能更好的预测学生未来的表现。优化过程如下:
任务2:利用知识概念分布式表示挖掘知识概念之间的关系。
给定现有知识概念图的一部分,可以建立一个有监督的模型来填补图中的知识概念关系空缺。本发明将这一目标简化为预测知识概念之间的包含关系。知识概念k1和k2之间的包含关系yr(k1,k2)预测如下:
hr=tanh(Wr,h*Er+br,h)
yr(k1,k2)=σ(Wr,o*hr+br,o)
任务3:利用知识概念与题目分布式表示标注题目包含哪些知识概念。
给定Q-矩阵的一部分,用给定的Q-矩阵训练一个有监督的模型来判断某个题目是否包含某个知识概念。该有监督的模型用来填充Q-矩阵的缺失值,也能通过用概率矩阵代替原来的01矩阵来模糊化Q-矩阵。预测题目j和知识概念k的包含关系如下所示:
hQ=tanh(WQ,h*EQ+bQ,h)
yQ(j,k)=σ(WQ,o*hQ+bQ,o)
其中,EQ=[Ee,j,Ec,k,Ee,j-Ec,k]表示题目j和知识概念k的联合嵌入,WQ,h、We,o、bQ,h和bQ,o是预测题目知识概念标签的全连通神经网络的训练参数。
本实施例通过使用主成分分析法将学习到的题目与知识概念的分布式表示降低到2维。如图2所示,其为在HDU数据集上学习到的分布式表示的示例,该图直观地显示了知识概念和题目之间的关系。例如,知识概念13(最长公共子序列)是知识概念14(动态规划)的子问题,题目198考察了知识概念0(最短路径问题)。因此,在图4中,知识概念13和14之间以及题目198和知识概念0之间的距离相对较小。
本实施例使用在线评测系统中学生练习序列来获得知识概念分布式表示的方法,具体如图3所示。本发明首先利用学生练习过程中产生的丰富的学生练习序列数据与题目信息(题目包含了哪些知识概念)来追踪学生知识概念掌握程度随着时间的动态变化。最终通过分析学生知识概念随时间的动态变化来获取知识概念的分布式表示。
对从某大学的在线评测系统获得的学生练习序列进行数据分析,首先统计已经掌握知识概念j的学生的人数Ni,j,并且在第一次尝试中还正确地回答了一个涉及知识概念i的题目。为了消除知识概念i和j受欢迎程度的影响,对矩阵N执行行归一化和列中心化。结果如图4所示,其中行坐标表示知识概念j,列坐标表示知识概念i。结果表明,通过分析学生的练习序列和知识概念掌握情况,可以得出知识概念之间的关系。
本实施例从PKU在线评测平台和HDU在线评测平台爬取两个真实的数据集POJ和HDU进行实验。这两个数据集包括2018年6月至2018年11月期间提交的记录。在在线评测平台中,其允许学生重新提交代码,直到通过题目为止。此外,本实施例保留HDU数据集中的193个知识概念,POJ数据集中的146个知识概念(诸如“动态规划”、“Prim算法”和“深度搜索”等知识概念)来构建Q矩阵。还对记录少于15条的学生以及记录少于20条的题目进行了筛选。滤波后数据集的统计信息如表1所示。
表1数据集的统计信息
数据集 | 学生数量 | 题目数量 | 提交记录数量 | 平均提交数量 |
HDU | 6865 | 2782 | 373787 | 54 |
POJ | 4349 | 1810 | 196662 | 45 |
实验的软硬件环境如表2所示。
表2本实施例实验的软硬件环境
利用本发明获得的题目和知识概念的分布式表示,对现有的两种基于深度学习的KTMs(DKT和EERNN)进行了优化。使用80%的数据用于训练KCRE和KTMs,并使用剩余的20%测试KTMs的性能。其中KTMs的题目嵌入维数均为20,KTMs中LSTM网络的隐藏单元数为40,并且均包含L2正则化。
如表3所示,利用本发明优化的KTMs的性能明显优于原本的KTMs。同时考虑动态(UE)和静态(EK和KK)交互策略的分布式表示方法的性能优于只考虑动态交互策略和只考虑静态交互策略的分布式表示方法。此外,仅考虑动态交互策略(UE)的分布式表示方法的性能优于仅考虑静态交互策略(EK和KK)的分布式表示方法。其原因可能是动态信息(学生知识概念掌握的动态变化)比静态信息在预测学生未来成绩任务上对预测结果的影响更大。
表3预测学生未来成绩实验结果
利用一个知识概念图来训练一个全连通的神经网络来识别知识概念之间的包含关系。全连通神经网络具有30个隐单元,知识概念嵌入的维数为40。然而知识概念图的稀疏性导致了数据中正负样本数量的极度不平衡。为了克服这一问题,为每个正样本采样2个负样本。最后,每个数据点表示为(k1,k2,r),其中r表示知识概念k1和k2之间的关系(r=1表示知识概念k1包含知识概念k2,否则r=0)。使用50%的数据作为训练数据,其余50%作为测试数据。
如表4所示,考虑知识概念的分布式表示的全连通神经网络的性能比不考虑知识概念的分布式表示的网络要好得多。此外,同时考虑动态和静态交互的分布式表示方法比其他方法具有更好的性能。此外,考虑KK交互的分布式表示比考虑EK交互的分布式表示在预测知识概念之间的关系任务上拥有更好的性能。
表4预测知识概念之间关系的实验结果
利用Q矩阵训练一个全连接的神经网络来判断某个题目是否包含某个知识概念。全连通神经网络具有30个隐单元,知识概念嵌入的维数为40。由于Q矩阵的稀疏性,为每个正样本采样2个负样本。最后将每个数据点表示为(e,k,r),其中r=1表示问题e与知识概念k有关。将50%的数据用于训练,其余50%用于测试。
实验结果如表5所示。考虑了知识概念的分布式表示的全连通神经网络的性能优于不考虑知识概念的分布式表示的网络。同时考虑动态和静态交互的分布式表示方法在预测题目所包含的知识概念方面比其他方法具有更好的性能。此外,考虑EK交互的分布式表示比考虑KK交互的分布式表示在预测题目所包含的知识概念任务上表现出更好的性能。
表5预测题目包含知识概念的实验结果
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。
Claims (4)
1.一种基于学生练习序列的知识概念表示学习方法,其特征在于:包括以下步骤:
步骤1:利用学习曲线和遗忘曲线作为先验,捕捉学生知识概念掌握程度随时间的动态变化;
步骤2:设计一个具有三种交互策略的对数线性模型,其中三种交互策略分别为学生-题目交互策略UE、题目-知识概念交互策略EK和知识概念-知识概念交互策略KK,通过这三种交互策略,探究学生与题目之间、题目与知识概念之间、知识概念与概念之间的联系,进而利用学生的练习反馈和知识概念掌握情况来学习知识概念的分布式表示;此外为了更好建模学生练习反馈,在对数线性模型设计中融入学生的猜测和失误参数;
对数线性模型定义如下:
其中,ei,t是学生i在第t次练习记录中的练习题目标号,ri,t是学生i在第t次练习记录中的练习反馈;是学生i在第t次练习记录时的所有知识概念掌握情况;是学生i在第t次练习记录时的知识概念k掌握情况;Ec,k,是相关知识概念k和题目ei,t的分布式表示;μ是一个全局偏差;wu,i、和wc,k分别是对学生i、题目ei,t和知识概念k的偏差;而表示题目ei,t是否与知识概念k有关;第五项表达式为KK interactions,即知识概念之间的交互;第六项表达式为UE interactions,即用户与题目之间的交互;第七项表达式为EK interactions,即题目与知识概念之间的交互;
在对学生的练习反馈建模时考虑学生的猜测与失误行为,具体如下:
表示学生i考虑猜测与失误的情况下第t次练习答对题目这一事件;ri,t=1表示学生i未考虑猜测与失误的情况下第t次练习答对题目这一事件;表示学生在题目ei,t上失误这一事件;表示学生在题目ei,t上猜对这一事件;和定义如下:
步骤3:为了解决基于学生练习序列的知识概念表示学习方法后验估计过程中的解释消融问题,使用一个长短时记忆网络即LSTM网络来近似基于学生练习序列的知识概念表示学习方法的后验分布;
步骤4:使用醒眠算法来学习基于学生练习序列的知识概念表示学习方法的参数,其中包括知识概念与题目的分布式表示结果;
步骤5:基于知识概念与题目的分布式表示,设计3个子模型分别用于优化知识追踪预测学生未来成绩、挖掘知识概念之间的关系、标注题目包含哪些知识概念;
每个任务的具体执行过程如下:
任务1:利用知识概念分布式表示优化知识追踪预测学生未来成绩;
利用获得的题目和知识概念的分布式表示以及学生对知识概念的掌握程度,来优化现有的知识跟踪模型KTM,优化后的KTM能更好的预测学生未来的表现;优化过程如下:
任务2:利用知识概念分布式表示挖掘知识概念之间的关系;
给定现有知识概念图的一部分,建立一个有监督的模型来填补图中的知识概念关系空缺,将这一目标简化为预测知识概念之间的包含关系;知识概念k1和k2之间的包含关系yr(k1,k2)预测如下:
hr=tanh(Wr,h*Er+br,h)
yr(k1,k2)=σ(Wr,o*hr+br,o)
任务3:利用知识概念与题目分布式表示标注题目包含哪些知识概念;
给定Q-矩阵的一部分,用给定的Q-矩阵训练一个有监督的模型来判断某个题目是否包含某个知识概念;该有监督的模型用来填充Q-矩阵的缺失值,也能通过用概率矩阵代替原来的01矩阵来模糊化Q-矩阵,预测题目j和知识概念k的包含关系如下所示:
hQ=tanh(WQ,h*EQ+bQ,h)
yQ(j,k)=σ(WQ,o*hQ+bQ,o)
其中,EQ=[Ee,j,Ec,k,Ee,j-Ec,k]表示题目j和知识概念k的联合嵌入,WQ,h、WQ,o、bQ,h和bQ,o是预测题目知识概念标签的全连通神经网络的训练参数。
2.根据权利要求1所述的基于学生练习序列的知识概念表示学习方法,其特征在于:所述步骤1中,学生i在第t次练习时对知识概念k的掌握情况如下:
其中,表示学生i在第t次练习时是否掌握知识概念k,值为1表示掌握,值为0表示未掌握;是学生i在第t次练习时掌握知识概念k的概率,p(Fk)是学生忘记知识概念k的概率,p(Tk)是学生通过学习掌握知识概念k的概率;
将学生的知识概念掌握以矩阵形式定义如下:
基于以下原则设计知识概念k的遗忘概率p(Fk=1)和学习概率p(Tk=1):首先,某一特定知识概念的练习间隔越长,遗忘该知识概念的概率越高;第二,某一特定知识概念在短时间内的练习次数越多,习得该知识概念的概率越高;最后,p(Fk=1)和p(Tk=1)公式如下:
4.根据权利要求3所述的基于学生练习序列的知识概念表示学习方法,其特征在于:所述步骤4中,参数学习分为两个阶段:唤醒阶段和睡眠阶段;
在唤醒阶段,给定学生练习反馈序列学生练习题目序列ei和学生练习起始时间序列ti,首先使用近似估计的后验分布对隐藏变量ui进行采样,隐藏变量ui表示学生知识概念的掌握程度序列,然后使用采样得到的学生知识概念的掌握程度序列ui以及学生练习反馈序列学生练习题目序列ei和学生练习起始时间序列ti优化学生知识概念的掌握程度序列ui和学生练习反馈序列服从的联合分布的所有参数θ;
在睡眠阶段,给定学生练习题目序列ei和学生练习起始时间序列ti,首先使用知识概念的掌握程度序列ui和学生练习反馈序列服从的联合分布对隐藏变量ui和观察变量进行采样,然后使用学生练习题目序列ei和学生练习起始时间序列ti以及通过采样得到的学生知识概念的掌握程度序列ui和学生练习反馈序列来优化的参数φ;
唤醒阶段的优化目标如下:
睡眠阶段的优化目标如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110347398.6A CN112988844B (zh) | 2021-03-31 | 2021-03-31 | 一种基于学生练习序列的知识概念表示学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110347398.6A CN112988844B (zh) | 2021-03-31 | 2021-03-31 | 一种基于学生练习序列的知识概念表示学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112988844A CN112988844A (zh) | 2021-06-18 |
CN112988844B true CN112988844B (zh) | 2022-09-27 |
Family
ID=76338610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110347398.6A Active CN112988844B (zh) | 2021-03-31 | 2021-03-31 | 一种基于学生练习序列的知识概念表示学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112988844B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116151329B (zh) * | 2023-04-23 | 2023-07-18 | 山东师范大学 | 基于反事实图学习的学生知识状态追踪方法及系统 |
CN117390091B (zh) * | 2023-12-13 | 2024-02-09 | 福建天晴数码有限公司 | 一种教育元宇宙中的知识追踪方法及终端 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200065668A1 (en) * | 2018-08-27 | 2020-02-27 | NEC Laboratories Europe GmbH | Method and system for learning sequence encoders for temporal knowledge graph completion |
CN109960804B (zh) * | 2019-03-21 | 2023-05-02 | 江西风向标教育科技有限公司 | 一种题目文本句子向量生成方法及装置 |
CN112231491B (zh) * | 2020-10-20 | 2024-04-02 | 中国科学技术大学 | 基于知识结构的相似试题识别方法 |
-
2021
- 2021-03-31 CN CN202110347398.6A patent/CN112988844B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112988844A (zh) | 2021-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110378818B (zh) | 基于难度的个性化习题推荐方法、系统及介质 | |
CN110991645B (zh) | 一种基于知识模型的自适应学习方法、系统及存储介质 | |
Rivers et al. | Learning curve analysis for programming: Which concepts do students struggle with? | |
CN110941723A (zh) | 一种知识图谱的构建方法、系统及存储介质 | |
Egan | Individual differences in human-computer interaction | |
Lindsey et al. | Automatic discovery of cognitive skills to improve the prediction of student learning | |
US20130288222A1 (en) | Systems and methods to customize student instruction | |
CN112988844B (zh) | 一种基于学生练习序列的知识概念表示学习方法 | |
Thomas et al. | How to evaluate competencies in game-based learning systems automatically? | |
CN114372137A (zh) | 一种融合深度知识追踪的动态感知试题推荐方法及系统 | |
CN113851020A (zh) | 一种基于知识图谱的自适应学习平台 | |
CN113283488B (zh) | 一种基于学习行为的认知诊断方法及系统 | |
CN114385801A (zh) | 一种基于分层细化lstm网络的知识追踪方法及系统 | |
Tanner et al. | Predicting and preventing student failure–using the k-nearest neighbour method to predict student performance in an online course environment | |
CN114201684A (zh) | 一种基于知识图谱的自适应学习资源推荐方法及系统 | |
Carlon et al. | Knowledge tracing for adaptive learning in a metacognitive tutor | |
Mendjoge et al. | Review of knowledge representation techniques for Intelligent Tutoring System | |
Zhou | Research on teaching resource recommendation algorithm based on deep learning and cognitive diagnosis | |
Mitrevski et al. | Robot action diagnosis and experience correction by falsifying parameterised execution models | |
Huang et al. | T-BMIRT: Estimating representations of student knowledge and educational components in online education | |
Wang et al. | Gaskt: A graph-based attentive knowledge-search model for knowledge tracing | |
CN117744783B (zh) | 一种基于人在回路的知识追踪方法及系统 | |
Pavlik | The microeconomics of learning: Optimizing paired-associate memory | |
Carlon | A SHAP-Inspired Method for Computing Interaction Contribution in Deep Knowledge Tracing | |
CN117743699B (zh) | 一种基于dkt与汤普森采样算法的习题推荐方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |