CN113360635A - 一种基于自注意和预训练机制的智能教学方法及系统 - Google Patents

一种基于自注意和预训练机制的智能教学方法及系统 Download PDF

Info

Publication number
CN113360635A
CN113360635A CN202110713930.1A CN202110713930A CN113360635A CN 113360635 A CN113360635 A CN 113360635A CN 202110713930 A CN202110713930 A CN 202110713930A CN 113360635 A CN113360635 A CN 113360635A
Authority
CN
China
Prior art keywords
student
test question
knowledge
test
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110713930.1A
Other languages
English (en)
Other versions
CN113360635B (zh
Inventor
凌强
赖泽锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202110713930.1A priority Critical patent/CN113360635B/zh
Publication of CN113360635A publication Critical patent/CN113360635A/zh
Application granted granted Critical
Publication of CN113360635B publication Critical patent/CN113360635B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • G06F16/337Profile generation, learning or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Strategic Management (AREA)
  • Evolutionary Computation (AREA)
  • Educational Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Educational Administration (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Physiology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明涉及一种基于自注意和预训练机制的智能教学方法及系统,其方法包括:S1:创建题库和学生信息,导入已有的学习记录;S2:根据题库中的试题、知识点关联性,以及试题被作答的整体情况,预先训练出试题的特征向量以及嵌入矩阵;S3:根据试题的特征向量、嵌入矩阵以及学习记录,利用两级自注意机制,对学生学习的状态进行跟踪,预测学生的作答结果;S4:根据预测学生的作答结果,结合题库中的试题的知识点,选择合适的试题集推荐给学生。本发明通过两级自注意力机制的上下文感知的追踪模型,以捕捉当前时刻的输入信息与用户的历史行为序列的关联,使得知识追踪更加关注学习的上下文场景,更加准确预测学生作答,并推荐合适的试题给学生。

Description

一种基于自注意和预训练机制的智能教学方法及系统
技术领域
本发明涉及智能教辅系统和知识追踪领域,具体涉及一种基于自注意和预训练机制的智能教学方法及系统。
背景技术
当今时代,学生的课业和课外压力越来越重。为了让学生能够更加高效地完成学习任务,减轻学习负担,智能教辅系统(ITS)应运而生。智能交付系统能够个性化、智能化地安排学生的学习,提高学生学习效率。在智能教辅系统中,学生拥有自主学习的权力。系统将根据学生的个人需要,以及学生对知识点掌握水平的追踪,提供不同的学习材料。系统的个性化学习安排是基于对学生的知识点掌握水平的准确追踪上的,因此知识追踪任务是系统的重中之重。学生学习的材料,与基础的知识点单元有重要的关联。根据每个学习材料的知识点试题内容,以及学生对不同学习材料的作答表现,可以追踪学生对相关联知识点的掌握情况。一个合适的模型将有助于精准的知识追踪。在学生模型的帮助下,智能教辅系统可以准确地跟踪学生的掌握水平,从而更加合理的规划未来的学习策略。被预测的掌握水平较低的知识点将被复习,被预测的掌握水平较高的知识点将被推迟复习,为新的学习材料预留时间。
早期的学习策略是基于人工设定的方法。其中,间隔效应和测试效应自19世纪被发现以来被广泛复制。间隔效应表明,在时间上分配学习片段比在一次性的学习更有利于长期记忆。测试效应则表示,学习后的自测比单纯的复习更有效。但是两者都只是基于人工设定的规则,没有学生作答结果的反馈,实际学生的学习表现可能和预期有较大的偏差。
稍后的研究集中在自适应和个性化的学习调度程序的开发,以提高抽认卡的长期记忆保持率。然而,大多数学习策略都是基于简单的数学模型,不能保证学生以高效率完成学习。如今的社会迈入大数据时代,数据量和计算机计算能力都得到了极大的提升。数据驱动型的算法,如知识追踪模型将更加适合这一需求。
知识追踪(KT)是指学生在参与一个或多个知识点学习的系列学习活动时,追踪学生知识状态演变的任务。早期的知识追踪模型是基于实验和经验得到的。艾宾浩斯通过记忆一些无意义的单词,根据不同时间段后回忆起这些单词的概率,绘制了遗忘曲线。后来,Corbett和Anderson应用贝叶斯知识追踪的方法(BKT)来评估用户知识掌握情况的变化。Rasch和Georg提出了将用户能力和项目难度的概念引入到学生作答的预测中,使得对不同学生的作答预测有了特异性。然而,这些传统的模型参数量少,难以适应当前数据多,影响因素多的众多场景,基于深度学习的方法势在必行。
最早将深度学习引入知识追踪领域的是深度知识追踪(Deep KnowledgeTracing,DKT)。DKT采用了RNN网络,通过RNN的隐状态追踪学生学习过程中的状态变化。学生对每个知识点的作答预测由隐状态和知识点对应的特征向量的内积运算获得。动态键值记忆网络(DKVMN)提出了一个键矩阵和值矩阵分别表示知识点特征和用户知识状态,使模型根据有解释性。Lee等人适用LSTM追踪学生的知识状态进行知识查询。Pandey和Karypis将transformer引入到知识追踪中,提出了基于自注意力机制的知识追踪。在此基础上,Ghosh等人提出了上下文感知的知识追踪(AKT),提出了以两级自注意力结构来根据上下文信息追踪学生知识状态。Ghosh对于自注意机制也作出了适当的改进。然而,即便是当前性能最优的AKT方法也存在着一些可改进的地方:仅采用自注意机制的方法实际上不能很好地追踪学生知识状态在时间域上的波动;且更多的试题信息会有助于更加精确的知识追踪。
发明内容
为了解决上述技术问题,本发明提供一种基于自注意和预训练机制的智能教学系统。
步骤S1:创建题库和学生信息,导入已有的学习记录;
步骤S2:根据所述题库中的试题、知识点关联性,以及所述试题被作答的整体情况,预先训练出所述试题的特征向量以及嵌入矩阵;
步骤S3:根据所述试题的特征向量、嵌入矩阵以及所述学习记录,利用两级自注意机制,对学生学习过程中的状态进行跟踪,预测学生的作答结果;所述两级自注意机制包括:第一级自注意层,利用初级学生知识状态追踪器生成学生初级知识状态,利用基于自注意力机制的上下文的试题内容编码器对所述试题内容进行编码;第二级自注意层,利用基于注意力机制的高级学生知识状态追踪器生成高级学生知识状态;
步骤S4:根据所述预测学生的作答结果,结合所述题库中的试题的知识点,选择合适的试题集推荐给学生。
本发明与现有技术相比,具有以下优点:
1、本发明公开了一种基于自注意和预训练机制的智能教学系统,采用了更加准确的知识追踪模型。通过预先训练试题特征向量,得到每道试题的特征描述;通过采用上下文感知的追踪模型,使得知识追踪更加关注学习的上下文场景,得到更加准确的学生作答预测。
2、本发明根据对学生过往知识点作答结果的追踪,总结出学生的知识点掌握水平变化。根据学生的学习阶段和需要,并结合学生的知识状态追踪结果,能够给出合适的学习内容推荐。有效地提升了智能教学系统的智能化水平。
附图说明
图1为本发明实施例中一种基于自注意和预训练机制的智能教学方法的流程图;
图2为本发明实施例中一种基于自注意和预训练机制的智能教学方法中步骤S2:根据题库中的试题、知识点关联性,以及试题被作答的整体情况,预先训练出试题的特征向量以及嵌入矩阵的流程图;
图3A为本发明实施例中试题相关性、知识点相关性和试题知识点相关性的拟合过程示意图;
图3B为本发明实施例中用于预测试题难度的PNN网络结构示意图;
图4为本发明实施例中一种基于自注意和预训练机制的智能教学方法中步骤S3:根据试题的特征向量、嵌入矩阵以及学习记录,利用两级自注意机制,对学生学习过程中的状态进行跟踪,预测学生的作答结果的流程图;
图5为本发明实施例中利用两级自注意机制预测学生作答结果的流程示意图;
图6为本发明实施例中一种基于自注意和预训练机制的智能教学系统的结构框图。
具体实施方式
本发明提供了一种基于自注意和预训练机制的智能教学方法及系统,通过两级自注意力机制的上下文感知的追踪模型,以捕捉当前时刻的输入信息与用户的历史行为序列的关联,使得知识追踪更加关注学习的上下文场景,更加准确预测学生作答,并推荐合适的试题给学生。
为了使本发明的目的、技术方案及优点更加清楚,以下通过具体实施,并结合附图,对本发明进一步详细说明。
实施例一
如图1所示,本发明实施例提供的一种基于自注意和预训练机制的智能教学方法,包括下述步骤:
步骤S1:创建题库和学生信息,导入已有的学习记录;
步骤S2:根据题库中的试题、知识点关联性,以及试题被作答的整体情况,预先训练出试题的特征向量以及嵌入矩阵;
步骤S3:根据试题的特征向量、嵌入矩阵以及学习记录,利用两级自注意机制,对学生学习过程中的状态进行跟踪,预测学生的作答结果;两级自注意机制包括:第一级自注意层,利用初级学生知识状态追踪器生成学生初级知识状态,利用基于自注意力机制的上下文的试题内容编码器对试题内容进行编码;第二级自注意层,利用基于注意力机制的高级学生知识状态追踪器生成高级学生知识状态;
步骤S4:根据预测学生的作答结果,结合题库中的试题的知识点,选择合适的试题集推荐给学生。
在一个实施例中,上述步骤S1:创建题库和学生信息,导入已有的学习记录,具体包括:
题库中试题信息包括:试题的文本、考察方式、候选答案、正确答案、来源和包含知识点;
学生信息包括:年龄、年级、性别和学校;
学习记录包括:学生id、试题id、时间戳、学生作答用时、是否求助、作答内容和作答结果。
本发明实施例通过题库中试题信息、学生信息以及学习记录,记录了学生的个人信息(如学生编号等),试题的信息(试题的编号等),相关知识点信息(如知识点的编号),学习场景的描述(学习的时刻、时长、学习的方式等)。通过对学生的学习记录,以此推测学生对知识点的掌握程度,以及预测对某些试题的作答结果,以此为学生提供更加合理的学习内容推荐。
如图2所示,在一个实施例中,上述步骤S2:根据题库中的试题、知识点关联性,以及试题被作答的整体情况,预先训练出试题的特征向量以及嵌入矩阵,具体包括:
步骤S21:构建可训练的试题内容矩阵P∈R|P|×d,其中|P|是试题数量,d是单个试题内容向量的维度;P每一个行向量对应一个试题的内容向量;
构建可训练的知识点内容矩阵S∈R|S|×d,其中|S|是知识点数量;S每一个行向量对应一个知识点的内容向量;
步骤S22:基于矩阵P和矩阵S,构建试题知识点相关性Q矩阵,Q∈R|P|×|S|;当试题i包含知识点j,记Qij=1;当试题i没包含知识点j,记Qij=0;其中,|P|是试题的数量,|S|是知识点的数量;并根据试题i与知识点j的内容向量pi与sj的内积进行拟合,得到其推算值:
Figure BDA0003134039970000051
其中,σ为sigmoid激活函数,
Figure BDA0003134039970000052
步骤S23:基于矩阵P和矩阵S,构建试题相关性矩阵A∈{0,1}|P|×|P|;当试题i与试题j包含了一个以上相同知识点时,视为两个试题相关,记Aij=1;否则视为不相关,记Aij=0;并根据试题i与试题j的内容向量pi与pj的内积进行拟合,得到其推算值
Figure BDA0003134039970000053
Figure BDA0003134039970000054
步骤S24:基于矩阵P和矩阵S,构建知识点相关性矩阵B∈{0,1}|P|×|P|;当试题同时包含了知识点i与知识点j时,视为两个知识点相关,记Bij=1;否则视为不相关,记Bij=0;并根据知识点i与知识点j的内容向量si与sj的内积进行拟合,得到其推算值:
Figure BDA0003134039970000055
图3A展示了上述试题相关性、知识点相关性和试题知识点相关性的拟合过程。
步骤S25:根据知识点内容矩阵S、试题内容矩阵P以及试题信息,输入PNN网络进行训练,预测试题难度,得到试题的嵌入矩阵E∈R|P|×D,并将隐向量e作为试题的特征向量,其中,D是e的维度,也是后续知识状态追踪器的众多参数的维度;同时,利用试题相关性矩阵A及其推算值A*、知识点相关性矩阵B及其推算值B*、试题知识点相关性矩阵Q及其推算值Q*,以及试题难度,构建损失函数训练PNN网络。
本步骤中,定义试题i的难度为:
Figure BDA0003134039970000056
其中,pi是试题i的内容向量,
Figure BDA0003134039970000057
是试题i包含的所有知识点的内容向量的平均值,infoi是试题的相关信息。
根据pi,
Figure BDA0003134039970000058
infoi,构造向量集合
Figure BDA0003134039970000059
其中,P=[pij]∈R3×3,pij是zi与zj的内积,可得到:
Figure BDA00031340399700000510
Figure BDA00031340399700000511
其中,
Figure BDA00031340399700000512
表示lz向量的第k个元素,
Figure BDA00031340399700000513
表示lp向量的第k个元素;
Figure BDA00031340399700000514
Figure BDA00031340399700000515
分别为
Figure BDA00031340399700000516
Figure BDA00031340399700000517
对应的权重矩阵。
由此,可得到隐向量e=ReLU(lz+lp+b),b∈Rd是一个维度与lz和lp对应的偏置值向量。将e作为当前试题的特征向量,并可以得到对应的试题嵌入矩阵E∈R|P|×D,其中,D是e的维度。
进一步地,通过一层全连接层,得到试题难度的预测值:
Figure BDA0003134039970000061
其中,wd∈RD和bd∈R分别是全连接层中可训练的权重向量和偏置值标量。
此外,预训练考虑了试题间关联性、知识点间关联性、试题与知识点间关联性,以及试题难度的预测结果。三类关系的推断值与实际值的偏差、试题难度推断值与实际值的偏差将以损失函数的形式体现。于是构造损失函数:
Figure BDA0003134039970000062
其中,BE是交叉熵运算函数:BE(a,b)=-(alogb+(1-a)log(1-b)),a∈(0,1),b∈(0,1)。
图3B展示了用于预测试题难度的PNN网络结构示意图。
如图4所示,在一个实施例中,上述步骤S3:根据试题的特征向量、嵌入矩阵以及学习记录,利用两级自注意机制,对学生学习过程中的状态进行跟踪,预测学生的作答结果;两级自注意机制包括:第一级自注意层,利用初级学生知识状态追踪器生成学生初级知识状态,利用基于自注意力机制的上下文的试题内容编码器对试题内容进行编码;第二级自注意层,利用基于注意力机制的高级学生知识状态追踪器生成高级学生知识状态,具体包括:
步骤S31:根据试题嵌入矩阵E∈R|P|×D和试题学习序列{q1,q2,...,qτ},可得到τ时刻之前的试题嵌入序列Zτ={z1,…,zτ};其中,τ=1,2,...,T-1;
本步骤中,试题学习序列中的每一道试题都能从试题嵌入矩阵E中得到其对应的嵌入向量值。这些嵌入向量组合成为试题嵌入序列Zτ={z1,...,zτ};
步骤S32:根据学生的历史作答记录,构造作答结果嵌入矩阵M∈R2×D,并构建学生的历史试题作答结果序列H={(q1,o1),...,(qi,oi),…,(qT,oT)},其中,qi为学生在时刻i对应的作答试题,oi为学生在时刻i的作答结果,M矩阵的两行分别对应作答结果oi正确和错误的嵌入向量。
步骤S33:根据Q矩阵,可以得到与试题关联的知识点集合
Figure BDA0003134039970000063
其中Ni是试题i包含的知识点数,由此可得到知识点嵌入向量集合
Figure BDA0003134039970000064
对知识点嵌入向量集合求平均得到试题考察内容向量
Figure BDA0003134039970000071
以及学习结果向量yi=xi+mi,其中,mi是与学生对试题i作答结果oi相对应的作答结果嵌入向量;并结合历史试题作答结果序列H,获取对应的试题考察内容向量X={x1,...,xT-1}和学习结果向量Y={y1,...,yT-1};
步骤S34:将Y输入GRU网络,输出学生的初级知识状态为
Figure BDA0003134039970000072
其中,时刻τ=1,...,T-1;由学生的初级知识状态
Figure BDA0003134039970000073
可得到学生初级知识状态序列
Figure BDA0003134039970000074
Figure BDA0003134039970000075
步骤S35:在时刻τ,将试题考察内容向量Xτ={x1,…,xτ}和试题嵌入序列Zτ={z1,...,zτ}输入到基于自注意力机制的上下文的试题内容编码器,得到此时刻的基于上下文的试题内容编码:
Figure BDA0003134039970000076
其中,时刻τ=1,...,T-1;对时间步{2,3,…,T},得到基于上下文的试题内容编码序列
Figure BDA0003134039970000077
其中,自注意力机制采用多头自注意力层,其中每个自注意力头,可以表示为:
Figure BDA0003134039970000078
Figure BDA0003134039970000079
多头自注意力层拼接了多个自注意力头的结果:MultiHead(q,K,V)=Concat(head1,...,headh)WO,其中,q表示当前时间步的输入对应的查询特征值,K表示的是过往时间步对应的键特征值,V表示的是过往时间步对应的输入值,h是自注意力头的数量,WO是一个维度与之匹配的矩阵;
步骤S36:将基于上下文的试题内容编码序列
Figure BDA00031340399700000710
和学生初级知识状态序列
Figure BDA00031340399700000711
输入基于自注意力机制的高级学生知识状态追踪器,得到T时刻高级学生知识状态:
Figure BDA00031340399700000712
Figure BDA00031340399700000713
步骤S37:将T时刻学生高级知识状态序列和T时刻的试题内容向量输入多层感知机网络,预测T时刻的学生作答结果
Figure BDA00031340399700000714
Figure BDA00031340399700000715
其中,MLP为多层感知机,concat为级联操作;
步骤S38:根据预测T时刻的学生作答结果
Figure BDA00031340399700000716
和实际值oT,构建训练损失函数:
Figure BDA00031340399700000717
其中,BE为交叉熵损失函数。通过梯度下降的方式使得损失函数值下降,以此优化神经网络参数值。若验证数据集上的预测性能开始下降,则认为训练完成。
图5展示了利用两级自注意机制预测学生作答结果的流程示意图。
本发明通过预先训练试题特征向量,得到每道试题的特征描述;通过两级自注意力机制的上下文感知的追踪模型,以捕捉当前时刻的输入信息与用户的历史行为序列的关联,使得知识追踪更加关注学习的上下文场景,得到更加准确的学生作答预测。
在一个实施例中,上述步骤S4:根据预测学生的作答结果,结合题库中的试题的知识点,选择合适的试题推荐给学生。
根据步骤S3得到的预测学生的作答结果,结合题库中的试题的知识点,选择合适的试题集推荐给学生。
试题集包括各类试题和学习资料,将这些材料进行组合,生成试题和学习资料组合,同时,考虑不同难度的试题分布、学习材料的知识点分布、完成本次学习所需的时间、和材料的内容分布等。在本发明实施例中,将各方面的指标进行加权求和,得到最终的优化指标。并调用遗传算法对学习组合的结果进行优化。
本发明根据对学生过往知识点作答结果的追踪,总结出学生的知识点掌握水平变化。根据学生的学习阶段和需要,并结合学生的知识状态追踪结果,能够给出合适的学习内容推荐,有效地提升了智能教学系统的智能化水平。
实施例二
如图6所示,本发明实施例提供了一种基于自注意和预训练机制的智能教学系统,包括下述模块:
创建题库和学生信息模块41,用于创建题库和学生信息,导入已有的学习记录;
获取试题特征向量及嵌入矩阵模块42,用于根据题库中的试题、知识点关联性,以及试题被作答的整体情况,预先训练出试题的特征向量以及嵌入矩阵;
预测作答结果模块43,用于根据试题的特征向量、嵌入矩阵以及学习记录,利用两级自注意机制,对学生学习过程中的状态进行跟踪,预测学生的作答结果;两级自注意机制包括:第一级自注意层,利用初级学生知识状态追踪器生成学生初级知识状态,利用基于自注意力机制的上下文的试题内容编码器对试题内容进行编码;第二级自注意层,利用基于注意力机制的高级学生知识状态追踪器生成高级学生知识状态;
推荐试题模块44,用于根据预测学生的作答结果,结合题库中的试题的知识点,选择合适的试题集推荐给学生。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。

Claims (5)

1.一种基于自注意和预训练机制的智能教学方法,其特征在于,包括:
步骤S1:创建题库和学生信息,导入已有的学习记录;
步骤S2:根据所述题库中的试题、知识点关联性,以及所述试题被作答的整体情况,预先训练出所述试题的特征向量以及嵌入矩阵;
步骤S3:根据所述试题的特征向量、嵌入矩阵以及所述学习记录,利用两级自注意机制,对学生学习过程中的状态进行跟踪,预测学生的作答结果;所述两级自注意机制包括:第一级自注意层,利用初级学生知识状态追踪器生成学生初级知识状态,利用基于自注意力机制的上下文的试题内容编码器对所述试题内容进行编码;第二级自注意层,利用基于注意力机制的高级学生知识状态追踪器生成高级学生知识状态;
步骤S4:根据所述预测学生的作答结果,结合所述题库中的试题的知识点,选择合适的试题集推荐给学生。
2.根据权利要求1所述的基于自注意和预训练机制的智能教学方法,其特征在于,所述步骤S1:创建题库和学生信息,导入已有的学习记录,具体包括:
所述题库中试题信息包括:所述试题的文本、考察方式、候选答案、正确答案、来源和包含知识点;
所述学生信息包括:年龄、年级、性别和学校;
所述学习记录包括:学生id、试题id、时间戳、学生作答用时、是否求助、作答内容和作答结果。
3.根据权利要求1所述的基于自注意和预训练机制的智能教学方法,其特征在于,所述步骤S2:根据所述题库中的试题、知识点关联性,以及所述试题被作答的整体情况,预先训练出所述试题的特征向量以及嵌入矩阵,具体包括:
步骤S21:构建可训练的试题内容矩阵P∈R|P|×d,其中|P|是试题数量,d是单个试题内容的维度;P每一个行向量对应一个试题的内容向量;
构建可训练的知识点内容矩阵S∈R|S|×d,其中|S|是知识点数量;
步骤S22:基于矩阵P和矩阵S,构建试题知识点相关性Q矩阵,Q∈R|P|×|S|;当所述试题i包含所述知识点j,记Qij=1;当所述试题i没包含所述知识点j,记Qij=0;其中,|P|是所述试题的数量,|S|是所述知识点的数量;并根据试题i与知识点j的内容向量pi与sj的内积进行拟合,得到其推算值:
Figure FDA0003134039960000011
其中,σ为sigmoid激活函数,
Figure FDA0003134039960000012
步骤S23:基于矩阵P和矩阵S,构建试题相关性矩阵A∈{0,1}|P|×|P|;当所述试题i与所述试题j包含了一个以上相同知识点时,视为两个所述试题相关,记Aij=1;否则视为不相关,记Aij=0;并根据试题i与试题j的内容向量pi与pj的内积进行拟合,得到其推算值
Figure FDA0003134039960000021
步骤S24:基于矩阵P和矩阵S,构建知识点相关性矩阵B∈{0,1}|P|×|P|;当所述试题同时包含了所述知识点i与所述知识点j时,视为两个所述知识点相关,记Bij=1;否则视为不相关,记Bij=0;并根据知识点i与知识点j的内容向量si与sj的内积进行拟合,得到其推算值:
Figure FDA0003134039960000022
步骤S25:根据所述知识点内容矩阵S、所述试题内容矩阵P以及所述试题信息,输入PNN网络进行训练,预测试题难度,得到试题的嵌入矩阵E∈R|P|×D,并将隐向量e作为试题的特征向量,其中,D是e的维度,也是后续知识状态追踪器的众多参数的维度;同时,利用试题相关性矩阵A及其推算值A*、知识点相关性矩阵B及其推算值B*、试题知识点相关性矩阵Q及其推算值Q*,以及所述试题难度,构建损失函数训练所述PNN网络。
4.根据权利要求1所述的基于自注意和预训练机制的智能教学方法,其特征在于,所述步骤S3:根据所述试题的特征向量、嵌入矩阵以及所述学习记录,利用两级自注意机制,对学生学习过程中的状态进行跟踪,预测学生的作答结果;所述两级自注意机制包括:第一级自注意层,利用初级学生知识状态追踪器生成学生初级知识状态,利用基于自注意力机制的上下文的试题内容编码器对所述试题内容进行编码;第二级自注意层,利用基于注意力机制的高级学生知识状态追踪器生成高级学生知识状态,具体包括:
步骤S31:根据所述试题嵌入矩阵E∈R|P|×D和试题学习序列{q1,q2,...,qτ},可得到τ时刻之前的试题嵌入序列Zτ={z1,...,zτ};其中,τ=1,2,...,T-1;
步骤S32:根据学生的历史作答记录,构造作答结果嵌入矩阵O∈R2×D,构建学生的历史试题作答结果序列H={(q1,o1),...(qi,oi),…,(qT,oT)},其中,qi为学生在时刻i作答的试题,oi为学生在时刻i的作答结果;
步骤S33:根据Q矩阵,可以得到与所述试题关联的知识点集合
Figure FDA0003134039960000023
其中Ni是试题i包含的知识点数,由此可得到知识点嵌入向量集合
Figure FDA0003134039960000024
对所述知识点嵌入向量集合求平均得到试题考察内容向量
Figure FDA0003134039960000025
以及学习结果向量yi=xi+mi,其中,mi是与学生对试题i作答结果oi相对应的嵌入向量;并结合所述历史试题作答结果序列H,获取对应的试题考察内容向量X={x1,...,xT-1}和学习结果向量Y={y1,...,yT-1};
步骤S34:将Y输入GRU网络,输出学生的初级知识状态为
Figure FDA0003134039960000031
其中,时刻τ=1,...,T-1;由所述学生的初级知识状态可得到学生初级知识状态序列
Figure FDA0003134039960000032
Figure FDA0003134039960000033
步骤S35:在时刻τ,将所述试题考察内容向量Xτ={x1,...,xτ}和所述试题嵌入序列Zτ={z1,...,zτ}输入到基于自注意力机制的上下文的试题内容编码器,得到此时刻的基于上下文的试题内容编码:
Figure FDA0003134039960000034
其中,时刻τ=1,...,T-1;对时间步{2,3,...,T},得到基于上下文的试题内容编码序列
Figure FDA0003134039960000035
其中,自注意力机制采用多头自注意力层,其中每个自注意力头,可以表示为:
Figure FDA0003134039960000036
Figure FDA0003134039960000037
多头自注意力层拼接了多个自注意力头的结果:MultiHead(q,K,V)=Concat(head1,...,headh)WO,其中,q表示当前时间步的输入对应的查询特征值,K表示的是过往时间步对应的键特征值,V表示的是过往时间步对应的输入值,h是自注意力头的数量,WO是一个维度与之匹配的矩阵;
步骤S36:将所述基于上下文的试题内容编码序列
Figure FDA0003134039960000038
和所述学生初级知识状态序列
Figure FDA0003134039960000039
输入基于自注意力机制的高级学生知识状态追踪器,得到T时刻高级学生知识状态:
Figure FDA00031340399600000310
步骤S37:将T时刻所述学生高级知识状态序列和T时刻的所述试题内容向量输入多层感知机网络,预测T时刻的学生作答结果
Figure FDA00031340399600000311
Figure FDA00031340399600000312
其中,MLP为多层感知机,concat为级联操作;
步骤S38:根据所述预测T时刻的学生作答结果
Figure FDA00031340399600000313
和实际值oT,构建训练损失函数。
5.一种基于自注意和预训练机制的智能教学系统,其特征在于,包括下述模块:
创建题库和学生信息模块,用于创建题库和学生信息,导入已有的学习记录;
获取试题特征向量及嵌入矩阵模块,用于根据所述题库中的试题、知识点关联性,以及所述试题被作答的整体情况,预先训练出所述试题的特征向量以及嵌入矩阵;
预测作答结果模块,用于根据所述试题的特征向量、嵌入矩阵以及所述学习记录,利用两级自注意机制,对学生学习过程中的状态进行跟踪,预测学生的作答结果;所述两级自注意机制包括:第一级自注意层,利用初级学生知识状态追踪器生成学生初级知识状态,利用基于自注意力机制的上下文的试题内容编码器对所述试题内容进行编码;第二级自注意层,利用基于注意力机制的高级学生知识状态追踪器生成高级学生知识状态;
推荐试题模块,用于根据所述预测学生的作答结果,结合所述题库中的试题的知识点,选择合适的试题集推荐给学生。
CN202110713930.1A 2021-06-25 2021-06-25 一种基于自注意和预训练机制的智能教学方法及系统 Active CN113360635B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110713930.1A CN113360635B (zh) 2021-06-25 2021-06-25 一种基于自注意和预训练机制的智能教学方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110713930.1A CN113360635B (zh) 2021-06-25 2021-06-25 一种基于自注意和预训练机制的智能教学方法及系统

Publications (2)

Publication Number Publication Date
CN113360635A true CN113360635A (zh) 2021-09-07
CN113360635B CN113360635B (zh) 2024-05-24

Family

ID=77536515

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110713930.1A Active CN113360635B (zh) 2021-06-25 2021-06-25 一种基于自注意和预训练机制的智能教学方法及系统

Country Status (1)

Country Link
CN (1) CN113360635B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114117033A (zh) * 2022-01-25 2022-03-01 山东建筑大学 知识追踪方法及系统
CN114372137A (zh) * 2022-01-11 2022-04-19 重庆邮电大学 一种融合深度知识追踪的动态感知试题推荐方法及系统
CN115439278A (zh) * 2022-08-05 2022-12-06 火焰蓝(浙江)信息科技有限公司 适用于非机动车驾驶员的线上学习方法及系统
CN116738371A (zh) * 2023-08-14 2023-09-12 广东信聚丰科技股份有限公司 基于人工智能的用户学习画像构建方法及系统
CN117973527A (zh) * 2024-04-02 2024-05-03 云南师范大学 一种基于gru捕捉问题上下文特征的知识追踪方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019180652A1 (en) * 2018-03-21 2019-09-26 Lam Yuen Lee Viola Interactive, adaptive, and motivational learning systems using face tracking and emotion detection with associated methods
CN112800323A (zh) * 2021-01-13 2021-05-14 中国科学技术大学 一种基于深度学习的智能教学系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019180652A1 (en) * 2018-03-21 2019-09-26 Lam Yuen Lee Viola Interactive, adaptive, and motivational learning systems using face tracking and emotion detection with associated methods
CN112800323A (zh) * 2021-01-13 2021-05-14 中国科学技术大学 一种基于深度学习的智能教学系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
郭崇慧;吕征达;: "一种基于集成学习的试题多知识点标注方法", 运筹与管理, no. 02 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114372137A (zh) * 2022-01-11 2022-04-19 重庆邮电大学 一种融合深度知识追踪的动态感知试题推荐方法及系统
CN114372137B (zh) * 2022-01-11 2024-06-04 重庆邮电大学 一种融合深度知识追踪的动态感知试题推荐方法及系统
CN114117033A (zh) * 2022-01-25 2022-03-01 山东建筑大学 知识追踪方法及系统
CN115439278A (zh) * 2022-08-05 2022-12-06 火焰蓝(浙江)信息科技有限公司 适用于非机动车驾驶员的线上学习方法及系统
CN116738371A (zh) * 2023-08-14 2023-09-12 广东信聚丰科技股份有限公司 基于人工智能的用户学习画像构建方法及系统
CN116738371B (zh) * 2023-08-14 2023-10-24 广东信聚丰科技股份有限公司 基于人工智能的用户学习画像构建方法及系统
CN117973527A (zh) * 2024-04-02 2024-05-03 云南师范大学 一种基于gru捕捉问题上下文特征的知识追踪方法
CN117973527B (zh) * 2024-04-02 2024-06-07 云南师范大学 一种基于gru捕捉问题上下文特征的知识追踪方法

Also Published As

Publication number Publication date
CN113360635B (zh) 2024-05-24

Similar Documents

Publication Publication Date Title
CN113360635B (zh) 一种基于自注意和预训练机制的智能教学方法及系统
CN110264091B (zh) 学生认知诊断方法
CN111695779B (zh) 一种知识追踪方法、装置及存储介质
Wilson et al. Estimating student proficiency: Deep learning is not the panacea
CN112116092B (zh) 可解释性知识水平追踪方法、系统和存储介质
CN108228674B (zh) 一种基于dkt的信息处理方法及装置
CN113610235A (zh) 一种基于深度知识追踪的适应性学习支持装置及方法
CN112800323A (zh) 一种基于深度学习的智能教学系统
CN115545160B (zh) 一种多学习行为协同的知识追踪方法及系统
CN114385801A (zh) 一种基于分层细化lstm网络的知识追踪方法及系统
CN109559576A (zh) 一种儿童伴学机器人及其早教系统自学习方法
CN114676903A (zh) 一种基于时间感知和认知诊断的在线预测方法及系统
Chiang et al. Using deep learning models to predict student performance in introductory computer programming courses
Lin et al. A comprehensive survey on deep learning techniques in educational data mining
CN116611517A (zh) 融合图嵌入和注意力的知识追踪方法
CN116402134A (zh) 基于行为感知的知识追踪方法及系统
CN115795015A (zh) 一种试题难度增强的综合知识追踪方法
Zhang et al. Neural Attentive Knowledge Tracing Model for Student Performance Prediction
CN115293249A (zh) 一种基于动态时序预测的电力系统典型场景概率预测方法
Li et al. [Retracted] The Development and Management Work Innovation of University Students by Artificial Intelligence and Deep Learning in the Wireless Network Era
Jiang et al. Learning analytics in a blended computer education course
CN112818196B (zh) 基于电子学习平台的数据处理方法、设备、电子装置及存储介质
Yue et al. Augmenting interpretable knowledge tracing by ability attribute and attention mechanism
Xiahou et al. Multi-Scaled Attentive Knowledge Tracing
Li et al. LFCKT: A learning and forgetting convolutional knowledge tracking model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant