CN115906997A - 一种基于对比学习与记忆机制的知识追踪方法 - Google Patents

一种基于对比学习与记忆机制的知识追踪方法 Download PDF

Info

Publication number
CN115906997A
CN115906997A CN202211312281.5A CN202211312281A CN115906997A CN 115906997 A CN115906997 A CN 115906997A CN 202211312281 A CN202211312281 A CN 202211312281A CN 115906997 A CN115906997 A CN 115906997A
Authority
CN
China
Prior art keywords
learning
knowledge
student
test question
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211312281.5A
Other languages
English (en)
Inventor
黄涛
胡俊杰
杨华利
耿晶
胡盛泽
张�浩
刘三女牙
杨宗凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central China Normal University
Original Assignee
Central China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central China Normal University filed Critical Central China Normal University
Priority to CN202211312281.5A priority Critical patent/CN115906997A/zh
Publication of CN115906997A publication Critical patent/CN115906997A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及教育大数据挖掘、对比学习与学生行为建模领域,提供一种基于对比学习与记忆机制的知识追踪方法,包括:(1)实现序列增强表征;(2)建模知识更新过程;(3)预测学生未来学习表现。本发明利用对比学习、自然语言处理、卷积神经网络、时间序列建模等技术方法,基于信息加工模型,系统地对学生行为模式进行深入挖掘,能够科学、全面地建模学生知识状态的变化过程,对学生学习情况进行预测。

Description

一种基于对比学习与记忆机制的知识追踪方法
技术领域
本发明涉及教育大数据挖掘、对比学习与学生行为建模领域,具体涉及一种基于对比学习与记忆机制的知识追踪方法。
背景技术
智能辅导系统、教育大数据技术的不断发展,为开展大规模个性化教学提供了有力的技术支撑,通过分析每个学生的学习历史数据,向他们提供个性化反馈与学习资源推荐。实现学生个性化分析中的一个关键问题是,以学生为中心,根据他的历史学习轨迹,追踪学生的知识水平随时间发生的变化过程,以便能够准确地预测学生在未来学习中的表现,这也被称为知识追踪问题。知识追踪的主要任务是:建模学生在学习过程中的知识掌握状态变化,并预测学生未来的学习表现。
知识追踪的目标是通过分析学生学习历史轨迹模拟学生的知识状态表征。知识状态代表学习过程中对技能的掌握程度;然而,学习过程受很多认知因素的影响,尤其是人类记忆;现有基于人类记忆机制的知识追踪方法HMN,虽然模拟了工作记忆模型,但是其假设工作记忆与长期记忆的容量之和固定,且两者的容量呈此消彼长的状态,而这与实际研究中的工作记忆与长期记忆并不相符;而且HMN并不能有效提取学生学习历史中的局部信息与全局信息,能否提取这些信息对于建模人类记忆机制起到了重要作用。此外,HMN仍然受到教育数据稀疏特性的影响,从稀疏数据集中学习到的表示容易产生偏倚或过拟合,阻碍了对潜在知识状态的准确推断。为了弥补这一问题,本发明拟采用对比学习的技术,实现序列数据的增强表征,这种方法可以从稀疏的学习历史中学习可泛化的表征。
目前有关对比学习知识追踪的研究有:Bi-CLKT以及CL4KT。其中,Bi-CLKT最早将对比学习引入至知识追踪领域,它设计了一个端到端架构的对比学习框架,在全局和局部级别执行“试题到试题”(E2E)和“知识点到知识点”(C2C)的关联信息判别。CL4KT采用端到端的架构,将对比学习与Transformer相结合,并提出了4种应用于知识追踪领域的数据增强方式。这两项研究均采用端到端架构的对比学习框架,这种架构的应用效果受到负样本数量的影响,而负样本数量受限于批量大小。若要使模型达到预期效果,则需设置较大的批量大小,这会使计算量增大,因此该架构对于训练的设备要求很高,而这并不利于实现大规模个性化教学的目的。为了解决这一问题,本研究拟采用基于负样本队列与生成式架构的对比学习框架,这两种架构有效解决了负样本数量受限于批量大小的问题,为实现大规模个性化教学提供支撑。
发明内容
本发明的目的就是为了克服上述现有技术中的不足之处,提供一种基于对比学习与记忆机制的知识追踪方法,综合利用对比学习、自然语言处理、卷积神经网络、时间序列建模等技术方法,基于信息加工模型,系统地对学生行为模式进行深入挖掘,能够科学、全面地建模学生知识状态的变化过程,对学生学习情况进行预测。
本发明的目的是通过如下技术措施来实现的。
一种基于对比学习与记忆机制的知识追踪方法,包括以下步骤:
(1)实现序列增强表征:基于对比学习技术从稀疏的学习历史中学习可迁移的序列增强表征,包括学生学习历史的数据增强,学生学习历史的向量化表征,负样本队列及参数的更新与对比损失的计算;
(2)建模知识更新过程:基于信息加工模型建模知识的更新过程,从学生的学习历史中有效提取局部信息与全局信息,包括将信息输入至感知记忆模块,工作记忆模块对信息加工、贮存,长期记忆模块实现信息的存储、检索;
(3)预测学生未来学习表现:基于对学生知识状态变化的建模,实现学生未来学习表现的预测。
在上述技术方案中,步骤(1)中所述实现序列增强表征,具体为:
(1-1)学生学习历史的数据增强:综合使用试题遮罩、试题替换、交互序列截取、交互序列打乱四种数据增强方式,采用随机数据增强策略,分别对学生的试题序列、学习交互序列(由试题序列与作答序列组合计算得到)进行数据增强;对于同一序列扩增出的两个序列互为正样本对,不同序列扩增出的两个序列互为负样本对;
(1-2)学生学习历史的向量化表征:针对试题维度,将经过数据增强后的试题序列输入至编码层,得到该学生学习历史中试题所对应的向量化表征;针对学生维度,将经过数据增强后的学习交互序列依次输入至编码层、投影层,得到该学生学习历史中学习交互所对应的向量化表征;
(1-3)负样本队列及参数的更新与对比损失的计算:通过入队出队函数实现负样本队列的更新,并采用一种名叫InfoNCE的损失函数计算对比学习的损失值,它用来衡量样本对在表征空间中的相似性,再通过梯度计算、反向传播,实现参数的动量更新;
在上述技术方案中,步骤(2)中所述建模知识更新过程,具体为:
(2-1)将信息输入至感知记忆模块:该模块通过卷积神经网络模拟感知记忆,基于滑动窗口提取学生学习历史的局部信息,其中滑动窗口大小将会被设置为参数在训练过程中进行优化;首先将学生的试题序列与学习交互序列使用Embedding编码方式获取试题向量与交互向量,再将得到的试题向量与学习交互向量输入至卷积神经网络中完成变换操作,最终获得聚合了局部信息的试题向量与学习交互向量;
(2-2)工作记忆模块对信息加工、贮存:该模块通过Transformer神经网络模拟工作记忆,实现信息的加工、存储功能,其中基于注意力机制的试题编码器与知识编码器会分别实现对试题向量、学习交互向量的全局信息提取;首先将聚合了局部信息的试题向量与学习交互向量分别输入至试题编码器与知识编码器中,其次为各向量中的元素分别赋予不同的权重并进行融合,最后得到聚合了全局信息的试题向量与学习交互向量;
(2-3)长期记忆模块实现信息的存储、检索:该模块通过矩阵结构模拟长期记忆,实现长期记忆的存储功能;首先将学习交互向量通过多层感知机写入长期记忆矩阵实现对长期记忆矩阵的更新,其次将长期记忆矩阵中的内容通过另一个多层感知机检索出来,最后将检索出的记忆向量与Transformer中的学习交互向量进行融合,得到该学生当前的知识状态向量。
在上述技术方案中,步骤(3)中所述预测学生未来学习表现,具体为:在对所有的学生学习历史提取局部与全局信息后,首先将步骤(2)中最终获得的试题向量与知识状态向量输入至知识检索器(由Transformer块构成,基于注意力机制实现试题向量与知识状态向量的检索)中,其次将检索到的新知识状态向量和当前试题的嵌入向量拼接起来,得到当前试题与知识状态的新嵌入向量,最后将其依次输入至一个全连接网络与sigmoid函数中,生成学生正确回答当前问题的预测概率,预测学生对当前问题的作答。
本发明基于对比学习与记忆机制的知识追踪方法,采用深度学习领域中的对比学习技术从稀疏的学习历史中学习可迁移的表征,同时,结合加涅的信息加工理论模型构建知识追踪模型,模拟学习与记忆的信息加工过程,实现对学生学习过程中知识状态的建模,并预测学生未来的学习表现。本发明能够科学、全面地对学生学习情况进行预测,为智能辅导系统开展大规模个性化教学提供支持。
附图说明
图1为本发明实施例中知识追踪模型的框架图。
图2为负样本队列的结构示例图。
图3为信息加工模型图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
如图1所示,本发明实施例提供了一种基于对比学习与记忆机制的知识追踪方法,包括以下步骤:
(1)实现序列增强表征
首先,定义对比学习部分的重要网络结构:负样本队列、编码层、投影层与预测层。负样本队列属于队列结构,用于存储负样本特征,因此其具有先进先出的特性,在训练过程中能够对队列进行更新;编码层由基础编码器、动量编码器组成,每个编码器都是由Transformer块构成,它与建模知识更新模块中的编码器共享参数;投影层由基础投影块、动量投影块组成,每个投影块均由线性函数、激活函数、正则化函数组合而成;预测层则由线性函数与激活函数组合而成。其中,动量编码器与动量投影块的参数均由基础编码器与基础投影块初始化得到;在训练过程中,则通过动量更新的方式对参数进行更新,动量更新参数的公式如下式:
paramT=base_paramT*(1-m)+paramT-1*m
其中,paramT是当前时刻T时的动量编码器或动量投影块参数,paramT-1是上一时刻T-1时的动量编码器或动量投影块参数,base_paramT是当前时刻T时的基础编码器或基础投影块参数,m为动量更新的超参数。
举例:负样本队列的结构示例如图2所示。例如在图2中,负样本队列的维度为(k,d),其中k表示队列的长度,d为负样本特征的维度,在训练过程中,每次将最早入队的批量负样本特征出队,再将最新的批量负样本特征入队。
实现序列增强表征所要解决的问题是训练建模知识更新模块中的编码器,使其能够更好地从稀疏的学习历史中学习可迁移的表征,问题具体表示为,给定学生的学习历史序列,构建一个对比学习模型,模型经过训练得到一个能够很好地学习可迁移的序列表征的编码器,而这个编码器将应用于建模知识更新模块中。
搭建对比学习框架的步骤包括学生学习历史的数据增强,学习历史的向量化表征,负样本队列及参数的更新与对比损失的计算。
(1-1)学生学习历史的数据增强
首先,将学生的试题序列q_seq、作答序列r_seq通过如下公式得到学生的学习交互序列:
x_seq=q_seq+q_num*r_seq
其中,x_seq是学生的学习交互序列,q_seq是学生的试题序列,r_seq是学生的作答序列,q_num为数据集中涉及的知识点总数。
其次,对试题序列q_seq综合使用试题遮罩、试题替换、交互序列截取、交互序列打乱四种数据增强方式,得到新的试题序列q_seq1;再对试题序列重复使用上述数据增强方式得到试题序列q_seq2,且q_seq1和q_seq2互为正样本对。
最后,对学生的学习交互序列x_seq重复试题序列q_seq的操作,得到新的学习交互序列x_seq1和x_seq2,且x_seq1和x_seq2互为正样本对。
(1-2)学习历史的向量化表征
首先,将试题序列q_seq1输入至基础编码器中,得到试题的向量化表征q_query,将q_seq2输入至动量编码器中,得到q_key,由于q_seq1和q_seq2互为正样本对,因此试题的向量化表征q_query和q_key也互为正样本对,而q_query和负样本队列中存储的向量化特征均互为负样本对。
其次,将学习交互序列x_seq1输入至基础编码器中,得到学习交互的向量化表征x_query,将x_seq2输入至动量编码器中,得到x_key。
最后,将学习交互的向量化表征x_query输入至基础投影块中,将其映射为学生的知识状态向量ks1,将x_key输入至基础投影块中映射为ks2。
(1-3)负样本队列及参数的更新与对比损失的计算
首先,将试题的向量化表征q_query和q_key作余弦相似度计算,得到sim1_1,将q_query和负样本队列中的所有特征作余弦相似度计算,得到sim1_2,并将sim1_1与sim1_2拼接得到sim1,输入至损失函数InfoNCE中,得到试题的损失值CL_loss1。
其次,将知识状态向量ks1输入至预测层中得到预测知识状态向量ks3,对知识状态向量ks2进行预测,将知识状态向量ks2和ks3作余弦相似度计算,得到sim2,输入至损失函数InfoNCE中,得到试题的损失值CL_loss2。
最后,将批量试题特征x_key通过入队出队函数实现负样本队列的更新;并基于动量参数更新公式通过反向传播、梯度计算对模型的参数进行动量更新。
(2)建模知识更新过程
为了更好地建模学生学习与记忆过程中的知识状态变化,基于信息加工模型,构建神经网络模型,通过学生的学习历史,追踪学生知识状态的变化。
(2-1)将信息输入至感知记忆模块
首先,定义卷积神经网络结构CNN,并将滑动窗口大小设置为参数,在训练中进行优化。通过卷积神经网络模拟感知记忆模块,基于滑动窗口提取学生学习历史的局部信息。
其次,读取学生的试题序列q_seq与作答序列r_seq,通过组合生成学习交互序列x_seq,并对试题序列q_seq与学习交互序列x_seq使用Embedding编码方式获取试题嵌入向量q与学习交互嵌入向量x。
最后,将试题嵌入向量q与学习交互嵌入向量x分别输入至卷积神经网络中,获得聚合了局部信息的试题向量Q和学习交互向量X。
(2-2)工作记忆模块对信息加工、贮存
首先,定义Transformer块,并使用Transformer块构建试题编码器、知识编码器、知识检索器。通过Transformer神经网络模拟工作记忆模块,实现信息的加工、存储功能,以及对试题、学习交互向量的全局信息提取。
其次,将聚合了局部信息的试题向量Q输入至试题编码器中,其中向量Q作为注意力机制中的query、key、value参数计算注意力权重,以此为向量Q中的各元素赋予不同的权重,得到聚合了全局信息的试题向量Q′。
最后,将聚合了局部信息的交互向量X输入至知识编码器中,其中向量X作为注意力机制中的query、key、value参数计算注意力权重,以此为向量X中的各元素赋予不同的权重,得到聚合了全局信息的交互向量X′。
(2-3)长期记忆模块实现信息的存储、检索
首先,构建长期记忆矩阵,矩阵维度为(w,q_num)。其中,w为长期记忆容量,q_num为数据集中涉及的知识点总数,长期记忆矩阵用于存储学生在不同时间的知识掌握状态。此外,构建write_heads与read_heads函数块,分别用于将学习交互向量写入或读取出长期记忆矩阵,两个函数块均由线性函数、激活函数组合而成。
其次,将聚合了全局信息的学习交互向量X′通过write_heads函数写入长期记忆矩阵,实现对长期记忆矩阵的更新。
最后,对更新后的长期记忆矩阵,使用read_heads读取矩阵当前时间的记忆向量M,并将学习交互向量X′与记忆向量M进行拼接,并通过多层感知机将其维度重新映射为X′的维度,最终得到当前学生的知识状态向量X″。
(3)预测学生未来学习表现
首先,在对所有的学生学习历史提取局部与全局信息后,将最终得到的试题向量Q′与知识状态向量X″,输入至知识检索器中,将试题向量Q′作为注意力机制中的query、key参数,知识状态向量X″作为value参数,得到检索到的知识状态向量H。
其次,将当前检索到的知识状态向量H和当前试题的嵌入向量q作拼接操作,得到新向量H′。
最后,将得到的新向量H′输入至一个全连接网络,最后经过sigmoid激活函数,生成学生正确回答当前问题的预测概率
Figure BDA0003907490130000101
它代表了学生在T时刻对于当前试题作答成功的概率。
本说明书中未作详细描述的内容,属于本专业技术人员公知的现有技术。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于对比学习与记忆机制的知识追踪方法,其特征在于该方法包括以下步骤:
(1)实现序列增强表征:基于对比学习技术从学习历史中学习可迁移的序列增强表征,包括学生学习历史的数据增强,学生学习历史的向量化表征,负样本队列及参数的更新与对比损失的计算;
(2)建模知识更新过程:基于信息加工模型建模知识的更新过程,从学生的学习历史中提取局部信息与全局信息,包括将信息输入至感知记忆模块,工作记忆模块对信息加工、贮存,长期记忆模块实现信息的存储、检索;
(3)预测学生未来学习表现:基于对学生知识状态变化的建模,实现学生未来学习表现的预测。
2.根据权利要求1所述的基于对比学习与记忆机制的知识追踪方法,其特征在于步骤(1)中所述实现序列增强表征,具体为:
定义对比学习部分的网络结构:负样本队列、编码层、投影层与预测层;负样本队列属于队列结构,用于存储负样本特征,其具有先进先出的特性,能够在训练过程中对队列进行更新;编码层由基础编码器、动量编码器组成,每个编码器都是由Transformer块构成,它与建模知识更新模块中的编码器共享参数;投影层由基础投影块、动量投影块组成,每个投影块均由线性函数、激活函数、正则化函数组合而成;预测层由线性函数与激活函数组合而成;其中,动量编码器与动量投影块的参数均由基础编码器与基础投影块初始化得到;在训练过程中,通过动量更新的方式对参数进行更新;
(1-1)学生学习历史的数据增强:综合使用试题遮罩、试题替换、交互序列截取、交互序列打乱四种数据增强方式,采用随机数据增强策略,分别对学生的试题序列、学习交互序列(由试题序列与作答序列组合计算得到)进行数据增强;对于同一序列扩增出的两个序列互为正样本对,不同序列扩增出的两个序列互为负样本对;
(1-2)学生学习历史的向量化表征:针对试题维度,将经过数据增强后的试题序列输入至编码层,得到该学生学习历史中试题所对应的向量化表征;针对学生维度,将经过数据增强后的学习交互序列依次输入至编码层、投影层,得到该学生学习历史中学习交互所对应的向量化表征;
(1-3)负样本队列及参数的更新与对比损失的计算:通过入队出队函数实现负样本队列的更新,并采用一种名叫InfoNCE的损失函数计算对比学习的损失值,它用来衡量样本对在表征空间中的相似性,再通过梯度计算、反向传播,实现参数的动量更新。
3.根据权利要求1所述的基于对比学习与记忆机制的知识追踪方法,其特征在于步骤(2)中所述建模知识更新过程,具体为:
(2-1)将信息输入至感知记忆模块:该模块通过卷积神经网络模拟感知记忆,基于滑动窗口提取学生学习历史的局部信息,其中滑动窗口大小将会被设置为参数在训练过程中进行优化;首先将学生的试题序列与学习交互序列使用Embedding编码方式获取试题向量与交互向量,再将得到的试题向量与学习交互向量输入至卷积神经网络中完成变换操作,最终获得聚合了局部信息的试题向量与学习交互向量;
(2-2)工作记忆模块对信息加工、贮存:该模块通过Transformer神经网络模拟工作记忆,实现信息的加工、存储功能,其中基于注意力机制的试题编码器与知识编码器会分别实现对试题向量、学习交互向量的全局信息提取;首先将聚合了局部信息的试题向量与学习交互向量分别输入至试题编码器与知识编码器中,其次为各向量中的元素分别赋予不同的权重并进行融合,最后得到聚合了全局信息的试题向量与学习交互向量;
(2-3)长期记忆模块实现信息的存储、检索:该模块通过矩阵结构模拟长期记忆,实现长期记忆的存储功能;首先将学习交互向量通过多层感知机写入长期记忆矩阵实现对长期记忆矩阵的更新,其次将长期记忆矩阵中的内容通过另一个多层感知机检索出来,最后将检索出的记忆向量与Transformer中的学习交互向量进行融合,得到该学生当前的知识状态向量。
4.根据权利要求1所述的基于对比学习与记忆机制的知识追踪方法,其特征在于步骤(3)中所述预测学生未来学习表现,具体为:在对所有的学生学习历史提取局部与全局信息后,首先将步骤(2)中最终获得的试题向量与知识状态向量输入至知识检索器(由Transformer块构成,基于注意力机制实现试题向量与知识状态向量的检索)中,其次将检索到的新知识状态向量和当前试题的嵌入向量拼接起来,得到当前试题与知识状态的新嵌入向量,最后将其依次输入至一个全连接网络与sigmoid函数中,生成学生正确回答当前问题的预测概率,预测学生对当前问题的作答。
CN202211312281.5A 2022-10-25 2022-10-25 一种基于对比学习与记忆机制的知识追踪方法 Pending CN115906997A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211312281.5A CN115906997A (zh) 2022-10-25 2022-10-25 一种基于对比学习与记忆机制的知识追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211312281.5A CN115906997A (zh) 2022-10-25 2022-10-25 一种基于对比学习与记忆机制的知识追踪方法

Publications (1)

Publication Number Publication Date
CN115906997A true CN115906997A (zh) 2023-04-04

Family

ID=86486331

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211312281.5A Pending CN115906997A (zh) 2022-10-25 2022-10-25 一种基于对比学习与记忆机制的知识追踪方法

Country Status (1)

Country Link
CN (1) CN115906997A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116166998A (zh) * 2023-04-25 2023-05-26 合肥师范学院 一种联合全局和局部特征的学生表现预测方法
CN117436500A (zh) * 2023-12-19 2024-01-23 杭州宇谷科技股份有限公司 一种基于对比学习的电池数据处理模型的无监督训练方法
CN117474094A (zh) * 2023-12-22 2024-01-30 云南师范大学 基于Transformer的融合领域特征的知识追踪方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116166998A (zh) * 2023-04-25 2023-05-26 合肥师范学院 一种联合全局和局部特征的学生表现预测方法
CN117436500A (zh) * 2023-12-19 2024-01-23 杭州宇谷科技股份有限公司 一种基于对比学习的电池数据处理模型的无监督训练方法
CN117436500B (zh) * 2023-12-19 2024-03-26 杭州宇谷科技股份有限公司 一种基于对比学习的电池数据处理模型的无监督训练方法
CN117474094A (zh) * 2023-12-22 2024-01-30 云南师范大学 基于Transformer的融合领域特征的知识追踪方法
CN117474094B (zh) * 2023-12-22 2024-04-09 云南师范大学 基于Transformer的融合领域特征的知识追踪方法

Similar Documents

Publication Publication Date Title
CN115906997A (zh) 一种基于对比学习与记忆机制的知识追踪方法
CN111695779B (zh) 一种知识追踪方法、装置及存储介质
CN108647233A (zh) 一种用于问答系统的答案排序方法
CN116702843A (zh) 投影神经网络
CN112116092B (zh) 可解释性知识水平追踪方法、系统和存储介质
Chaudhry et al. Modeling Hint-Taking Behavior and Knowledge State of Students with Multi-Task Learning.
KR102506132B1 (ko) 자기집중 메커니즘 기반의 개인화된 학습량 추천 방법 및 장치
CN113361685B (zh) 一种基于学习者知识状态演化表示的知识追踪方法及系统
Liu et al. The Influence of Artificial Intelligence Technology on Teaching under the Threshold of" Internet+": Based on the Application Example of an English Education Platform.
CN113344053A (zh) 一种基于试题异构图表征与学习者嵌入的知识追踪方法
CN112116137A (zh) 一种基于混合深度神经网络的学生辍课预测方法
CN116306863A (zh) 基于对比学习的协同知识追踪建模方法及系统
CN116186250A (zh) 小样本条件下的多模态学习水平挖掘方法、系统及介质
Duan Automatic generation and evolution of personalized curriculum based on genetic algorithm
CN113591988B (zh) 知识认知结构分析方法、系统、计算机设备、介质、终端
Dutchak et al. Methods and Software Tools for Automated Synthesis of Adaptive Learning Trajectory in Intelligent Online Learning Management Systems
Hagedoorn et al. Massive open online courses temporal profiling for dropout prediction
CN112966115A (zh) 基于记忆损失预测和延迟训练的主动学习事件抽取方法
Ma et al. Dtkt: An improved deep temporal convolutional network for knowledge tracing
CN116611517A (zh) 融合图嵌入和注意力的知识追踪方法
CN114117033B (zh) 知识追踪方法及系统
CN115545638A (zh) 一种知识动态掌握程度确定方法、试题推荐方法及装置
CN114861917A (zh) 贝叶斯小样本学习的知识图谱推理模型、系统及推理方法
YURTKAN et al. Student Success Prediction Using Feedforward Neural Networks
CN114971066A (zh) 融合遗忘因素和学习能力的知识追踪方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination