CN113704235A - 一种基于自注意力机制的深度知识追踪模型 - Google Patents
一种基于自注意力机制的深度知识追踪模型 Download PDFInfo
- Publication number
- CN113704235A CN113704235A CN202110887444.1A CN202110887444A CN113704235A CN 113704235 A CN113704235 A CN 113704235A CN 202110887444 A CN202110887444 A CN 202110887444A CN 113704235 A CN113704235 A CN 113704235A
- Authority
- CN
- China
- Prior art keywords
- information
- model
- self
- learning
- attention mechanism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007246 mechanism Effects 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims abstract description 17
- 230000006399 behavior Effects 0.000 claims abstract description 14
- 230000000306 recurrent effect Effects 0.000 claims abstract description 14
- 230000007774 longterm Effects 0.000 claims abstract description 9
- 238000013135 deep learning Methods 0.000 claims abstract description 8
- 238000004880 explosion Methods 0.000 claims abstract description 6
- 238000007418 data mining Methods 0.000 claims abstract description 3
- 238000010801 machine learning Methods 0.000 claims abstract description 3
- 238000004364 calculation method Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/21—Design, administration or maintenance of databases
- G06F16/215—Improving data quality; Data cleansing, e.g. de-duplication, removing invalid entries or correcting typographical errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及机器学习,深度学习及数据挖掘等技术领域,具体是一种基于自注意力机制的深度知识追踪模型。针对目前基于循环神经网络的知识追踪方法中普遍存在的可解释性差和长期依赖问题,提供了一种基于自注意力机制的模型,在一定程度提高可解释性且没有长期依赖问题。且利用了学习过程中的时间信息,以时间信息代替位置编码,结合遗忘曲线理论,模拟学习过程中的遗忘行为,同时,使用以知识点信息为主,以题目信息为辅,两者结合的建模方法,以保留题目的差异信息且避免了题目数量过多带来的参数爆炸,造成模型难以训练的问题。
Description
(一)技术领域
本发明涉及机器学习,深度学习及数据挖掘等技术领域,具体是一种基于自注意力机制的深度知识追踪模型。
(二)背景技术
近年来,随着智能辅导系统和大规模在线开放课程等在线教育平台的发展和普及,数百万的用户选择通过在线平台学习.相比传统的线下教育,在线学习系统最显著的优势在于其能保留学习者详尽的学习轨迹,提供了调查不同轨迹下学习者行为效能的条件。然而,在线学习平台上学生与教师人数的悬殊使人工的辅导变得不现实。如何利用在线学习系统的优势,从学生的学习轨迹中挖掘出潜在的学习规律,以提供个性化的指导,达到人工智能辅助教育的目的,成为了研究者密切关注的问题。
知识追踪是实现人工智能辅助教育的有力工具,目前已经成为了ITS的一个主要组成部分,被广泛应用于各个在线教育平台,如edX、Coursera和爱学习。知识追踪旨在建立学生知识状态随时间变化的模型,以判断学生对知识的掌握程度。
在知识追踪领域,目前基于深度学习的方法占据主要地位,在已有基于深度学习的方法中,又以循环神经网络及其变体的使用为主。循环神经网络的序列结构使其符合学习中的近因效应并保留了学习轨迹信息,能够较好的拟合现实中的学习过程,因此被广泛应用于知识追踪领域。循环神经网络在知识追踪领域取得了较好的效果,但其在教育应用中的实用性还有待提高,而被部分学者所批判,主要分为3个方面:(1)深度学习的“黑盒”特性使模型的训练过程不透明,难以对知识交互进行深入分析,导致模型的可解释性很差;(2)循环神经网络的特性使其在训练长序列时会存在梯度消失和梯度爆炸,使模型无法处理太长的序列,即长期依赖问题,这限制了模型的实用性,其会导致重构错误和波动准则;(3)学习过程中产生的许多学习轨迹信息没有得到较好的利用,而这些学习轨迹信息的引入在理论上可以更好的拟合学习过程,提高模型的表现。
(三)发明内容
本发明针对目前基于循环神经网络的知识追踪方法中普遍存在的可解释性差和长期依赖问题,提供了一种基于自注意力机制的模型,在一定程度提高可解释性且没有长期依赖问题。且利用了学习过程中的时间信息,以时间信息代替位置编码,结合遗忘曲线理论,模拟学习过程中的遗忘行为。同时,使用以知识点信息为主,以题目信息为辅,两者结合的建模方法,以保留题目的差异信息且避免了题目数量过多带来的参数爆炸,造成模型难以训练的问题。
本发明的目的是这样实现的:
步骤一、对公开数据集进行数据清洗,筛选和预处理,去掉其中的无效信息。
步骤二、将筛选后的数据按学生ID为标签分组,以答题的结束时间为标准确定答题的先后顺序,得到学生的学习轨迹信息。筛选并计算题目类型、平均答题时间以及正确率等信息,作为题目的特征信息。
步骤三、以学习轨迹中的知识点为主,并在其中加入题目的特征信息,进行学习轨迹信息的嵌入。对于题目特征信息,离散型特征使用one-hot编码,非离散特征则直接使用。
步骤四、嵌入后的学习轨迹信息按照是否包含答案信息分为交互嵌入和知识点嵌入,使用自注意力模型Transformer,将两者分别作为编码器和解码器的输入,对学习过程建模。
步骤五、在多头注意力的计算中使用时间信息代替原有的位置嵌入,时间信息天然的具有时序性且拟合了现实中的学习过程,可以有效的对遗忘行为建模。
步骤六、将解码器的输出经过一个Sigmoid激活的预测层,得到最终的预测结果。
与现有技术相比,本发明具有如下优势:
在学习轨迹的嵌入方面,本发明考虑了题目之间的差异性所带来的影响,并使用特征信息对其建模。题目特征嵌入与知识点嵌入结合,最终的嵌入结果可以有效避免题目数量过多带来的参数爆炸,训练困难问题,且保留了题目的差异信息。
在模型选择方面,使用了自注意力模型Transformer为基础,因此不存在循环神经网络带来的长期依赖问题,这使模型可以对更长的学习序列进行建模。基于循环神经网络的模型在应对长序列的轨迹信息时,会将其截断为多份,视为多个学习者的学习信息。相对而言,Transformer则不需要截断操作,能更好的拟合现实中的学习行为。
Transformer模型完全以自注意力机制为基础,自注意力是一种特殊的注意力机制。在深度学习中,一种有效的可解释性模块就是注意力模块。注意力机制的使用显著的提高了模型的可解释性。
在计算自注意力值时使用了时间信息代替位置嵌入,在计算时,使用一个衰减因子,衰减因子以遗忘曲线理论为依据。用时间信息作为衡量衰减的因素。在计算间隔较长的两个题目的注意力值时,衰减因子会加大权重的衰减。这种衰减的权重契合与现实中的遗忘行为,可以有效地对遗忘行为建模。
(四)附图说明
图1为本发明的模型的框架图;
图2为基于自注意力机制的知识追踪模型的整体流程图;
图3为本发明的数据处理流程;
图4为注意力机制的具体结构。
(五)具体实施方式
为使本发明的目的、技术方案和优点更加清楚,以下结合具体实例,并参照附图,对本发明进一步详细阐述。
本发明以基于自注意力机制的知识追踪模型为实例描述本发明方法的具体实施过程。
本发明的模型框架如图1所示。结合示意图说明具体步骤:
步骤1、将处理好的用户学习记录数据作为嵌入层的输入生成嵌入向量。用户学习记录包含题目ID、知识点ID和是否正确(标签)。在嵌入层,将知识点使用one-hot编码后与分别与知识点嵌入矩阵知识点难度特征矩阵相乘得到知识点嵌入和知识点特征嵌入,其中,嵌入矩阵使用随机初始化。同理,加入标签信息可以得到交互嵌入和交互特征嵌入。根据题目ID获得题目的特征信息向量,然后经过一个线性层生成一个题目特征值。将知识点特征嵌入与题目特征值相乘再加上知识点嵌入,得到带有题目特征信息的知识点嵌入,同理可以得到带有题目特征信息的交互嵌入,前者作为Encoder的输入,后者作为Decoder的输入。
步骤2、Encoder由一个多头注意力模块和一个前馈神经网络组成,其中,多头注意力模块的输入Q,K,V由交互嵌入通过与不同的投影矩阵生成,得到的注意力值经过一个残差连接和层归一化处理后作为前馈神经网络的输入。前者可以防止梯度消失和权重退化,后者可以使前向传播的分布和反向的梯度更加问题。前馈神经网络由2个线性层组成,并在2个线性层间使用了ReLU激活。前馈神经网络的输出经过残差连接和层归一化处理,作为Encoder的输出。Encoder可以堆叠多层以增强表达能力。
步骤3、Decoder使用交互嵌入为输入,其中包含2个多头注意力模块,第一个模块与Encoder的计算相同,在第二个模块中,Q来自于Encoder的输出乘以权重矩阵,而K,V来自于Decoder的输出乘以不同的权重矩阵,这是利用不同空间的投影矩阵来增强注意力结果的泛化能力。第二个注意力模块的输出经过前馈神经网络之后以及2个残差连接和层归一化处理后得到最后的结果,作为Decoder的输出。Decoder同样可以多层堆叠以增强表达能力。
步骤4、Decoder的输出经过Sigmoid函数激活的预测层得到最终的预测结果。
基于自注意力机制的知识追踪的整体流程如图2所示。结合示意图说明具体步骤:
步骤1、收集下载知识追踪领域的公开数据集,对数据进行筛选以及预处理。
步骤2、将步骤1得到的数据以学习者的ID分组,作为每个学习者的学习记录。在每个学习记录中,按照时间顺序对学习行为日志排序。
步骤3、将步骤1得到的数据以题目的ID分组,在每个分组中,收集或计算题型、正确率、平均答题时间等数据,作为题目的特征信息。
步骤4、将步骤2、3得到学习记录信息和题目的特征信息作为Embedding层的输入,得到学习记录的嵌入。按照是否包含标签信息,将学习记录的嵌入分为两种,分别作为Encoder和Decoder的输入。
步骤5、考虑到自注意力机制没有显式的位置信息,为防止标签泄露,使模型学习到后面时间的信息,在Encoder和Decode中都加入了掩码机制,将后面时间的信息置为0。为使掩码矩阵在Encoder和Decoder中能够通用,将Encoder的输出左移一位,防止出现用t时刻的交互预测t时刻的标签的情况。
步骤6、将步骤5得到的掩码后的学习记录嵌入作为自注意力模块的输入。同时,在计算自注意力值时,将时间信息作为权重衰减,使间隔时间较长的记录之间的注意力值减小,以模拟学习过程中遗忘行为。
步骤7、Decoder的输出最后经过一个Sigmoid激活的预测层得到最后的预测结果。
本发明的数据处理流程如图3所示。结合示意图说明具体步骤:
步骤1、以Assistment2012-2013数据集为例,说明数据处理过程。该数据集来源于Assistments在线辅导系统,包含21510个用户在34752个题目上的答题记录,共406050条记录,237个知识点。对此数据进行初步处理,首先去掉skill字段为空的记录,然后对非数字表示的字段做序列化处理,包括problem_id,skill_id,problem_type等。序列化时,将所有值加一,留下0作为占位的填充值。将start_time和end_time字段所使用的毫秒为单位的Unix时间转化为以秒为单位的日期时间。
步骤2、将步骤1得到的数据按照学习者的ID分组,然后对每组数据按照时间顺序排序,作为的学习交互记录。学习交互记录包含间隔时间、知识点ID、题目ID和是否正确(标签)信息。
步骤3、将步骤1的得到的数据按照题目ID分组,并在每个分组计算正确率,请求帮助的概率,平均思考时间等信息,与数据集中提供的题目类型,是否为主要题目等信息共同构成题目特征信息。
步骤4、组合步骤2、3生成的学生交互记录信息和题目特征信息并编码,通过嵌入层生成嵌入向量。对于学生交互记录信息,题目ID、知识点ID与标签都使用one-hot编码。对于题目特征信息,离散型特征如题目类型等使用one-hot编码,连续型特征如正确率等直接保留,最后,拼接所有特征编码组成题目特征向量。
本发明使用的自注意力结构如图4所示。结合示意图说明具体步骤:
步骤1、Q、K和V由输入经过不同的权重矩阵计算得到,首先,Q和K相乘并除以维度的平方根得到一个注意力权重矩阵,缩放操作是为了避免内积过大而使Softmax函数的梯度过小,即使训练过程中具有更稳定的梯度。在计算内积时,加入间隔时间控制的衰减因子,以模拟学习中的遗忘行为,衰减因子的权重为可以学习的超参数。
步骤2、将注意力权重矩阵进一步通过Softmax归一化后,其值可以解释为序列中每个记录对于其它记录的相似度。将相似度矩阵与掩码矩阵相与,就可以掩盖后续时间的记录,防止标签泄露。
Scores=Softmax(Weight)&M
步骤3、掩码后的相似度矩阵与V相乘,得到一个加权后的结果,相当于对输入做了提纯处理,使其在相关性高的记录保持更高的关注度,增强表达能力。
Attention=Scores·V
步骤4、采用多头注意力机制,使模型能够注意来自不同表征子空间的信息,增强泛化能力并扩展关注不同位置的能力。
MultiHeadAttention=Concat(Head1,…,Headh)·W
需要说明的是,尽管以上发明是说明性的,但是并非是对本发明的限制,因此本发明并不局限于上述具体实施方式。在不脱离本发明原理的情况下,凡是本领域技术人员在本发明的启示下获得的其他实施方式,均视为在本发明的保护之内。
Claims (5)
1.本发明涉及机器学习,深度学习及数据挖掘等技术领域,具体是一种基于自注意力机制的深度知识追踪模型。针对目前基于循环神经网络的知识追踪方法中普遍存在的可解释性差和长期依赖问题,提供了一种基于自注意力机制的模型,在一定程度提高可解释性且没有长期依赖问题。且利用了学习过程中的时间信息,以时间信息代替位置编码,结合遗忘曲线理论,模拟学习过程中的遗忘行为。同时,使用以知识点信息为主,以题目信息为辅,两者结合的建模方法,以保留题目的差异信息且避免了题目数量过多带来的参数爆炸,造成模型难以训练的问题。
2.根据权利要求1所述的一种基于自注意力机制的深度知识追踪模型,其特征是:在学习轨迹的嵌入方面,本发明考虑了题目之间的差异性所带来的影响,并使用特征信息对其建模。题目特征嵌入与知识点嵌入结合,最终的嵌入结果可以有效避免题目数量过多带来的参数爆炸,训练困难问题,且保留了题目的差异信息。
3.根据权利要求1所述的一种基于自注意力机制的深度知识追踪模型,其特征是:在模型选择方面,使用了自注意力模型Transformer为基础,因此不存在循环神经网络带来的长期依赖问题,这使模型可以对更长的学习序列进行建模。基于循环神经网络的模型在应对长序列的轨迹信息时,会将其截断为多份,视为多个学习者的学习信息。相对而言,Transformer则不需要截断操作,能更好的拟合现实中的学习行为。
4.根据权利要求1所述的一种基于自注意力机制的深度知识追踪模型,其特征是:Transformer模型完全以自注意力机制为基础,自注意力是一种特殊的注意力机制。在深度学习中,一种有效的可解释性模块就是注意力模块。注意力机制的使用显著的提高了模型的可解释性。
5.根据权利要求1所述的一种基于自注意力机制的深度知识追踪模型,其特征是:在计算自注意力值时使用了时间信息代替位置嵌入,在计算时,使用一个衰减因子,衰减因子以遗忘曲线理论为依据。用时间信息作为衡量衰减的因素。在计算间隔较长的两个题目的注意力值时,衰减因子会加大权重的衰减。这种衰减的权重契合与现实中的遗忘行为,可以有效地对遗忘行为建模。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110887444.1A CN113704235A (zh) | 2021-08-03 | 2021-08-03 | 一种基于自注意力机制的深度知识追踪模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110887444.1A CN113704235A (zh) | 2021-08-03 | 2021-08-03 | 一种基于自注意力机制的深度知识追踪模型 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113704235A true CN113704235A (zh) | 2021-11-26 |
Family
ID=78651347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110887444.1A Pending CN113704235A (zh) | 2021-08-03 | 2021-08-03 | 一种基于自注意力机制的深度知识追踪模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113704235A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114117033A (zh) * | 2022-01-25 | 2022-03-01 | 山东建筑大学 | 知识追踪方法及系统 |
CN116127048A (zh) * | 2023-04-04 | 2023-05-16 | 江西师范大学 | 融合习题和学习行为表征的顺序自注意力知识追踪模型 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190333400A1 (en) * | 2018-04-27 | 2019-10-31 | Adobe Inc. | Personalized e-learning using a deep-learning-based knowledge tracing and hint-taking propensity model |
CN110807469A (zh) * | 2019-09-19 | 2020-02-18 | 华中师范大学 | 融合长短时记忆与贝叶斯网络的知识追踪方法及系统 |
CN111047482A (zh) * | 2019-11-14 | 2020-04-21 | 华中师范大学 | 基于层次记忆网络的知识追踪系统及方法 |
CN111159419A (zh) * | 2019-12-09 | 2020-05-15 | 浙江师范大学 | 基于图卷积的知识追踪数据处理方法、系统和存储介质 |
CN111695779A (zh) * | 2020-05-14 | 2020-09-22 | 华南师范大学 | 一种知识追踪方法、装置及存储介质 |
KR20210050377A (ko) * | 2019-10-28 | 2021-05-07 | 주식회사 교원크리에이티브 | 개인 맞춤형 학습 시스템 |
CN112800323A (zh) * | 2021-01-13 | 2021-05-14 | 中国科学技术大学 | 一种基于深度学习的智能教学系统 |
CN113033808A (zh) * | 2021-03-08 | 2021-06-25 | 西北大学 | 一种基于习题难度和学生能力的深度嵌入知识追踪方法 |
-
2021
- 2021-08-03 CN CN202110887444.1A patent/CN113704235A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190333400A1 (en) * | 2018-04-27 | 2019-10-31 | Adobe Inc. | Personalized e-learning using a deep-learning-based knowledge tracing and hint-taking propensity model |
CN110807469A (zh) * | 2019-09-19 | 2020-02-18 | 华中师范大学 | 融合长短时记忆与贝叶斯网络的知识追踪方法及系统 |
KR20210050377A (ko) * | 2019-10-28 | 2021-05-07 | 주식회사 교원크리에이티브 | 개인 맞춤형 학습 시스템 |
CN111047482A (zh) * | 2019-11-14 | 2020-04-21 | 华中师范大学 | 基于层次记忆网络的知识追踪系统及方法 |
CN111159419A (zh) * | 2019-12-09 | 2020-05-15 | 浙江师范大学 | 基于图卷积的知识追踪数据处理方法、系统和存储介质 |
CN111695779A (zh) * | 2020-05-14 | 2020-09-22 | 华南师范大学 | 一种知识追踪方法、装置及存储介质 |
CN112800323A (zh) * | 2021-01-13 | 2021-05-14 | 中国科学技术大学 | 一种基于深度学习的智能教学系统 |
CN113033808A (zh) * | 2021-03-08 | 2021-06-25 | 西北大学 | 一种基于习题难度和学生能力的深度嵌入知识追踪方法 |
Non-Patent Citations (3)
Title |
---|
YU SU,ZEYU CHENG: "Time-and-Concept Enhanced Deep Multidimensional Item Response Theory for interpretable Knowledge Tracing", 《ELSEVIER》 * |
常亮,张伟涛: "知识图谱的推荐系统综述", 《智能系统学报》 * |
段建设,崔超然: "基于多尺度注意力融合的知识追踪方法", 《南京大学学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114117033A (zh) * | 2022-01-25 | 2022-03-01 | 山东建筑大学 | 知识追踪方法及系统 |
CN116127048A (zh) * | 2023-04-04 | 2023-05-16 | 江西师范大学 | 融合习题和学习行为表征的顺序自注意力知识追踪模型 |
CN116127048B (zh) * | 2023-04-04 | 2023-06-27 | 江西师范大学 | 融合习题和学习行为表征的顺序自注意力知识追踪模型 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110428010B (zh) | 知识追踪方法 | |
CN110264091B (zh) | 学生认知诊断方法 | |
Richman et al. | Simulation of expert memory using EPAM IV. | |
Mayer | Multimedia learning: Are we asking the right questions? | |
Tang et al. | Deep neural networks and how they apply to sequential education data | |
CN113704235A (zh) | 一种基于自注意力机制的深度知识追踪模型 | |
Prentzas et al. | A web-based intelligent tutoring system using hybrid rules as its representational basis | |
Zhou et al. | Towards Closing the Loop: Bridging Machine-Induced Pedagogical Policies to Learning Theories. | |
Kello | Considering the junction model of lexical processing | |
CN112800323A (zh) | 一种基于深度学习的智能教学系统 | |
CN109670168A (zh) | 基于特征学习的短答案自动评分方法、系统及存储介质 | |
CN114186568B (zh) | 一种基于关系编码和层次注意力机制的图像段落描述方法 | |
Karimi et al. | A deep model for predicting online course performance | |
CN114595923A (zh) | 一种基于深度强化学习的群体教学推荐系统 | |
CN111563146A (zh) | 一种基于推理的难度可控问题生成方法 | |
CN115640368A (zh) | 一种智能诊断推荐题库的方法及其系统 | |
CN115544158A (zh) | 应用于智能教育系统的多知识点动态知识追踪方法 | |
Cottrell et al. | Grounding meaning in perception | |
Mazaheri et al. | Video fill in the blank using lr/rl lstms with spatial-temporal attentions | |
Wu et al. | Muscle Vectors as Temporally Dense" Labels" | |
CN113011196A (zh) | 一种概念增强表示与单向蕴含注意力的主观题自动阅卷神经网络模型 | |
Jonsson et al. | Evaluating the feasibility of learning student models from data | |
Bechtel et al. | Beyond the exclusively propositional era | |
Chi et al. | Inducing effective pedagogical strategies using learning context features | |
CN115935969A (zh) | 基于多模态信息融合的异构数据特征提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20211126 |
|
WD01 | Invention patent application deemed withdrawn after publication |