CN117973527B - 一种基于gru捕捉问题上下文特征的知识追踪方法 - Google Patents
一种基于gru捕捉问题上下文特征的知识追踪方法 Download PDFInfo
- Publication number
- CN117973527B CN117973527B CN202410389791.5A CN202410389791A CN117973527B CN 117973527 B CN117973527 B CN 117973527B CN 202410389791 A CN202410389791 A CN 202410389791A CN 117973527 B CN117973527 B CN 117973527B
- Authority
- CN
- China
- Prior art keywords
- knowledge
- exercise
- determining
- gru
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000003993 interaction Effects 0.000 claims abstract description 152
- 230000004044 response Effects 0.000 claims abstract description 51
- 239000011159 matrix material Substances 0.000 claims abstract description 42
- 238000012512 characterization method Methods 0.000 claims description 60
- 239000013598 vector Substances 0.000 claims description 46
- 230000006870 function Effects 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 abstract description 33
- 238000012545 processing Methods 0.000 abstract description 13
- 230000000694 effects Effects 0.000 abstract description 11
- 230000002452 interceptive effect Effects 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 241000288105 Grus Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
- G06N5/025—Extracting rules from data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种基于GRU捕捉问题上下文特征的知识追踪方法,涉及电子数字数据处理领域,该方法包括:基于预设数据结构以及历史交互记录,确定所述历史交互记录对应的嵌入矩阵,以实现对所述历史交互记录进行嵌入;基于GRU单元确定所述历史交互记录对应的知识状态特征以及练习特征;根据所述知识状态特征以及所述练习特征确定作答预测结果,有效解决了相关技术破坏了交互编码的底层语义信息,又降低了序列信息带来的收益,导致学生作答预测的精度差的技术问题,实现了准确预测学习者作答结果的技术效果。
Description
技术领域
本申请涉及电子数字数据处理领域,尤其涉及一种基于GRU捕捉问题上下文特征的知识追踪方法。
背景技术
推荐知识追踪任务是实现大规模个性化教学的基础性技术,可以帮助教育者诊断学习者认知水平,从而提供更有针对性的教学。知识追踪的目标是根据学习者的交互序列预测学生在未来交互中的表现,可以被视为一种序列建模任务。在这个任务中,学生的学习历史被视为一个交互序列,该学习历史通常是学生作答练习的历史记录。模型的目标是根据这个序列中的数据来预测他们是否会正确回答下一个问题。
在相关技术中,通常将Transformer(变压器)模型引入推荐系统,如具有跨模态的建模能力的ViT模型,用于多模态学习;如基于Transformer的SASRec算法有效地提升了推荐算法的精度。然而,Transformer模型在知识追踪领域并未带来突破性成效,即使用基于Transformer的编码器和解码器捕捉学生交互序列的特征,但是带来的性能提升却是有限,学生作答预测的精度差。
发明内容
本申请通过提供一种基于GRU捕捉问题上下文特征的知识追踪方法,解决了相关技术破坏了交互编码的底层语义信息,又降低了序列信息带来的收益,导致学生作答预测的精度差的技术问题,实现了准确预测学习者作答结果的技术效果。
本申请提供了一种基于GRU捕捉问题上下文特征的知识追踪方法,所述基于GRU捕捉问题上下文特征的知识追踪方法包括:
基于预设数据结构以及历史交互记录,确定所述历史交互记录对应的嵌入矩阵,以实现对所述历史交互记录进行嵌入;
基于GRU单元确定所述历史交互记录对应的知识状态特征以及练习特征;
根据所述知识状态特征以及所述练习特征确定作答预测结果。
可选地,所述基于预设数据结构以及历史交互记录,确定所述历史交互记录对应的嵌入矩阵的步骤包括:
基于所述预设数据结构提取所述历史交互记录中的字段,确定模型输入,其中所述模型输入包括每个交互标识对应的练习标识、知识点标识以及作答情况;
基于所述模型输入,从练习、知识点以及作答情况三个维度进行嵌入,确定所述嵌入矩阵。
可选地,所述基于所述模型输入,从练习、知识点以及作答情况三个维度进行嵌入,确定所述嵌入矩阵的步骤包括:
基于练习数量以及预设嵌入维度,确定练习嵌入矩阵以及练习表征;
基于知识点数量以及所述预设嵌入维度,确定知识点嵌入矩阵以及知识点表征;
基于所述预设嵌入维度以及所述作答结果映射的数值,确定作答情况嵌入矩阵。
可选地,所述基于GRU单元确定所述历史交互记录对应的知识状态特征以及练习特征的步骤包括:
基于第一GRU单元构建的序列特征提取器,确定所述历史交互记录对应的所述知识状态特征;
基于第二GRU单元以及多层感知机,确定所述历史交互记录对应的所述练习特征。
可选地,所述基于第一GRU单元构建的序列特征提取器,确定所述历史交互记录对应的所述知识状态特征的步骤包括:
确定所述历史交互记录中,每个交互时刻对应的知识点及作答情况表征;
基于所述第一GRU单元构造所述序列特征提取器;
以所述知识点及作答情况表征作为所述序列特征提取器的输入,确定所述知识状态特征。
可选地,所述以所述知识点及作答情况表征作为所述序列特征提取器的输入,确定所述知识状态特征的步骤包括:时间不
将所述知识点及作答情况表征作为所述序列特征提取器的输入,确定序列输出结果;
基于多层感知机对所述序列输出结果进行特征转换,确定每个所述交互时刻对应的所述知识状态特征。
可选地,所述基于第二GRU单元以及多层感知机,确定所述历史交互记录对应的所述练习特征的步骤包括:
确定所述历史交互记录对应的练习表征;
基于所述第二GRU单元以及所述多层感知机,组合提取所述练习表征对应的练习序列特征;
基于所述练习序列特征构建特异性向量;
基于预设的超参数控制所述特异性向量与知识点嵌入向量之间的占比,确定所述练习特征。
可选地,所述根据所述知识状态特征以及所述练习特征确定作答预测结果的步骤包括:
基于所述知识状态特征以及所述练习特征拼接知识状态以及下一交互时刻对应的目标练习;
基于多层感知机以及预设函数,确定所述目标练习对应的作答预测结果。
此外,本申请还提出一种基于GRU捕捉问题上下文特征的知识追踪设备,所述基于GRU捕捉问题上下文特征的知识追踪设备包括存储器、处理器及存储在存储器上并可在处理器上运行的基于GRU捕捉问题上下文特征的知识追踪程序,所述处理器执行所述基于GRU捕捉问题上下文特征的知识追踪程序时实现如上所述的基于GRU捕捉问题上下文特征的知识追踪方法的步骤。
此外,本申请还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有基于GRU捕捉问题上下文特征的知识追踪程序,所述基于GRU捕捉问题上下文特征的知识追踪程序被处理器执行时实现如上所述的基于GRU捕捉问题上下文特征的知识追踪方法的步骤。
本发明提供的一个或多个技术方案,至少具有如下技术效果或优点:
由于采用了基于预设数据结构以及历史交互记录,确定所述历史交互记录对应的嵌入矩阵,以实现对所述历史交互记录进行嵌入;基于GRU单元确定所述历史交互记录对应的知识状态特征以及练习特征;根据所述知识状态特征以及所述练习特征确定作答预测结果,所以,有效解决了相关技术破坏了交互编码的底层语义信息,又降低了序列信息带来的收益,导致学生作答预测的精度差的技术问题,实现了准确预测学习者作答结果的技术效果。
附图说明
图1为本申请基于GRU捕捉问题上下文特征的知识追踪方法实施例一的流程示意图;
图2为本申请基于GRU捕捉问题上下文特征的知识追踪方法实施例一中模型主体流程示意图;
图3为本申请基于GRU捕捉问题上下文特征的知识追踪方法实施例二中步骤S221-S224的流程示意图;
图4为本申请基于GRU捕捉问题上下文特征的知识追踪设备实施例涉及的硬件结构示意图。
具体实施方式
在相关技术中,在知识追踪领域,模型结构的复杂化未必能带来更好的效果。通过分析知识追踪领域与自然语言处理、计算机视觉、推荐系统等领域的异同,基于Transformer的知识追踪模型无法取得好的效果的原因在于:(1)经典的知识追踪数据集中交互量普遍较少,过多的参数可能带来过拟合的问题。(2)知识追踪领域对序列位置更为敏感,而“token嵌入+位置编码”的方式既破坏了交互编码的底层语义信息,又降低了序列信息带来的收益。因此,考虑使用能够天然捕获时序关系的循环神经模型和适当的知识状态、练习表征方式是在知识追踪领域取得效果的两项途径。本申请实施例采用的主要技术方案是:基于预设数据结构以及历史交互记录,确定所述历史交互记录对应的嵌入矩阵,以实现对所述历史交互记录进行嵌入;基于GRU单元确定所述历史交互记录对应的知识状态特征以及练习特征;根据所述知识状态特征以及所述练习特征确定作答预测结果。从而实现了快速准确地预测学习者作答结果的技术效果。
为了更好地理解上述技术方案,下面将参照附图更详细地描述本申请的示例性实施例。虽然附图中显示了本申请的示例性实施例,然而应当理解,能够以各种形式实现本申请而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本申请,并且能够将本申请的范围完整地传达给本领域的技术人员。
实施例一
本申请实施例一公开了一种基于GRU捕捉问题上下文特征的知识追踪方法,参照图1,所述基于GRU捕捉问题上下文特征的知识追踪方法包括:
步骤S110,基于预设数据结构以及历史交互记录,确定所述历史交互记录对应的嵌入矩阵,以实现对所述历史交互记录进行嵌入。
在本实施例中,历史交互记录包含了学习者的历史学习数据,时间跨度为0到t,0即初始时刻,t即最后一次作答的时刻。因此历史交互记录较为零散,通过预设数据结构,将历史交互数据转换成GRU(Gates Recurrent Units,门控循环单元)能够使用的数据集合。GRU是在循环神经网络的基础上进行改进和优化的,引入了更新门和重置门的概念。该数据集合包含了练习编号、练习对应的知识点以及练习的作答情况,三者即为t时刻的交互。
作为一种可选实施方式,基于预设结构数据对历史交互记录进行提取,确定交互序列,交互序列中每个元素为t时刻的交互,而每个交互包括了该次交互对应的练习、练习对应的知识点、练习的作答情况。在根据历史交互记录确定交互序列,即模型输入之后,基于模型输入从知识点、练习以及学生作答情况进行嵌入,即根据模型输入确定各个特征对应的嵌入矩阵。
可选地,步骤S110包括:
步骤S111,基于所述预设数据结构提取所述历史交互记录中的字段,确定模型输入,其中所述模型输入包括每个交互标识对应的练习标识、知识点标识以及作答情况。
在本实施例中,基于预设结构数据对历史交互记录进行提取,确定交互序列,交互序列中每个元素为t时刻的交互,而每个交互包括了该次交互对应的练习、练习对应的知识点、练习的作答情况。交互、练习以及知识点,都用标识进行唯一表示,即交互标识对应的练习标识、知识点标识以及作答情况。
示例性的,获取学习者的历史交互记录,记交互序列s∈S,在t时刻已发生的交互
表示为s=[R0,R1,…,Rt],其中每个交互记录了学习者进行答题时的练习编号及学习者是否
作答正确,即,,,,其中表示时刻的交互,表示所交互的练习,表示所交
互的练习对应的知识点,表示学生的作答情况,包括作答正确和作答错误。知识追踪的
目标是给定s及下一时刻的练习,预测学生的作答情况。
步骤S112,基于所述模型输入,从练习、知识点以及作答情况三个维度进行嵌入,确定所述嵌入矩阵。
在本实施例中,基于模型输入,即交互序列,从练习、知识点以及作答情况三个维度进行嵌入,得到对应的嵌入矩阵,然后确定练习表征、知识点表征,并且设定可训练的参数矩阵用以表示练习的特异性敏感程度。
可选地,步骤S112包括:
步骤S1121,基于练习数量以及预设嵌入维度,确定练习嵌入矩阵以及练习表征;
步骤S1122,基于知识点数量以及所述预设嵌入维度,确定知识点嵌入矩阵以及知识点表征;
步骤S1123,基于所述预设嵌入维度以及所述作答结果映射的数值,确定作答情况嵌入矩阵。
在本实施例中,预设嵌入维度是预先确定的数值,其针对练习、知识点以及作答结果三者,可以是相同的值,也可以是不同的值。
作为一种可选实施方式,基于练习数量和预设嵌入维度确定练习嵌入矩阵,假设有N个不同的练习,每个练习用一个独立编码向量表示。设定预设的练习嵌入维度为d。随机初始化一个形状为(N,d)的练习嵌入矩阵E_exercise,每行代表一个练习的嵌入向量,即练习表征。基于知识点数量和预设嵌入维度确定知识点嵌入矩阵,假设有M个不同的知识点,每个知识点用一个独立编码向量表示。设定预设的知识点嵌入维度为d。随机初始化一个形状为(M,d)的知识点嵌入矩阵E_concept,每行代表一个知识点的嵌入向量,即知识点表征。基于预设嵌入维度和作答结果映射的数值确定作答情况嵌入矩阵,设定预设的作答情况嵌入维度为d。根据预设的作答结果映射,将作答情况映射为连续值(如0表示错误,1表示正确)。随机初始化一个形状为(2,d)的作答情况嵌入矩阵E_response,其中第一行对应错误的嵌入向量,第二行对应正确的嵌入向量。
示例性的,对所有练习进行嵌入,得到嵌入矩阵,学习者在时刻所回答
的练习的表征,即练习表征为,其中,为练习的总个数,d表示嵌入维度;对所有
知识点进行嵌入,得到嵌入矩阵,学习者在时刻涉及的知识点的表征,即知识点
表征为,其中,为知识点的总个数,d表示嵌入维度;对作答情况进行嵌入,由于作
答情况只存在“对”或“错”两种情况,因此嵌入矩阵。
可选地,步骤S1123之后,还包括:
步骤S1124,设定可训练的参数矩阵用以表示练习的特异性敏感程度
步骤S120,基于GRU单元确定所述历史交互记录对应的知识状态特征以及练习特征。
在本实施例中,以基于第一GRU单元构建的序列特征提取器作为知识状态特征提取器,以基于第二GRU单元以及多层感知机作为练习特征提取器。根据知识状态特征提取器确定历史交互记录对应的知识状态特征;根据练习特征提取器,确定练习特征。
步骤S130,根据所述知识状态特征以及所述练习特征确定作答预测结果。
在本实施例中,根据知识状态特征以及练习特征作为预测模型的参数,构造下一时刻的练习,即目标练习,进而根据预测模型确定目标练习对应的作答预测结果。
在本实施例中,数据预处理:从历史交互记录中提取每个交互的练习标识、知识点标识和作答情况,构建模型输入数据。对提取的数据进行编码和嵌入处理,转换为适合神经网络输入的格式。模型架构设计:设计基于GRU的模型架构,包括输入层、GRU层、全连接层等。输入层接收经过编码和嵌入的历史交互记录数据,传递给GRU层。GRU层用于捕捉历史交互记录中的序列信息,输出知识状态特征和练习特征。将GRU层的输出连接到全连接层,用于预测学生在特定问题下的作答情况。模型训练与优化:划分训练集、验证集和测试集,进行模型训练与优化。使用适当的损失函数(如交叉熵损失)和优化算法(如Adam优化器)来最小化预测误差。调整超参数,如GRU层的隐藏单元数量、批处理大小等,以提高模型性能。
参照图2,本申请主体流程为根据学生的交互记录,即历史交互记录,来构建模型的输入和标签;其次,对知识点、练习以及学生作答情况进行嵌入;然后,构建基于GRU的知识状态特征提取器;然后,构建基于GRU的练习特征提取器;最后,基于知识状态特征和练习表征预测学生下一个时间步的表现,即预测的作答结果。
由于采用了基于预设数据结构以及历史交互记录,确定所述历史交互记录对应的嵌入矩阵,以实现对所述历史交互记录进行嵌入;基于GRU单元确定所述历史交互记录对应的知识状态特征以及练习特征;根据所述知识状态特征以及所述练习特征确定作答预测结果,所以,有效解决了相关技术破坏了交互编码的底层语义信息,又降低了序列信息带来的收益,导致学生作答预测的精度差的技术问题,实现了准确预测学习者作答结果的技术效果。
基于实施例一,本申请实施例二提出一种基于GRU捕捉问题上下文特征的知识追踪方法,步骤S120包括:
步骤S210,基于第一GRU单元构建的序列特征提取器,确定所述历史交互记录对应的所述知识状态特征;
步骤S220,基于第二GRU单元以及多层感知机,确定所述历史交互记录对应的所述练习特征。
在本实施例中,基于第一GRU单元构建的序列特征提取器,确定历史交互记录对应的知识状态特征,其输入数据为历史交互记录序列,每个时间步包含学生的作答信息和所涉及的知识点。定义一个包含至少一个GRU单元的序列特征提取器,用于学习并提取历史交互记录的知识状态特征。输入序列特征提取器的每个时间步为一个作答历史记录,包含了学生的作答信息和相应的知识点。通过序列特征提取器,对历史交互记录进行序列建模,学习不同时间步之间的知识状态特征,得到最终的知识状态特征向量。基于第二GRU单元以及多层感知机,确定历史交互记录对应的练习特征,其输入数据为历史交互记录序列,每个时间步包含学生的作答情况和所练习的内容。定义一个包含一个GRU单元和多层感知机的结构,用于学习并提取历史交互记录的练习特征。输入GRU单元的每个时间步为一个作答历史记录,包含了学生的作答信息和所练习的内容。通过GRU单元,对历史交互记录进行序列建模,学习不同时间步之间的练习特征。最后,将学习到的练习特征通过多层感知机进行进一步处理,以提取更高层次的表示,得到最终的练习特征向量。
可选地,步骤S210包括:
步骤S211,确定所述历史交互记录中,每个交互时刻对应的知识点及作答情况表征,所述知识点及作答情况表征由前述嵌入阶段确定的练习表征、知识点表征以及作答情况表征确定;
步骤S212,基于所述第一GRU单元构造所述序列特征提取器;
步骤S213,以所述知识点及作答情况表征作为所述序列特征提取器的输入,确定所述知识状态特征。
在本实施例中,确定每个交互时刻对应的知识点及作答情况表征,在这一步中,确定每个历史交互记录中的每个交互时刻对应的知识点及作答情况表征,该知识点及作答情况表征由前述嵌入阶段确定的知识点表征和作答情况表征确定。具体的可选实施方式如下:知识点表征:将每个涉及的知识点转换为一个固定长度的向量表示,同样可以使用词嵌入等技术进行表示。作答情况表征:针对每个学生的作答情况,可以将正确的作答标记为1,错误的作答标记为0,构建一个二元向量作为作答情况的表征。然后基于第一GRU单元构造用于提取序列特征的模型。GRU是一种递归神经网络结构,可以用于序列建模和特征提取。构建一个包含一个GRU单元的模型,作为序列特征提取器。输入历史交互记录中每个交互时刻的知识点及作答情况表征,作为GRU单元的输入序列。通过GRU单元对知识点及作答情况表征序列进行序列建模,学习序列中不同时间步的交互特征。
以知识点及作答情况表征作为序列特征提取器的输入,确定知识状态特征,使用知识点及作答情况表征作为序列特征提取器的输入,通过序列特征提取器确定知识状态特征。将每个交互时刻对应的知识点及作答情况表征输入到已构建的序列特征提取器中。序列特征提取器将学习历史交互记录中的交互特征,包括练习表征、知识点表征和作答情况表征。最终得到的知识状态特征可以是序列特征提取器在历史交互记录中学习到的关于学生知识状态的表示,可以用于后续的知识状态预测或相关任务。
可选地,步骤S213包括:
步骤S2131,将所述知识点及作答情况表征作为所述序列特征提取器的输入,确定序列输出结果;
步骤S2132,基于多层感知机对所述序列输出结果进行特征转换,确定每个所述交互时刻对应的所述知识状态特征。
作为一种可选实施方式,将知识点及作答情况表征作为序列特征提取器的输入,经过序列特征提取器处理后得到一个序列输出结果。序列输出结果可以是每个交互时刻的隐藏状态或者输出状态,用于表示学生在历史交互中的学习状态或行为。基于多层感知机进行特征转换,使用多层感知机对序列输出结果进行特征转换,以确定每个交互时刻对应的知识状态特征。构建一个包含多个隐藏层的多层感知机模型,用于对序列输出结果进行特征转换。将序列输出结果作为多层感知机的输入,通过多个隐藏层的非线性变换得到新的特征表示。最终得到的输出结果可以表示每个交互时刻对应的知识状态特征,用于后续的知识状态预测或其他相关任务。
示例性的,获取时刻发生交互的知识点及作答情况表征;其中,
表示/>时刻的作答情况,/>表示/>时刻的知识点嵌入,/>表示/>时刻的作答情况嵌入。
使用GRU作为序列特征提取器;使用作为GRU的输入,再使用多层感知机
进行特征转换。最终,得到每个时间步的输出,其包含了时间内的序列信息,用以表示
知识状态特征。
不使用的嵌入参与表征时刻发生交互,原因是,从认知的角度考虑,不使用是因为学习者的知识主要以知识点为框架进行建构,学习者在学习过程中主要是对知识
点进行了解和掌握,而不是对某个练习进行记忆。而从数据的角度考虑,练习的数量通常大
于知识点的数量,即,同一知识点在序列中通常出现多次,而一个练习被学生完成后
就不再出现了,因此序列的稀疏性远大于,如果中融入,
则高稀疏性可能会增加学习难度,影响表征效果。
进一步地,GRU的结构与人类记忆类似,每次交互发生后,更新知识状态,并重新整理知识结构。GRU的计算流程即:
其中,和分别为更新门和重置门实现更新操作和重置操作的权重。是GRU的
输入,是GRU的输出,表示函数,表示sigmoid函数,其中,、、是神经网
络权重。
使用作为GRU的输入,再使用多层感知机进行特征转换,增强模型的非
线性处理能力,即:
其中,,、、,均为神经网络参数。则表示GELU non-
linearity。最终,每个时间步,即每个交互时刻的输出包含了时间内的序列信息,用
以表示知识状态特征。
可选地,步骤S220包括:
步骤S221,确定所述历史交互记录对应的练习表征;
步骤S222,基于所述第二GRU单元以及所述多层感知机,组合提取所述练习表征对应的练习序列特征;
步骤S223,基于所述练习序列特征构建特异性向量;
步骤S224,基于预设的超参数控制所述特异性向量与知识点嵌入向量之间的占比,确定所述练习特征。
在本实施例中,从历史交互记录中提取学生在每个交互时刻的相关数据,作为练习表征。通过RNN或GRU等来对历史交互记录进行序列建模,得到学生的练习表征序列。组合提取练习表征对应的练习序列特征,基于第二个GRU单元和多层感知机,组合提取练习表征对应的练习序列特征。将练习表征序列作为第二个GRU单元的输入,经过GRU单元处理后得到一个隐藏状态序列。将隐藏状态序列作为多层感知机的输入,通过多层的非线性转换来提取练习序列特征。
构建特异性向量,在这一步中,我们基于练习序列特征构建特异性向量。特异性向量可以用来表示每个学生的特定知识点或技能的水平。将练习序列特征进行加权平均或其他组合操作,得到特异性向量。特异性向量可以包含学生对不同知识点或技能的掌握程度,以便更好地个性化学习。
基于预设的超参数控制特异性向量与知识点嵌入向量之间的比例,从而确定最终的练习特征。利用预设的超参数控制特异性向量与知识点嵌入向量之间的权重比例。将特异性向量与知识点嵌入向量按比例相加或组合,得到最终的练习特征。
示例性的,使用另一个GRU单元和多层感知机的组合提取练习序列的
特征,即练习序列特征,其中练习序列为练习表征中的一行或者一列,以该特征作为练习在
知识点上的特异性向量,捕捉习题的上下文关系以体现练习的特异性。设置超参数控
制特异性向量与知识点嵌入向量间的占比,得到练习特征。
进一步地,使用另一个GRU单元和多层感知机的组合提取练习序列的
特征,以该特征作为练习在知识点上的特异性向量,该向量是练习关于知识点的偏移向
量,表示习题的特异性,因此称之为特异性向量,从而捕捉习题的上下文关系以体现练习的
特异性。即:
然后设置超参数控制特异性向量与知识点嵌入向量间的占比,即
其中,表示练习对特异性的敏感程度,数值越大,考虑上下文关系越多。
并且初始化为全0矩阵,从而实现低频练习的高质量表达,提高模型的鲁棒性。
基于实施例一,本申请实施例三提出一种基于GRU捕捉问题上下文特征的知识追踪方法,步骤S130包括:
步骤S310,基于所述知识状态特征以及所述练习特征拼接知识状态以及下一交互时刻对应的目标练习;
步骤S320,基于多层感知机以及预设函数,确定所述目标练习对应的作答预测结果。
作为一种可选实施方式,基于知识状态特征及练习特征,将知识状态以及下一交互时刻对应的目标练习进行拼接。这个拼接操作可以帮助我们将学生的知识状态信息与目标练习信息结合起来,以更好地预测学生的作答结果。将知识状态特征和练习特征进行拼接,形成一个特征向量。将目标练习信息加入特征向量中,形成一个更加综合的表示。然后确定作答预测结果,基于多层感知机及预设函数,确定目标练习对应的作答预测结果。多层感知机可以用来对输入数据进行非线性映射,从而得到更好的预测结果。将拼接后的特征向量作为多层感知机的输入。多层感知机可以包括多个隐藏层,每一层都经过非线性激活函数的处理,最后输出预测结果。
示例性的,预测层拼接知识状态与要预测的下一时间步问题并使用多层感
知机与sigmoid函数进行结果预测。
仅以预测下一时间步交互的表现作为训练目标,不引入额外的训练目标及正则项,使用二分类交叉熵损失作为损失函数,使用Adam优化器进行优化,训练目标为最小化Loss。
在本实施例中,预测学生在下一个时间步的表现,计算损失优化模型,首先,预测
层拼接知识状态与要预测的下一时间步问题并使用多层感知机与sigmoid函数进行
结果预测,即
其中,表示向量拼接操作。
仅以预测下一时间步交互的表现作为训练目标,不引入额外的训练目标及正则项,使用二分类交叉熵损失作为损失函数,即
其中,为学生进行交互时的真实标签,使用Adam优化器进行优化,训练目标为最
小化Loss。
进一步地,为了验证本发明的效果,使用PyTorch 1.10版本,并在4张NVIDIA A100Tensor Core GPU 上进行了实验。通用的超参数的选择如下:批量大小取值为{64,128},学习率取值为{1e-3, 1e-4},嵌入维度取值为{64,128,256},dropout取值为{0.1,0.2,0.3,0.4,0.5}。数据预处理采用PYKT所提供的标准处理方式:首先,过滤各原始数据集中存在缺失或交互长度小于3的序列;然后,以最大序列长度为200对交互进行截断处理;最后,抽取20%的交互作为测试集,在剩下的交互中平均分成5份,4份作为训练集,1份作为测试集。在PYKT平台下使用所述方法实现了Pytorch模型,使用wandb进行超参数调优后按照标准的五折交叉程序进行了实验。实验结果如表1和表2所示,其中表1呈现了ASSISTments2009(简称AS2009)、Algebra2005(简称AL2005)、NIPS34、Statics2011、ASSISTments2015(简称AS2015)数据集下Question Level和KC Level的AUC指标的结果。其中,“-”表示原始文献中未报告其结果。
表1:5个不同数据集下所述方法与其他基线模型的AUC指标性能表现。
表1的数据显示,与所有基线模型相比,所述方法在AS2009、AL2005和AS2015数据集中取得了最好的效果,在NIPS34、Statics2011数据集中也获得了极具竞争力的表现。具体来说,在Question Level的评估方式下,所述方法在AS2009、AL2005和NIPS34数据集中AUC指标分别取得了0.7874,0.8312和0.8012的性能表现,相较于DKT模型,分别提升了3.33%,1.63%和3.23%。在KC Level的评估方式下,所述方法在AS2009的AL2005数据集中AUC指标分别取得了0.7704,0.8249的优异表现,显著优于位于第二名的AKT模型,分别提升了0.54%,1.58%。尽管在NIPS34数据集上,未能取得最优表现,但与DKT相比仍有3.22%的提升。造成这种现象可能的原因是,NIPS34数据集中平均每个问题与1.0148个知识点相关联,较低的关联度导致了性能的下降。而在仅具有知识点或问题的Statics2011和AS2015数据集中,AUC指标取得了0.8245和0.7287的性能表现,优于大多数基线模型。
本申请还提出一种基于GRU捕捉问题上下文特征的知识追踪设备,参照图4,图4为本申请实施例方案涉及的硬件运行环境的基于GRU捕捉问题上下文特征的知识追踪设备结构示意图。
如图4所示,该基于GRU捕捉问题上下文特征的知识追踪设备可以包括:处理器1001,例如中央处理器(Central Processing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(WIreless-FIdelity,WI-FI)接口)。存储器1005可以是高速的随机存取存储器(Random Access Memory,RAM)存储器,也可以是稳定的非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图4中示出的结构并不构成对基于GRU捕捉问题上下文特征的知识追踪设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
可选地,存储器1005与处理器1001电性连接,处理器1001可用于控制存储器1005的运行,还可以读取存储器1005中的数据以实现基于GRU捕捉问题上下文特征的知识追踪。
可选地,如图4所示,作为一种存储介质的存储器1005中可以包括操作系统、数据存储模块、网络通信模块、用户接口模块以及基于GRU捕捉问题上下文特征的知识追踪程序。
可选地,在图4所示的基于GRU捕捉问题上下文特征的知识追踪设备中,网络接口1004主要用于与其他设备进行数据通信;用户接口1003主要用于与用户进行数据交互;本申请基于GRU捕捉问题上下文特征的知识追踪设备中的处理器1001、存储器1005可以设置在基于GRU捕捉问题上下文特征的知识追踪设备中。
如图4所示,所述基于GRU捕捉问题上下文特征的知识追踪设备通过处理器1001调用存储器1005中存储的基于GRU捕捉问题上下文特征的知识追踪程序,并执行本申请实施例提供的基于GRU捕捉问题上下文特征的知识追踪方法的相关步骤操作:
基于预设数据结构以及历史交互记录,确定所述历史交互记录对应的嵌入矩阵,以实现对所述历史交互记录进行嵌入;
基于GRU单元确定所述历史交互记录对应的知识状态特征以及练习特征;
根据所述知识状态特征以及所述练习特征确定作答预测结果。
可选地,处理器1001可以调用存储器1005中存储的基于GRU捕捉问题上下文特征的知识追踪程序,还执行以下操作:
基于所述预设数据结构提取所述历史交互记录中的字段,确定模型输入,其中所述模型输入包括每个交互标识对应的练习标识、知识点标识以及作答情况;
基于所述模型输入,从练习、知识点以及作答情况三个维度进行嵌入,确定所述嵌入矩阵。
可选地,处理器1001可以调用存储器1005中存储的基于GRU捕捉问题上下文特征的知识追踪程序,还执行以下操作:
基于练习数量以及预设嵌入维度,确定练习嵌入矩阵以及练习表征;
基于知识点数量以及所述预设嵌入维度,确定知识点嵌入矩阵以及知识点表征;
基于所述预设嵌入维度以及所述作答结果映射的数值,确定作答情况嵌入矩阵。
可选地,处理器1001可以调用存储器1005中存储的基于GRU捕捉问题上下文特征的知识追踪程序,还执行以下操作:
基于第一GRU单元构建的序列特征提取器,确定所述历史交互记录对应的所述知识状态特征;
基于第二GRU单元以及多层感知机,确定所述历史交互记录对应的所述练习特征。
可选地,处理器1001可以调用存储器1005中存储的基于GRU捕捉问题上下文特征的知识追踪程序,还执行以下操作:
确定所述历史交互记录中,每个交互时刻对应的练习表征;
基于所述第一GRU单元构造所述序列特征提取器;
以所述知识点及作答情况表征作为所述序列特征提取器的输入,确定所述知识状态特征。
可选地,处理器1001可以调用存储器1005中存储的基于GRU捕捉问题上下文特征的知识追踪程序,还执行以下操作:
将所述练习表征作为所述序列特征提取器的输入,确定序列输出结果;
基于多层感知机对所述序列输出结果进行特征转换,确定每个所述交互时刻对应的所述知识状态特征。
可选地,处理器1001可以调用存储器1005中存储的基于GRU捕捉问题上下文特征的知识追踪程序,还执行以下操作:
确定所述历史交互记录对应的练习表征;
基于所述第二GRU单元以及所述多层感知机,组合提取所述练习表征对应的练习序列特征;
基于所述练习序列特征构建特异性向量;
基于预设的超参数控制所述特异性向量与知识点嵌入向量之间的占比,确定所述练习特征。
可选地,处理器1001可以调用存储器1005中存储的基于GRU捕捉问题上下文特征的知识追踪程序,还执行以下操作:
基于所述知识状态特征以及所述练习特征拼接知识状态以及下一交互时刻对应的目标练习;
基于多层感知机以及预设函数,确定所述目标练习对应的作答预测结果。
此外,本申请实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有基于GRU捕捉问题上下文特征的知识追踪程序,所述基于GRU捕捉问题上下文特征的知识追踪程序被处理器执行时实现如上所述的基于GRU捕捉问题上下文特征的知识追踪方法任一实施例的相关步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例,或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框,以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本申请可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二,以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (8)
1.一种基于GRU捕捉问题上下文特征的知识追踪方法,其特征在于,所述基于GRU捕捉问题上下文特征的知识追踪方法包括:
基于预设数据结构以及历史交互记录,确定所述历史交互记录对应的嵌入矩阵,以实现对所述历史交互记录进行嵌入;
基于GRU单元确定所述历史交互记录对应的知识状态特征以及练习特征;
根据所述知识状态特征以及所述练习特征确定作答预测结果;
所述基于GRU单元确定所述历史交互记录对应的知识状态特征以及练习特征的步骤包括:
基于第一GRU单元构建的序列特征提取器,确定所述历史交互记录对应的所述知识状态特征;
基于第二GRU单元以及多层感知机,确定所述历史交互记录对应的所述练习特征;
所述基于第二GRU单元以及多层感知机,确定所述历史交互记录对应的所述练习特征的步骤包括:
确定所述历史交互记录对应的练习表征;
基于所述第二GRU单元以及所述多层感知机,组合提取所述练习表征对应的练习序列特征;
基于所述练习序列特征构建特异性向量;
基于预设的超参数控制所述特异性向量与知识点嵌入向量之间的占比,确定所述练习特征。
2.如权利要求1所述的基于GRU捕捉问题上下文特征的知识追踪方法,其特征在于,所述基于预设数据结构以及历史交互记录,确定所述历史交互记录对应的嵌入矩阵的步骤包括:
基于所述预设数据结构提取所述历史交互记录中的字段,确定模型输入,其中所述模型输入包括每个交互标识对应的练习标识、知识点标识以及作答情况;
基于所述模型输入,从练习、知识点以及作答情况三个维度进行嵌入,确定所述嵌入矩阵。
3.如权利要求2所述的基于GRU捕捉问题上下文特征的知识追踪方法,其特征在于,所述基于所述模型输入,从练习、知识点以及作答情况三个维度进行嵌入,确定所述嵌入矩阵的步骤包括:
基于练习数量以及预设嵌入维度,确定练习嵌入矩阵以及练习表征;
基于知识点数量以及所述预设嵌入维度,确定知识点嵌入矩阵以及知识点表征;
基于所述预设嵌入维度以及所述作答结果映射的数值,确定作答情况嵌入矩阵。
4.如权利要求1所述的基于GRU捕捉问题上下文特征的知识追踪方法,其特征在于,所述基于第一GRU单元构建的序列特征提取器,确定所述历史交互记录对应的所述知识状态特征的步骤包括:
确定所述历史交互记录中,每个交互时刻对应的知识点及作答情况表征;
基于所述第一GRU单元构造所述序列特征提取器;
以所述知识点及作答情况表征作为所述序列特征提取器的输入,确定所述知识状态特征。
5.如权利要求4所述的基于GRU捕捉问题上下文特征的知识追踪方法,其特征在于,所述以所述知识点及作答情况表征作为所述序列特征提取器的输入,确定所述知识状态特征的步骤包括:
将所述知识点及作答情况表征作为所述序列特征提取器的输入,确定序列输出结果;
基于多层感知机对所述序列输出结果进行特征转换,确定每个所述交互时刻对应的所述知识状态特征。
6.如权利要求1所述的基于GRU捕捉问题上下文特征的知识追踪方法,其特征在于,所述根据所述知识状态特征以及所述练习特征确定作答预测结果的步骤包括:
基于所述知识状态特征以及所述练习特征拼接知识状态以及下一交互时刻对应的目标练习;
基于多层感知机以及预设函数,确定所述目标练习对应的作答预测结果。
7.一种基于GRU捕捉问题上下文特征的知识追踪设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的基于GRU捕捉问题上下文特征的知识追踪程序,所述处理器执行所述基于GRU捕捉问题上下文特征的知识追踪程序时实现如权利要求1至6任一项所述的基于GRU捕捉问题上下文特征的知识追踪方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有基于GRU捕捉问题上下文特征的知识追踪程序,所述基于GRU捕捉问题上下文特征的知识追踪程序被处理器执行时实现如权利要求1至6任一项所述的基于GRU捕捉问题上下文特征的知识追踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410389791.5A CN117973527B (zh) | 2024-04-02 | 2024-04-02 | 一种基于gru捕捉问题上下文特征的知识追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410389791.5A CN117973527B (zh) | 2024-04-02 | 2024-04-02 | 一种基于gru捕捉问题上下文特征的知识追踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117973527A CN117973527A (zh) | 2024-05-03 |
CN117973527B true CN117973527B (zh) | 2024-06-07 |
Family
ID=90848276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410389791.5A Active CN117973527B (zh) | 2024-04-02 | 2024-04-02 | 一种基于gru捕捉问题上下文特征的知识追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117973527B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344054A (zh) * | 2021-05-29 | 2021-09-03 | 华中师范大学 | 一种面向时空演变的知识技能动态诊断方法 |
CN113360635A (zh) * | 2021-06-25 | 2021-09-07 | 中国科学技术大学 | 一种基于自注意和预训练机制的智能教学方法及系统 |
CN113724110A (zh) * | 2021-08-27 | 2021-11-30 | 中国海洋大学 | 一种可解释的深度知识追踪方法、系统及其应用 |
CN114676903A (zh) * | 2022-03-21 | 2022-06-28 | 中国科学技术大学 | 一种基于时间感知和认知诊断的在线预测方法及系统 |
WO2022217294A1 (en) * | 2021-04-09 | 2022-10-13 | Qualcomm Incorporated | Personalized biometric anti-spoofing protection using machine learning and enrollment data |
CN117077737A (zh) * | 2023-08-22 | 2023-11-17 | 长江大学 | 一种知识点动态协同的知识追踪系统 |
CN117473041A (zh) * | 2023-08-30 | 2024-01-30 | 华中师范大学 | 一种基于认知策略的编程知识追踪方法 |
-
2024
- 2024-04-02 CN CN202410389791.5A patent/CN117973527B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022217294A1 (en) * | 2021-04-09 | 2022-10-13 | Qualcomm Incorporated | Personalized biometric anti-spoofing protection using machine learning and enrollment data |
CN113344054A (zh) * | 2021-05-29 | 2021-09-03 | 华中师范大学 | 一种面向时空演变的知识技能动态诊断方法 |
CN113360635A (zh) * | 2021-06-25 | 2021-09-07 | 中国科学技术大学 | 一种基于自注意和预训练机制的智能教学方法及系统 |
CN113724110A (zh) * | 2021-08-27 | 2021-11-30 | 中国海洋大学 | 一种可解释的深度知识追踪方法、系统及其应用 |
CN114676903A (zh) * | 2022-03-21 | 2022-06-28 | 中国科学技术大学 | 一种基于时间感知和认知诊断的在线预测方法及系统 |
CN117077737A (zh) * | 2023-08-22 | 2023-11-17 | 长江大学 | 一种知识点动态协同的知识追踪系统 |
CN117473041A (zh) * | 2023-08-30 | 2024-01-30 | 华中师范大学 | 一种基于认知策略的编程知识追踪方法 |
Non-Patent Citations (3)
Title |
---|
Modeling Student Performance using Feature Crosses Information for Knowledge Tracing;Lixiang Xu 等;《JOURNAL OF LATE X CLASS FILES》;20240322;第14卷(第8期);1-14 * |
序列特征与学习过程融合的知识追踪模型;李子杰 等;《计算机工程》;20231130;1-14 * |
时空相关性融合表征的知识追踪模型;张凯 等;《计算机应用研究》;20231204;第41卷(第5期);1-9 * |
Also Published As
Publication number | Publication date |
---|---|
CN117973527A (zh) | 2024-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111695779B (zh) | 一种知识追踪方法、装置及存储介质 | |
CN109800294B (zh) | 基于物理环境博弈的自主进化智能对话方法、系统、装置 | |
CN110188272A (zh) | 一种基于用户背景的社区问答网站标签推荐方法 | |
CN111159419B (zh) | 基于图卷积的知识追踪数据处理方法、系统和存储介质 | |
CN113724110A (zh) | 一种可解释的深度知识追踪方法、系统及其应用 | |
CN117540104B (zh) | 一种基于图神经网络的学习群体差异评价方法与系统 | |
KR102427390B1 (ko) | 헬스케어 서비스 제공방법, 서버 및 컴퓨터 프로그램 | |
CN107544960A (zh) | 一种基于变量绑定和关系激活的推理方法 | |
CN114021722A (zh) | 一种融合认知刻画的注意力知识追踪方法 | |
CN117473041A (zh) | 一种基于认知策略的编程知识追踪方法 | |
CN114648032A (zh) | 语义理解模型的训练方法、装置和计算机设备 | |
CN112541579B (zh) | 模型训练方法、贫困程度信息识别方法、装置和存储介质 | |
CN117973527B (zh) | 一种基于gru捕捉问题上下文特征的知识追踪方法 | |
CN115936073A (zh) | 一种语言导向卷积神经网络及视觉问答方法 | |
CN112785039B (zh) | 一种试题作答得分率的预测方法及相关装置 | |
CN114971972A (zh) | 融合遗忘因素和习题难度的深度知识追踪方法及智能终端 | |
CN114021721A (zh) | 一种基于学习过程片段的时空注意力知识追踪方法 | |
CN114358135A (zh) | 一种利用数据增强和特征加权实现的mooc辍学预测方法 | |
CN115617959A (zh) | 问题解答方法及装置 | |
Xiao | Construction of a mathematical model based on a genetic algorithm for an aptitude program in high school student optimization | |
CN117992924B (zh) | 一种基于HyperMixer的知识追踪方法 | |
CN117131930A (zh) | 基于一维残差卷积自编码的知识追踪方法及相关装置 | |
CN115952838B (zh) | 一种基于自适应学习推荐系统生成方法及系统 | |
CN118193999B (zh) | 一种基于大数据语义一致性的教育过程数据采集方法及系统 | |
CN113989080B (zh) | 基于深度知识-项目联合追踪的学习者画像方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |