CN115393132A - 基于知识追踪模型的预测方法及相关设备 - Google Patents
基于知识追踪模型的预测方法及相关设备 Download PDFInfo
- Publication number
- CN115393132A CN115393132A CN202210878527.9A CN202210878527A CN115393132A CN 115393132 A CN115393132 A CN 115393132A CN 202210878527 A CN202210878527 A CN 202210878527A CN 115393132 A CN115393132 A CN 115393132A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- question
- knowledge point
- information
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 93
- 230000015654 memory Effects 0.000 claims abstract description 58
- 238000004458 analytical method Methods 0.000 claims abstract description 53
- 238000012545 processing Methods 0.000 claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 claims abstract description 17
- 239000011159 matrix material Substances 0.000 claims description 73
- 230000006870 function Effects 0.000 claims description 50
- 210000002569 neuron Anatomy 0.000 claims description 35
- 238000013461 design Methods 0.000 claims description 25
- 238000004088 simulation Methods 0.000 claims description 23
- 230000003993 interaction Effects 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 210000004027 cell Anatomy 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 11
- 230000008447 perception Effects 0.000 claims description 10
- 230000008676 import Effects 0.000 claims description 7
- 238000006116 polymerization reaction Methods 0.000 claims description 7
- 239000000126 substance Substances 0.000 claims description 7
- 230000002776 aggregation Effects 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 208000025174 PANDAS Diseases 0.000 description 1
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Educational Administration (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Educational Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供一种基于知识追踪模型的预测方法,所述方法应用于知识追踪分析系统,所述方法包括:利用所述知识追踪分析系统对用户信息进行管理,并将当前时刻数据库中存储的第一题目信息导入所述系统,其中,所述第一题目信息包括当前时刻数据库中存储的答题记录的题目信息;将所述第一题目信息经过二分图预训练嵌入法PEBG和图卷积神经网络GCN处理得到问题嵌入,将所述问题嵌入输入长短期记忆网络LSTM模型进行预测处理,得到下一时刻的第二题目信息的正确率预测结果。
Description
技术领域
本公开涉及数据处理技术领域,尤其涉及一种基于知识追踪模型的预测方法及相关设备。
背景技术
随着时代的发展,线上教育的普及,对于教育质量的要求也越来越高,期望通过现有积累的海量在线教育数据,从中挖掘出可以提高在线教育质量的有用信息,对用户的学习状态进行判断。
因此,如何提高对用户学习状态判断的准确性,成为了一个重要的研究问题。
发明内容
有鉴于此,本公开的目的在于提出一种基于知识追踪模型的预测方法及相关设备用以解决或部分解决上述技术问题。
基于上述目的,本公开的第一方面提出了一种基于知识追踪模型的预测方法,所述方法应用于知识追踪分析系统,所述方法包括:
利用所述知识追踪分析系统对用户信息进行管理,并将当前时刻数据库中存储的第一题目信息导入所述系统,其中,所述第一题目信息包括当前时刻数据库中存储的答题记录的题目信息;
将所述第一题目信息经过二分图预训练嵌入法PEBG和图卷积神经网络GCN处理得到问题嵌入,将所述问题嵌入输入长短期记忆网络LSTM模型进行预测处理,得到下一时刻的第二题目信息的正确率预测结果。
基于同一个发明构思,本公开的第二方面提出了一种基于知识追踪模型的预测装置,包括:
题目信息导入模块,被配置为利用所述知识追踪分析系统对用户信息进行管理,并将当前时刻数据库中存储的第一题目信息导入所述系统,其中,所述第一题目信息包括当前时刻数据库中存储的答题记录的题目信息;
预测处理模块,被配置为将所述第一题目信息经过二分图预训练嵌入法PEBG和图卷积神经网络GCN处理得到问题嵌入,将所述问题嵌入输入长短期记忆网络LSTM模型进行预测处理,得到下一时刻的第二题目信息的正确率预测结果。
基于同一发明构思,本公开的第三方面提出了一种电子设备,包括存储器、处理器及存储在所述存储器上并可由所述处理器执行的计算机程序,所述处理器在执行所述计算机程序时实现如上所述的方法。
基于同一发明构思,本公开的第四方面还提出了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算机执行如上所述的方法。
从上面所述可以看出,本公开提供的基于知识追踪模型的预测方法,通过将当前时刻数据库中存储的第一题目信息导入所述系统,以便对题目信息进行处理;将所述第一题目信息经过二分图预训练嵌入法PEBG和图卷积神经网络GCN处理得到问题嵌入,将所述问题嵌入输入长短期记忆网络LSTM模型进行预测处理,得到下一时刻的第二题目信息的正确率预测结果,通过对做题记录中的题目信息进行预测处理,实现对下一时刻所述题目正确率的预测,根据得到的正确率预测结果可以确定用户的知识状态,依据用户的知识状态对用户进行相关知识点习题的推荐,可以依据用户的知识状态调整做题顺序,以此达到辅助学习的效果,构建知识图谱,明确题目间的联系。
附图说明
为了更清楚地说明本公开或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A为本公开实施例的基于知识追踪模型的预测方法的流程图;
图1B为本公开实施例的知识追踪分析系统的功能结构图;
图1C为本公开实施例的用户管理模块的示意图;
图1D为本公开实施例的分析模块的示意图;
图1E为本公开实施例的知识追踪分析系统的系统架构示意图;
图1F为本公开实施例的问题知识点的二部图;
图1G为本公开实施例的PEBG框架的示意图;
图1H为本公开实施例的GCN模型架构的示意图;
图1I为本公开实施例的知识追踪模型的示意图;
图2为本公开实施例的基于知识追踪模型的预测装置的流程图;
图3为本公开实施例的电子设备的结构示意图。
具体实施方式
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
需要说明的是,除非另外定义,本公开实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
如上所述,如何提高对用户学习状态判断的准确性,成为了一个重要的研究问题。
基于上述描述,如图1A所示,本实施例提出的基于知识追踪模型的预测方法,所述方法应用于知识追踪分析系统,所述方法包括:
步骤101,利用所述知识追踪分析系统对用户信息进行管理,并将当前时刻数据库中存储的第一题目信息导入所述系统,其中,所述第一题目信息包括当前时刻数据库中存储的答题记录的题目信息。
步骤102,将所述第一题目信息经过二分图预训练嵌入法PEBG和图卷积神经网络GCN处理得到问题嵌入,将所述问题嵌入输入长短期记忆网络LSTM模型进行预测处理,得到下一时刻的第二题目信息的正确率预测结果。
在上述方案中,通过将当前时刻数据库中存储的第一题目信息导入所述系统,以便对题目信息进行处理;将所述第一题目信息经过二分图预训练嵌入法PEBG和图卷积神经网络GCN处理得到问题嵌入,将所述问题嵌入输入长短期记忆网络LSTM模型进行预测处理,得到下一时刻的第二题目信息的正确率预测结果,通过对做题记录中的题目信息进行预测处理,实现对下一时刻所述题目正确率的预测,根据得到的正确率预测结果可以确定用户的知识状态,依据用户的知识状态对用户进行相关知识点习题的推荐,可以依据用户的知识状态调整做题顺序,以此达到辅助学习的效果,构建知识图谱,明确题目间的联系。
在一些实施例中,步骤102包括:
步骤1021,对所述第一题目信息涉及的问题信息和知识点信息通过二分图预训练嵌入法PEBG构建PEBG框架,依据所述PEBG框架对问题结点和知识点结点嵌入进行初始化,确定得到问题特征q1、知识点特征s1,依据所述第一题目信息的属性确定得到难度特征ft。
步骤1022,将包括所述问题特征q1和所述知识点特征s1的图数据输入图卷积神经网络GCN,经过至少一个隐藏层对结点特征进行更新,得到问题特征qt和知识点特征st。
步骤1023,依据所述PEBG框架对所述问题特征qt、所述知识点特征st和所述难度特征ft进行聚合处理,得到问题嵌入et。
步骤1024,将所述问题嵌入et输入长短期记忆网络LSTM模型,得到所述第二题目信息的正确率预测结果。
在上述方案中,通过PEBG框架和GCN模型对特征进行初始化、更新和聚合处理,得到问题嵌入et,可以提高数据的准确性,进而提高模型预测结果的准确性。
在一些实施例中,步骤1021包括:
步骤10211,对所述第一题目信息涉及的问题信息和知识点信息通过PEBG模型构建PEBG框架,其中,所述PEBG框架包括问题结点、知识点结点和结点关系,所述结点关系包括显式关系和隐式关系。
步骤10212,依据所述PEBG框架中的所述问题结点与所述知识点结点间的显式关系,以及所述问题结点间的隐式关系确定得到所述问题特征q1,依据所述问题结点与所述知识点结点间的显式关系,以及所述知识点结点间的隐式关系确定得到所述知识点特征s1。
步骤10213,所述第一题目信息的属性包括下列至少之一:题目类型、题目作答平均时长和题目平均准确率。
步骤10214,对所述题目类型进行one-hot编码,并结合所述题目作答平均时长和所述题目平均准确率,确定得到难度特征ft。
在上述方案中,通过PEBG框架根据结点间关系确定得到问题特征q1和知识点特征s1并进行初始化,根据题目属性通过编码得到难度特征ft,实现对第一题目信息特征的提取,通过问题和知识点及其之间的关系确定特征,提高对问题信息及问题与知识点之间关系的关注,提高特征表示的准确性,并且可以减少资源占用,提高信息的集中度。
在一些实施例中,步骤1022包括:
步骤10221,将所述图数据输入所述GCN,所述图数据中包括N个结点,其中,所述结点包括所述问题结点和所述知识点结点。
步骤10222,将所述N个结点对应的问题特征和知识点特征组成特征矩阵X;根据所述特征矩阵X得到所述特征矩阵X的N×N维邻接矩阵A,将图结构由所述邻接矩阵A表示。
步骤10223,将所述图结构输入所述GCN,根据所述图结构中所述问题结点和所述知识点结点的信息,经过至少一个隐藏层对所述特征矩阵X进行更新,得到特征矩阵H。
步骤10224,获取所述图结构经过所述GCN的最后一个隐藏层得到的特征矩阵H,通过激活函数将所述特征矩阵H进行计算,得到所述问题特征qt和所述知识点特征st。
在上述方案中,通过GCN模型对问题特征q1和知识点特征s1进行更新得到问题特征qt和知识点特征st,提高图数据特征提取的准确性,进一步提高预测结果的准确性。
在一些实施例中,步骤1023包括:
步骤10231,依据所述PEBG框架对所述问题特征qt、所述知识点特征st和所述难度特征ft构建一个PNN层,通过所述PNN层对所述问题特征qt、所述知识点特征st和所述难度特征ft进行聚合分类得到所述问题嵌入et。
步骤10232,依据所述问题特征qt和所述知识点特征st计算交叉熵得到交叉熵为其中,σ是非线性激活函数,Q是问题特征矩阵,S是知识点特征矩阵,通过计算交叉熵将所述问题特征和所述知识点特征之间的关系转换为概率。
步骤10233,依据所述交叉熵对所述问题结点与所述知识点结点间的损失进行计算,得到第一损失为 其中,rij为所述问题结点与所述知识点结点间邻接矩阵的值,rij∈{0,1},rij=1为问题i与知识点j存在边关系,rij=0为问题i与知识点j不存在边关系。
步骤10234,依据所述问题特征qt计算交叉熵得到交叉熵为其中,σ是非线性激活函数,Q是问题特征矩阵,依据所述交叉熵对所述问题结点间的损失进行计算,得到第二损失其中,为所述问题结点间邻接矩阵的值,为问题i与问题j存在边关系,为问题i与问题j不存在边关系。
步骤10235,依据所述知识点特征st计算交叉熵得到交叉熵为其中,σ是非线性激活函数,S是知识点特征矩阵,依据所述交叉熵对所述知识点结点间的损失进行计算,得到第三损失其中,为所述知识点结点间邻接矩阵的值,为知识点i与知识点j存在边关系,为知识点i与知识点j不存在边关系。
步骤10237,构建PEBG框架的前向传播,计算得到损失L=L1+L2+L3+L4。
在上述方案中,通过PEBG框架对问题特征qt、知识点特征st和难度特征ft进行聚合得到问题嵌入et,对特征进行聚合处理方便进一步输入LSTM模型对题目正确率进行预测,对PEBG框架数据处理过程中的损失进行计算,判断模型预测的准确程度,并根据损失进一步调整模型的参数。
在一些实施例中,步骤1024包括:
步骤10241,将所述问题嵌入et输入长短期记忆网络LSTM模型,其中,所述LSTM模型中包括:问题嵌入et,ht为时间步t的隐藏层神经元的隐藏状态,Ct为细胞状态,f为遗忘门,i为输入门,o为输出门。
步骤10242,通过所述LSTM模型对所述问题嵌入et进行预测处理,时间步t的遗忘门神经元ft为ft=σ(Ufht-1+Wfxt+bf),其中,σ是非线性激活函数,ht-1为时间步t-1的隐藏层神经元的隐藏状态,xt即为问题嵌入et,Uf、Wf和bf为遗忘门的神经元的参数,时间步t的输入门神经元it为it=σ(Uiht-1+Wixt+bi),其中,Ui、Wi和bi为输入门的神经元的参数,时间步t的记忆门神经元为其中,Ux、Wx和bx为记忆门的神经元的参数,时间步t的输出门神经元ot为ot=σ(Uoht+Woxt+bo),其中,Uo、Wo和bo为输出门的神经元的参数,时间步t的记忆细胞状态Ct为其中,C_(t-1)为时间步t-1的记忆细胞状态,时间步t的隐藏层神经元的隐藏状态ht为ht=tanh(Ct)*ot,时间步t的预测结果yt为yt=σ(Wyhht+by),其中,by为预测门的神经元的参数,输出得到所述第二题目信息的正确率预测结果yt。
在上述方案中,通过LSTM模型对题目正确率进行预测,LSTM模型通过增加了遗忘门f、输入门i、输出门o和细胞状态C,可以缓解梯度消失的问题,使得预测过程更符合真实的学习场景。
在一些实施例中,在步骤101之前,还包括:
所述知识追踪分析系统的系统架构包括下列至少之一:前端、展示层、应用层、服务层、数据库和运行环境。
所述展示层通过图表组件对所述题目正确率预测结果以图表形式表示,通过设计交互层进行前端和后端的报文转发和数据交换,并对后端设计结果类。
所述服务层对业务服务进行开发,并对训练好的模型提供服务接口。
所述应用层通过调用对应的所述服务接口实现所述应用层中对应的模块的功能,其中,所述应用层中包括下列至少之一:用户管理模块、分析管理模块和模型应用模块。
所述数据库采用关系型数据库,所述数据库包括:用户表和节点表,所述用户表中存储用户信息数据,用于用户的身份验证和权限管理;所述节点表中存储知识点信息,用于构建知识图谱;所述用户信息数据和所述第一题目信息以稀疏矩阵的形式进行存储。
在上述方案中,通过对知识追踪分析系统的架构进行设计,对前端、展示层、应用层、服务层、数据库和运行环境采用合适的设计方法进行设计架构,以便实现系统相应的功能。
在一些实施例中,在步骤101之前,还包括:
所述知识追踪分析系统包括下列至少之一:用户模块和分析模块,所述用户模块包括下列至少之一:用户信息管理模块和题目信息导入模块,所述分析模块包括下列至少之一:知识状态感知模块、习题模拟练习模块、习题推荐模块和知识图谱模块。
所述用户模块通过用户控制中心进行功能服务的设计,通过用户服务进行用户管理功能服务的设计,将用户进行登录的账号信息保存在时域中,通过所述时域设置拦截器,响应于确定所述时域为空,拦截器定向到登录或注册界面。
所述知识状态感知模块和所述习题模拟练习模块通过前端选择导入所述第一题目信息,将所述第一题目信息数据通过所述交互层传递给所述模型应用模块,所述模型应用模块调用对应的预测处理功能,对所述第一题目信息数据进行预测处理得到题目正确率预测结果,根据所述预测结果确定用户知识状态和习题模拟练习结果,将所述用户知识状态和所述习题模拟练习结果通过所述交互层发送至所述展示层,所述展示层将所述用户知识状态和所述习题模拟练习结果经过所述图表组件处理以图表形式展示。
所述习题推荐模块通过前端选择导入所述第一题目信息,将所述第一题目信息数据通过所述交互层传递给所述模型应用模块,所述模型应用模块调用习题推荐算法,所述第一题目信息经过所述习题推荐算法处理确定知识点集合,对与所述知识点集合相关性高的题目进行推荐,并通过所述模型应用模块对推荐题目进行预测处理得到推荐题目正确率预测结果,响应于确认所述推荐题目正确率预测结果大于预先设定的阈值,对与所述知识点集合相关性低的题目进行推荐。
所述知识图谱模块根据所述PEBG框架确定知识点间的关系,并经过所述图表组件处理后以图表形式展示,其中,知识点间的关系生成方法包括:静态生成方法和动态生成方法,其中,所述静态生成方法依据PEBG框架中问题和知识点间的二部图关系,响应于确认所述二部图关系中知识点结点之间存在一条步长为2的的路径,则所述知识点间存在关联,将所述知识点连接构建知识图谱,所述动态生成方法通过所述GCN对特征向量进行训练处理,通过训练处理得到点特征向量表示图的边向量,通过对所述边向量求平均值得到一个实数作为边权重,对所述边权重设立阈值进行特定边的删减,得到知识图谱。
在上述方案中,通过对知识追踪分析系统中各模块进行设计,通过对应的模块实现系统相应的功能,知识状态感知模块、习题模拟练习模块、习题推荐模块和知识图谱将预测结果进一步分析处理实现对应的功能。
在上述实施例中,通过将当前时刻数据库中存储的第一题目信息导入所述系统,以便对题目信息进行处理;将所述第一题目信息经过二分图预训练嵌入法PEBG和图卷积神经网络GCN处理得到问题嵌入,将所述问题嵌入输入长短期记忆网络LSTM模型进行预测处理,得到下一时刻的第二题目信息的正确率预测结果,通过对做题记录中的题目信息进行预测处理,实现对下一时刻所述题目正确率的预测,根据得到的正确率预测结果可以确定用户的知识状态,依据用户的知识状态对用户进行相关知识点习题的推荐,可以依据用户的知识状态调整做题顺序,以此达到辅助学习的效果,构建知识图谱,明确题目间的联系。
需要说明的是,本公开的实施例还可以以下方式进一步描述:
步骤1,需求分析及总体设计
如图1B所示,图1B为知识追踪分析系统的功能结构图,包括:用户模块和分析模块,其中,用户模块包括用户信息管理单元和训练题目信息导入单元;分析模块包括当前知识状态感知单元、习题模拟训练单元、习题推荐单元和学生知识图谱单元。
步骤1A,知识追踪分析系统在注册并登录后才可以使用系统功能,用户角色有用户和管理员两种,管理员继承于用户,拥有用户的所有功能,但只有管理员才有用户管理功能模块的权限。对于一个系统而言,授权和鉴权的功能至关重要,严格的权限设置才能保证系统的安全和稳定,也方便管理用户信息,以及对用户使用功能的正确划分,因此登录功能也必不可少,只有通过登录才能访问系统,保证数据的安全性。如图1C所示,图1C为用户管理模块的示意图,系统用户可以进行用户注册、用户登录和历史做题记录导入的操作,通过用户注册实现增加用户,用户登录可以进行查询用户;系统管理员除具备系统用户的以上功能外,还可以进行用户信息管理,用户信息管理可以实现增加用户、修改用户、删除用户和权限管理。
用户管理模块:用户管理的主要功能包括对用户的增删改查和权限的设置,权限设置关系到用户对系统功能的使用,系统设置两种权限:普通用户和管理员。普通用户拥有分析模块的所有功能权限,管理员身份则除此之外还拥有所有的用户管理功能,权限由管理员来进行分配,不同权限用户显示的前端界面不同。
用户管理模块的功能服务由类UserController提供,定义了增删改查和登录五种方法,其中增删改查四种方法可以通过委派给UserService类实现,UserService继承于IService基础类,UserMapper继承于BaseMapper类。
一个完备的系统还需要进行登录登出等身份校验的工作。用户登录前需要先注册,注册成功后会根据用户的权限展示给用户不同的权限界面。设计这个流程的主要目的是为了安全性和易管理。为了安全性,还需要使用sesssion来保存登录用户信息,通过session来设置拦截器,若session为空则表示没有用户登录,拦截器重定向到登录或注册界面。
步骤1B,如图1D所示,图1D为分析模块的示意图,分析模块包含了系统的主要功能,该模块提供的服务主要为当前知识状态感知、习题模拟练习、习题推荐和学生知识图谱展示。用户可以调用上述四个功能,知识状态感知和习题模拟都需要直接调用模型预测,习题推荐会通过题目筛选算法实现,知识图谱展示则是通过输入给模型的题集来构建对应的知识点结构图。
当前知识状态感知:通过训练好的模型和学习者的历史作答记录来分析学习者的知识状态,表示为学习者在当前状态下回答已作答过的问题的正确率。知识状态感知功能主要是通过前端选择做题记录,使用axios与flask的交互层进行交互传递参数给模型模块,模型模块接收到请求会根据请求和参数调用对应的服务,对应的服务由已训练好的模型提供,模型会学习返回对每道题的回答正确率的预测概率,这就是对学生当前学习状态的预测,学习结果再通过交互层传递回echarts组件,通过echarts图形渲染后展示。
习题模拟练习:用户使用人群不仅仅可以作为学生,也可以是老师或者教育研究员等角色,该功能主要是用于给使用者模拟学习者作答过程中的知识变化,即随着时间步的推进,每回答一个问题后该学习者的知识状态。习题模拟练习功能由前端输入做题顺序和对应答案,模拟学生做题过程,将做题记录通过交互层传递给模型应用,模型应用通过请求和参数来调用对应的接口服务,将学习后的预测信息返回给echarts组件,echarts保存所有的做题信息,并以折线图的形式展示学生的知识状态的变化。用户可以不断地往模型中加入做题信息模拟学生在不断练习中的知识状态的动态变化过程。因为考虑到随着学习者做题的不断增加,对往期的做过的题目的理解也会加深,因此需要将历史模拟的做题记录也保存下来,与新输入的做题记录拼接重新进入模型中学习,更新学习者的当前知识状态。
习题推荐:系统会从题库中选取能使得用户提高作答正确率最高的下一个问题。习题推荐是基于学习者已有的知识状态来给学习者推荐下一道题,习题推荐的主要目的是希望可以帮助学习者做到符合其当前学习状态的题目。比如学习者现在是高中一年级的知识点储备,推荐给他做超纲的题目显然是不合适的,需要的是尽可能的让学习者巩固当前学习到的知识点,而当学习者回答某类知识点题目的准确率达到某一阈值后,才会推荐其学习其他相关联的知识点。用户在前端先初始化学生的做题记录,这一步其实是初始化学生当前的学习状态,然后前端会向模型模块发送,后端接收到请求后会提取数据调用习题推荐算法,算法会根据模型学习的结果来推荐返回有效的习题推荐,然后展示在前端界面。
习题推荐算法会先根据输入的做题记录分析学生当前知识状态,构建学生的知识点集合,算法会优先推荐与知识点集合相关性高的题目,并通过模型预测学生答对这道题的概率,若学生答对这道题的概率大于某一给定阈值,说明其实学生已经掌握了该题相关的知识点即为无效推荐,可以推荐知识点集合中的其他题目,并且为了验证推荐题目的有效性会继续推荐相同类型的题目,若后续推荐题目的回答准确率有提升则说明推荐是有效的。
知识图谱:系统会根据学习者当前输入给模型的作答记录来生成对应的知识图谱,即学习者回答的问题相关的知识点结构图。知识图谱展示是通过echarts组件来构建的,每个问题都对应有一个或多个知识点,当学习者做到一个问题时,那么其知识图谱中就应该有这样一个知识点。已知问题和知识点间的关系,那么就可以构建出问题和知识点的二部图关系,再通过二部图来裁定知识点间的关系。
知识点关系构造方法包括:静态的生成方法:依据问题和知识点间的二部图关系,若存在一条步长为2的知识点节点的路径,则两个知识点间就存在关联,可连一条边,由此构建知识图谱;动态的生成方法:通过GCN训练过后的特征向量来构建,初始图像为完全图,通过训练后得到点特征向量来表示图的边向量比如通过做差或者内积等,通过边向量求均值得到一个实数可作为边权重,给边权重设立阈值来删减某些边,最终得到全部的知识图谱。
使用echarts的关系图组件来构建知识图谱,需要传入JSON格式数据:结点列表nodes和联接关系列表links。因此通过构建三个类来表示图关系:graph类,node类和link类。当图构建好后,还可以通过熟练度来控制结点的大小,熟练度可以根据学习者学习状态即对做题的准确度来衡量,例如可以通过计算对某个知识点相关问题的平均准确度来衡量对该知识点的掌握程度,由此即构建出学习者的知识图谱。
模型模块在python环境下运行,使用flask来发布接口,通过axios与flask构建的交互层可以实现数据的传输。通过设计几个特定的接口发布特定的模型应用服务。模型模块的三个接口应用分别应用于分析模块的四种功能,都会调用训练好的模型的train方法后封装实现特定的业务逻辑。
模型模块的三个接口具体如下:GetStuDK,前端发送请求携带学习者的做题记录或某一答题序列为参数,接收到请求后将做题记录封装好调用模型接口进行学习预测,并返回;GetGraph,前端发送请求携带问题编号作为参数,接收到请求后会根据问题编号将对应知识点编号返回;ProPreds,前端发送请求携带做题记录后答题序列,并执行习题推荐算法,返回推荐习题。
步骤2,如图1E所示,图1E为知识追踪分析系统的系统架构示意图采用前后端分离开发,前端使用Vue和Echarts开发,后端使用Springboot和Mybatis-plus开发,数据库为MySql关系数据库。应用层包含了所有的微服务应用,包括模型接口调用,服务层则继承了mybatis-plus中定义的基础服务类,并重写了其中某些方法。
步骤2A,服务层设计
基础的业务服务如特殊查询保存等可以通过继承mybatis-plus提供的基础服务类实现,使用springboot和mybatis可以不需要再写各种配置文件,只需要使用注解就可以进行快速开发。根据需求分析来对业务服务进行重写,提供给应用层接口。对于模型提供的服务,要预先将模型训练好,选取表现效果最佳的一次保存,并基于其来设计各种模型服务接口。
步骤2B,应用层设计
应用层通过应用服务接口暴露系统的全部功能,如用户管理、分析管理和模型接口。用户管理根据服务层提供的原子业务服务如用户校验,对用户增删改查的检验判断等业务逻辑实现复杂的用户管理功能。分析模块提供的功能需要调用模型提供的接口封装实现更复杂的功能模块。
步骤2C,交互层设计
交互层是连接前端和后端的工具,使用axios和flask进行前后端的报文转发和数据交换。
统一拦截器设计的功能具体如下:对请求报文,可以自请求发送前对请求做一些处理,比如对用户身份进行校验,设置访问表名单拦截非法的外部访问,统一加token对请求参数统一加密;对响应报文,对返回数据的数据进行格式校验用以兼容浏览器,还会验证token以及对错误的处理。
为此设计后端响应结果工具类的Result类,用于封装后端给前端的响应,统一格式,使用泛型作为数据类型,包含各种类型,同时允许自定义code和message,配合拦截器可以快速的响应成功或失败。
由于需要使用python环境下的模型算法,因此将模型提供的应用服务也发布成接口,使用axios与flask进行数据交换和前后端响应。
步骤2D,数据库设计
数据库使用MySql关系型数据库。数据库主要有两种表格,一个是user表,存储用户信息数据,主要用于用户的身份验证和权限管理;一个是node表,存储知识点信息,用于构建知识图谱。而由于问题数据庞大,对应的问题间关系、问题与知识点间关系、知识点与知识点间关系数据庞大且复杂以稀疏矩阵存储,再以.npz或.txt存储,在python环境下使用numpy或pandas都十分便于读取和处理,且这些数据在模型训练中也会使用到。
步骤3,模型算法设计及实现
步骤3A,长短期记忆网络LSTM模型
长短期记忆网络LSTM是RNN的一种复杂的变体,目的是为了缓解梯度消失的问题,也就是LSTM具有长期记忆。LSTM对RNN的改进主要在其对RNN神经元做两点改进,一是提出来门机制:遗忘门f、输入门i、输出门o,二是增加了细胞状态C。
最显著的,LSTM的神经元多了一条线关于细胞状态,可以将其理解成记忆细胞,记忆细胞保存着当前的记忆。下面给出LSTM的前向传播:
ft=σ(Ufht-1+Wfxt+bf)
it=σ(Uiht-1+Wixt+bi)
ot=σ(Uoht+Woxt+bo)
ht=tanh(Ct)*ot
yt=σ(Wyhht+by)
以下逐个解释三个门控单元的作用:遗忘门的作用就是对记忆细胞进行遗忘处理,将一些不重要的记忆清除;更新门的作用则是当遇到输入时,需要更新和输入相关的记忆,然后将生成的记忆与久的记忆Ct-1相加,即得到新的记忆Ct;输出门的作用即集合新的记忆Ct对当前输入的题目xt的作用,即得到新的隐藏层状态ht,将其通过一个全连接层即可以作为答题的准确率输出。
学习者的历史回答记录可以看成是时间序列上的任务,将其答题记录看成不同时间步下的输入,即可应用LSTM来完成知识追踪任务。其中输入xt={qt,at},qt是问题的特征向量,at∈{0,1}表示答对与否,输出yt即输出答题记录的预测。输入做题记录,然后根据做题记录构造每道题对应的交叉熵编码,然后输入到LSTM模型中,最后得到预测输出,即完成了知识追踪任务。
步骤3B,二分图预训练嵌入法PEBG模型
通常一个知识点对应多个问题,一个问题也考察多个知识点,那么可以将其表示成二部图的形式,其中顶点分别是知识点和问题。如图1F所示,图1F为问题知识点的二部图,这种实线关系即为问题与知识点之间的关系。但还有两类虚线相连的关系,一类是知识点间的关系,一类是问题间关系,IKT模型这种实线表示的关系称为显式关系,将虚线表示的关系称为隐式关系,IKT模型由此提出了一种二部图预训练嵌入的预训练方法PEBG,用于学习每个问题的低维嵌入以及所有有用的边信息,得到可以用于输入DKT模型中的问题嵌入qt。
为了预先训练问题嵌入,使用以下三种特征,其中顶点特征即问题特征和知识点特征是随机初始化的,难度特征则是由题目属性例如题目类型,平均作答时长,平均准确率等来静态构建。如图1G所示,图1G为PEBG框架的示意图,其中定义问题特征qt,知识点特征st,难度特征ft,以及最终得到的问题嵌入et。
步骤a,初始化阶段
模型先根据数据构建出问题与知识点的二部图。定义一下三种关系:显示问题-知识点关系:问题与其涉及的知识点间关系;隐式问题关系:在问题-知识点二部图中,若问题与问题间存在步长为2的路径,则二者存在隐式关系;隐式知识点关系:在问题-知识点二部图中,若知识点与知识点间存在长度为2的路径,则二者存在隐式关系。
根据上述三种关系就可以初始化好问题-技能关系图。最后,根据数据库的属性,选择使用题目的类型以one-hot编码表示,拼接题目的平均时长,平均准确率作为难度特征ft。
步骤b,更新阶段
接下来是设计模型的更新算法,目的是为了尽可能的找出获得这种图关系隐含的信息,在更新阶段可以利用问题和知识点特征分别于这三种关系图的邻接矩阵做交叉熵,将其作为损失L的一部分。给出以下定义:
其中σ是sigmoid函数,将关系转换成概率,Q是问题特征矩阵,S是知识点特征矩阵。则显式关系的损失可定义为:
其中rij∈{0,1},是问题-知识点二部图的邻接矩阵的值,为1时表示问题i与知识点j存在一条边,0时表示不存在边关系。
同理,可以对另外两种隐式关系的损失定义:
步骤c,聚合阶段
将更新后的问题特征qt,知识点特征st与难度特征ft做一个PNN层,得到问题嵌入et,定义第四损失:
由此构建出PEBG框架的前向传播,损失为:L=L1+L2+L3+L4
具体的数据流模型的输入为以处理好的问题-知识点二部图邻接矩阵、隐式问题矩阵、隐式知识点矩阵和难度特征;输出为问题嵌入。具体的数据流模型包括:设置模型参数;设置好占位符tf.placeholder;初始化问题特征矩阵Q,知识点特征矩阵S,难度特征矩阵D;计算L=L1+L2+L3+L4;选择优化器tf.train.AdamOptimizer;开始训练,初始化tf.Session;对每一轮epoch;划分批训练;对每一批训练;填充数据进入占位符,调用session.run()。
步骤3C,图卷积神经网络GCN模型
图卷积神经网络GCN的输入为图数据,即有N个结点,每个结点都有对应的特征,将这些特征组成一个N×D维的矩阵X,图结构由N×N维的邻接矩阵A表示。
图数据具有以下两个特定,一是结点特征每个结点都有自己的特征;二是结构特征,图中的每个结点具有结构特征,即结点与结点间的边特征,而综合结点特征和边特征就能得到整张图的特征。图卷积的核心思想就是利用结点信息和边信息进行聚合从而更新结点表示,如图1H所示,图1H为GCN模型架构的示意图。图卷积是根据其图结构,利用其它结点的信息来推导某一结点的信息,这样一个过程即消息传递。而所谓的消息传递并不是传递标签,而是在传播特征,图卷积将不知道标签的特征,传递到已知标签的特征结点上,利用已知标签结点的分类器来推测其特征属性。图中的每个结点无时无刻不因为相邻和更远的结点的影响而改变自己的特征直到最后达到平衡,自然关系越近的邻居对其影响越到。例如初始的图结点特征为xt,经过若干个GCN层后,结点特征变成了zt,再通过一个全连接层即可作为输出yt。
在PEBG模型中题目和知识点之间是存在关联的,这种关联关系表示成图结构,然后期望提取出其图结构隐含的信息,再结合题目难度,聚合成一个包含题目本身,知识点与题目相关的的问题嵌入,以此代替交互编码作为DKT的模型输入。而由于GCN在提取图数据的特征上十分的优秀,可以基于这些特征对图数据进行结点分类、图分类、边预测等任务,同时也可以顺便得到各阶的图结点的特征。
因此既然PEBG框架中使用了图数据,首先是存在图结构的,那么图数据表示就有了,其次在PEBG中分三个图来进行学习,学习到的更多的是结点间的联系,但其实问题和知识点从图结构上是两类结点,是有区别的,同时GCN其实本质上也是个特征提取工具,只要给定图结构,它就会进行消息传递,无论是区别还是联系其实都可以学习到,因此使用GCN来提取图结构信息也许是一个不错的选择。总的来说将PEBG框架中更新部分替换成了GCN的图分类任务,然后获取GCN中的最后一层的输入即为问题特征qt和知识点特征st,然后再结合难度特征ft来获得问题嵌入et。
由此可以构建基于难度分析的知识追踪模型框架,如图1I所示,图1I为知识追踪模型的示意图。模型输入为问题-知识点的二部图数据,以及静态的难度特征。首先GCN会根据以结点分类任务的损失去学习二部图中各结点的特征向量,结点特征随机初始化生成,学习后得到问题特征qt和知识点特征st,再与问题难度特征ft经过一层PNN层聚合达到问题嵌入et,然后将问题嵌入输入到LSTM模型中,最终学习得到答题预测y。
需要说明的是,本公开实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本公开实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
需要说明的是,上述对本公开的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种基于知识追踪模型的预测装置。
参考图2,所述基于知识追踪模型的预测装置,包括:
题目信息导入模块201,被配置为利用所述知识追踪分析系统对用户信息进行管理,并将当前时刻数据库中存储的第一题目信息导入所述系统,其中,所述第一题目信息包括当前时刻数据库中存储的答题记录的题目信息;
预测处理模块202,被配置为将所述第一题目信息经过二分图预训练嵌入法PEBG和图卷积神经网络GCN处理得到问题嵌入,将所述问题嵌入输入长短期记忆网络LSTM模型进行预测处理,得到下一时刻的第二题目信息的正确率预测结果。
在一些实施例中,预测处理模块202具体包括:
初始化单元,被配置为对所述第一题目信息涉及的问题信息和知识点信息通过二分图预训练嵌入法PEBG构建PEBG框架,依据所述PEBG框架对问题结点和知识点结点嵌入进行初始化,确定得到问题特征q1、知识点特征s1,依据所述第一题目信息的属性确定得到难度特征ft;
更新单元,被配置为将包括所述问题特征q1和所述知识点特征s1的图数据输入图卷积神经网络GCN,经过至少一个隐藏层对结点特征进行更新,得到问题特征qt和知识点特征st;
聚合单元,被配置为依据所述PEBG框架对所述问题特征qt、所述知识点特征st和所述难度特征ft进行聚合处理,得到问题嵌入et;
预测单元,被配置为将所述问题嵌入et输入长短期记忆网络LSTM模型,得到所述第二题目信息的正确率预测结果。
在一些实施例中,初始化单元具体包括:
框架构建子单元,被配置为对所述第一题目信息涉及的问题信息和知识点信息通过PEBG模型构建PEBG框架,其中,所述PEBG框架包括问题结点、知识点结点和结点关系,所述结点关系包括显式关系和隐式关系;
特征获取子单元,被配置为依据所述PEBG框架中的所述问题结点与所述知识点结点间的显式关系,以及所述问题结点间的隐式关系确定得到所述问题特征q1,依据所述问题结点与所述知识点结点间的显式关系,以及所述知识点结点间的隐式关系确定得到所述知识点特征s1;
题目信息属性子单元,被配置为所述第一题目信息的属性包括下列至少之一:题目类型、题目作答平均时长和题目平均准确率;
难度特征获取子单元,被配置为对所述题目类型进行one-hot编码,并结合所述题目作答平均时长和所述题目平均准确率,确定得到难度特征ft。
在一些实施例中,更新单元具体包括:
图数据输入子单元,被配置为将所述图数据输入所述GCN,所述图数据中包括N个结点,其中,所述结点包括所述问题结点和所述知识点结点;
邻接矩阵获取子单元,被配置为将所述N个结点对应的问题特征和知识点特征组成特征矩阵X;根据所述特征矩阵X得到所述特征矩阵X的N×N维邻接矩阵A,将图结构由所述邻接矩阵A表示;
特征矩阵获取子单元,被配置为将所述图结构输入所述GCN,根据所述图结构中所述问题结点和所述知识点结点的信息,经过至少一个隐藏层对所述特征矩阵X进行更新,得到特征矩阵H;
特征更新子单元,被配置为获取所述图结构经过所述GCN的最后一个隐藏层得到的特征矩阵H,通过激活函数将所述特征矩阵H进行计算,得到所述问题特征qt和所述知识点特征st。
在一些实施例中,聚合单元具体包括:
问题嵌入获取子单元,被配置为依据所述PEBG框架对所述问题特征qt、所述知识点特征st和所述难度特征ft构建一个PNN层,通过所述PNN层对所述问题特征qt、所述知识点特征st和所述难度特征ft进行聚合分类得到所述问题嵌入et;
交叉熵运算子单元,被配置为依据所述问题特征qt和所述知识点特征st计算交叉熵得到交叉熵为其中,σ是非线性激活函数,Q是问题特征矩阵,S是知识点特征矩阵,通过计算交叉熵将所述问题特征和所述知识点特征之间的关系转换为概率;
第一损失运算子单元,被配置为依据所述交叉熵对所述问题结点与所述知识点结点间的损失进行计算,得到第一损失为其中,rij为所述问题结点与所述知识点结点间邻接矩阵的值,rij∈{0,1},rij=1为问题i与知识点j存在边关系,rij=0为问题i与知识点j不存在边关系;
第二损失运算子单元,被配置为依据所述问题特征qt计算交叉熵得到交叉熵为其中,σ是非线性激活函数,Q是问题特征矩阵,依据所述交叉熵对所述问题结点间的损失进行计算,得到第二损失其中,为所述问题结点间邻接矩阵的值,为问题i与问题j存在边关系,为问题i与问题j不存在边关系;
第三损失运算子单元,被配置为依据所述知识点特征st计算交叉熵得到交叉熵为其中,σ是非线性激活函数,S是知识点特征矩阵,依据所述交叉熵对所述知识点结点间的损失进行计算,得到第三损失其中,为所述知识点结点间邻接矩阵的值,为知识点i与知识点j存在边关系,为知识点i与知识点j不存在边关系;
损失运算子单元,被配置为构建PEBG框架的前向传播,计算得到损失L=L1+L2+L3+L4。
在一些实施例中,预测单元具体包括:
问题嵌入输入子单元,被配置为将所述问题嵌入et输入长短期记忆网络LSTM模型,其中,所述LSTM模型中包括:问题嵌入et,ht为时间步t的隐藏层神经元的隐藏状态,Ct为细胞状态,f为遗忘门,i为输入门,o为输出门;
预测处理运算子单元,被配置为通过所述LSTM模型对所述问题嵌入et进行预测处理,时间步t的遗忘门神经元ft为ft=σ(Ufht-1+Wfxt+bf),其中,σ是非线性激活函数,ht-1为时间步t-1的隐藏层神经元的隐藏状态,xt即为问题嵌入et,Uf、Wf和bf为遗忘门的神经元的参数,时间步t的输入门神经元it为it=σ(Uiht-1+Wixt+bi),其中,Ui、Wi和bi为输入门的神经元的参数,时间步t的记忆门神经元为其中,Ux、Wx和bx为记忆门的神经元的参数,时间步t的输出门神经元ot为ot=σ(Uoht+Woxt+bo),其中,Uo、Wo和bo为输出门的神经元的参数,时间步t的记忆细胞状态Ct为其中,C_(t-1)为时间步t-1的记忆细胞状态,时间步t的隐藏层神经元的隐藏状态ht为ht=tanh(Ct)*ot,时间步t的预测结果yt为yt=σ(Wyhht+by),其中,by为预测门的神经元的参数,输出得到所述第二题目信息的正确率预测结果yt。
在一些实施例中,题目信息导入模块201之前还包括:
所述知识追踪分析系统的系统架构包括下列至少之一:前端、展示层、应用层、服务层、数据库和运行环境;
展示层设计单元,被配置为所述展示层通过图表组件对所述题目正确率预测结果以图表形式表示,通过设计交互层进行前端和后端的报文转发和数据交换,并对后端设计结果类;
服务层设计单元,被配置为所述服务层对业务服务进行开发,并对训练好的模型提供服务接口;
应用层设计单元,被配置为所述应用层通过调用对应的所述服务接口实现所述应用层中对应的模块的功能,其中,所述应用层中包括下列至少之一:用户管理模块、分析管理模块和模型应用模块;
数据库设计单元,被配置为所述数据库采用关系型数据库,所述数据库包括:用户表和节点表,所述用户表中存储用户信息数据,用于用户的身份验证和权限管理;所述节点表中存储知识点信息,用于构建知识图谱;所述用户信息数据和所述第一题目信息以稀疏矩阵的形式进行存储。
在一些实施例中,题目信息导入模块201之前还包括:
所述知识追踪分析系统包括下列至少之一:用户模块和分析模块,所述用户模块包括下列至少之一:用户信息管理模块和题目信息导入模块,所述分析模块包括下列至少之一:知识状态感知模块、习题模拟练习模块、习题推荐模块和知识图谱模块;
用户设计单元,被配置为所述用户模块通过用户控制中心进行功能服务的设计,通过用户服务进行用户管理功能服务的设计,将用户进行登录的账号信息保存在时域中,通过所述时域设置拦截器,响应于确定所述时域为空,拦截器定向到登录或注册界面;
题目预测单元,被配置为所述知识状态感知模块和所述习题模拟练习模块通过前端选择导入所述第一题目信息,将所述第一题目信息数据通过所述交互层传递给所述模型应用模块,所述模型应用模块调用对应的预测处理功能,对所述第一题目信息数据进行预测处理得到题目正确率预测结果,根据所述预测结果确定用户知识状态和习题模拟练习结果,将所述用户知识状态和所述习题模拟练习结果通过所述交互层发送至所述展示层,所述展示层将所述用户知识状态和所述习题模拟练习结果经过所述图表组件处理以图表形式展示;
习题推荐单元,被配置为所述习题推荐模块通过前端选择导入所述第一题目信息,将所述第一题目信息数据通过所述交互层传递给所述模型应用模块,所述模型应用模块调用习题推荐算法,所述第一题目信息经过所述习题推荐算法处理确定知识点集合,对与所述知识点集合相关性高的题目进行推荐,并通过所述模型应用模块对推荐题目进行预测处理得到推荐题目正确率预测结果,响应于确认所述推荐题目正确率预测结果大于预先设定的阈值,对与所述知识点集合相关性低的题目进行推荐;
知识图谱单元,被配置为所述知识图谱模块根据所述PEBG框架确定知识点间的关系,并经过所述图表组件处理后以图表形式展示,其中,知识点间的关系生成方法包括:静态生成方法和动态生成方法,其中,所述静态生成方法依据PEBG框架中问题和知识点间的二部图关系,响应于确认所述二部图关系中知识点结点之间存在一条步长为2的的路径,则所述知识点间存在关联,将所述知识点连接构建知识图谱,所述动态生成方法通过所述GCN对特征向量进行训练处理,通过训练处理得到点特征向量表示图的边向量,通过对所述边向量求平均值得到一个实数作为边权重,对所述边权重设立阈值进行特定边的删减,得到知识图谱。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本公开时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
上述实施例的装置用于实现前述任一实施例中相应的基于知识追踪模型的预测方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上任意一实施例所述的基于知识追踪模型的预测方法。
图3示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器310、存储器320、输入/输出接口330、通信接口340和总线350。其中处理器310、存储器320、输入/输出接口330和通信接口340通过总线350实现彼此之间在设备内部的通信连接。
处理器310可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器320可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器320可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器320中,并由处理器310来调用执行。
输入/输出接口330用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口340用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线350包括一通路,在设备的各个组件(例如处理器310、存储器320、输入/输出接口330和通信接口340)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器310、存储器320、输入/输出接口330、通信接口340以及总线350,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
上述实施例的电子设备用于实现前述任一实施例中相应的基于知识追踪模型的预测方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的基于知识追踪模型的预测方法。
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的基于知识追踪模型的预测方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本公开的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本公开实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本公开实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本公开实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本公开实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本公开的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本公开实施例。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本公开的具体实施例对本公开进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本公开实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本公开实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (10)
1.一种基于知识追踪模型的预测方法,其特征在于,所述方法应用于知识追踪分析系统,所述方法包括:
利用所述知识追踪分析系统对用户信息进行管理,并将当前时刻数据库中存储的第一题目信息导入所述系统,其中,所述第一题目信息包括当前时刻数据库中存储的答题记录的题目信息;
将所述第一题目信息经过二分图预训练嵌入法PEBG和图卷积神经网络GCN处理得到问题嵌入,将所述问题嵌入输入长短期记忆网络LSTM模型进行预测处理,得到下一时刻的第二题目信息的正确率预测结果。
2.根据权利要求1所述的基于知识追踪模型的预测方法,其特征在于,将所述第一题目信息经过二分图预训练嵌入法PEBG和图卷积神经网络GCN处理得到问题嵌入,将所述问题嵌入输入长短期记忆网络LSTM模型进行预测处理,得到下一时刻的第二题目信息的正确率预测结果,包括:
对所述第一题目信息涉及的问题信息和知识点信息通过二分图预训练嵌入法PEBG构建PEBG框架,依据所述PEBG框架对问题结点和知识点结点嵌入进行初始化,确定得到问题特征q1、知识点特征s1,依据所述第一题目信息的属性确定得到难度特征ft;
将包括所述问题特征q1和所述知识点特征s1的图数据输入图卷积神经网络GCN,经过至少一个隐藏层对结点特征进行更新,得到问题特征qt和知识点特征st;
依据所述PEBG框架对所述问题特征qt、所述知识点特征st和所述难度特征ft进行聚合处理,得到问题嵌入et;
将所述问题嵌入et输入长短期记忆网络LSTM模型,得到所述第二题目信息的正确率预测结果。
3.根据权利要求2所述的基于知识追踪模型的预测方法,其特征在于,对所述第一题目信息涉及的问题信息和知识点信息通过二分图预训练嵌入法PEBG构建PEBG框架,依据所述PEBG框架对问题结点和知识点结点嵌入进行初始化,确定得到问题特征q1、知识点特征s1,依据所述第一题目信息的属性确定得到难度特征ft,包括:
对所述第一题目信息涉及的问题信息和知识点信息通过PEBG模型构建PEBG框架,其中,所述PEBG框架包括问题结点、知识点结点和结点关系,所述结点关系包括显式关系和隐式关系;
依据所述PEBG框架中的所述问题结点与所述知识点结点间的显式关系,以及所述问题结点间的隐式关系确定得到所述问题特征q1,依据所述问题结点与所述知识点结点间的显式关系,以及所述知识点结点间的隐式关系确定得到所述知识点特征s1;
所述第一题目信息的属性包括下列至少之一:题目类型、题目作答平均时长和题目平均准确率;
对所述题目类型进行one-hot编码,并结合所述题目作答平均时长和所述题目平均准确率,确定得到难度特征ft。
4.根据权利要求2所述的基于知识追踪模型的预测方法,其特征在于,将包括所述问题特征q1和所述知识点特征s1的图数据输入图卷积神经网络GCN,经过至少一个隐藏层对结点特征进行更新,得到问题特征qt和知识点特征st,包括:
将所述图数据输入所述GCN,所述图数据中包括N个结点,其中,所述结点包括所述问题结点和所述知识点结点;
将所述N个结点对应的问题特征和知识点特征组成特征矩阵X;根据所述特征矩阵X得到所述特征矩阵X的N×N维邻接矩阵A,将图结构由所述邻接矩阵A表示;
将所述图结构输入所述GCN,根据所述图结构中所述问题结点和所述知识点结点的信息,经过至少一个隐藏层对所述特征矩阵X进行更新,得到特征矩阵H;
获取所述图结构经过所述GCN的最后一个隐藏层得到的特征矩阵H,通过激活函数将所述特征矩阵H进行计算,得到所述问题特征qt和所述知识点特征st。
5.根据权利要求2所述的基于知识追踪模型的预测方法,其特征在于,依据所述PEBG框架对所述问题特征qt、所述知识点特征st和所述难度特征ft进行聚合处理,得到问题嵌入et,包括:
依据所述PEBG框架对所述问题特征qt、所述知识点特征st和所述难度特征ft构建一个PNN层,通过所述PNN层对所述问题特征qt、所述知识点特征st和所述难度特征ft进行聚合分类得到所述问题嵌入et;
依据所述交叉熵对所述问题结点与所述知识点结点间的损失进行计算,得到第一损失为其中,rij为所述问题结点与所述知识点结点间邻接矩阵的值,rij∈{0,1},rij=1为问题i与知识点j存在边关系,rij=0为问题i与知识点j不存在边关系;
依据所述问题特征qt计算交叉熵得到交叉熵为 其中,σ是非线性激活函数,Q是问题特征矩阵,依据所述交叉熵对所述问题结点间的损失进行计算,得到第二损失其中,为所述问题结点间邻接矩阵的值, 为问题i与问题j存在边关系,为问题i与问题j不存在边关系;
依据所述知识点特征st计算交叉熵得到交叉熵为 其中,σ是非线性激活函数,S是知识点特征矩阵,依据所述交叉熵对所述知识点结点间的损失进行计算,得到第三损失 其中,为所述知识点结点间邻接矩阵的值, 为知识点i与知识点j存在边关系,为知识点i与知识点j不存在边关系;
构建PEBG框架的前向传播,计算得到损失L=L1+L2+L3+L4。
6.根据权利要求2所述的基于知识追踪模型的预测方法,其特征在于,将所述问题嵌入et输入长短期记忆网络LSTM模型,得到所述第二题目信息的正确率预测结果,包括:
将所述问题嵌入et输入长短期记忆网络LSTM模型,其中,所述LSTM模型中包括:问题嵌入et,ht为时间步t的隐藏层神经元的隐藏状态,Ct为细胞状态,f为遗忘门,i为输入门,o为输出门;
通过所述LSTM模型对所述问题嵌入et进行预测处理,时间步t的遗忘门神经元ft为ft=σ(Ufht-1+Wfxt+bf),其中,σ是非线性激活函数,ht-1为时间步t-1的隐藏层神经元的隐藏状态,xt即为问题嵌入et,Uf、Wf和bf为遗忘门的神经元的参数,时间步t的输入门神经元it为it=σ(Uiht-1+Wixt+bi),其中,Ui、Wi和bi为输入门的神经元的参数,时间步t的记忆门神经元为其中,Ux、Wx和bx为记忆门的神经元的参数,时间步t的输出门神经元ot为ot=σ(Uoht+Woxt+bo),其中,Uo、Wo和bo为输出门的神经元的参数,时间步t的记忆细胞状态Ct为其中,C_(t-1)为时间步t-1的记忆细胞状态,时间步t的隐藏层神经元的隐藏状态ht为ht=tanh(Ct)*ot,时间步t的预测结果yt为yt=σ(Wyhht+by),其中,by为预测门的神经元的参数,输出得到所述第二题目信息的正确率预测结果yt。
7.根据权利要求1所述的基于知识追踪模型的预测方法,其特征在于,在利用所述知识追踪分析系统对用户信息进行管理,并将当前时刻数据库中存储的第一题目信息导入所述系统之前,还包括:
所述知识追踪分析系统的系统架构包括下列至少之一:前端、展示层、应用层、服务层、数据库和运行环境;
所述展示层通过图表组件对所述题目正确率预测结果以图表形式表示,通过设计交互层进行前端和后端的报文转发和数据交换,并对后端设计结果类;
所述服务层对业务服务进行开发,并对训练好的模型提供服务接口;
所述应用层通过调用对应的所述服务接口实现所述应用层中对应的模块的功能,其中,所述应用层中包括下列至少之一:用户管理模块、分析管理模块和模型应用模块;
所述数据库采用关系型数据库,所述数据库包括:用户表和节点表,所述用户表中存储用户信息数据,用于用户的身份验证和权限管理;所述节点表中存储知识点信息,用于构建知识图谱;所述用户信息数据和所述第一题目信息以稀疏矩阵的形式进行存储。
8.根据权利要求7所述的基于知识追踪模型的预测方法,其特征在于,在利用所述知识追踪分析系统对用户信息进行管理,并将当前时刻数据库中存储的第一题目信息导入所述系统之前,还包括:
所述知识追踪分析系统包括下列至少之一:用户模块和分析模块,所述用户模块包括下列至少之一:用户信息管理模块和题目信息导入模块,所述分析模块包括下列至少之一:知识状态感知模块、习题模拟练习模块、习题推荐模块和知识图谱模块;
所述用户模块通过用户控制中心进行功能服务的设计,通过用户服务进行用户管理功能服务的设计,将用户进行登录的账号信息保存在时域中,通过所述时域设置拦截器,响应于确定所述时域为空,拦截器定向到登录或注册界面;
所述知识状态感知模块和所述习题模拟练习模块通过前端选择导入所述第一题目信息,将所述第一题目信息数据通过所述交互层传递给所述模型应用模块,所述模型应用模块调用对应的预测处理功能,对所述第一题目信息数据进行预测处理得到题目正确率预测结果,根据所述预测结果确定用户知识状态和习题模拟练习结果,将所述用户知识状态和所述习题模拟练习结果通过所述交互层发送至所述展示层,所述展示层将所述用户知识状态和所述习题模拟练习结果经过所述图表组件处理以图表形式展示;
所述习题推荐模块通过前端选择导入所述第一题目信息,将所述第一题目信息数据通过所述交互层传递给所述模型应用模块,所述模型应用模块调用习题推荐算法,所述第一题目信息经过所述习题推荐算法处理确定知识点集合,对与所述知识点集合相关性高的题目进行推荐,并通过所述模型应用模块对推荐题目进行预测处理得到推荐题目正确率预测结果,响应于确认所述推荐题目正确率预测结果大于预先设定的阈值,对与所述知识点集合相关性低的题目进行推荐;
所述知识图谱模块根据所述PEBG框架确定知识点间的关系,并经过所述图表组件处理后以图表形式展示,其中,知识点间的关系生成方法包括:静态生成方法和动态生成方法,其中,所述静态生成方法依据PEBG框架中问题和知识点间的二部图关系,响应于确认所述二部图关系中知识点结点之间存在一条步长为2的的路径,则所述知识点间存在关联,将所述知识点连接构建知识图谱,所述动态生成方法通过所述GCN对特征向量进行训练处理,通过训练处理得到点特征向量表示图的边向量,通过对所述边向量求平均值得到一个实数作为边权重,对所述边权重设立阈值进行特定边的删减,得到知识图谱。
9.一种基于知识追踪模型的预测装置,包括:
题目信息导入模块,被配置为利用所述知识追踪分析系统对用户信息进行管理,并将当前时刻数据库中存储的第一题目信息导入所述系统,其中,所述第一题目信息包括当前时刻数据库中存储的答题记录的题目信息;
预测处理模块,被配置为将所述第一题目信息经过二分图预训练嵌入法PEBG和图卷积神经网络GCN处理得到问题嵌入,将所述问题嵌入输入长短期记忆网络LSTM模型进行预测处理,得到下一时刻的第二题目信息的正确率预测结果。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1至8任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210878527.9A CN115393132A (zh) | 2022-07-25 | 2022-07-25 | 基于知识追踪模型的预测方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210878527.9A CN115393132A (zh) | 2022-07-25 | 2022-07-25 | 基于知识追踪模型的预测方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115393132A true CN115393132A (zh) | 2022-11-25 |
Family
ID=84116419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210878527.9A Pending CN115393132A (zh) | 2022-07-25 | 2022-07-25 | 基于知识追踪模型的预测方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115393132A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117573985A (zh) * | 2024-01-16 | 2024-02-20 | 四川航天职业技术学院(四川航天高级技工学校) | 一种应用于智能化在线教育系统的信息推送方法及系统 |
-
2022
- 2022-07-25 CN CN202210878527.9A patent/CN115393132A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117573985A (zh) * | 2024-01-16 | 2024-02-20 | 四川航天职业技术学院(四川航天高级技工学校) | 一种应用于智能化在线教育系统的信息推送方法及系统 |
CN117573985B (zh) * | 2024-01-16 | 2024-04-05 | 四川航天职业技术学院(四川航天高级技工学校) | 一种应用于智能化在线教育系统的信息推送方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Moolayil et al. | Learn Keras for deep neural networks | |
US10902321B2 (en) | Neural networking system and methods | |
CN110659723B (zh) | 基于人工智能的数据处理方法、装置、介质及电子设备 | |
CN112749749B (zh) | 基于分类决策树模型的分类方法、装置及电子设备 | |
AU2017230184A1 (en) | Structure learning in convolutional neural networks | |
CN111582694A (zh) | 一种学习评估方法及装置 | |
CN113762052A (zh) | 视频封面提取方法、装置、设备及计算机可读存储介质 | |
CN113011646A (zh) | 一种数据处理方法、设备以及可读存储介质 | |
CN107273979A (zh) | 基于服务级别来执行机器学习预测的方法及系统 | |
CN109783824A (zh) | 基于翻译模型的翻译方法、装置及存储介质 | |
CN114398556A (zh) | 学习内容的推荐方法、装置、设备及存储介质 | |
CN114417174B (zh) | 内容推荐方法、装置、设备及计算机存储介质 | |
Shah | A hands-on introduction to machine learning | |
CN115631008B (zh) | 商品推荐方法、装置、设备及介质 | |
CN115393132A (zh) | 基于知识追踪模型的预测方法及相关设备 | |
Ugur et al. | A web‐based tool for teaching neural network concepts | |
CN114169938A (zh) | 信息推送方法、装置、设备及存储介质 | |
CN117056595A (zh) | 一种交互式的项目推荐方法、装置及计算机可读存储介质 | |
CN114169906B (zh) | 电子券推送方法、装置 | |
CN112035567B (zh) | 一种数据处理方法、装置及计算机可读存储介质 | |
Zhao | [Retracted] Construction of College Chinese Mobile Learning Environment Based on Intelligent Reinforcement Learning Technology in Wireless Network Environment | |
Hou et al. | A Deep Neural Network‐Based Model for Quantitative Evaluation of the Effects of Swimming Training | |
Shi et al. | [Retracted] Design of Personalized Recommendation System for Swimming Teaching Based on Deep Learning | |
CN110162714A (zh) | 内容推送方法、装置、计算设备和计算机可读存储介质 | |
CN118333163A (zh) | 基于知识点间相互作用和学习遗忘的追踪预测方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |