CN111047482B - 基于层次记忆网络的知识追踪系统及方法 - Google Patents
基于层次记忆网络的知识追踪系统及方法 Download PDFInfo
- Publication number
- CN111047482B CN111047482B CN201911115390.6A CN201911115390A CN111047482B CN 111047482 B CN111047482 B CN 111047482B CN 201911115390 A CN201911115390 A CN 201911115390A CN 111047482 B CN111047482 B CN 111047482B
- Authority
- CN
- China
- Prior art keywords
- information
- memory
- long
- hierarchical memory
- knowledge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015654 memory Effects 0.000 title claims abstract description 146
- 238000000034 method Methods 0.000 title claims description 35
- 239000011159 matrix material Substances 0.000 claims abstract description 86
- 230000007787 long-term memory Effects 0.000 claims abstract description 55
- 230000003936 working memory Effects 0.000 claims abstract description 40
- 230000011218 segmentation Effects 0.000 claims abstract description 11
- 230000002238 attenuated effect Effects 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 47
- 230000007246 mechanism Effects 0.000 claims description 35
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 230000007774 longterm Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 11
- 238000005728 strengthening Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 claims description 6
- 230000002787 reinforcement Effects 0.000 claims description 5
- 241000282414 Homo sapiens Species 0.000 abstract description 22
- 230000006403 short-term memory Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000012549 training Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Computing Systems (AREA)
- Strategic Management (AREA)
- Educational Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Educational Administration (AREA)
- Evolutionary Computation (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了基于层次记忆网络的知识追踪系统,包括控制器组件、层次记忆组件、读头和写头组件,读头和写头组件设置在控制器组件和所述层记忆组件之间,读头和写头组件用于将控制器组件处理后的输入信息写入到所述层次记忆组件存储更新;层次记忆矩阵组件包括工作存储单元、长期存储单元、分割模块和衰减模块,分割模块用于将输入的信息分为工作记忆信息和长期记忆信息分别存入到工作存储单元和长期存储单元,衰减模块用于将存入长期存储单元的长期记忆信息进行衰减后存入到长期存储单元。本发明的基于层次记忆网络的知识追踪系统,模拟人类长期记忆和短期记忆的模式,对输入的知识信息进行分类衰减存储,使得预测更准确。
Description
技术领域
本发明属于知识追踪技术领域,更具体地,涉及基于层次记忆网络的知识追踪系统及方法。
背景技术
知识追踪的目标是通过分析学生的历史学习情况对学生的知识状态进行建模,知识状态代表学生在学习过程中对技能的掌握程度。知识追踪的难点在于学习过程是受到诸多认知因素影响的,尤其是人类记忆的复杂性。从模拟人类记忆的特点出发,我们可以将现有的知识追踪模型分成3类。
第一类是静态知识追踪模型,其特点是使用逻辑回归的方法对学生和技能之间的联系进行建模,从而估计学生在学习过程中对技能的掌握程度。第二类是动态知识追踪模型,其特点是使用贝叶斯网络来建模学生学习过程中的知识状态变化,从而估计学生在学习过程中对技能的掌握程度。这两类模型是后续研究的基础,不过这两类模型并没有显式地把人类记忆特点对学习过程的影响考虑进去。第三类是深度知识追踪模型,其特点是使用深度神经网络来建模学生学习过程中的知识状态变化。
深度知识追踪模型(Deep Knowledge Tracing,DKT)是第一个将循环神经网络(Recurrent Neural Network,RNN)应用于知识追踪的模型,该模性取得了比以前模型更好的结果。对DKT进行改进,人们又提出了DKT的变体。有学者发现DKT中存在无法重建输入以及预测中知识状态向量(知识状态向量的概念由DKT提出,用于表示学生对各个技能的掌握程度)变化不稳定这两个问题,于是他们在DKT的损失函数中加入两个正则化项以解决这两个问题。就模拟人类记忆而言,DKT和它的变体都使用了RNN,从而能显式地模拟人类工作记忆。动态键值记忆网络(Dynamic Key-Value Memory Networks,DKVMN)首次将增强记忆神经网络(Memory-Augmented Neural Networks,MANNs)应用于知识追踪,MANNs的特点是通过外部记忆矩阵来记忆更多信息。
但是,前两类模型没有直接模拟人类记忆,人类记忆模型(Atkinson-Shiffrinmemory model,ASMM),ASMM中把人类记忆分为三个部分,分别是感知记忆(Sensorymemory),工作记忆(Working memory)和长期记忆(Long-term memory);第三类模型虽然在一定程度上模拟了人的工作记忆,不过它们都没有很好的模拟人类记忆,特别是人类记忆中的长期记忆,而长期记忆对学生的学习过程影响有较大影响。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供的基于层次记忆网络的知识追踪系统和方法,通过在现有的知识追踪系统中加入了层次记忆矩阵组件,并在层次记忆矩阵组件中设置工作存储单元和长期存储单元,从而模拟人类的短期记忆存储和长期记忆存储,并用分割模块将输入的信息分为工作记忆信息和长期记忆信息分割后存入到工作存储单元和长期存储单元中,再利用衰减模块对存入到长期存储单元的信息做衰减处理后存入,本发明通过对人类的记忆模式的模拟,使得对知识追踪的预测更加准确,本系统的训练速度更快,泛化能力也更强。
为了实现上述目的,本发明提供基于层次记忆网络的知识追踪系统,包括用于输入知识信息和输出预测信息的控制器组件,还包括层次记忆组件、读头和写头组件;
所述读头和写头组件设置在所述控制器组件和所述层记忆组件之间,所述读头和写头组件用于将所述控制器组件处理后的输入信息写入到所述层次记忆组件存储更新,并从所述层次记忆组件中读取更新后的知识信息;
所述层次记忆组件包括工作存储单元、长期存储单元、分割模块和衰减模块,所述分割模块用于将输入的信息分为工作记忆信息和长期记忆信息分别存入到工作存储单元和长期存储单元,所述衰减模块用于将存入长期存储单元的长期记忆信息进行衰减后存入到长期存储单元,用于模拟人的记忆模式对知识信息进行存储。
进一步地,所述层次记忆矩阵包括若干个呈矩阵排列的用于存储信息的插槽,其中部分插槽置于所述工作存储单元内,剩余的插槽置于所述长期存储单元内。
进一步地,所述衰减模块与所述工作存储单元和所述长期存储单元的插槽连接,用于将信息赋予衰减率后写入到插槽中。
进一步地,所述控制器组件包括强化输入模块,所述强化输入模块用于强化测评数据和反馈数据的编码。
进一步地,还包括记录使用位置和使用顺序组件,用于记录层次记忆矩阵中每个插槽的使用情况和每个插槽的使用顺序。
本发明还提供另外一种方案,基于层次记忆网络的知识追踪方法,包括如下步骤:
S1输入知识信息序列,并对其进行编码;
S2强化测评数据编码和反馈数据编码,使得二者更好区分;
S3利用神经网络处理输入的信息,并将知识分为工作记忆和长期记忆写入层次记忆矩阵,并不断利用输入信息对层次记忆矩阵进行存储和更新;
S4从层次记忆矩阵读取信息作为已知的知识信息,与输入的下一步的题目信息做点积运算得出下一步题目正确率的预测结果。
进一步地,步骤S3具体包括:
S31利用输入的信息对层次记忆矩阵进行写入式更新,并对输入的信息按照工作记忆和长期记忆进行分割,将工作记忆直接进行存储,将长期记忆以衰减的方式进行存储;
S32从层次记忆矩阵中提取已知的知识信息。
进一步地,步骤S31中,输入信息的写入其主要根据基于内容的注意力机制和基于使用位置的注意力机制进行信息的写入,基于内容的注意力机制为写头通过对比所述控制器组件的输出信息和所述层次记忆矩阵中每个插槽存储的信息,来决定向每个插槽写入多少信息,基于使用位置的注意力机制为根据位置是否存有信息来决定是否向该位置写入信息。
进一步地,步骤S31中,分割主要的步骤包括引入距离向量衡量两个时间步之间的信息差异,计算累积的信息差异向量,以超参数为阈值与累积的进行比对,超过阈值的存入到长期存储单元,未超过阈值的存入到工作存储单元。
进一步地,步骤S31中,衰减的方式写入具体包括引入衰减向量
衰减向量decayt用于为记忆矩阵的每个插槽设置写入时的衰减率:
其中,cumsum(·)是累加函数,softmax(·)是softmax函数,
根据衰减向量decayt,我们将Mt-1更新为Mt:
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明的基于层次记忆网络的知识追踪系统和方法,通过在现有的知识追踪系统中加入了层次记忆矩阵组件,并在层次记忆矩阵组件中设置工作存储单元和长期存储单元,从而模拟人类的短期记忆存储和长期记忆存储,并用分割模块将输入的信息分为工作记忆信息和长期记忆信息分割后存入到工作存储单元和长期存储单元中,再利用衰减模块对存入到长期存储单元的信息做衰减处理后存入,本发明通过对人类的记忆模式的模拟,使得对知识追踪的预测更加准确,本系统的训练速度更快,泛化能力也更强。
(2)本发明的基于层次记忆网络的知识追踪系统,层次记忆组件中设置若干个插槽,组成层次记忆矩阵存储输入的信息,插槽按照工作存储单元和长期存储单元分开存储,并通过读头和写头组件向插槽中写入信息对层次记忆矩阵进行更新,并从中读取信息作为已知的知识信息用于预测,提高了预测的准确性。
附图说明
图1是现有技术中人类记忆模型(Atkinson-Shiffrim memory model,ASMM)的参考图;
图2是本发明实施例的长短时记忆神经网络(Long-Short Term Memory Network,LSTM)的示意图;
图3是本发明实施例的层次记忆网络(Hierachical Memory Network,HMN)的示意图;
图4是本发明实施例的HMN的分割模块的示意图;
图5是本发明实施例的HMN的衰减模块的示意图;
图6是本发明实施例的HMN和深度知识追踪模型DKT在数据集ASSISTments2009上训练过程对比的示意图;
图7是本发明实施例的HMN模型和经典的深度知识追踪模型(Deep KnowledgeTracing,DKT)在数据集ASSISTments2015上训练过程对比的示意图;
图8是本发明实施例的HMN和经典的深度知识追踪模型DKT在数据集Statics2011上训练过程对比的示意图;
图9是本发明实施例基于层次记忆网络的知识跟踪方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
图3是本发明实施例的层次记忆网络(Hierachical Memory Network,HMN)的示意图。如图3所示,本发明的基于层次记忆网络的知识追踪系统包括控制器组件、读头和写头组件、层次记忆矩阵组件和记录使用位置和使用顺序组件。控制器组件包括强化输入模块、LSTM神经网络、多层感知机模块以及点积运算模块,控制器组件的输入是知识数据,知识数据包括测评数据和反馈数据;优选地,知识信息序列指学生的答题序列,测评数据指的是问题序列,反馈数据指的是答案序列,答题序列包括多个问题和对问题的回答的对错,其中问题用与之相关的技能编码表示,答案的对错用0、1表示。
强化输入模块用于强化问题编码和答案编码,使得LSTM神经网络系统能够更好的区分问题和回答;学生的答题序列输入的第一步就是通过强化输入模块对输入信息进行强化,具体操作如下:以一个学生回答一个问题为例,输入其中/>分别是et,ct强化后的结果。et是问题独热编码,而ct是回答对错(ct=1表示做对,ct=0表示做错)。/>由et通过一个多层感知机后再用sigmoid函数进行激活产生;而/>其中g(x)=20*(x-0.5),所以强化后的/>表示做对,/>表示做错。举个例子,原输入可能为表示回答正确,可以发现,最后一位的1与第三位的0.9以及第一位0.8相差不大,所以LSTM网络不容易区分问题和答案。而强化后的输入其中技能和答案的表示方法区别较大,可以达到强化输入的目的。
图2是本发明实施例的长短时记忆神经网络(Long-Short Term Memory Network,LSTM)的示意图。LSTM神经网络的结构如图2所示,其目的是处理当前时间步输入信息xt以及来层次记忆矩阵模块中的信息。LSTM公式如下:
ft=σ(Wf·[ht-1,xt]+bf)
it=σ(Wi·[ht-1,xt]+bi)
ot=σ(Wo·[ht-1,xt]+bo)
ht=ot*tanh(Ct)
其中第一公式是计算遗忘门(forget gate)的大小,以确定有多少信息应该被遗忘,第二个公式用于计算输入门(input gate或称update gate)的大小,用来更新信息;第三个公式是计算来自当前时间步的信息;第四个公式是综合考虑了forget gate和inputgate来计算新的Ct(cell state);第五个公式是计算输出门(output gate)的大小,来决定输出的信息;第六个公式则是根据输出门(output gate)和Ct来计算ht(hidden state)。其中,LSTM的结构以及处理内容均为本领域成熟的技术,不是本方案保护的重点,上述六个公式及公式中参数的含义均是本领域技术人员能够理解并经常运用到LSTM处理中的内容。
多层感知机模块用于将LSTM的输出转化为当前第t个时间步的学生的知识状态向量KSt(knowledge state),知识状态向量表示当前学生对所有技能的掌握情况,例如KSt=[0,1,0.5]代表学生对第一个技能完全没掌握,对第二个技能完全掌握了,而对第三个技能相关的题目回答正确率是50%。点积运算模块用于将第t个时间步的学生的知识状态KSt与下一个时间步的问题et+1(学生对所作题目所涉及技能的独特编码)点积运算,得到下一个题的预测答案ct+1。
层次记忆矩阵组件的用于算出一次写入的所有信息的信息量,然后根据超参数信息差异阈值c来对超过阈值部分的信息以衰减的方式写入层次记忆矩阵的长期存储单元,而未超过部分直接写入层次记忆矩阵的工作存储单元。
层次记忆矩阵组件包括工作存储单元(working storage)、长期存储单元(long-term storage)、分割模块和衰减模块。工作存储单元用于模拟人类的工作记忆,长期存储单元用于模拟人类长期记忆。层次记忆矩阵模块包括若干个呈矩阵排列的插槽,插槽内存储信息,工作存储单元和长期存储单元均包括若干个插槽;层次记忆矩阵模块中第1~P个插槽是工作存储单元(working storage),第P+1~N个插槽是长期存储单元(long-termstorage)。
其中,分割模块用于将非层次记忆矩阵分到工作存储单元或长期存储单元中,如图4所示,具体的分割原理如下:
其中,cumsum(·)是累加函数,softmax(·)是softmax函数,normalize(·)是min-max正则化函数。
其中超参数c是一个常数,表示“信息差异阈值”(capacity,c);阶跃函数将未超过信息差异阈值c的插槽位置记为0,代表对应插槽是工作存储单元的一部分;而将超过部分记为1,代表对应插槽是长期存储单元的一部分。其中,常数c是超参数信息差异阈值,H(t)是阶跃函数。maskt中0和1分别表示工作存储单元和长期存储单元。其中,c的取值是系统学习多次根据最后的知识跟踪效果选取的最优值。
衰减模块用于经分割模块处理后的记忆矩阵以衰减的方式写入,其中写入工作存储单元的信息采用直接写入,而对输入长期存储单元的信息采取衰减的方式进行写入,以保证长期存储单元里的信息能保存更久,从而通过分别进行直接写入和衰减写入的方式来模拟人类记忆的方式。相较于现有技术中对于知识跟踪预测,本发明增加的层次记忆矩阵组件中的实现长期记忆衰减存入和工作记忆直接存入的单元,其模拟预测更加接近真实情况,最后取得的预测值也更加准确。
衰减模块的工作原理:
衰减向量(decayt)用于为记忆矩阵的每个插槽设置写入时的衰减率:
其中代表逐元素积,dt代表由LSTM神经网络生成的第t个时间步的衰减系数向量,阈值∈是接近于0的正常数,用于防止最后一个插槽的衰减率等于0(衰减率为0代表永不更新)。根据衰减向量decayt,我们将Mt-1更新为Mt:
运算符代表逐元素积,E是全1矩阵,/>是基于注意力机制的写入权重向量,是擦除向量的转置,/>是写入向量,decayt是衰减向量,/>decayt都由LSTM生成,Mt是第t个时间步的层次记忆矩阵。如图5所示,通过衰减模块将信息按照衰减向量decayt=[1,1,...,1,1,0.9,0.78,...,0.14,0.05]的衰减写入层次记忆矩阵,其中,1代表信息未经过衰减就直接写入工作存储单元,而小数代表信息经过衰减写入长期存储单元,例如0.78代表以78%的衰减率写入对应插槽。
其中,LSTM神经网络的输出分为两个分支,一个分支与多层感知机模块及点积运算模块连接,用于预测;另一个分支用于对层次记忆矩阵组件中的层次记忆矩阵进行更新。LSTM神经网络的输入包括强化输入模块强化后的第t个时间步的答题情况和层次记忆矩阵的输入。
读头和写头组件设置在控制器组件和层次记忆矩阵组件之间,并在控制器组件和层次记忆矩阵组件之间建立数据的输入输出和更新的通道。读头和写头组件包括读头和写头,写头的输入端与LSTM神经网络的输出端连接,写头的输出端与层次记忆矩阵组件的输入端连接;读头的输入端与层次记忆矩阵组件的输出端连接,读头的输出端与LSTM神经网络的输入端连接。
写头向层次记忆矩阵写入信息,以对层次记忆矩阵的数据进行更新,其主要根据基于内容的注意力机制和基于使用位置的注意力机制进行信息的写入。这里的基于内容的注意力机制是指写头通过对比控制器组件的输出信息和层次记忆矩阵中每个插槽存储的信息,来决定向每个插槽写入多少信息;基于使用位置的注意力机制是指根据位置是否存有信息来决定是否向该位置写入信息。(其中,基于内容的注意力机制和基于使用位置的注意力机制都是神经网络结构中常用的一些注意力机制,是已经成熟的技术,注意力机制本身不是本发明保护的重点)。例如,可能会优先向空的位置写入信息或优先向已长时间未更新的位置写入信息,来保持层次记忆矩阵存储的信息是最新的。写入公式如下:
即上述衰减模块中根据衰减向量将Mt-1更新为Mt的公式,采用分割并衰减的方式,模仿人类记忆存储的方式对层次记忆矩阵进行更新。
读头从层次记忆矩阵读取信息,并将读取的信息形成读向量,该读向量作为LSTM中的一个输入,从层次记忆矩阵中读取的该信息相当于学生记忆中的信息即学生掌握的信息,将该信息输入到LSTM后与下一个题目信息求点积,从而给出下一个的预测。其中,读头读取信息主要根据基于内容的注意力机制和基于使用顺序的注意力机制进行信息的读取,基于内容的注意力机制是指读头通过对比控制器组件的输出信息和层次记忆矩阵中每个插槽存储的信息,来决定读头从每个插槽读多少信息;基于使用顺序的注意力机制是指读头会根据层次记忆矩阵中每个插槽的写入顺序,来决定从每个插槽读取多少信息。(其中,基于内容的注意力机制和基于使用顺序的注意力机制都是神经网络结构中常用的一些注意力机制,是已经成熟的技术,注意力机制本身不是本发明保护的重点)。例如,在知识追踪任务中,读头可能会给最近写入的信息更高的权重,因为学生对最近的题目记忆比较深刻。读头从层次记忆矩阵中读取信息的公式如下:
记录使用位置和使用顺序组件(memory usage and temporal links)用于记录层次记忆矩阵中每个插槽的使用情况和每个插槽的使用顺序,其中memory usage向量记录层次记忆矩阵中每个插槽的使用情况,用于计算基于位置的注意力的权重;temporal link矩阵记录层次记忆矩阵中每个存储单元使用顺序,用于计算基于使用顺序的注意力的权重。除了基于使用情况的注意力机制和基于使用顺序的注意力机制外,还有第三种基于内容的注意力机制,这种注意力机制通过计算两向量间的余弦相似性来判断两向量是否相似。
表1展示了本发明的知识跟踪方法和现有技术的方法对认知者答题情况预测结果。作为对比的公共数据集3个,分别是ASSISTments2009,ASSISTments2015,Statics2011。作为对比的模型有深度知识追踪模型(Deep Knowledge Tracing,DKT),其他论文中提及的表现最好的DKT,记为DKT*,动态键值对记忆网络模型(Dynamic Key-Value MemoryNetwork,DKVMN),还有我们首次将可微分神经计算机(Differential Neural Computer,DNC)运用于知识追踪领域的DNC,最后是我们提出的层次记忆模型模型(HierarchicalMemory Network,HMN)。实验结果我们用Area Under Curve(AUC)进行评价,它被定义为ROC曲线下与坐标轴围成的面积。从表中可以看到,本发明实施例的技术方案的预测结果优于现有技术方案的预测结果。
表1为本发明知识跟踪方法和现有技术的方法对认知者答题情况预测结果
除了对各模型的结果进行对比外,我们还对各模型的训练过程进行了对比,图6~8为DKT,DNC和HMN在刚才提到的3个公开数据集上的训练过程对比图,从图中可以发现,HMN的训练速度比DKT快,同时HMN相较于DKT和DNC而言,有更强的泛化能力。
本发明还提供基于层次记忆网络的知识追踪方法,包括如下步骤:
S1输入答题序列,并对其进行编码
答题序列包括多个问题和对问题的回答的对错,其中问题用与之相关的技能编码表示,答案的对错用0、1表示;
S2强化问题编码和答案编码,使得二者更好区分
以一个学生回答一个问题为例,输入其中/>分别是et,ct强化后的结果。et是问题独热编码,而ct是回答对错(ct=1表示做对,ct=0表示做错)。/>由et通过一个多层感知机后再用sigmoid函数进行激活产生;而/>其中g(x)=20*(x-0.5),所以强化后的/>表示做对,/>表示做错。举个例子,原输入可能为表示回答正确,可以发现,最后一位的1与第三位的0.9以及第一位0.8相差不大,所以LSTM网络不容易区分问题和答案。而强化后的输入其中技能和答案的表示方法区别较大,可以达到强化输入的目的。
S3利用神经网络处理输入的信息,并将知识分为工作记忆和长期记忆写入层次记忆矩阵,并不断利用输入信息对层次记忆矩阵进行存储和更新;
S31利用输入的信息对层次记忆矩阵进行写入式更新,并对输入的信息按照工作记忆和长期记忆进行分割,将工作记忆直接进行存储,将长期记忆以衰减的方式进行存储;
输入信息的写入其主要根据基于内容的注意力机制和基于使用位置的注意力机制进行信息的写入。这里的基于内容的注意力机制是指写头通过对比控制器组件的输出信息和层次记忆矩阵中每个插槽存储的信息,来决定向每个插槽写入多少信息;基于使用位置的注意力机制是指根据位置是否存有信息来决定是否向该位置写入信息。
将写入的信息进行分割,分为工作记忆的信息和长期记忆的信息,并分别存入到知识存储的工作存储单元和长期存储单元,并对存入长期存储单元的信息进行衰减后存入,通过设置衰减率,选择部分知识信息进行存储,以此模拟人类长期记忆中部分遗忘的记忆模式。
通过不断地做题,不断地输入对层次记忆矩阵不断地进行更新。即相当于人通过不断地做题训练,不断地获取知识、存储、遗忘的过程。
S32从层次记忆矩阵中提取已知的知识信息
提取已知的知识信息主要根据基于内容的注意力机制和基于使用顺序的注意力机制进行信息的读取,基于内容的注意力机制是指读头通过对比控制器组件的输出信息和层次记忆矩阵中每个插槽存储的信息,来决定读头从每个插槽读多少信息;基于使用顺序的注意力机制是指读头会根据层次记忆矩阵中每个插槽的写入顺序,来决定从每个插槽读取多少信息。
S4读头从层次记忆矩阵读取信息作为已知的知识信息,与当前时间步的题目和答案信息一起输入LSTM网络,LSTM网络的输出与下一个时间步的题目信息做点积运算得出下一步题目正确率的预测结果。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.基于层次记忆网络的知识追踪系统,包括用于输入知识信息和输出预测信息的控制器组件,其特征在于,还包括层次记忆矩阵组件、读头和写头组件;
所述读头和写头组件设置在所述控制器组件和所述层次记忆矩阵组件之间,所述读头和写头组件用于将所述控制器组件处理后的输入信息写入到所述层次记忆矩阵组件存储更新,并从所述层次记忆矩阵组件中读取更新后的知识信息;
所述控制器组件包括强化输入模块、LSTM神经网络、多层感知机模块以及点积运算模块;其中,强化输入模块,所述强化输入模块用于强化测评数据和反馈数据的编码;所述层次记忆矩阵组件包括工作存储单元、长期存储单元、分割模块和衰减模块,所述分割模块用于将输入的信息分为工作记忆信息和长期记忆信息分别存入到工作存储单元和长期存储单元,所述衰减模块用于将存入长期存储单元的长期记忆信息进行衰减后存入到长期存储单元,用于模拟人的记忆模式对知识信息进行存储。
2.根据权利要求1所述的基于层次记忆网络的知识追踪系统,其特征在于,所述层次记忆矩阵包括若干个呈矩阵排列的用于存储信息的插槽,其中部分插槽置于所述工作存储单元内,剩余的插槽置于所述长期存储单元内。
3.根据权利要求1所述的基于层次记忆网络的知识追踪系统,其特征在于,所述衰减模块与所述工作存储单元和所述长期存储单元的插槽连接,用于将信息赋予衰减率后写入到插槽中。
4.根据权利要求1所述的基于层次记忆网络的知识追踪系统,其特征在于,还包括记录使用位置和使用顺序组件,用于记录层次记忆矩阵中每个插槽的使用情况和每个插槽的使用顺序。
5.一种基于层次记忆网络的知识追踪方法,应用于如权利要求1至4中任一项所述的基于层次记忆网络的知识追踪系统,其特征在于,包括如下步骤:
S1输入知识信息序列,并对其进行编码;
S2强化测评数据编码和反馈数据编码,使得二者更好区分;
S3利用神经网络处理输入的信息,并将知识分为工作记忆和长期记忆写入层次记忆矩阵,并不断利用输入信息对层次记忆矩阵进行存储和更新;
S4从层次记忆矩阵读取信息作为已知的知识信息,与输入的下一步的题目信息做点积运算得出下一步题目正确率的预测结果。
6.根据权利要求5所述的基于层次记忆网络的知识追踪方法,其特征在于,步骤S3具体包括:
S31利用输入的信息对层次记忆矩阵进行写入式更新,并对输入的信息按照工作记忆和长期记忆进行分割,将工作记忆直接进行存储,将长期记忆以衰减的方式进行存储;
S32从层次记忆矩阵中提取已知的知识信息。
7.根据权利要求6所述的基于层次记忆网络的知识追踪方法,其特征在于,步骤S31中,输入信息的写入其主要根据基于内容的注意力机制和基于使用位置的注意力机制进行信息的写入,基于内容的注意力机制为写头通过对比所述控制器组件的输出信息和所述层次记忆矩阵中每个插槽存储的信息,来决定向每个插槽写入多少信息,基于使用位置的注意力机制为根据位置是否存有信息来决定是否向该位置写入信息。
8.根据权利要求6或7所述的基于层次记忆网络的知识追踪方法,其特征在于,步骤S31中,分割主要的步骤包括引入距离向量衡量两个时间步之间的信息差异,计算累积的信息差异向量,以超参数为阈值与累积的进行比对,超过阈值的存入到长期存储单元,未超过阈值的存入到工作存储单元。
9.根据权利要求8所述的基于层次记忆网络的知识追踪方法,其特征在于,步骤S31中,衰减的方式写入具体包括引入衰减向量;
衰减向量decayt用于为记忆矩阵的每个插槽设置写入时的衰减率:
其中,cumsum(·)是累加函数,softmax(·)是softmax函数,
°代表逐元素积,dt代表由LSTM神经网络生成的第t个时间步的衰减系数向量,阈值∈是趋于0的正常数,maskt表示第t个时间步的掩码向量;
根据衰减向量decayt,我们将Mt-1更新为Mt:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911115390.6A CN111047482B (zh) | 2019-11-14 | 2019-11-14 | 基于层次记忆网络的知识追踪系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911115390.6A CN111047482B (zh) | 2019-11-14 | 2019-11-14 | 基于层次记忆网络的知识追踪系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111047482A CN111047482A (zh) | 2020-04-21 |
CN111047482B true CN111047482B (zh) | 2023-07-04 |
Family
ID=70232013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911115390.6A Active CN111047482B (zh) | 2019-11-14 | 2019-11-14 | 基于层次记忆网络的知识追踪系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111047482B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111538868B (zh) * | 2020-04-28 | 2023-06-16 | 中国科学技术大学 | 知识追踪方法及习题推荐方法 |
CN111582457A (zh) * | 2020-05-11 | 2020-08-25 | 陈永聪 | 一种模仿人类记忆来实现通用机器智能的方法 |
CN111651594B (zh) * | 2020-05-15 | 2023-06-09 | 上海交通大学 | 基于键值记忆网络的案件案由分类方法及介质 |
CN111723527B (zh) * | 2020-06-28 | 2024-04-16 | 重庆大学 | 基于鸡尾酒长短期记忆神经网络的齿轮剩余寿命的预测方法 |
CN112115247B (zh) * | 2020-09-07 | 2023-10-10 | 中国人民大学 | 一种基于长短时记忆信息的个性化对话生成方法和系统 |
CN112766513B (zh) * | 2021-01-29 | 2024-05-07 | 华中师范大学 | 一种记忆协同的知识追踪方法及系统 |
CN113033808B (zh) * | 2021-03-08 | 2024-01-19 | 西北大学 | 一种基于习题难度和学生能力的深度嵌入知识追踪方法 |
CN113704235A (zh) * | 2021-08-03 | 2021-11-26 | 桂林电子科技大学 | 一种基于自注意力机制的深度知识追踪模型 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4925235B2 (ja) * | 2001-09-25 | 2012-04-25 | 独立行政法人理化学研究所 | 脳の精神的な機能をモデル化した人工ニューラルネットワーク構造の形成方法 |
CN106126596B (zh) * | 2016-06-20 | 2019-08-23 | 中国科学院自动化研究所 | 一种基于层次化记忆网络的问答方法 |
CN109858615A (zh) * | 2018-02-09 | 2019-06-07 | 渊慧科技有限公司 | 具有记忆的低通递归神经网络系统 |
CN110197251A (zh) * | 2018-02-26 | 2019-09-03 | 中国科学院深圳先进技术研究院 | 基于深度学习网络的预测方法、装置、设备及存储介质 |
US10943497B2 (en) * | 2018-04-27 | 2021-03-09 | Adobe Inc. | Personalized e-learning using a deep-learning-based knowledge tracing and hint-taking propensity model |
CN109543165B (zh) * | 2018-11-21 | 2022-09-23 | 中国人民解放军战略支援部队信息工程大学 | 基于循环卷积注意力模型的文本生成方法及装置 |
CN110348577B (zh) * | 2019-06-26 | 2020-07-07 | 华中师范大学 | 一种基于融合认知计算的知识跟踪方法 |
-
2019
- 2019-11-14 CN CN201911115390.6A patent/CN111047482B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111047482A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111047482B (zh) | 基于层次记忆网络的知识追踪系统及方法 | |
Korner-Nievergelt et al. | Bayesian data analysis in ecology using linear models with R, BUGS, and Stan | |
CN111582694A (zh) | 一种学习评估方法及装置 | |
CN113361685B (zh) | 一种基于学习者知识状态演化表示的知识追踪方法及系统 | |
CN114429212A (zh) | 智能学习知识能力跟踪方法、电子设备及存储介质 | |
CN114021722A (zh) | 一种融合认知刻画的注意力知识追踪方法 | |
CN114385801A (zh) | 一种基于分层细化lstm网络的知识追踪方法及系统 | |
CN112116069A (zh) | 一种基于Attention-LSTM的强化学习Agent知识推理方法 | |
CN112818100B (zh) | 一种融合题目难度的知识追踪方法及系统 | |
CN113988300A (zh) | 一种题目结构推理方法及系统 | |
CN115510286A (zh) | 一种基于图卷积网络的多关系认知诊断方法 | |
CN114781710A (zh) | 一种综合学习过程及题目知识点难度特征的知识追踪方法 | |
CN111126758B (zh) | 一种学术团队影响力传播预测方法、设备和存储介质 | |
CN114971066A (zh) | 融合遗忘因素和学习能力的知识追踪方法及系统 | |
CN114298299A (zh) | 基于课程学习的模型训练方法、装置、设备及存储介质 | |
CN116402134A (zh) | 基于行为感知的知识追踪方法及系统 | |
CN115906673A (zh) | 作战实体行为模型一体化建模方法及系统 | |
CN112766513B (zh) | 一种记忆协同的知识追踪方法及系统 | |
CN113392958B (zh) | 一种模糊神经网络fnn的参数优化及应用方法与系统 | |
CN114925218A (zh) | 一种基于自适应图的学习者知识认知结构动态挖掘方法 | |
CN113240425A (zh) | 基于深度学习的金融反洗钱交易方法、设备及存储介质 | |
NL2028510B1 (en) | Method and system for knowledge tracing based on hierarchical memory network | |
CN113989080B (zh) | 基于深度知识-项目联合追踪的学习者画像方法及其系统 | |
Chen | Sequential importance sampling with resampling: theory and applications | |
CN116502103A (zh) | 基于动态记忆键值对网络的知识追踪方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |