CN111047482A - 基于层次记忆网络的知识追踪系统及方法 - Google Patents

基于层次记忆网络的知识追踪系统及方法 Download PDF

Info

Publication number
CN111047482A
CN111047482A CN201911115390.6A CN201911115390A CN111047482A CN 111047482 A CN111047482 A CN 111047482A CN 201911115390 A CN201911115390 A CN 201911115390A CN 111047482 A CN111047482 A CN 111047482A
Authority
CN
China
Prior art keywords
information
memory
long
knowledge
hierarchical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911115390.6A
Other languages
English (en)
Other versions
CN111047482B (zh
Inventor
刘三女牙
邹睿
蒋路路
孙建文
张凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central China Normal University
Original Assignee
Central China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central China Normal University filed Critical Central China Normal University
Priority to CN201911115390.6A priority Critical patent/CN111047482B/zh
Publication of CN111047482A publication Critical patent/CN111047482A/zh
Application granted granted Critical
Publication of CN111047482B publication Critical patent/CN111047482B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明公开了基于层次记忆网络的知识追踪系统,包括控制器组件、层次记忆组件、读头和写头组件,读头和写头组件设置在控制器组件和所述层记忆组件之间,读头和写头组件用于将控制器组件处理后的输入信息写入到所述层次记忆组件存储更新;层次记忆矩阵组件包括工作存储单元、长期存储单元、分割模块和衰减模块,分割模块用于将输入的信息分为工作记忆信息和长期记忆信息分别存入到工作存储单元和长期存储单元,衰减模块用于将存入长期存储单元的长期记忆信息进行衰减后存入到长期存储单元。本发明的基于层次记忆网络的知识追踪系统,模拟人类长期记忆和短期记忆的模式,对输入的知识信息进行分类衰减存储,使得预测更准确。

Description

基于层次记忆网络的知识追踪系统及方法
技术领域
本发明属于知识追踪技术领域,更具体地,涉及基于层次记忆网络的知识追踪系统及方法。
背景技术
知识追踪的目标是通过分析学生的历史学习情况对学生的知识状态进行建模,知识状态代表学生在学习过程中对技能的掌握程度。知识追踪的难点在于学习过程是受到诸多认知因素影响的,尤其是人类记忆的复杂性。从模拟人类记忆的特点出发,我们可以将现有的知识追踪模型分成3类。
第一类是静态知识追踪模型,其特点是使用逻辑回归的方法对学生和技能之间的联系进行建模,从而估计学生在学习过程中对技能的掌握程度。第二类是动态知识追踪模型,其特点是使用贝叶斯网络来建模学生学习过程中的知识状态变化,从而估计学生在学习过程中对技能的掌握程度。这两类模型是后续研究的基础,不过这两类模型并没有显式地把人类记忆特点对学习过程的影响考虑进去。第三类是深度知识追踪模型,其特点是使用深度神经网络来建模学生学习过程中的知识状态变化。
深度知识追踪模型(Deep Knowledge Tracing,DKT)是第一个将循环神经网络(Recurrent Neural Network,RNN)应用于知识追踪的模型,该模性取得了比以前模型更好的结果。对DKT进行改进,人们又提出了DKT的变体。有学者发现DKT中存在无法重建输入以及预测中知识状态向量(知识状态向量的概念由DKT提出,用于表示学生对各个技能的掌握程度)变化不稳定这两个问题,于是他们在DKT的损失函数中加入两个正则化项以解决这两个问题。就模拟人类记忆而言,DKT和它的变体都使用了RNN,从而能显式地模拟人类工作记忆。动态键值记忆网络(Dynamic Key-Value Memory Networks,DKVMN)首次将增强记忆神经网络(Memory-Augmented Neural Networks,MANNs)应用于知识追踪,MANNs的特点是通过外部记忆矩阵来记忆更多信息。
但是,前两类模型没有直接模拟人类记忆,人类记忆模型(Atkinson-Shiffrinmemory model,ASMM),ASMM中把人类记忆分为三个部分,分别是感知记忆(Sensorymemory),工作记忆(Working memory)和长期记忆(Long-term memory);第三类模型虽然在一定程度上模拟了人的工作记忆,不过它们都没有很好的模拟人类记忆,特别是人类记忆中的长期记忆,而长期记忆对学生的学习过程影响有较大影响。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供的基于层次记忆网络的知识追踪系统和方法,通过在现有的知识追踪系统中加入了层次记忆矩阵组件,并在层次记忆矩阵组件中设置工作存储单元和长期存储单元,从而模拟人类的短期记忆存储和长期记忆存储,并用分割模块将输入的信息分为工作记忆信息和长期记忆信息分割后存入到工作存储单元和长期存储单元中,再利用衰减模块对存入到长期存储单元的信息做衰减处理后存入,本发明通过对人类的记忆模式的模拟,使得对知识追踪的预测更加准确,本系统的训练速度更快,泛化能力也更强。
为了实现上述目的,本发明提供基于层次记忆网络的知识追踪系统,包括用于输入知识信息和输出预测信息的控制器组件,还包括层次记忆组件、读头和写头组件;
所述读头和写头组件设置在所述控制器组件和所述层记忆组件之间,所述读头和写头组件用于将所述控制器组件处理后的输入信息写入到所述层次记忆组件存储更新,并从所述层次记忆组件中读取更新后的知识信息;
所述层次记忆组件包括工作存储单元、长期存储单元、分割模块和衰减模块,所述分割模块用于将输入的信息分为工作记忆信息和长期记忆信息分别存入到工作存储单元和长期存储单元,所述衰减模块用于将存入长期存储单元的长期记忆信息进行衰减后存入到长期存储单元,用于模拟人的记忆模式对知识信息进行存储。
进一步地,所述层次记忆矩阵包括若干个呈矩阵排列的用于存储信息的插槽,其中部分插槽置于所述工作存储单元内,剩余的插槽置于所述长期存储单元内。
进一步地,所述衰减模块与所述工作存储单元和所述长期存储单元的插槽连接,用于将信息赋予衰减率后写入到插槽中。
进一步地,所述控制器组件包括强化输入模块,所述强化输入模块用于强化测评数据和反馈数据的编码。
进一步地,还包括记录使用位置和使用顺序组件,用于记录层次记忆矩阵中每个插槽的使用情况和每个插槽的使用顺序。
本发明还提供另外一种方案,基于层次记忆网络的知识追踪方法,包括如下步骤:
S1输入知识信息序列,并对其进行编码;
S2强化测评数据编码和反馈数据编码,使得二者更好区分;
S3利用神经网络处理输入的信息,并将知识分为工作记忆和长期记忆写入层次记忆矩阵,并不断利用输入信息对层次记忆矩阵进行存储和更新;
S4从层次记忆矩阵读取信息作为已知的知识信息,与输入的下一步的题目信息做点积运算得出下一步题目正确率的预测结果。
进一步地,步骤S3具体包括:
S31利用输入的信息对层次记忆矩阵进行写入式更新,并对输入的信息按照工作记忆和长期记忆进行分割,将工作记忆直接进行存储,将长期记忆以衰减的方式进行存储;
S32从层次记忆矩阵中提取已知的知识信息。
进一步地,步骤S31中,输入信息的写入其主要根据基于内容的注意力机制和基于使用位置的注意力机制进行信息的写入,基于内容的注意力机制为写头通过对比所述控制器组件的输出信息和所述层次记忆矩阵中每个插槽存储的信息,来决定向每个插槽写入多少信息,基于使用位置的注意力机制为根据位置是否存有信息来决定是否向该位置写入信息。
进一步地,步骤S31中,分割主要的步骤包括引入距离向量衡量两个时间步之间的信息差异,计算累积的信息差异向量,以超参数为阈值与累积的进行比对,超过阈值的存入到长期存储单元,未超过阈值的存入到工作存储单元。
进一步地,步骤S31中,衰减的方式写入具体包括引入衰减向量
衰减向量decayt用于为记忆矩阵的每个插槽设置写入时的衰减率:
Figure BDA0002273894510000041
其中,cumsum(·)是累加函数,softmax(·)是softmax函数,
Figure BDA0002273894510000042
代表逐元素积,dt代表由LSTM神经网络生成的第t个时间步的衰减系数向量,阈值∈是趋于0的正常数。
根据衰减向量decayt,我们将Mt-1更新为Mt
Figure BDA0002273894510000043
其中,运算符
Figure BDA0002273894510000044
代表逐元素积,E是全1矩阵,
Figure BDA0002273894510000045
是基于注意力机制的写入权重向量,
Figure BDA0002273894510000046
是擦除向量的转置,
Figure BDA0002273894510000047
是写入向量,decayt是衰减向量。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明的基于层次记忆网络的知识追踪系统和方法,通过在现有的知识追踪系统中加入了层次记忆矩阵组件,并在层次记忆矩阵组件中设置工作存储单元和长期存储单元,从而模拟人类的短期记忆存储和长期记忆存储,并用分割模块将输入的信息分为工作记忆信息和长期记忆信息分割后存入到工作存储单元和长期存储单元中,再利用衰减模块对存入到长期存储单元的信息做衰减处理后存入,本发明通过对人类的记忆模式的模拟,使得对知识追踪的预测更加准确,本系统的训练速度更快,泛化能力也更强。
(2)本发明的基于层次记忆网络的知识追踪系统,层次记忆组件中设置若干个插槽,组成层次记忆矩阵存储输入的信息,插槽按照工作存储单元和长期存储单元分开存储,并通过读头和写头组件向插槽中写入信息对层次记忆矩阵进行更新,并从中读取信息作为已知的知识信息用于预测,提高了预测的准确性。
附图说明
图1是现有技术中人类记忆模型(Atkinson-Shiffrim memory model,ASMM)的参考图;
图2是本发明实施例的长短时记忆神经网络(Long-Short Term Memory Network,LSTM)的示意图;
图3是本发明实施例的层次记忆网络(Hierachical Memory Network,HMN)的示意图;
图4是本发明实施例的HMN的分割模块的示意图;
图5是本发明实施例的HMN的衰减模块的示意图;
图6是本发明实施例的HMN和深度知识追踪模型DKT在数据集ASSISTments2009上训练过程对比的示意图;
图7是本发明实施例的HMN模型和经典的深度知识追踪模型(Deep KnowledgeTracing,DKT)在数据集ASSISTments2015上训练过程对比的示意图;
图8是本发明实施例的HMN和经典的深度知识追踪模型DKT在数据集Statics2011上训练过程对比的示意图;
图9是本发明实施例基于层次记忆网络的知识跟踪方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
图3是本发明实施例的层次记忆网络(Hierachical Memory Network,HMN)的示意图。如图3所示,本发明的基于层次记忆网络的知识追踪系统包括控制器组件、读头和写头组件、层次记忆矩阵组件和记录使用位置和使用顺序组件。控制器组件包括强化输入模块、LSTM神经网络、多层感知机模块以及点积运算模块,控制器组件的输入是知识数据,知识数据包括测评数据和反馈数据;优选地,知识信息序列指学生的答题序列,测评数据指的是问题序列,反馈数据指的是答案序列,答题序列包括多个问题和对问题的回答的对错,其中问题用与之相关的技能编码表示,答案的对错用0、1表示。
强化输入模块用于强化问题编码和答案编码,使得LSTM神经网络系统能够更好的区分问题和回答;学生的答题序列输入的第一步就是通过强化输入模块对输入信息进行强化,具体操作如下:以一个学生回答一个问题为例,输入
Figure BDA0002273894510000061
其中
Figure BDA0002273894510000062
分别是et,ct强化后的结果。et是问题独热编码,而ct是回答对错(ct=1表示做对,ct=0表示做错)。
Figure BDA0002273894510000063
由et通过一个多层感知机后再用sigmoid函数进行激活产生;而
Figure BDA0002273894510000064
其中g(x)=20*(x-0.5),所以强化后的
Figure BDA0002273894510000065
表示做对,
Figure BDA0002273894510000066
表示做错。举个例子,原输入可能为
Figure BDA0002273894510000067
表示回答正确,可以发现,最后一位的1与第三位的0.9以及第一位0.8相差不大,所以LSTM网络不容易区分问题和答案。而强化后的输入
Figure BDA0002273894510000068
其中技能和答案的表示方法区别较大,可以达到强化输入的目的。
图2是本发明实施例的长短时记忆神经网络(Long-Short Term Memory Network,LSTM)的示意图。LSTM神经网络的结构如图2所示,其目的是处理当前时间步输入信息xt以及来层次记忆矩阵模块中的信息。LSTM公式如下:
ft=σ(Wf·[ht-1,xt]+bf)
it=σ(Wi·[ht-1,xt]+bi)
Figure BDA0002273894510000071
Figure BDA0002273894510000072
ot=σ(Wo·[ht-1,xt]+bo)
ht=ot*tanh(Ct)
其中第一公式是计算遗忘门(forget gate)的大小,以确定有多少信息应该被遗忘,第二个公式用于计算输入门(input gate或称update gate)的大小,用来更新信息;第三个公式是计算来自当前时间步的信息;第四个公式是综合考虑了forget gate和inputgate来计算新的Ct(cell state);第五个公式是计算输出门(output gate)的大小,来决定输出的信息;第六个公式则是根据输出门(output gate)和Ct来计算ht(hidden state)。其中,LSTM的结构以及处理内容均为本领域成熟的技术,不是本方案保护的重点,上述六个公式及公式中参数的含义均是本领域技术人员能够理解并经常运用到LSTM处理中的内容。
多层感知机模块用于将LSTM的输出转化为当前第t个时间步的学生的知识状态向量KSt(knowledge state),知识状态向量表示当前学生对所有技能的掌握情况,例如KSt=[0,1,0.5]代表学生对第一个技能完全没掌握,对第二个技能完全掌握了,而对第三个技能相关的题目回答正确率是50%。点积运算模块用于将第t个时间步的学生的知识状态KSt与下一个时间步的问题et+1(学生对所作题目所涉及技能的独特编码)点积运算,得到下一个题的预测答案ct+1
层次记忆矩阵组件的用于算出一次写入的所有信息的信息量,然后根据超参数信息差异阈值c来对超过阈值部分的信息以衰减的方式写入层次记忆矩阵的长期存储单元,而未超过部分直接写入层次记忆矩阵的工作存储单元。
层次记忆矩阵组件包括工作存储单元(working storage)、长期存储单元(long-term storage)、分割模块和衰减模块。工作存储单元用于模拟人类的工作记忆,长期存储单元用于模拟人类长期记忆。层次记忆矩阵模块包括若干个呈矩阵排列的插槽,插槽内存储信息,工作存储单元和长期存储单元均包括若干个插槽;层次记忆矩阵模块中第1~P个插槽是工作存储单元(working storage),第P+1~N个插槽是长期存储单元(long-termstorage)。
其中,分割模块用于将非层次记忆矩阵分到工作存储单元或长期存储单元中,如图4所示,具体的分割原理如下:
首先,我们引入距离向量
Figure BDA0002273894510000081
用于衡量表示两个时间步之间的信息差异(信息差异越大表示遗忘的越多,应将其归到工作存储单元;信息差异越小表示应归入到长期存储单元),
Figure BDA0002273894510000082
其中,上个时间步的层次记忆矩阵
Figure BDA0002273894510000083
其中
Figure BDA0002273894510000084
是表示Mt-1中第i个插槽,
Figure BDA0002273894510000085
是非层次记忆矩阵。然后我们计算积累的信息差异向量
Figure BDA0002273894510000086
Figure BDA0002273894510000087
其中,cumsum(·)是累加函数,softmax(·)是softmax函数,normalize(·)是min-max正则化函数。
根据累积的信息差异向量
Figure BDA0002273894510000088
我们进一步算出用于分割模块的第t个时间步的掩码向量maskt
Figure BDA0002273894510000089
其中超参数c是一个常数,表示“信息差异阈值”(capacity,c);阶跃函数
Figure BDA0002273894510000091
将未超过信息差异阈值c的插槽位置记为0,代表对应插槽是工作存储单元的一部分;而将超过部分记为1,代表对应插槽是长期存储单元的一部分。其中,常数c是超参数信息差异阈值,H(t)是阶跃函数。maskt中0和1分别表示工作存储单元和长期存储单元。其中,c的取值是系统学习多次根据最后的知识跟踪效果选取的最优值。
如图4所示。根据多次试验的预测效果,优选地,取c值为0.4,其
Figure BDA0002273894510000092
被c=0.4分割,通过上述公式生成maskt=[0,...0,1,...,1],进而通过maskt将记忆矩阵分割为两部分。
衰减模块用于经分割模块处理后的记忆矩阵以衰减的方式写入,其中写入工作存储单元的信息采用直接写入,而对输入长期存储单元的信息采取衰减的方式进行写入,以保证长期存储单元里的信息能保存更久,从而通过分别进行直接写入和衰减写入的方式来模拟人类记忆的方式。相较于现有技术中对于知识跟踪预测,本发明增加的层次记忆矩阵组件中的实现长期记忆衰减存入和工作记忆直接存入的单元,其模拟预测更加接近真实情况,最后取得的预测值也更加准确。
衰减模块的工作原理:
衰减向量(decayt)用于为记忆矩阵的每个插槽设置写入时的衰减率:
Figure BDA0002273894510000093
其中
Figure BDA0002273894510000094
代表逐元素积,dt代表由LSTM神经网络生成的第t个时间步的衰减系数向量,阈值∈是接近于0的正常数,用于防止最后一个插槽的衰减率等于0(衰减率为0代表永不更新)。根据衰减向量decayt,我们将Mt-1更新为Mt
Figure BDA0002273894510000095
运算符
Figure BDA0002273894510000101
代表逐元素积,E是全1矩阵,
Figure BDA0002273894510000102
是基于注意力机制的写入权重向量,
Figure BDA0002273894510000103
是擦除向量的转置,
Figure BDA0002273894510000104
是写入向量,decayt是衰减向量,
Figure BDA0002273894510000105
decayt都由LSTM生成,Mt是第t个时间步的层次记忆矩阵。如图5所示,通过衰减模块将信息按照衰减向量decayt=[1,1,...,1,1,0.9,0.78,...,0.14,0.05]的衰减写入层次记忆矩阵,其中,1代表信息未经过衰减就直接写入工作存储单元,而小数代表信息经过衰减写入长期存储单元,例如0.78代表以78%的衰减率写入对应插槽。
其中,LSTM神经网络的输出分为两个分支,一个分支与多层感知机模块及点积运算模块连接,用于预测;另一个分支用于对层次记忆矩阵组件中的层次记忆矩阵进行更新。LSTM神经网络的输入包括强化输入模块强化后的第t个时间步的答题情况和层次记忆矩阵的输入。
读头和写头组件设置在控制器组件和层次记忆矩阵组件之间,并在控制器组件和层次记忆矩阵组件之间建立数据的输入输出和更新的通道。读头和写头组件包括读头和写头,写头的输入端与LSTM神经网络的输出端连接,写头的输出端与层次记忆矩阵组件的输入端连接;读头的输入端与层次记忆矩阵组件的输出端连接,读头的输出端与LSTM神经网络的输入端连接。
写头向层次记忆矩阵写入信息,以对层次记忆矩阵的数据进行更新,其主要根据基于内容的注意力机制和基于使用位置的注意力机制进行信息的写入。这里的基于内容的注意力机制是指写头通过对比控制器组件的输出信息和层次记忆矩阵中每个插槽存储的信息,来决定向每个插槽写入多少信息;基于使用位置的注意力机制是指根据位置是否存有信息来决定是否向该位置写入信息。(其中,基于内容的注意力机制和基于使用位置的注意力机制都是神经网络结构中常用的一些注意力机制,是已经成熟的技术,注意力机制本身不是本发明保护的重点)。例如,可能会优先向空的位置写入信息或优先向已长时间未更新的位置写入信息,来保持层次记忆矩阵存储的信息是最新的。写入公式如下:
Figure BDA0002273894510000111
即上述衰减模块中根据衰减向量将Mt-1更新为Mt的公式,采用分割并衰减的方式,模仿人类记忆存储的方式对层次记忆矩阵进行更新。
读头从层次记忆矩阵读取信息,并将读取的信息形成读向量,该读向量作为LSTM中的一个输入,从层次记忆矩阵中读取的该信息相当于学生记忆中的信息即学生掌握的信息,将该信息输入到LSTM后与下一个题目信息求点积,从而给出下一个的预测。其中,读头读取信息主要根据基于内容的注意力机制和基于使用顺序的注意力机制进行信息的读取,基于内容的注意力机制是指读头通过对比控制器组件的输出信息和层次记忆矩阵中每个插槽存储的信息,来决定读头从每个插槽读多少信息;基于使用顺序的注意力机制是指读头会根据层次记忆矩阵中每个插槽的写入顺序,来决定从每个插槽读取多少信息。(其中,基于内容的注意力机制和基于使用顺序的注意力机制都是神经网络结构中常用的一些注意力机制,是已经成熟的技术,注意力机制本身不是本发明保护的重点)。例如,在知识追踪任务中,读头可能会给最近写入的信息更高的权重,因为学生对最近的题目记忆比较深刻。读头从层次记忆矩阵中读取信息的公式如下:
Figure BDA0002273894510000112
其中,
Figure BDA0002273894510000113
代表基于两种注意力机制的读权重向量,i代表记忆矩阵的第i个插槽,t代表第t个时间步;
Figure BDA0002273894510000114
是层次记忆矩阵的转置,
Figure BDA0002273894510000115
是读头读取结果,即读取向量(readvectors)。
记录使用位置和使用顺序组件(memory usage and temporal links)用于记录层次记忆矩阵中每个插槽的使用情况和每个插槽的使用顺序,其中memory usage向量记录层次记忆矩阵中每个插槽的使用情况,用于计算基于位置的注意力的权重;temporal link矩阵记录层次记忆矩阵中每个存储单元使用顺序,用于计算基于使用顺序的注意力的权重。除了基于使用情况的注意力机制和基于使用顺序的注意力机制外,还有第三种基于内容的注意力机制,这种注意力机制通过计算两向量间的余弦相似性来判断两向量是否相似。
表1展示了本发明的知识跟踪方法和现有技术的方法对认知者答题情况预测结果。作为对比的公共数据集3个,分别是ASSISTments2009,ASSISTments2015,Statics2011。作为对比的模型有深度知识追踪模型(Deep Knowledge Tracing,DKT),其他论文中提及的表现最好的DKT,记为DKT*,动态键值对记忆网络模型(Dynamic Key-Value MemoryNetwork,DKVMN),还有我们首次将可微分神经计算机(Differential Neural Computer,DNC)运用于知识追踪领域的DNC,最后是我们提出的层次记忆模型模型(HierarchicalMemory Network,HMN)。实验结果我们用Area Under Curve(AUC)进行评价,它被定义为ROC曲线下与坐标轴围成的面积。从表中可以看到,本发明实施例的技术方案的预测结果优于现有技术方案的预测结果。
表1为本发明知识跟踪方法和现有技术的方法对认知者答题情况预测结果
Figure BDA0002273894510000121
除了对各模型的结果进行对比外,我们还对各模型的训练过程进行了对比,图6~8为DKT,DNC和HMN在刚才提到的3个公开数据集上的训练过程对比图,从图中可以发现,HMN的训练速度比DKT快,同时HMN相较于DKT和DNC而言,有更强的泛化能力。
本发明还提供基于层次记忆网络的知识追踪方法,包括如下步骤:
S1输入答题序列,并对其进行编码
答题序列包括多个问题和对问题的回答的对错,其中问题用与之相关的技能编码表示,答案的对错用0、1表示;
S2强化问题编码和答案编码,使得二者更好区分
以一个学生回答一个问题为例,输入
Figure BDA0002273894510000131
其中
Figure BDA0002273894510000132
分别是et,ct强化后的结果。et是问题独热编码,而ct是回答对错(ct=1表示做对,ct=0表示做错)。
Figure BDA0002273894510000133
由et通过一个多层感知机后再用sigmoid函数进行激活产生;而
Figure BDA0002273894510000134
其中g(x)=20*(x-0.5),所以强化后的
Figure BDA0002273894510000135
表示做对,
Figure BDA0002273894510000136
表示做错。举个例子,原输入可能为
Figure BDA0002273894510000137
表示回答正确,可以发现,最后一位的1与第三位的0.9以及第一位0.8相差不大,所以LSTM网络不容易区分问题和答案。而强化后的输入
Figure BDA0002273894510000138
其中技能和答案的表示方法区别较大,可以达到强化输入的目的。
S3利用神经网络处理输入的信息,并将知识分为工作记忆和长期记忆写入层次记忆矩阵,并不断利用输入信息对层次记忆矩阵进行存储和更新;
S31利用输入的信息对层次记忆矩阵进行写入式更新,并对输入的信息按照工作记忆和长期记忆进行分割,将工作记忆直接进行存储,将长期记忆以衰减的方式进行存储;
输入信息的写入其主要根据基于内容的注意力机制和基于使用位置的注意力机制进行信息的写入。这里的基于内容的注意力机制是指写头通过对比控制器组件的输出信息和层次记忆矩阵中每个插槽存储的信息,来决定向每个插槽写入多少信息;基于使用位置的注意力机制是指根据位置是否存有信息来决定是否向该位置写入信息。
将写入的信息进行分割,分为工作记忆的信息和长期记忆的信息,并分别存入到知识存储的工作存储单元和长期存储单元,并对存入长期存储单元的信息进行衰减后存入,通过设置衰减率,选择部分知识信息进行存储,以此模拟人类长期记忆中部分遗忘的记忆模式。
通过不断地做题,不断地输入对层次记忆矩阵不断地进行更新。即相当于人通过不断地做题训练,不断地获取知识、存储、遗忘的过程。
S32从层次记忆矩阵中提取已知的知识信息
提取已知的知识信息主要根据基于内容的注意力机制和基于使用顺序的注意力机制进行信息的读取,基于内容的注意力机制是指读头通过对比控制器组件的输出信息和层次记忆矩阵中每个插槽存储的信息,来决定读头从每个插槽读多少信息;基于使用顺序的注意力机制是指读头会根据层次记忆矩阵中每个插槽的写入顺序,来决定从每个插槽读取多少信息。
S4读头从层次记忆矩阵读取信息作为已知的知识信息,与当前时间步的题目和答案信息一起输入LSTM网络,LSTM网络的输出与下一个时间步的题目信息做点积运算得出下一步题目正确率的预测结果。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.基于层次记忆网络的知识追踪系统,包括用于输入知识信息和输出预测信息的控制器组件,其特征在于,还包括层次记忆矩阵组件、读头和写头组件;
所述读头和写头组件设置在所述控制器组件和所述层记忆组件之间,所述读头和写头组件用于将所述控制器组件处理后的输入信息写入到所述层次记忆矩阵组件存储更新,并从所述层次记忆矩阵组件中读取更新后的知识信息;
所述层次记忆矩阵组件包括工作存储单元、长期存储单元、分割模块和衰减模块,所述分割模块用于将输入的信息分为工作记忆信息和长期记忆信息分别存入到工作存储单元和长期存储单元,所述衰减模块用于将存入长期存储单元的长期记忆信息进行衰减后存入到长期存储单元,用于模拟人的记忆模式对知识信息进行存储。
2.根据权利要求1所述的基于层次记忆网络的知识追踪系统,其特征在于,所述层次记忆矩阵包括若干个呈矩阵排列的用于存储信息的插槽,其中部分插槽置于所述工作存储单元内,剩余的插槽置于所述长期存储单元内。
3.根据权利要求1所述的基于层次记忆网络的知识追踪系统,其特征在于,所述衰减模块与所述工作存储单元和所述长期存储单元的插槽连接,用于将信息赋予衰减率后写入到插槽中。
4.根据权利要求1所述的基于层次记忆网络的知识追踪系统,其特征在于,所述控制器组件包括强化输入模块,所述强化输入模块用于强化测评数据和反馈数据的编码。
5.根据权利要求1所述的基于层次记忆网络的知识追踪系统,其特征在于,还包括记录使用位置和使用顺序组件,用于记录层次记忆矩阵中每个插槽的使用情况和每个插槽的使用顺序。
6.如权利要求1~5中任一项所述的基于层次记忆网络的知识追踪方法,其特征在于,包括如下步骤:
S1输入知识信息序列,并对其进行编码;
S2强化测评数据编码和反馈数据编码,使得二者更好区分;
S3利用神经网络处理输入的信息,并将知识分为工作记忆和长期记忆写入层次记忆矩阵,并不断利用输入信息对层次记忆矩阵进行存储和更新;
S4从层次记忆矩阵读取信息作为已知的知识信息,与输入的下一步的题目信息做点积运算得出下一步题目正确率的预测结果。
7.根据权利要求6所述的基于层次记忆网络的知识追踪方法,其特征在于,步骤S3具体包括:
S31利用输入的信息对层次记忆矩阵进行写入式更新,并对输入的信息按照工作记忆和长期记忆进行分割,将工作记忆直接进行存储,将长期记忆以衰减的方式进行存储;
S32从层次记忆矩阵中提取已知的知识信息。
8.根据权利要求7所述的基于层次记忆网络的知识追踪方法,其特征在于,步骤S31中,输入信息的写入其主要根据基于内容的注意力机制和基于使用位置的注意力机制进行信息的写入,基于内容的注意力机制为写头通过对比所述控制器组件的输出信息和所述层次记忆矩阵中每个插槽存储的信息,来决定向每个插槽写入多少信息,基于使用位置的注意力机制为根据位置是否存有信息来决定是否向该位置写入信息。
9.根据权利要求7或8所述的基于层次记忆网络的知识追踪方法,其特征在于,步骤S31中,分割主要的步骤包括引入距离向量衡量两个时间步之间的信息差异,计算累积的信息差异向量,以超参数为阈值与累积的进行比对,超过阈值的存入到长期存储单元,未超过阈值的存入到工作存储单元。
10.根据权利要求9所述的基于层次记忆网络的知识追踪方法,其特征在于,步骤S31中,衰减的方式写入具体包括引入衰减向量
衰减向量decayt用于为记忆矩阵的每个插槽设置写入时的衰减率:
Figure FDA0002273894500000031
其中,cumsum(·)是累加函数,softmax(·)是softmax函数,
Figure FDA0002273894500000032
代表逐元素积,dt代表由LSTM神经网络生成的第t个时间步的衰减系数向量,阈值∈是趋于0的正常数。
根据衰减向量decayt,我们将Mt-1更新为Mt:
Figure FDA0002273894500000033
其中,运算符
Figure FDA0002273894500000034
代表逐元素积,E是全1矩阵,
Figure FDA0002273894500000037
是基于注意力机制的写入权重向量,
Figure FDA0002273894500000035
是擦除向量的转置,
Figure FDA0002273894500000036
是写入向量,decayt是衰减向量。
CN201911115390.6A 2019-11-14 2019-11-14 基于层次记忆网络的知识追踪系统及方法 Active CN111047482B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911115390.6A CN111047482B (zh) 2019-11-14 2019-11-14 基于层次记忆网络的知识追踪系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911115390.6A CN111047482B (zh) 2019-11-14 2019-11-14 基于层次记忆网络的知识追踪系统及方法

Publications (2)

Publication Number Publication Date
CN111047482A true CN111047482A (zh) 2020-04-21
CN111047482B CN111047482B (zh) 2023-07-04

Family

ID=70232013

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911115390.6A Active CN111047482B (zh) 2019-11-14 2019-11-14 基于层次记忆网络的知识追踪系统及方法

Country Status (1)

Country Link
CN (1) CN111047482B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111538868A (zh) * 2020-04-28 2020-08-14 中国科学技术大学 知识追踪方法及习题推荐方法
CN111651594A (zh) * 2020-05-15 2020-09-11 上海交通大学 基于键值记忆网络的案件案由分类方法及介质
CN111723527A (zh) * 2020-06-28 2020-09-29 重庆大学 基于鸡尾酒长短期记忆神经网络的齿轮剩余寿命的预测方法
CN112115247A (zh) * 2020-09-07 2020-12-22 中国人民大学 一种基于长短时记忆信息的个性化对话生成方法和系统
CN112766513A (zh) * 2021-01-29 2021-05-07 华中师范大学 一种记忆协同的知识追踪方法及系统
CN113033808A (zh) * 2021-03-08 2021-06-25 西北大学 一种基于习题难度和学生能力的深度嵌入知识追踪方法
WO2021226731A1 (zh) * 2020-05-11 2021-11-18 陈永聪 一种模仿人类记忆来实现通用机器智能的方法
CN113704235A (zh) * 2021-08-03 2021-11-26 桂林电子科技大学 一种基于自注意力机制的深度知识追踪模型

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099756A (ja) * 2001-09-25 2003-04-04 Inst Of Physical & Chemical Res 脳の精神的な機能をモデル化した人工ニューラルネットワーク構造の形成方法
CN106126596A (zh) * 2016-06-20 2016-11-16 中国科学院自动化研究所 一种基于层次化记忆网络的问答方法
CN109543165A (zh) * 2018-11-21 2019-03-29 中国人民解放军战略支援部队信息工程大学 基于循环卷积注意力模型的文本生成方法及装置
CN109858615A (zh) * 2018-02-09 2019-06-07 渊慧科技有限公司 具有记忆的低通递归神经网络系统
CN110197251A (zh) * 2018-02-26 2019-09-03 中国科学院深圳先进技术研究院 基于深度学习网络的预测方法、装置、设备及存储介质
CN110348577A (zh) * 2019-06-26 2019-10-18 华中师范大学 一种基于融合认知计算的知识跟踪方法
US20190333400A1 (en) * 2018-04-27 2019-10-31 Adobe Inc. Personalized e-learning using a deep-learning-based knowledge tracing and hint-taking propensity model

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099756A (ja) * 2001-09-25 2003-04-04 Inst Of Physical & Chemical Res 脳の精神的な機能をモデル化した人工ニューラルネットワーク構造の形成方法
CN106126596A (zh) * 2016-06-20 2016-11-16 中国科学院自动化研究所 一种基于层次化记忆网络的问答方法
CN109858615A (zh) * 2018-02-09 2019-06-07 渊慧科技有限公司 具有记忆的低通递归神经网络系统
CN110197251A (zh) * 2018-02-26 2019-09-03 中国科学院深圳先进技术研究院 基于深度学习网络的预测方法、装置、设备及存储介质
US20190333400A1 (en) * 2018-04-27 2019-10-31 Adobe Inc. Personalized e-learning using a deep-learning-based knowledge tracing and hint-taking propensity model
CN109543165A (zh) * 2018-11-21 2019-03-29 中国人民解放军战略支援部队信息工程大学 基于循环卷积注意力模型的文本生成方法及装置
CN110348577A (zh) * 2019-06-26 2019-10-18 华中师范大学 一种基于融合认知计算的知识跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周东波等: "基于多层注意力网络的可解释认知追踪方法", vol. 51, no. 6, pages 873 - 880 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111538868A (zh) * 2020-04-28 2020-08-14 中国科学技术大学 知识追踪方法及习题推荐方法
CN111538868B (zh) * 2020-04-28 2023-06-16 中国科学技术大学 知识追踪方法及习题推荐方法
WO2021226731A1 (zh) * 2020-05-11 2021-11-18 陈永聪 一种模仿人类记忆来实现通用机器智能的方法
CN111651594B (zh) * 2020-05-15 2023-06-09 上海交通大学 基于键值记忆网络的案件案由分类方法及介质
CN111651594A (zh) * 2020-05-15 2020-09-11 上海交通大学 基于键值记忆网络的案件案由分类方法及介质
CN111723527A (zh) * 2020-06-28 2020-09-29 重庆大学 基于鸡尾酒长短期记忆神经网络的齿轮剩余寿命的预测方法
CN111723527B (zh) * 2020-06-28 2024-04-16 重庆大学 基于鸡尾酒长短期记忆神经网络的齿轮剩余寿命的预测方法
CN112115247A (zh) * 2020-09-07 2020-12-22 中国人民大学 一种基于长短时记忆信息的个性化对话生成方法和系统
CN112115247B (zh) * 2020-09-07 2023-10-10 中国人民大学 一种基于长短时记忆信息的个性化对话生成方法和系统
CN112766513A (zh) * 2021-01-29 2021-05-07 华中师范大学 一种记忆协同的知识追踪方法及系统
CN112766513B (zh) * 2021-01-29 2024-05-07 华中师范大学 一种记忆协同的知识追踪方法及系统
CN113033808A (zh) * 2021-03-08 2021-06-25 西北大学 一种基于习题难度和学生能力的深度嵌入知识追踪方法
CN113033808B (zh) * 2021-03-08 2024-01-19 西北大学 一种基于习题难度和学生能力的深度嵌入知识追踪方法
CN113704235A (zh) * 2021-08-03 2021-11-26 桂林电子科技大学 一种基于自注意力机制的深度知识追踪模型

Also Published As

Publication number Publication date
CN111047482B (zh) 2023-07-04

Similar Documents

Publication Publication Date Title
CN111047482A (zh) 基于层次记忆网络的知识追踪系统及方法
Ghosh et al. Context-aware attentive knowledge tracing
CN111582694B (zh) 一种学习评估方法及装置
CN111695779B (zh) 一种知识追踪方法、装置及存储介质
CN107506414A (zh) 一种基于长短期记忆网络的代码推荐方法
Werbos Backwards differentiation in AD and neural nets: Past links and new opportunities
CN107871014A (zh) 一种基于深度融合哈希的大数据跨模态检索方法及系统
US11080586B2 (en) Neural network reinforcement learning
US10546507B2 (en) Recommending a set of learning activities based on dynamic learning goal adaptation
CN111444432A (zh) 领域自适应的深度知识追踪及个性化习题推荐方法
CN111538868A (zh) 知识追踪方法及习题推荐方法
CN112257966B (zh) 模型处理方法、装置、电子设备及存储介质
Tang et al. Modelling student behavior using granular large scale action data from a MOOC
CN114429212A (zh) 智能学习知识能力跟踪方法、电子设备及存储介质
Harrison et al. Guiding reinforcement learning exploration using natural language
CN114021722A (zh) 一种融合认知刻画的注意力知识追踪方法
CN114385801A (zh) 一种基于分层细化lstm网络的知识追踪方法及系统
Gao Stock price prediction with arima and deep learning models
CN117591870A (zh) 一种基于深度强化学习的情感感知智能教学方法及系统
Zhi et al. Emotion computing method based on knowledge representation
Sprevak Predictive coding III: The algorithmic level
NL2028510B1 (en) Method and system for knowledge tracing based on hierarchical memory network
Train Simulation methods for probit and related models based on convenient error partitioning
CN114996947A (zh) 三维油藏数值模拟方法
KR20180132487A (ko) 신경망에 복수의 태스크를 순차 학습시키는 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant