CN108228674B - 一种基于dkt的信息处理方法及装置 - Google Patents

一种基于dkt的信息处理方法及装置 Download PDF

Info

Publication number
CN108228674B
CN108228674B CN201611199931.4A CN201611199931A CN108228674B CN 108228674 B CN108228674 B CN 108228674B CN 201611199931 A CN201611199931 A CN 201611199931A CN 108228674 B CN108228674 B CN 108228674B
Authority
CN
China
Prior art keywords
dkt
network
sample subset
training
training sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611199931.4A
Other languages
English (en)
Other versions
CN108228674A (zh
Inventor
刘源
李历
高钰舒
张凯磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN201611199931.4A priority Critical patent/CN108228674B/zh
Publication of CN108228674A publication Critical patent/CN108228674A/zh
Application granted granted Critical
Publication of CN108228674B publication Critical patent/CN108228674B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Databases & Information Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Educational Technology (AREA)
  • Marketing (AREA)
  • Educational Administration (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Development Economics (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Primary Health Care (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种基于DKT的信息处理方法及装置。该方法包括:获取预设数量的答题者关于目标题库的答题信息样本;基于答题者的做题数量对答题信息样本进行聚类,得到多个训练样本子集;采用迭代方式依次利用多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型;利用目标DKT网络模型对当前答题者的做题情况进行预测。本发明实施例通过采用上述技术方案,可减少不同答题者做题量波动剧烈给DKT网络模型带来的过拟合误差,进而提高DKT网络模型的预测精度及准确度。

Description

一种基于DKT的信息处理方法及装置
技术领域
本发明实施例涉及信息处理技术领域,尤其涉及一种基于DKT的信息处理方法及装置。
背景技术
随着计算机技术在教育领域的广泛应用,自适应测试及自适应学习等日益得到人们的关注。自适应学习系统旨在提供一种学生自主学习平台,其对学生的解题信息进行收录,并通过技术手段对学生的做题能力进行实时评估,分析最适合学生掌握所学科目的学习路径,并与此同时对题库数据进行整合更新。自适应学习系统有合理优化学生学习日程、调动学生的学习积极性、辅助教师提高教学效率及解决教育资源分配不均等功能。
自适应学习的核心在于如何通过计算机有效的评估学生的解题信息并安排相应的学习路径。关于学生测试评估问题的研究,可追溯到二十世纪30年代提出的经典测试理论(Classical test Theory,CTT),该理论将学生解题结果看成是学生能力加随机噪声的某种线性拟合,其对心理与教育测量的理论和实践都有巨大的贡献。然而,随着时代发展,学生所学知识内容逐渐丰富和多样化,而CCT理论对测试题组的标准化要求以及随机化技术难以重复性实施等因素限制了CCT理论的应用与发展,该理论已不能满足日益多样化的教学方式和日常学习评估。因此,新的理论脱颖而出,例如贝叶斯知识跟踪(Bayesianknowledge tracing,BKT)模型、项目反映理论(Item response theory,IRT)及深度学习知识追踪(DeepKnowledge Tracing,DKT)等。
DKT网络模型是2015年斯坦福(Stanford)大学的学者提出的一种基于神经网络的模型,能够对学生的做题情况(如做对或做错)进行预测,可适用于自适应学习系统,但该模型理论及实践并不成熟,预测精度及准确度有待提高。
发明内容
本发明实施例的目的是提供一种基于DKT的信息处理方法及装置,以对现有的基于DKT网络模型预测答题者做题情况的方案进行优化。
一方面,本发明实施例提供了一种基于DKT的信息处理方法,包括:
获取预设数量的答题者关于目标题库的答题信息样本;
基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集;
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型;
利用所述目标DKT网络模型对当前答题者的做题情况进行预测。
另一方面,本发明实施例提供了一种基于DKT的信息处理装置,包括:
答题样本获取模块,用于获取预设数量的答题者关于目标题库的答题信息样本;
聚类模块,用于基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集;
训练模块,用于采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型;
预测模块,用于利用所述目标DKT网络模型对当前答题者的做题情况进行预测。
本发明实施例中提供的基于DKT的信息处理方案,获取预设数量的答题者关于目标题库的答题信息样本,基于答题者的做题数量对答题信息样本进行聚类,得到多个训练样本子集,采用迭代方式依次利用多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型,最后利用目标DKT网络模型对当前答题者的做题情况进行预测。通过采用上述技术方案,对不定长的答题者做题数据根据做题数量征进行聚类,随后采用迭代的方式利用聚类后的多个训练样本子集对DKT网络进行训练,得到用于预测做题情况的目标DKT网络模型,可减少不同答题者做题量波动剧烈给DKT网络模型带来的过拟合误差,进而提高DKT网络模型的预测精度及准确度。
附图说明
图1为本发明实施例一提供的一种基于DKT的信息处理方法的流程示意图;
图2为本发明实施例一提供的一种DKT网络示意图;
图3为本发明实施例二提供的一种基于DKT的信息处理方法的流程示意图;
图4为本发明实施例三提供的一种基于DKT的信息处理装置的结构框图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
实施例一
图1为本发明实施例一提供的一种基于DKT的信息处理方法的流程示意图,该方法可以由基于DKT的信息处理装置执行,其中该装置可由软件和/或硬件实现,一般可集成在自适应学习系统内的终端中,该终端可以是个人电脑或服务器等终端,也可以是平板电脑或智能手机等移动终端,本发明实施例不作具体限定。如图1所示,该方法包括:
步骤110、获取预设数量的答题者关于目标题库的答题信息样本。
本实施例中,可根据实际需求选取目标题库以及答题者的预设数量。例如,可以获取一个班级的学生关于初中一年级英语科目题库的答题信息样本;也可以获取A市12-15岁年龄段的学生关于奥林匹克数学题库的答题信息样本;当然,答题者并不限于学生,还可应用于其他领域中,如可获取B地区驾照考取人员关于科目一的答题信息样本等。示例性的,答题信息样本可包括答题数量、作答题目及答题情况(如做对或做错)等信息。
步骤120、基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集。
其中,聚类的方式可以有很多种,本实施例不做具体限定。例如,可以为层式聚类、谱聚类、ward聚类以及具有噪声的基于密度的聚类法(Density-Based SpatialClustering of Applications with Noise,DBSCAN)等方法,优选为K-means聚类方法。
在经过聚类后,可将答题信息样本分为多个部分,每个部分包含的答题信息可作为一个训练样本子集,用于训练DKT网络。DKT网络包含输入层、中间层和输出层。其中,输入层为答题信息,输出层为预测结果,中间层可为循环神经网络(Recurrent NeuralNetworks,RNN)、长短期记忆(Long Short Term Gated Memory,LSTM)网络和门限递归单元(Gated Recurrent Unit,GRU)网络中的任意一种。本实施例中,以优选的RNN为例进行说明。
图2为本发明实施例一提供的一种DKT网络示意图,下方为输入层,中部为基于RNN的中间层,上方为输出层。在DKT网络中,输入数据一般可由向量表示,如独热(one-hot)向量,因此,本实施例中可将答题信息样本转化为独热向量。示例性的,本步骤可具体包括:基于答题者的做题数量对所述答题信息样本进行聚类,得到多个答题信息样本子集;对于每个答题信息样本子集,将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集。
进一步的,将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集,可包括:根据当前答题信息样本子集中每个答题者对应的答题信息分别生成当前答题者的基于题目答题情况的第一独热向量和基于知识点答题情况的第二独热向量;对所述第一独热向量和所述第二独热向量进行直和操作,得到当前答题者的基于题目和知识点的独热向量;将当前答题信息样本子集中包含的所有答题者对应的基于题目和知识点的独热向量汇总为当前答题信息样本子集对应的训练样本子集。
例如,设
Figure BDA0001188869550000061
其中M为题库中题目总数,N是题库中知识点个数,
Figure BDA00011888695500000610
表示直和操作。这里
Figure BDA0001188869550000062
意思是
Figure BDA0001188869550000063
是一个长度为2M的向量,而且每个分量只能取0或1。将所有题目进行从1到M的编号,比如时刻t时第m道题目被做对了,则
Figure BDA0001188869550000064
中第m分量为1,其余分量为0;如果第m道题目做错了,则
Figure BDA0001188869550000065
中第M+m分量为1,其余为0。
Figure BDA0001188869550000066
为该题目所属的知识点的0、1化向量,每个时刻学生只会做一道题目,这里的
Figure BDA0001188869550000067
是该道题目知识点层面的表示。本发明实施例在现有DKT网络模型基础上加入了知识点信息,这样设置的好处在于:在做向量化的时候,能够获知更多的关于每道题目的信息,可进一步提升模型预测准确度。输出数据yt∈[0,1]M表示该学生现阶段做每一道题得分的预测结果,以颜色(图2中以灰度的不同深浅程度代表不同的颜色)表示做题对错的概率。
可以理解的是,当目标题库中题目数量较大时,根据压缩感知原理,可对所得独热向量进行压缩重构。例如,可利用所得独热向量的稀疏性对所述所得独热向量进行压缩重构:
Figure BDA0001188869550000068
其中C是其中元素满足
Figure BDA0001188869550000069
的logM×2M随机矩阵,将当前答题信息样本子集中包含的所有答题者对应的压缩重构后的向量汇总为当前答题信息样本子集对应的训练样本子集。此外,也可利用Autoencoder或限制波尔兹曼机(RestrictedBoltzmann Machines,RBM)进行主要特征提取的方式来代替压缩重构。此处优化的好处在于,可避免因向量长度过大而影响训练效率以及造成机器内存不足等情况的发生。
步骤130、采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型。
具体的,本步骤可包括:采用第一个训练样本子集对初始DKT网络进行训练,得到所述第一个训练样本子集对应的DKT网络中间模型;对于第二个训练样本子集至倒数第二个训练样本子集中的每个训练样本子集,采用当前训练样本子集对上一个训练样本子集对应的DKT网络中间模型进行训练,得到所述当前训练样本子集对应的DKT网络中间模型;采用最后一个训练样本子集对所述倒数第二个训练样本子集对应的DKT网络中间模型进行训练,得到目标DKT网络模型。
因为现有方案中在对DKT网络进行训练时,对变长的输入都需要进行加Mask进行固定长度处理,而不同答题者的做题数量变化非常大,因此输入的向量的长度变化也非常大,对于做题数量较少的答题者对应的输入向量会比较短,若经过加Mask进行固定长度处理后,数据量大幅增加,会影响训练效率。因此,本发明实施例中,采用迭代方式依次利用多个训练样本子集中的每个训练样本子集对DKT网络进行训练,可有效解决上述问题。
步骤140、利用所述目标DKT网络模型对当前答题者的做题情况进行预测。
示例性的,本步骤可具体包括:获取当前答题者的历史答题信息,将所述历史答题信息输入至所述目标DKT网络模型中,以对当前答题者的关于目标题库中未做题目的做题情况进行预测。在目标DKT网络模型训练完毕后,将当前答题者的历史答题信息进行与训练阶段一致的转换操作,如转化为基于题目和知识点的独热向量,将该独热向量输入至目标DKT网络模型,即可得到答题者关于目标题库中未做题目的做题情况进行预测。
本发明实施例一提供的基于DKT的信息处理方法,获取预设数量的答题者关于目标题库的答题信息样本,基于答题者的做题数量对答题信息样本进行聚类,得到多个训练样本子集,采用迭代方式依次利用多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型,最后利用目标DKT网络模型对当前答题者的做题情况进行预测。通过采用上述技术方案,对不定长的答题者做题数据根据做题数量征进行聚类,随后采用迭代的方式利用聚类后的多个训练样本子集对DKT网络进行训练,得到用于预测做题情况的目标DKT网络模型,可减少不同答题者做题量波动剧烈给DKT网络模型带来的过拟合误差,进而提高DKT网络模型的预测精度及准确度。
实施例二
图3为本发明实施例二提供的一种基于DKT的信息处理方法的流程示意图,本实施例以上述实施例为基础进行优化,在本实施例中,在对DKT网络进行训练之前,还对DKT网络进行了调优操作。
进一步的,还可基于Bucket机制或动态神经网络机制对DKT网络进行改进。
相应的,本实施例的方法包括如下步骤:
步骤310、对DKT网络进行调优处理。
其中,所述调优处理对应的调节内容包括网络层数、网络间的耦合关系、每层网络类型、激活函数层的选择、目标函数的选取、梯度的截断阈值、自适应优化的学习系数和网络权值的随机初始化方案中的至少一个。
步骤320、基于Bucket机制或动态神经网络机制改进调优后的DKT网络。
示例性的,当中间层为RNN时,此处的动态神经网络机制为动态RNN机制。本步骤中利用Tensorflow/Torch/Theano等深度学习框架中RNN的Bucket机制或动态神经网络机制对调优后的DKT网络进行改进,可实现根据答题者做题的不同数量流转至不同的训练子集(Batch)中进行训练,从而避免了做题长度波动大给训练带来的过拟合问题。
步骤330、获取预设数量的答题者关于目标题库的答题信息样本。
步骤340、基于答题者的做题数量对所述答题信息样本进行聚类,得到多个答题信息样本子集。
步骤350、对于每个答题信息样本子集,将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,利用所得独热向量的稀疏性对所述所得独热向量进行压缩重构,将当前答题信息样本子集中包含的所有答题者对应的压缩重构后的向量汇总为当前答题信息样本子集对应的训练样本子集。
步骤360、采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型。
步骤370、获取当前答题者的历史答题信息,将所述历史答题信息输入至所述目标DKT网络模型中,以对当前答题者的关于目标题库中未做题目的做题情况进行预测。
本发明实施例二提供的基于DKT的信息处理方法,在训练DKT网络之前,对其进行了调优,还基于Bucket机制或动态神经网络机制对调优后的DKT网络进行进一步的改进,能够进一步提高DKT网络模型的预测精度及准确度。
实施例三
图4为本发明实施例三提供的一种基于DKT的信息处理装置的结构框图,该装置可由软件和/或硬件实现,一般可集成在自适应学习系统内的终端中,该终端可以是个人电脑或服务器等终端,也可以是平板电脑或智能手机等移动终端,本发明实施例不作具体限定。如图4所示,该装置包括答题样本获取模块41、聚类模块42、训练模块43和预测模块44。
其中,答题样本获取模块41,用于获取预设数量的答题者关于目标题库的答题信息样本;聚类模块42,用于基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集;训练模块43,用于采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型;预测模块44,用于利用所述目标DKT网络模型对当前答题者的做题情况进行预测。
本发明实施例提供的基于DKT的信息处理装置,可减少不同答题者做题量波动剧烈给DKT网络模型带来的过拟合误差,进而提高DKT网络模型的预测精度及准确度。
在上述实施例的基础上,所述训练模块用于:
采用第一个训练样本子集对初始DKT网络进行训练,得到所述第一个训练样本子集对应的DKT网络中间模型;
对于第二个训练样本子集至倒数第二个训练样本子集中的每个训练样本子集,采用当前训练样本子集对上一个训练样本子集对应的DKT网络中间模型进行训练,得到所述当前训练样本子集对应的DKT网络中间模型;
采用最后一个训练样本子集对所述倒数第二个训练样本子集对应的DKT网络中间模型进行训练,得到目标DKT网络模型。
在上述实施例的基础上,所述聚类模块用于:
基于答题者的做题数量对所述答题信息样本进行聚类,得到多个答题信息样本子集;
对于每个答题信息样本子集,将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集。
在上述实施例的基础上,所述将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集,包括:
根据当前答题信息样本子集中每个答题者对应的答题信息分别生成当前答题者的基于题目答题情况的第一独热向量和基于知识点答题情况的第二独热向量;
对所述第一独热向量和所述第二独热向量进行直和操作,得到当前答题者的基于题目和知识点的独热向量;
将当前答题信息样本子集中包含的所有答题者对应的基于题目和知识点的独热向量汇总为当前答题信息样本子集对应的训练样本子集。
在上述实施例的基础上,所述将当前答题信息样本子集中包含的所有答题者对应的基于题目和知识点的独热向量汇总为当前答题信息样本子集对应的训练样本子集,包括:
利用所得独热向量的稀疏性对所述所得独热向量进行压缩重构;
将当前答题信息样本子集中包含的所有答题者对应的压缩重构后的向量汇总为当前答题信息样本子集对应的训练样本子集。
在上述实施例的基础上,该装置还包括:
调优模块,用于在所述采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型之前,对DKT网络进行调优处理,所述调优处理对应的调节内容包括网络层数、网络间的耦合关系、每层网络类型、激活函数层的选择、目标函数的选取、梯度的截断阈值、自适应优化的学习系数和网络权值的随机初始化方案中的至少一个;
所述训练模块用于:
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对经过调优处理后的DKT网络进行训练,得到目标DKT网络模型。
在上述实施例的基础上,该装置还包括:
改进模块,用于在所述采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型之前,基于Bucket机制或动态神经网络机制改进DKT网络;
所述训练模块用于:
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型,包括:
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对经过改进后的DKT网络进行训练,得到目标DKT网络模型。
在上述实施例的基础上,所述DKT网络中的中间层为循环神经网络RNN、长短期记忆LSTM网络和门限递归单元GRU网络中的任意一种。
上述实施例中提供的一种基于DKT的信息处理装置可执行本发明任意实施例所提供的基于DKT的信息处理方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本发明任意实施例所提供的基于DKT的信息处理方法。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (14)

1.一种基于深度学习知识追踪DKT的信息处理方法,其特征在于,包括:
获取预设数量的答题者关于目标题库的答题信息样本;
基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集;
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型;
利用所述目标DKT网络模型对当前答题者的做题情况进行预测;
其中,所述采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型,包括:
采用第一个训练样本子集对初始DKT网络进行训练,得到所述第一个训练样本子集对应的DKT网络中间模型;
对于第二个训练样本子集至倒数第二个训练样本子集中的每个训练样本子集,采用当前训练样本子集对上一个训练样本子集对应的DKT网络中间模型进行训练,得到所述当前训练样本子集对应的DKT网络中间模型;
采用最后一个训练样本子集对所述倒数第二个训练样本子集对应的DKT网络中间模型进行训练,得到目标DKT网络模型。
2.根据权利要求1所述的方法,其特征在于,所述基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集,包括:
基于答题者的做题数量对所述答题信息样本进行聚类,得到多个答题信息样本子集;
对于每个答题信息样本子集,将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集。
3.根据权利要求2所述的方法,其特征在于,所述将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集,包括:
根据当前答题信息样本子集中每个答题者对应的答题信息分别生成当前答题者的基于题目答题情况的第一独热向量和基于知识点答题情况的第二独热向量;
对所述第一独热向量和所述第二独热向量进行直和操作,得到当前答题者的基于题目和知识点的独热向量;
将当前答题信息样本子集中包含的所有答题者对应的基于题目和知识点的独热向量汇总为当前答题信息样本子集对应的训练样本子集。
4.根据权利要求3所述的方法,其特征在于,所述将当前答题信息样本子集中包含的所有答题者对应的基于题目和知识点的独热向量汇总为当前答题信息样本子集对应的训练样本子集,包括:
利用所得独热向量的稀疏性对所述所得独热向量进行压缩重构;
将当前答题信息样本子集中包含的所有答题者对应的压缩重构后的向量汇总为当前答题信息样本子集对应的训练样本子集。
5.根据权利要求1所述的方法,其特征在于,在所述采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型之前,还包括:
对DKT网络进行调优处理,所述调优处理对应的调节内容包括网络层数、网络间的耦合关系、每层网络类型、激活函数层的选择、目标函数的选取、梯度的截断阈值、自适应优化的学习系数和网络权值的随机初始化方案中的至少一个;
所述采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型,包括:
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对经过调优处理后的DKT网络进行训练,得到目标DKT网络模型。
6.根据权利要求1所述的方法,其特征在于,在所述采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型之前,还包括:
基于Bucket机制或动态神经网络机制改进DKT网络;
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型,包括:
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对经过改进后的DKT网络进行训练,得到目标DKT网络模型。
7.根据权利要求1-6任一所述的方法,其特征在于,所述DKT网络中的中间层为循环神经网络RNN、长短期记忆LSTM网络和门限递归单元GRU网络中的任意一种。
8.一种基于深度学习知识追踪DKT的信息处理装置,其特征在于,包括:
答题样本获取模块,用于获取预设数量的答题者关于目标题库的答题信息样本;
聚类模块,用于基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集;
训练模块,用于采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型;
预测模块,用于利用所述目标DKT网络模型对当前答题者的做题情况进行预测;
其中,所述训练模块用于:
采用第一个训练样本子集对初始DKT网络进行训练,得到所述第一个训练样本子集对应的DKT网络中间模型;
对于第二个训练样本子集至倒数第二个训练样本子集中的每个训练样本子集,采用当前训练样本子集对上一个训练样本子集对应的DKT网络中间模型进行训练,得到所述当前训练样本子集对应的DKT网络中间模型;
采用最后一个训练样本子集对所述倒数第二个训练样本子集对应的DKT网络中间模型进行训练,得到目标DKT网络模型。
9.根据权利要求8所述的装置,其特征在于,所述聚类模块用于:
基于答题者的做题数量对所述答题信息样本进行聚类,得到多个答题信息样本子集;
对于每个答题信息样本子集,将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集。
10.根据权利要求9所述的装置,其特征在于,所述将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集,包括:
根据当前答题信息样本子集中每个答题者对应的答题信息分别生成当前答题者的基于题目答题情况的第一独热向量和基于知识点答题情况的第二独热向量;
对所述第一独热向量和所述第二独热向量进行直和操作,得到当前答题者的基于题目和知识点的独热向量;
将当前答题信息样本子集中包含的所有答题者对应的基于题目和知识点的独热向量汇总为当前答题信息样本子集对应的训练样本子集。
11.根据权利要求10所述的装置,其特征在于,所述将当前答题信息样本子集中包含的所有答题者对应的基于题目和知识点的独热向量汇总为当前答题信息样本子集对应的训练样本子集,包括:
利用所得独热向量的稀疏性对所述所得独热向量进行压缩重构;
将当前答题信息样本子集中包含的所有答题者对应的压缩重构后的向量汇总为当前答题信息样本子集对应的训练样本子集。
12.根据权利要求8所述的装置,其特征在于,还包括:
调优模块,用于在所述采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型之前,对DKT网络进行调优处理,所述调优处理对应的调节内容包括网络层数、网络间的耦合关系、每层网络类型、激活函数层的选择、目标函数的选取、梯度的截断阈值、自适应优化的学习系数和网络权值的随机初始化方案中的至少一个;
所述训练模块用于:
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对经过调优处理后的DKT网络进行训练,得到目标DKT网络模型。
13.根据权利要求8所述的装置,其特征在于,还包括:
改进模块,用于在所述采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型之前,基于Bucket机制或动态神经网络机制改进DKT网络;
所述训练模块用于:
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到目标DKT网络模型,包括:
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对经过改进后的DKT网络进行训练,得到目标DKT网络模型。
14.根据权利要求8-13任一所述的装置,其特征在于,所述DKT网络中的中间层为循环神经网络RNN、长短期记忆LSTM网络和门限递归单元GRU网络中的任意一种。
CN201611199931.4A 2016-12-22 2016-12-22 一种基于dkt的信息处理方法及装置 Active CN108228674B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611199931.4A CN108228674B (zh) 2016-12-22 2016-12-22 一种基于dkt的信息处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611199931.4A CN108228674B (zh) 2016-12-22 2016-12-22 一种基于dkt的信息处理方法及装置

Publications (2)

Publication Number Publication Date
CN108228674A CN108228674A (zh) 2018-06-29
CN108228674B true CN108228674B (zh) 2020-06-26

Family

ID=62657024

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611199931.4A Active CN108228674B (zh) 2016-12-22 2016-12-22 一种基于dkt的信息处理方法及装置

Country Status (1)

Country Link
CN (1) CN108228674B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119775B (zh) * 2019-05-08 2021-06-08 腾讯科技(深圳)有限公司 医疗数据处理方法、装置、系统、设备和存储介质
CN110223553B (zh) * 2019-05-20 2021-08-10 北京师范大学 一种答题信息的预测方法及系统
CN110428010B (zh) * 2019-08-05 2022-09-06 中国科学技术大学 知识追踪方法
CN110991645B (zh) * 2019-11-18 2024-03-29 广东宜学通教育科技有限公司 一种基于知识模型的自适应学习方法、系统及存储介质
CN112052828B (zh) * 2020-09-23 2024-05-14 腾讯科技(深圳)有限公司 一种学习能力确定方法、装置及存储介质
CN111931875B (zh) * 2020-10-10 2021-10-08 北京世纪好未来教育科技有限公司 数据处理方法、电子设备及计算机可读介质
CN114216246B (zh) * 2021-12-16 2023-08-29 东软云科技有限公司 空调机组控制方法、装置、存储介质及电子设备
CN114117033B (zh) * 2022-01-25 2022-08-16 山东建筑大学 知识追踪方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104331716A (zh) * 2014-11-20 2015-02-04 武汉图歌信息技术有限责任公司 面向大规模训练数据的svm主动学习分类算法
CN106224939A (zh) * 2016-07-29 2016-12-14 浙江大学 循环流化床生活垃圾焚烧锅炉床温预测方法及系统
CN106250857A (zh) * 2016-08-04 2016-12-21 深圳先进技术研究院 一种身份识别装置及方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8374974B2 (en) * 2003-01-06 2013-02-12 Halliburton Energy Services, Inc. Neural network training data selection using memory reduced cluster analysis for field model development
US20160026932A1 (en) * 2014-07-24 2016-01-28 Carnegie Mellon University Intelligent System with Integrated Representation Learning and Skill Learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104331716A (zh) * 2014-11-20 2015-02-04 武汉图歌信息技术有限责任公司 面向大规模训练数据的svm主动学习分类算法
CN106224939A (zh) * 2016-07-29 2016-12-14 浙江大学 循环流化床生活垃圾焚烧锅炉床温预测方法及系统
CN106250857A (zh) * 2016-08-04 2016-12-21 深圳先进技术研究院 一种身份识别装置及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《Deep Knowledge Tracing》;Chris Piech等;《arXiv:1506.05908v1》;20150619;第1-13页 *
《基于模糊c-均值聚类的SVC迭代训练算法》;陈自洁等;《仲恺农业工程学院学报》;20110331;第24卷(第1期);第39-43页 *

Also Published As

Publication number Publication date
CN108228674A (zh) 2018-06-29

Similar Documents

Publication Publication Date Title
CN108228674B (zh) 一种基于dkt的信息处理方法及装置
Hussain et al. Using machine learning to predict student difficulties from learning session data
CN108229718B (zh) 一种信息预测方法及装置
CN110188331A (zh) 模型训练方法、对话系统评价方法、装置、设备及存储介质
KR102506132B1 (ko) 자기집중 메커니즘 기반의 개인화된 학습량 추천 방법 및 장치
CN112800323A (zh) 一种基于深度学习的智能教学系统
CN113360635B (zh) 一种基于自注意和预训练机制的智能教学方法及系统
CN108229688B (zh) 一种基于irt的信息处理方法及装置
CN110852390A (zh) 一种基于校园行为序列的学生成绩分类预测方法及系统
Wang et al. A unified interpretable intelligent learning diagnosis framework for learning performance prediction in intelligent tutoring systems
CN116741411A (zh) 一种基于医疗大数据分析的智慧健康科普推荐方法、系统
CN114861754A (zh) 一种基于外部注意力机制的知识追踪方法及系统
Jiang et al. Evaluating Sources of Course Information and Models of Representation on a Variety of Institutional Prediction Tasks.
CN114998071A (zh) 一种航空管制模拟训练智能教学方法和系统
KR20230083989A (ko) 가우시안 혼합 모델을 이용한 클러스터링과 인공지능을 동시에 활용한 학습량 추천 방법 및 장치
CN111881282A (zh) 回答者推荐模型的训练方法、推荐方法及电子设备
CN114117033B (zh) 知识追踪方法及系统
CN115205072A (zh) 一种面向长周期测评的认知诊断方法
Ni et al. Enhancing student performance prediction on learnersourced questions with sgnn-llm synergy
CN109299805A (zh) 一种基于人工智能的在线教育课程请求处理方法
Kang et al. Personalized exercise recommendation via implicit skills
CN114691856A (zh) 题目推荐方法、装置、设备及介质
CN114021721A (zh) 一种基于学习过程片段的时空注意力知识追踪方法
Zhou Research on teaching resource recommendation algorithm based on deep learning and cognitive diagnosis
Garg et al. Employing Deep Neural Network for Early Prediction of Students’ Performance

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20180711

Address after: Room 3835, Building 3, 2528 Zhennan Road, Putuo District, Shanghai, 2003

Applicant after: Shanghai Ren Jing Information Technology Co., Ltd.

Address before: Room 2002, Building 5, 200 Guoding East Road, Yangpu District, Shanghai, 2003

Applicant before: Shanghai Qian Wan answer Cloud Computing Technology Co., Ltd.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20181011

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: BEIJING ZIJIE TIAODONG NETWORK TECHNOLOGY CO., LTD.

Address before: Room 3835, Building 3, 2528 Zhennan Road, Putuo District, Shanghai, 2003

Applicant before: Shanghai Ren Jing Information Technology Co., Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant