一种信息预测方法及装置
技术领域
本发明实施例涉及信息处理技术领域,尤其涉及一种信息预测方法及装置。
背景技术
随着计算机技术在教育领域的广泛应用,自适应测试及自适应学习等日益得到人们的关注。自适应学习系统旨在提供一种学生自主学习平台,其对学生的解题信息进行收录,并通过技术手段对学生的做题能力进行实时评估,分析最适合学生掌握所学科目的学习路径,并与此同时对题库数据进行整合更新。自适应学习系统有合理优化学生学习日程、调动学生的学习积极性、辅助教师提高教学效率及解决教育资源分配不均等功能。
自适应学习的核心在于如何通过计算机有效的评估学生的解题信息并安排相应的学习路径。关于学生测试评估问题的研究,可追溯到二十世纪30年代提出的经典测试理论(Classical test Theory,CTT),该理论将学生解题结果看成是学生能力加随机噪声的某种线性拟合,其对心理与教育测量的理论和实践都有巨大的贡献。然而,随着时代发展,学生所学知识内容逐渐丰富和多样化,而CCT理论对测试题组的标准化要求以及随机化技术难以重复性实施等因素限制了CCT理论的应用与发展,该理论已不能满足日益多样化的教学方式和日常学习评估。因此,新的理论脱颖而出,例如贝叶斯知识跟踪(Bayesianknowledge tracing,BKT)模型、项目反映理论(Item response theory,IRT)及深度学习知识追踪(Deep Knowledge Tracing,DKT)等。
上述模型虽已得到不同程度的应用和推广,但在执行效率及预测结果的准确度等方面仍存在不足。
发明内容
本发明实施例的目的是提供一种信息预测方法及装置,以优化现有的对答题者的答题信息进行预测的方案,提高预测准确度。
一方面,本发明实施例提供了一种信息预测方法,包括:
获取当前答题者关于目标题库的历史答题信息和所述当前答题者的学习能力信息;
从所述目标题库中确定候选题目;
基于项目反映理论IRT预测模型和所述学习能力信息预测所述当前答题者做对所述候选题目的概率,得到IRT预测结果;
基于深度学习知识追踪DKT预测模型和所述历史答题信息预测所述当前答题者做对所述候选题目的概率,得到DKT预测结果;
对所述IRT预测结果和所述DKT预测结果进行合并处理,得到所述当前答题者做对所述候选题目的预测概率。
另一方面,本发明实施例提供了一种信息预测装置,包括:
信息获取模块,用于获取当前答题者关于目标题库的历史答题信息和所述当前答题者的学习能力信息;
候选题目确定模块,用于从所述目标题库中确定候选题目;
第一预测模块,用于基于项目反映理论IRT预测模型和所述学习能力信息预测所述当前答题者做对所述候选题目的概率,得到IRT预测结果;
第二预测模块,用于基于深度学习知识追踪DKT预测模型和所述历史答题信息预测所述当前答题者做对所述候选题目的概率,得到DKT预测结果;
预测结果处理模块,用于对所述IRT预测结果和所述DKT预测结果进行合并处理,得到所述当前答题者做对所述候选题目的预测概率。
本发明实施例中提供的信息预测方案,对于目标题库中的候选题目,基于IRT预测模型和当前答题者的学习能力信息预测其做对候选题目的概率,得到IRT预测结果,基于DKT预测模型和当前答题者的历史答题信息预测其做对候选题目的概率,得到DKT预测结果,最后对IRT预测结果和DKT预测结果进行合并处理,得到当前答题者做对候选题目的预测概率。通过采用上述技术方案,综合了两种预测模型的预测结果来预测答题者做对候选题目的概率,可有效提高预测准确度。
附图说明
图1为本发明实施例一提供的一种信息预测方法的流程示意图;
图2为本发明实施例二提供的一种信息预测方法的流程示意图;
图3为本发明实施例二提供的一种题目推送过程示意图;
图4a为本发明实施例提供的本发明实施例技术方案与现有方案的第一对比示意图;
图4b为本发明实施例提供的本发明实施例技术方案与现有方案的第二对比示意图;
图5为本发明实施例三提供的信息预测装置的结构框图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
为了方便理解本发明实施例,下面先对IRT和DKT进行简单的介绍。
首先,项目反应理论IRT又称潜在特质理论或项目特征曲线理论,它是对答题者能力的一种估计,并将考生对单个测验项目(题目)的某种反应概率(如答对概率或答错概率)与该试题的一定特质(如题目区分度及题目难度等)联系起来。特征曲线包含了对试题的特征进行描述的试题参数和对答题者的特征进行描述的潜在特质或能力参数。目前应用最广的IRT模型是以伯恩鲍姆提出的逻辑斯蒂模型为代表的模型,根据参数数量的不同,特征函数可分为单参数IRT模型、双参数IRT模型和三参数IRT模型,本发明实施例将以最具代表性的双参数IRT模型为例进行后续的说明,但值得说明的是,本发明实施例的方案同样适用于单参数IRT模型和三参数IRT模型,本领域技术人员通过阅读下述关于双参数IRT模型的相关说明可在不付出创造性劳动的情况下得到应用于单参数IRT模型和三参数IRT模型的具体方案,因此本发明实施例中不再赘述。
DKT模型是2015年斯坦福(Stanford)大学的学者提出了一种基于神经网络的模型,能够对学生的做题情况(如做对或做错)进行预测,可适用于自适应学习系统。但该模型理论及实践并不成熟,预测精度及准确度有待提高。
现有的IRT模型和DKT模型,各自都有不足。IRT模型由于其使用最大后验概率估计,对学生和题目的先验信息要做一定的假设,如果假设不好就会降低评估效果。另外复杂IRT模型的计算效率和所带来的精度上面的收益不成正比,边际成本过高。现有IRT模型对于学生解题模板的统一性要求也过于苛刻,相关处理缺失数据(nonignorable missingdata)的方法又不够灵活高效。另一方面,DKT模型目前的理论和实践都不是很成熟,精度相比复杂IRT模型没有提升,并且最后的给出的结果仅仅是对学生解题正确与否的判断,没有系统性的给出学生的学习能力和题目难度属性方面的信息。
实施例一
图1为本发明实施例一提供的一种信息预测方法的流程示意图,该方法可以由信息预测装置执行,其中该装置可由软件和/或硬件实现,一般可集成在自适应学习系统内的终端中,该终端可以是个人电脑或服务器等终端,也可以是平板电脑或智能手机等移动终端,本发明实施例不作具体限定。如图1所示,该方法包括:
步骤110、获取当前答题者关于目标题库的历史答题信息和当前答题者的学习能力信息。
本实施例中,可根据实际需求选取目标题库。具体的,可根据当前答题者输入的身份信息来选取目标题库,也可以由答题者自主选择目标题库。例如,身份信息为初中一年级学生,则目标题库可以为初中一年级某个科目的题库;又如,身份信息为B地区驾照考取人员,则目标题库可以为B地区某驾考科目题库。示例性的,历史答题信息可包括已完成的答题数量、作答题目及答题情况(如做对或做错)等信息。学习能力信息具体可以为IRT模型中的学习能力θ,即当前答题者对应的θ值。
步骤120、从目标题库中确定候选题目。
本实施例对本步骤中的候选题目的确定方式不作限定,可随机选取,也可按照知识点选取。
步骤130、基于IRT预测模型和学习能力信息预测当前答题者做对候选题目的概率,得到IRT预测结果。
在本发明实施例中,以经典的双参数IRT模型为例,设θ(theta)是答题者的学习能力,α(discriminination)、β(difficulty)分别是题目的区分度和难度(系数),则题目被答题者做对的概率是:
需要说明的是,在单参数IRT模型里面,一般用固定的D(D取值1.7)来代替α。
为了对目标题库中题目的题目信息进行估计,需要根据做过这些题目的答题者的答题信息来估计题库中每道题目的区分度和难度,进而建立IRT预测模型。
本实施例对IRT预测模型的建立过程不作具体限定,优选的,可采用以下第一种和/或第二种方式建立IRT预测模型。
一、基于边际极大似然(Marginal Maximum likelihood,MML)估计方法构建IRT预测模型
在基于IRT模型和所述学习能力信息预测所述当前答题者做对所述候选题目的概率,得到IRT预测结果之前,获取预设数量的答题者关于所述目标题库的答题信息样本;基于每个答题者所做题目的答题情况为独立事件的假设,确定所述目标题库中的对应题目被所有具备预设学习能力的答题者做对的频率权重;将所述频率权重代入预设估计模型中,得到目标估计模型,其中,所述预设估计模型为基于IRT模型及边际极大似然MML估计方法的最大后验概率估计模型;根据所述答题样本信息利用MML估计方法对所述目标估计模型进行训练,以对所述目标题库中的各题目的第一题目信息进行估计,其中,所述第一题目信息包括第一区分度和第一难度;根据训练完成的目标估计模型建立第一IRT预测模型。
在上述方式中,答题信息样本可包括答题数量、作答题目及答题情况(如做对或做错)等信息。
具体的,给定答题者i和题库题目j,需要最大化如下的最大后验概率估计:
其中,i表示答题者,j表示题目,X
i,j表示答题者i关于题目j的做题对错情况,α
j表示题目j的区分度,β
j表示题目j的难度系数,θ
i表示答题者i的学习能力,P(X
i,j|α
j,β
j,θ
i)表示做题人员i做对/错题目j的概率,
表示θ
i满足均值为
方差为
的正态分布,
表示β
j满足均值为
方差为
的正态分布,
表示lnα
j满足均值为
方差为
的正态分布。将上述公式记为基于IRT模型的最大后验概率估计模型。
常用的解决上述优化问题的方法有上文提到的JML估计方法,MML估计方法以及MCMC方法等,本发明实施例采用了其中应用较广泛的MML估计方法。该方法中,可假设学习能力θ满足一定的先验分布,得到预设估计模型,即基于IRT模型及MML估计方法的最大后验概率估计模型。例如,θ
i满足均值为
方差为
的预设先验正态分布。为了便于说明,这里假设θ
i满足均值为0方差为1的先验正态分布,即θ
i满足
基于该假设,可将上述基于IRT模型的最大后验概率估计模型转化成:
其中,
表示题目j被所有学习能力为θ
i的答题者做对或做错的频率,其中,Item
j=1时表示做对,Item
j=0时表示做错。
进一步的,引入高斯-厄米特(Gauss–Hermite)积分公式来模拟学生的能力采样,假设学生的学习能力满足
正态分布,则学生能力θ取值为x的频次为
其中,Hn-1(x)是n-1次Hermite多项式,学习能力采样点x取多项式Hn-1(x)所有可能的零点。
为了得到
即得到题目j被所有学习能力为θ
i的答题者做对的频率,传统的分析题目各种答题情况出现频次的思路是通过提供给答题者固定题组,基于固定题组的各种答题情况出现的频次反推单个题目的答题情况出现的频次,在题目数量较大时,题组可能出现的模式总数呈指数增长,传统方式的效率及准确度将极度下降,且对硬件设备性能要求极高,甚至很难符合要求,使MML方法应用于自适应答题环境变得不可行。
因此,本发明实施例摒弃了上述传统的分析题目各种答题情况出现频次时基于固定题组的各种答题情况出现频次反推单个题目的答题情况出现频次的思路,创新地提出假设每个答题者所做题目的各种答题情况出现的可能性存在一定的独立性,即每个答题者所做题目的答题情况可近似视为独立事件,采用直接从单个题目各答题情况出现的频次入手的处理方式,即基于每个答题者所做题目的答题情况为独立事件的假设,确定目标题库中的对应题目被所有具备预设学习能力的答题者做对的频率权重。其中,本实施例中的“确定目标题库中的对应题目被所有具备预设学习能力的答题者做对的频率权重”具体可指:对于目标题库中的每一道题目,分别确定当前题目被所有具备预设学习能力的答题者做对的频率权重。
具体的,所述频率权重的计算方法如下:
其中,
表示题目j被所有学习能力为θ
i的答题者做对的频率,
表示题目Item
j做对的统计频率,P(Item
j=1|θ
i)表示题目j被做对的情况中学习能力为θ
i的学生出现的后验概率,P(θ
i)代表所有答题者学习能力的先验假设。
随后,将频率权重代入预设估计模型中,得到目标估计模型,根据答题样本信息利用MML估计方法对目标估计模型进行训练,以对所述目标题库中的各题目的第一题目信息进行估计,再根据训练完成的目标估计模型建立第一IRT预测模型。
上述第一IRT预测模型,解决了因题组中包含大量题目时基于IRT模型的MML估计方法效率及准确度急剧降低甚至不可行的问题,使基于IRT模型的MML估计方法能够更好地应用于自适应学习环境,并有效提升模型效率及估计准确度。
二、基于变分推断方法构建IRT预测模型
获取预设数量的答题者关于所述目标题库的答题信息样本,以IRT模型中的答题者的学习能力、题目的区分度及题目的难度为待估参数构建贝叶斯网络模型,其中,所述待估参数满足包含超参的预设先验分布;采用变分推断方法确定目标函数对应的变分分布函数,并以所述目标函数和所述变分分布函数的接近程度最小为原则,基于所述贝叶斯网络模型和所述答题信息样本对所述超参进行估计,得到所述超参的参数值,其中,所述目标函数为基于所述答题信息样本的关于所述待估参数的后验估计函数;根据所得的超参的参数值对所述变分分布函数进行更新;基于更新后的变分分布函数对所述待估参数进行采样,得到对所述待估参数的估计;根据所述待估参数的估计结果建立第二IRT预测模型,其中,估计结果包括所述目标题库中各题目的第二题目信息,所述第二题目信息包括第二区分度和第二难度。
在一般的基于IRT模型的贝叶斯网络模型中,学生的先验信息往往是事先确定好的,例如通常假设所有学生的能力分布是符合正态分布N(0,1)的,这就给模型的估计带来了先验的固化,即使正态分布的参数可以进行选择,但调优过程使得整个估计流程要重新执行一次,严重影响估计模型的执行效率。因此,本发明实施例通过引入超参(hyper-parameter),使得待估参数满足一定的先验假设分布族,从而弱化了对参数错误估计带来的分析误差。
优选的,所述答题者的学习能力和所述题目的难度满足均值和/或方差为超参的正态分布,所述题目的区分度满足均值和/或方差为超参的对数正态分布。这种方差或者甚至均值都待定的正态分布是一系列正态分布函数,可称之为正态分布函数族。
本发明实施例中,假设α,β,θ分别满足超参分布如下:
其中,τθ可满足(0,100)区间内的均匀分布,τα可满足(0,100)区间内的均匀分布,τβ可满足(0,100)区间内的均匀分布。可以理解的是,上述的100是一个可自由设定的常数,也可以是其他值,使得任何符合经验事实的后验超参的方差都不会超过这个范围。
一般的基于贝叶斯网络模型进行估计时,可采用MCMC方法采样关于先验假设进行积分求和,但当贝叶斯网络模型比较复杂时(如学生人数或题目数量较多),MCMC采样器的效率会非常缓慢,影响模型的执行效率。本实施例中,采用变分推断方法能够很好地扩展模型的复杂性,提高采样速度,进而提升模型的执行效率。
具体的,设Z为待估的参数组,Z=α,β,θ,α为题目的区分度,β为题目的难度,θ为答题者的学习能力。用X表示答题信息样本中包含的题目被做对或做错的情况。设p(Z|X)为目标函数,q(Z)为p(Z|X)对应的变分分布函数,其中,q(Z)=p(α)p(β)p(θ),也即q(Z)为满足隐含超参τα、τβ和τθ的待定先验分布函数,可得到:
p(Z|X)≈q(Z)
以目标函数和变分分布函数的接近程度最小为原则,即目标为找到p(Z|X)对应的目标变分分布函数q*(Z)使得p(Z|X)和q(Z)最接近于相等,因此,可得到q*(Z)是满足使下式取值最小的分布:
上式为关于KL散度(Kullback–Leibler divergence)的定义式。
由于
而X的真实分布p(X)固定,所以可将上述问题转变为通过变分下界(EvidenceLower Bound,ELBO)寻找q*(Z)满足下式的最大化:
而
因此,可将优化问题转化为找到p(Z|X)对应的目标变分分布函数q*(Z)使得上式取最大值。
p(X|Z)为基于IRT模型的表达式:
由于q(Z)为关于超参τα、τβ和τθ的函数,所以L(q)也是关于超参τα、τβ和τθ的函数,所以超参满足使L(q)最大化,也即将L(q)的优化问题转化为关于τα、τβ和τθ的待定系数的问题,进而实现对超参进行估计并得到超参的参数值。
将估计得到的τα、τβ和τθ代回q(Z)=p(α)p(β)p(θ)中,从而对q(Z)进行更新,更新后的q(Z)即为目标变分分布函数q*(Z)。
基于更新后的q(Z)对待估参数进行采样即可得到对待估参数α,β,θ的估计。本发明实施例对具体的采样方式不作限定。优选的,采用MCMC方法基于更新后的变分分布函数对所述待估参数进行采样。其中,涉及到的常用的技术有Metropolis-Hastings(M-H)算法及No-U-Turn Sampler(NUTS)算法等。
最后,将待估参数的估计结果代入IRT模型中,可得到第二IRT预测模型。
上述第二IRT预测模型,可降低对待估参数的先验估计过于固化对估计结果的影响,有效提升估计准确度。
进一步的,在得到第一IRT预测模型和第二IRT预测模型之后,还可包括:假设答题者的学习能力的演进满足维纳过程,并更新第一IRT预测模型和所述第二IRT预测模型。根据历史答题信息及更新后的第一IRT预测模型确定所述当前答题者的第一当前学习能力;根据所述历史答题信息及更新后的第二IRT预测模型确定所述当前答题者的第二当前学习能力。所述基于所述第一IRT预测模型、所述学习能力信息及所述候选题目的第一题目信息预测所述当前答题者做对所述候选题目的概率,得到第一IRT预测结果,包括:基于所述第一IRT预测模型、所述第一当前学习能力及所述候选题目的第一题目信息预测所述当前答题者做对所述候选题目的概率,得到第一IRT预测结果。所述基于所述第二IRT预测模型、所述学习能力信息及所述候选题目的第二题目信息预测所述当前答题者做对所述候选题目的概率,得到第二IRT预测结果,包括:基于所述第二IRT预测模型、所述第二当前学习能力及所述候选题目的第二题目信息预测所述当前答题者做对所述候选题目的概率,得到第二IRT预测结果。
具体的,答题者的学习能力的变化是一个随着时间演进的过程,因此,本发明实施例考虑这一因素并进行进一步的优化。可假设答题者的学习能力的演进满足维纳过程如下:
其中,γ是维纳过程的平滑先验假设参数,θt′+τ为答题者的当前学习能力,θt′为答题者上一次做题时刻t′的学习能力,τ=t-t′表示两次做题的时间间隔。
将上述假设加入到预测模型(第一IRT预测模型或第二IRT预测模型)中,即在任意t时刻,对于任意t之前的时间点t′,更新所述预测模型得到更新后的预测模型如下:
表示题目j在t′时刻的修正区分度,θ
i,t表示答题者i的当前学习能力,X
i,j,t′表示答题者i关于题目j在t′时刻的做题对错情况,X
i,j,t′=1表示答题者i在t′时刻做题对题目j。
随后根据历史答题数据及更新后的预测模型确定当前答题者的当前学习能力。具体的,可采用极大后验概率估计方式利用更新后的预测模型来估计出当前答题者当前时刻的学习能力,利用该方法可对答题者的学习能力进行平滑处理,可进一步提高预测精度。
步骤140、基于深度学习知识追踪DKT预测模型和历史答题信息预测当前答题者做对候选题目的概率,得到DKT预测结果。
示例性的,DKT预测模型即为基于DKT网络模型的预测模型,将当前答题者的历史答题信息输入至该模型中,输出数据即为当前答题者关于目标题库中未做题目的做题情况的预测结果,也即可得到做对题目的概率。所述DKT网络中的中间层可为循环神经网络(Recurrent Neural Networks,RNN)、长短期记忆(Long Short Term Gated Memory,LSTM)网络和门限递归单元(Gated Recurrent Unit,GRU)网络中的任意一种。
优选的,本步骤可具体包括:基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集;采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到DKT预测模型;基于DKT预测模型和所述历史答题信息预测所述当前答题者做对所述候选题目的概率,得到DKT预测结果。
具体的,采用迭代方式对DKT网络进行训练,得到DKT预测模型的过程如下:采用第一个训练样本子集对初始DKT网络进行训练,得到所述第一个训练样本子集对应的DKT网络中间模型;对于第二个训练样本子集至倒数第二个训练样本子集中的每个训练样本子集,采用当前训练样本子集对上一个训练样本子集对应的DKT网络中间模型进行训练,得到所述当前训练样本子集对应的DKT网络中间模型;采用最后一个训练样本子集对所述倒数第二个训练样本子集对应的DKT网络中间模型进行训练,得到DKT预测模型。
这样设置的好处在于,可减少不同答题者做题量波动剧烈给DKT模型带来的过拟合误差,进而提高DKT网络模型的预测精度及准确度。
进一步的,基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集,包括:基于答题者的做题数量对所述答题信息样本进行聚类,得到多个答题信息样本子集;对于每个答题信息样本子集,将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集。在做向量化的时候,加入的知识点信息能够获知更多的关于每道题目的信息,可进一步提升模型预测准确度。其中,所述将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集,可包括:根据当前答题信息样本子集中每个答题者对应的答题信息分别生成当前答题者的基于题目答题情况的第一独热向量和基于知识点答题情况的第二独热向量;对所述第一独热向量和所述第二独热向量进行直和操作,得到当前答题者的基于题目和知识点的独热向量;将当前答题信息样本子集中包含的所有答题者对应的基于题目和知识点的独热向量汇总为当前答题信息样本子集对应的训练样本子集。
进一步的,所述将当前答题信息样本子集中包含的所有答题者对应的基于题目和知识点的独热向量汇总为当前答题信息样本子集对应的训练样本子集,包括:利用所得独热向量的稀疏性对所述所得独热向量进行压缩重构;将当前答题信息样本子集中包含的所有答题者对应的压缩重构后的向量汇总为当前答题信息样本子集对应的训练样本子集。进行压缩重构的好处在于,可避免因向量长度过大而影响训练效率以及造成机器内存不足等情况的发生。
进一步的,在采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到DKT预测模型之前,还可包括:对DKT网络进行调优处理,所述调优处理对应的调节内容包括网络层数、网络间的耦合关系、每层网络类型、激活函数层的选择、目标函数的选取、梯度的截断阈值、自适应优化的学习系数和网络权值的随机初始化方案中的至少一个。
进一步的,在采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到DKT预测模型之前,还可包括:基于Bucket机制或动态神经网络机制改进DKT网络。
步骤150、对IRT预测结果和DKT预测结果进行合并处理,得到当前答题者做对候选题目的预测概率。
示例性的,可对IRT预测结果和DKT预测结果进行非线性耦合处理,得到当前答题者做对候选题目的预测概率。
具体的,可基于如下公式对所述IRT预测结果和所述DKT预测结果进行合并处理,得到所述当前答题者做对所述候选题目的预测概率:
PTemp=ωMML*WMML*PMML+ωVI*WVI*PVI+ωDKT*WDKT*PDKT
其中,PTemp为预测概率;ωMML为第一IRT预测结果对应的常数因子,WMML为第一IRT预测结果对应的权重系数,PMML为第一IRT预测结果对应的概率值;ωVI为第二IRT预测结果对应的常数因子,WVI为第二IRT预测结果对应的权重系数,PVI为第二IRT预测结果对应的概率值;ωDKT为DKT预测结果对应的常数因子,WDKT为DKT预测结果对应的权重系数,PDKT为DKT预测结果对应的概率值。
本实施例中,对各预测结果对应的常数因子的取值不做限定,本领域技术人员可根据实际需求进行选取。优选的,ωMML=ωVI=0.25,ωDKT=0.5。
优选的,对于上述预测概率还可进行进一步的平滑处理,得到目标预测概率。具体的,可如下公式对所述预测概率进行平滑处理,得到目标预测概率:
其中,PFinal为目标预测概率;s为预设常数;ω为第一光滑化因子,ω∈[0,1];λ为第二光滑化因子,λ∈(-∞,0),ω和λ的具体取值取决于题目模型的质量和数据的正负偏度值;PDummy为中间预测概率;
M为所述目标题库中的当前答题者的做对题目数量,N为所述目标题库中的当前答题者的已做题目总数;或者,M为所述目标题库中的指定知识点下当前答题者的做对题目数量,N为所述目标题库中的指定知识点下当前答题者的已做题目总数,所述指定知识点为所述候选题目所属的知识点。M和N的具体取值可根据答题者是否做过指定知识点内的题目来确定。
本实施例对预设常数s的具体取值不做限定,优选的,s=0.5。
即上式优选为:
可将上式称为Dummy模型,当PTemp在0.5附近表示模型预测的信心较低或者方差比较大,所以需要进行上述平滑处理,使得预测结果更加准确。
本发明实施例一提供的信息预测方法,对于目标题库中的候选题目,基于IRT预测模型和当前答题者的学习能力信息预测其做对候选题目的概率,得到IRT预测结果,基于DKT预测模型和当前答题者的历史答题信息预测其做对候选题目的概率,得到DKT预测结果,最后对IRT预测结果和DKT预测结果进行合并处理,得到当前答题者做对候选题目的预测概率。通过采用上述技术方案,综合了两种预测模型的预测结果来预测答题者做对候选题目的概率,可有效提高预测准确度。
实施例二
图2为本发明实施例二提供的一种信息预测方法的流程示意图,本实施例以上述实施例为基础进行优化,在本实施例中,增加了向答题者推送题目的相关步骤。
相应的,本实施例的方法包括如下步骤:
步骤210、获取当前答题者关于目标题库的历史答题信息和当前答题者的学习能力信息。
步骤220、从目标题库中确定候选题目。
步骤230、基于IRT预测模型和学习能力信息预测当前答题者做对候选题目的概率,得到IRT预测结果。
步骤240、基于深度学习知识追踪DKT预测模型和历史答题信息预测当前答题者做对候选题目的概率,得到DKT预测结果。
步骤250、对IRT预测结果和DKT预测结果进行合并处理,得到当前答题者做对候选题目的预测概率。
步骤260、对预测概率进行平滑处理,得到目标预测概率。
步骤270、当目标预测概率满足预设条件时,向当前答题者推送所述候选题目。
示例性的,预设条件可以根据自适应学习系统的默认设置来确定,也可由答题者根据自身情况自行设置。例如,预设条件可以是所确定的概率处于预设数值范围内,假设该范围0.5-0.8,如对于候选题目C,当所确定的概率为0.6时,则向当前答题者推送该题目C。
优选的,本步骤可具体包括:
定义候选题目的熵值为:
H=-PFinallogPFinal-(1-PFinal)log(1-PFinal)
其中,PFinal为当所确定的概率,H为候选题目的熵值(Information Entropy)。
当PFinal满足使得H的值大于预设数值时,向当前答题者推送候选题目。
可以理解的是,根据最大熵原理,候选题目的熵值越大,则答题者练习该题所能获取的信息量越多,所以当H值大于一定的数值时,向当前答题者推送候选题目。
图3为本发明实施例二提供的一种题目推送过程示意图,如图3所示,以答题者为学生为例,可根据知识点图谱以及学生学习能力,选择后置、前置或平行知识点,并选择向学生推送的题目。由图3中的学生1001答题预测曲线图可以看出,当预测学生答题正确率为50%时(学生学习能力等于题目难度)信息熵最大,此时该题对于学生而言信息量是最大的,故本例中为学生1001推送“感叹句”知识点下题目2023。
本发明实施例提供的信息预测方法,在预测答题者做对候选题目的概率后,基于预测概率和当前答题者的当前学习能力来快速准确地选择合适的题目推送给答题者进行作答,使自适应学习系统更具备针对性和个性化,最大化答题者的学习效果,避免了答题者重复做太多简单题或直接做难题导致不会做或没有收获等低效的情况。
图4a为本发明实施例提供的本发明实施例技术方案与现有方案的第一对比示意图,图4b为本发明实施例提供的本发明实施例技术方案与现有方案的第二对比示意图。图4a为基于ASSISTment开源数据(ASSISTment 2009-2010“skill builder”数据集)得到的Knewton公司所使用的经典IRT模型(Knewton HIRT)以及斯坦福大学所提出的DKT模型(Stanford RNN)与本发明实施例技术方案所构成的精益学习模型的准确度对比图;图4b为基于学霸君直播课数据得到的Knewton公司所使用的经典IRT模型以及斯坦福大学所提出的DKT模型与本发明实施例技术方案所构成的精益学习模型的准确度对比图。如图4a和图4b所示,本发明实施例提出的精益学习模型无论在公共数据源还是学霸君自己的数据源上面,其效果均有不同程度的提升,在兼顾运行效率的同时具有更好的准确度。
实施例三
图5为本发明实施例三提供的信息预测装置的结构框图,该装置可由软件和/或硬件实现,一般可集成在自适应学习系统内的终端中,该终端可以是个人电脑或服务器等终端,也可以是平板电脑或智能手机等移动终端,本发明实施例不作具体限定。如图5所示,该装置包括信息获取模块31、候选题目确定模块32、第一预测模块33、第二预测模块34和预测结果处理模块35。
其中,信息获取模块31,用于获取当前答题者关于目标题库的历史答题信息和所述当前答题者的学习能力信息;
候选题目确定模块32,用于从所述目标题库中确定候选题目;
第一预测模块33,用于基于项目反映理论IRT预测模型和所述学习能力信息预测所述当前答题者做对所述候选题目的概率,得到IRT预测结果;
第二预测模块34,用于基于深度学习知识追踪DKT预测模型和所述历史答题信息预测所述当前答题者做对所述候选题目的概率,得到DKT预测结果;
预测结果处理模块35,用于对所述IRT预测结果和所述DKT预测结果进行合并处理,得到所述当前答题者做对所述候选题目的预测概率。
本发明实施例提供的信息预测装置,综合了两种预测模型的预测结果来预测答题者做对候选题目的概率,可有效提高预测准确度。
在上述实施例的基础上,该装置还包括:答题样本获取模块,用于在基于IRT模型和所述学习能力信息预测所述当前答题者做对所述候选题目的概率,得到IRT预测结果之前,获取预设数量的答题者关于所述目标题库的答题信息样本;频率权重确定模块,用于基于每个答题者所做题目的答题情况为独立事件的假设,确定所述目标题库中的对应题目被所有具备预设学习能力的答题者做对的频率权重;频率权重代入模块,用于将所述频率权重代入预设估计模型中,得到目标估计模型,其中,所述预设估计模型为基于IRT模型及边际极大似然MML估计方法的最大后验概率估计模型;信息估计模块,用于根据所述答题样本信息利用MML估计方法对所述目标估计模型进行训练,以对所述目标题库中的各题目的第一题目信息进行估计,其中,所述第一题目信息包括第一区分度和第一难度;第一预测模型建立模块,用于根据训练完成的目标估计模型建立第一IRT预测模型。所述第一预测模块用于:基于所述第一IRT预测模型、所述学习能力信息及所述候选题目的第一题目信息预测所述当前答题者做对所述候选题目的概率,得到第一IRT预测结果。
在上述实施例的基础上,该装置还包括:贝叶斯网络模型构建模块,用于在获取预设数量的答题者关于所述目标题库的答题信息样本之后,以IRT模型中的答题者的学习能力、题目的区分度及题目的难度为待估参数构建贝叶斯网络模型,其中,所述待估参数满足包含超参的预设先验分布;超参估计模块,用于采用变分推断方法确定目标函数对应的变分分布函数,并以所述目标函数和所述变分分布函数的接近程度最小为原则,基于所述贝叶斯网络模型和所述答题信息样本对所述超参进行估计,得到所述超参的参数值,其中,所述目标函数为基于所述答题信息样本的关于所述待估参数的后验估计函数;函数更新模块,用于根据所得的超参的参数值对所述变分分布函数进行更新;待估参数估计模块,用于基于更新后的变分分布函数对所述待估参数进行采样,得到对所述待估参数的估计;第一预测模型建立模块,用于根据所述待估参数的估计结果建立第二IRT预测模型,其中,估计结果包括所述目标题库中各题目的第二题目信息,所述第二题目信息包括第二区分度和第二难度。所述第一预测模块还用于:基于所述第二IRT预测模型、所述学习能力信息及所述候选题目的第二题目信息预测所述当前答题者做对所述候选题目的概率,得到第二IRT预测结果。
在上述实施例的基础上,所述第二预测模块用于:基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集;
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到DKT预测模型;
基于DKT预测模型和所述历史答题信息预测所述当前答题者做对所述候选题目的概率,得到DKT预测结果。
在上述实施例的基础上,所述预测结果处理模块用于:
基于如下公式对所述IRT预测结果和所述DKT预测结果进行合并处理,得到所述当前答题者做对所述候选题目的预测概率:
PTemp=ωMML*WMML*PMML+ωVI*WVI*PVI+ωDKT*WDKT*PDKT
其中,PTemp为预测概率;ωMML为第一IRT预测结果对应的常数因子,WMML为第一IRT预测结果对应的权重系数,PMML为第一IRT预测结果对应的概率值;ωVI为第二IRT预测结果对应的常数因子,WVI为第二IRT预测结果对应的权重系数,PVI为第二IRT预测结果对应的概率值;ωDKT为DKT预测结果对应的常数因子,WDKT为DKT预测结果对应的权重系数,PDKT为DKT预测结果对应的概率值。
在上述实施例的基础上,该装置还包括:
平滑处理模块,用于在对所述IRT预测结果和所述DKT预测结果进行非线性耦合处理,得到所述当前答题者做对所述候选题目的预测概率之后,基于如下公式对所述预测概率进行平滑处理,得到目标预测概率:
其中,PFinal为目标预测概率;s为预设常数;ω为第一光滑化因子,ω∈[0,1];λ为第二光滑化因子,λ∈(-∞,0);PDummy为中间预测概率;
M为所述目标题库中的当前答题者的做对题目数量,N为所述目标题库中的当前答题者的已做题目总数;或者,M为所述目标题库中的指定知识点下当前答题者的做对题目数量,N为所述目标题库中的指定知识点下当前答题者的已做题目总数,所述指定知识点为所述候选题目所属的知识点。
在上述实施例的基础上,该装置还包括题目推送模块,用于在对所述预测概率进行平滑处理,得到目标预测概率之后,当所述目标预测概率满足预设条件时,向所述当前答题者推送所述候选题目。
在上述实施例的基础上,该装置还包括:预测模型更新模块,用于在得到第一IRT预测模型和第二IRT预测模型之后,假设答题者的学习能力的演进满足维纳过程,并更新所述第一IRT预测模型和所述第二IRT预测模型;第一能力确定模块,用于根据所述历史答题信息及更新后的第一IRT预测模型确定所述当前答题者的第一当前学习能力;第二能力确定模块,用于根据所述历史答题信息及更新后的第一IRT预测模型确定所述当前答题者的第二当前学习能力。所述第一预测模块用于:基于所述第一IRT预测模型、所述第一当前学习能力及所述候选题目的第一题目信息预测所述当前答题者做对所述候选题目的概率,得到第一IRT预测结果;基于所述第二IRT预测模型、所述第二当前学习能力及所述候选题目的第二题目信息预测所述当前答题者做对所述候选题目的概率,得到第二IRT预测结果。
上述实施例中提供的信息预测装置可执行本发明任意实施例所提供的信息预测方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本发明任意实施例所提供的信息预测方法。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。