实施例一
图1为本发明实施例一提供的一种信息预测方法的流程示意图,该方法可以由信息预测装置执行,其中该装置可由软件和/或硬件实现,一般可集成在自适应学习系统内的终端中,该终端可以是个人电脑或服务器等终端,也可以是平板电脑或智能手机等移动终端,本发明实施例不作具体限定。如图1所示,该方法包括:
步骤110、获取当前答题者关于目标题库的历史答题信息和当前答题者的学习能力信息。
本实施例中,可根据实际需求选取目标题库。具体的,可根据当前答题者输入的身份信息来选取目标题库,也可以由答题者自主选择目标题库。例如,身份信息为初中一年级学生,则目标题库可以为初中一年级某个科目的题库;又如,身份信息为B地区驾照考取人员,则目标题库可以为B地区某驾考科目题库。示例性的,历史答题信息可包括已完成的答题数量、作答题目及答题情况(如做对或做错)等信息。学习能力信息具体可以为IRT模型中的学习能力θ,即当前答题者对应的θ值。
步骤120、从目标题库中确定候选题目。
本实施例对本步骤中的候选题目的确定方式不作限定,可随机选取,也可按照知识点选取。
步骤130、基于IRT预测模型和学习能力信息预测当前答题者做对候选题目的概率,得到IRT预测结果。
在本发明实施例中,以经典的双参数IRT模型为例,设θ(theta)是答题者的学习能力,α(discriminination)、β(difficulty)分别是题目的区分度和难度(系数),则题目被答题者做对的概率是:
需要说明的是,在单参数IRT模型里面,一般用固定的D(D取值1.7)来代替α。
为了对目标题库中题目的题目信息进行估计,需要根据做过这些题目的答题者的答题信息来估计题库中每道题目的区分度和难度,进而建立IRT预测模型。
本实施例对IRT预测模型的建立过程不作具体限定,优选的,可采用以下第一种和/或第二种方式建立IRT预测模型。
一、基于边际极大似然(Marginal Maximum likelihood,MML)估计方法构建IRT预测模型
在基于IRT模型和所述学习能力信息预测所述当前答题者做对所述候选题目的概率,得到IRT预测结果之前,获取预设数量的答题者关于所述目标题库的答题信息样本;基于每个答题者所做题目的答题情况为独立事件的假设,确定所述目标题库中的对应题目被所有具备预设学习能力的答题者做对的频率权重;将所述频率权重代入预设估计模型中,得到目标估计模型,其中,所述预设估计模型为基于IRT模型及边际极大似然MML估计方法的最大后验概率估计模型;根据所述答题样本信息利用MML估计方法对所述目标估计模型进行训练,以对所述目标题库中的各题目的第一题目信息进行估计,其中,所述第一题目信息包括第一区分度和第一难度;根据训练完成的目标估计模型建立第一IRT预测模型。
在上述方式中,答题信息样本可包括答题数量、作答题目及答题情况(如做对或做错)等信息。
具体的,给定答题者i和题库题目j,需要最大化如下的最大后验概率估计:
其中,i表示答题者,j表示题目,Xi,j表示答题者i关于题目j的做题对错情况,αj表示题目j的区分度,βj表示题目j的难度系数,θi表示答题者i的学习能力,P(Xi,j|αj,βj,θi)表示做题人员i做对/错题目j的概率,表示θi满足均值为方差为的正态分布,表示βj满足均值为方差为的正态分布,表示lnαj满足均值为方差为的正态分布。将上述公式记为基于IRT模型的最大后验概率估计模型。
常用的解决上述优化问题的方法有上文提到的JML估计方法,MML估计方法以及MCMC方法等,本发明实施例采用了其中应用较广泛的MML估计方法。该方法中,可假设学习能力θ满足一定的先验分布,得到预设估计模型,即基于IRT模型及MML估计方法的最大后验概率估计模型。例如,θi满足均值为方差为的预设先验正态分布。为了便于说明,这里假设θi满足均值为0方差为1的先验正态分布,即θi满足基于该假设,可将上述基于IRT模型的最大后验概率估计模型转化成:
其中,表示题目j被所有学习能力为θi的答题者做对或做错的频率,其中,Itemj=1时表示做对,Itemj=0时表示做错。
进一步的,引入高斯-厄米特(Gauss–Hermite)积分公式来模拟学生的能力采样,假设学生的学习能力满足正态分布,则学生能力θ取值为x的频次为
其中,Hn-1(x)是n-1次Hermite多项式,学习能力采样点x取多项式Hn-1(x)所有可能的零点。
为了得到即得到题目j被所有学习能力为θi的答题者做对的频率,传统的分析题目各种答题情况出现频次的思路是通过提供给答题者固定题组,基于固定题组的各种答题情况出现的频次反推单个题目的答题情况出现的频次,在题目数量较大时,题组可能出现的模式总数呈指数增长,传统方式的效率及准确度将极度下降,且对硬件设备性能要求极高,甚至很难符合要求,使MML方法应用于自适应答题环境变得不可行。
因此,本发明实施例摒弃了上述传统的分析题目各种答题情况出现频次时基于固定题组的各种答题情况出现频次反推单个题目的答题情况出现频次的思路,创新地提出假设每个答题者所做题目的各种答题情况出现的可能性存在一定的独立性,即每个答题者所做题目的答题情况可近似视为独立事件,采用直接从单个题目各答题情况出现的频次入手的处理方式,即基于每个答题者所做题目的答题情况为独立事件的假设,确定目标题库中的对应题目被所有具备预设学习能力的答题者做对的频率权重。其中,本实施例中的“确定目标题库中的对应题目被所有具备预设学习能力的答题者做对的频率权重”具体可指:对于目标题库中的每一道题目,分别确定当前题目被所有具备预设学习能力的答题者做对的频率权重。
具体的,所述频率权重的计算方法如下:
其中,表示题目j被所有学习能力为θi的答题者做对的频率,表示题目Itemj做对的统计频率,P(Itemj=1|θi)表示题目j被做对的情况中学习能力为θi的学生出现的后验概率,P(θi)代表所有答题者学习能力的先验假设。
随后,将频率权重代入预设估计模型中,得到目标估计模型,根据答题样本信息利用MML估计方法对目标估计模型进行训练,以对所述目标题库中的各题目的第一题目信息进行估计,再根据训练完成的目标估计模型建立第一IRT预测模型。
上述第一IRT预测模型,解决了因题组中包含大量题目时基于IRT模型的MML估计方法效率及准确度急剧降低甚至不可行的问题,使基于IRT模型的MML估计方法能够更好地应用于自适应学习环境,并有效提升模型效率及估计准确度。
二、基于变分推断方法构建IRT预测模型
获取预设数量的答题者关于所述目标题库的答题信息样本,以IRT模型中的答题者的学习能力、题目的区分度及题目的难度为待估参数构建贝叶斯网络模型,其中,所述待估参数满足包含超参的预设先验分布;采用变分推断方法确定目标函数对应的变分分布函数,并以所述目标函数和所述变分分布函数的接近程度最小为原则,基于所述贝叶斯网络模型和所述答题信息样本对所述超参进行估计,得到所述超参的参数值,其中,所述目标函数为基于所述答题信息样本的关于所述待估参数的后验估计函数;根据所得的超参的参数值对所述变分分布函数进行更新;基于更新后的变分分布函数对所述待估参数进行采样,得到对所述待估参数的估计;根据所述待估参数的估计结果建立第二IRT预测模型,其中,估计结果包括所述目标题库中各题目的第二题目信息,所述第二题目信息包括第二区分度和第二难度。
在一般的基于IRT模型的贝叶斯网络模型中,学生的先验信息往往是事先确定好的,例如通常假设所有学生的能力分布是符合正态分布N(0,1)的,这就给模型的估计带来了先验的固化,即使正态分布的参数可以进行选择,但调优过程使得整个估计流程要重新执行一次,严重影响估计模型的执行效率。因此,本发明实施例通过引入超参(hyper-parameter),使得待估参数满足一定的先验假设分布族,从而弱化了对参数错误估计带来的分析误差。
优选的,所述答题者的学习能力和所述题目的难度满足均值和/或方差为超参的正态分布,所述题目的区分度满足均值和/或方差为超参的对数正态分布。这种方差或者甚至均值都待定的正态分布是一系列正态分布函数,可称之为正态分布函数族。
本发明实施例中,假设α,β,θ分别满足超参分布如下:
其中,τθ可满足(0,100)区间内的均匀分布,τα可满足(0,100)区间内的均匀分布,τβ可满足(0,100)区间内的均匀分布。可以理解的是,上述的100是一个可自由设定的常数,也可以是其他值,使得任何符合经验事实的后验超参的方差都不会超过这个范围。
一般的基于贝叶斯网络模型进行估计时,可采用MCMC方法采样关于先验假设进行积分求和,但当贝叶斯网络模型比较复杂时(如学生人数或题目数量较多),MCMC采样器的效率会非常缓慢,影响模型的执行效率。本实施例中,采用变分推断方法能够很好地扩展模型的复杂性,提高采样速度,进而提升模型的执行效率。
具体的,设Z为待估的参数组,Z=α,β,θ,α为题目的区分度,β为题目的难度,θ为答题者的学习能力。用X表示答题信息样本中包含的题目被做对或做错的情况。设p(Z|X)为目标函数,q(Z)为p(Z|X)对应的变分分布函数,其中,q(Z)=p(α)p(β)p(θ),也即q(Z)为满足隐含超参τα、τβ和τθ的待定先验分布函数,可得到:
p(Z|X)≈q(Z)
以目标函数和变分分布函数的接近程度最小为原则,即目标为找到p(Z|X)对应的目标变分分布函数q*(Z)使得p(Z|X)和q(Z)最接近于相等,因此,可得到q*(Z)是满足使下式取值最小的分布:
上式为关于KL散度(Kullback–Leibler divergence)的定义式。
由于
而X的真实分布p(X)固定,所以可将上述问题转变为通过变分下界(EvidenceLower Bound,ELBO)寻找q*(Z)满足下式的最大化:
而
因此,可将优化问题转化为找到p(Z|X)对应的目标变分分布函数q*(Z)使得上式取最大值。
p(X|Z)为基于IRT模型的表达式:
由于q(Z)为关于超参τα、τβ和τθ的函数,所以L(q)也是关于超参τα、τβ和τθ的函数,所以超参满足使L(q)最大化,也即将L(q)的优化问题转化为关于τα、τβ和τθ的待定系数的问题,进而实现对超参进行估计并得到超参的参数值。
将估计得到的τα、τβ和τθ代回q(Z)=p(α)p(β)p(θ)中,从而对q(Z)进行更新,更新后的q(Z)即为目标变分分布函数q*(Z)。
基于更新后的q(Z)对待估参数进行采样即可得到对待估参数α,β,θ的估计。本发明实施例对具体的采样方式不作限定。优选的,采用MCMC方法基于更新后的变分分布函数对所述待估参数进行采样。其中,涉及到的常用的技术有Metropolis-Hastings(M-H)算法及No-U-Turn Sampler(NUTS)算法等。
最后,将待估参数的估计结果代入IRT模型中,可得到第二IRT预测模型。
上述第二IRT预测模型,可降低对待估参数的先验估计过于固化对估计结果的影响,有效提升估计准确度。
进一步的,在得到第一IRT预测模型和第二IRT预测模型之后,还可包括:假设答题者的学习能力的演进满足维纳过程,并更新第一IRT预测模型和所述第二IRT预测模型。根据历史答题信息及更新后的第一IRT预测模型确定所述当前答题者的第一当前学习能力;根据所述历史答题信息及更新后的第二IRT预测模型确定所述当前答题者的第二当前学习能力。所述基于所述第一IRT预测模型、所述学习能力信息及所述候选题目的第一题目信息预测所述当前答题者做对所述候选题目的概率,得到第一IRT预测结果,包括:基于所述第一IRT预测模型、所述第一当前学习能力及所述候选题目的第一题目信息预测所述当前答题者做对所述候选题目的概率,得到第一IRT预测结果。所述基于所述第二IRT预测模型、所述学习能力信息及所述候选题目的第二题目信息预测所述当前答题者做对所述候选题目的概率,得到第二IRT预测结果,包括:基于所述第二IRT预测模型、所述第二当前学习能力及所述候选题目的第二题目信息预测所述当前答题者做对所述候选题目的概率,得到第二IRT预测结果。
具体的,答题者的学习能力的变化是一个随着时间演进的过程,因此,本发明实施例考虑这一因素并进行进一步的优化。可假设答题者的学习能力的演进满足维纳过程如下:
其中,γ是维纳过程的平滑先验假设参数,θt′+τ为答题者的当前学习能力,θt′为答题者上一次做题时刻t′的学习能力,τ=t-t′表示两次做题的时间间隔。
将上述假设加入到预测模型(第一IRT预测模型或第二IRT预测模型)中,即在任意t时刻,对于任意t之前的时间点t′,更新所述预测模型得到更新后的预测模型如下:
其中,
表示题目j在t′时刻的修正区分度,θi,t表示答题者i的当前学习能力,Xi,j,t′表示答题者i关于题目j在t′时刻的做题对错情况,Xi,j,t′=1表示答题者i在t′时刻做题对题目j。
随后根据历史答题数据及更新后的预测模型确定当前答题者的当前学习能力。具体的,可采用极大后验概率估计方式利用更新后的预测模型来估计出当前答题者当前时刻的学习能力,利用该方法可对答题者的学习能力进行平滑处理,可进一步提高预测精度。
步骤140、基于深度学习知识追踪DKT预测模型和历史答题信息预测当前答题者做对候选题目的概率,得到DKT预测结果。
示例性的,DKT预测模型即为基于DKT网络模型的预测模型,将当前答题者的历史答题信息输入至该模型中,输出数据即为当前答题者关于目标题库中未做题目的做题情况的预测结果,也即可得到做对题目的概率。所述DKT网络中的中间层可为循环神经网络(Recurrent Neural Networks,RNN)、长短期记忆(Long Short Term Gated Memory,LSTM)网络和门限递归单元(Gated Recurrent Unit,GRU)网络中的任意一种。
优选的,本步骤可具体包括:基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集;采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到DKT预测模型;基于DKT预测模型和所述历史答题信息预测所述当前答题者做对所述候选题目的概率,得到DKT预测结果。
具体的,采用迭代方式对DKT网络进行训练,得到DKT预测模型的过程如下:采用第一个训练样本子集对初始DKT网络进行训练,得到所述第一个训练样本子集对应的DKT网络中间模型;对于第二个训练样本子集至倒数第二个训练样本子集中的每个训练样本子集,采用当前训练样本子集对上一个训练样本子集对应的DKT网络中间模型进行训练,得到所述当前训练样本子集对应的DKT网络中间模型;采用最后一个训练样本子集对所述倒数第二个训练样本子集对应的DKT网络中间模型进行训练,得到DKT预测模型。
这样设置的好处在于,可减少不同答题者做题量波动剧烈给DKT模型带来的过拟合误差,进而提高DKT网络模型的预测精度及准确度。
进一步的,基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集,包括:基于答题者的做题数量对所述答题信息样本进行聚类,得到多个答题信息样本子集;对于每个答题信息样本子集,将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集。在做向量化的时候,加入的知识点信息能够获知更多的关于每道题目的信息,可进一步提升模型预测准确度。其中,所述将当前答题信息样本子集中每个答题者对应的答题信息转化为基于题目和知识点的独热向量,得到当前答题信息样本子集对应的训练样本子集,可包括:根据当前答题信息样本子集中每个答题者对应的答题信息分别生成当前答题者的基于题目答题情况的第一独热向量和基于知识点答题情况的第二独热向量;对所述第一独热向量和所述第二独热向量进行直和操作,得到当前答题者的基于题目和知识点的独热向量;将当前答题信息样本子集中包含的所有答题者对应的基于题目和知识点的独热向量汇总为当前答题信息样本子集对应的训练样本子集。
进一步的,所述将当前答题信息样本子集中包含的所有答题者对应的基于题目和知识点的独热向量汇总为当前答题信息样本子集对应的训练样本子集,包括:利用所得独热向量的稀疏性对所述所得独热向量进行压缩重构;将当前答题信息样本子集中包含的所有答题者对应的压缩重构后的向量汇总为当前答题信息样本子集对应的训练样本子集。进行压缩重构的好处在于,可避免因向量长度过大而影响训练效率以及造成机器内存不足等情况的发生。
进一步的,在采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到DKT预测模型之前,还可包括:对DKT网络进行调优处理,所述调优处理对应的调节内容包括网络层数、网络间的耦合关系、每层网络类型、激活函数层的选择、目标函数的选取、梯度的截断阈值、自适应优化的学习系数和网络权值的随机初始化方案中的至少一个。
进一步的,在采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到DKT预测模型之前,还可包括:基于Bucket机制或动态神经网络机制改进DKT网络。
步骤150、对IRT预测结果和DKT预测结果进行合并处理,得到当前答题者做对候选题目的预测概率。
示例性的,可对IRT预测结果和DKT预测结果进行非线性耦合处理,得到当前答题者做对候选题目的预测概率。
具体的,可基于如下公式对所述IRT预测结果和所述DKT预测结果进行合并处理,得到所述当前答题者做对所述候选题目的预测概率:
PTemp=ωMML*WMML*PMML+ωVI*WVI*PVI+ωDKT*WDKT*PDKT
其中,PTemp为预测概率;ωMML为第一IRT预测结果对应的常数因子,WMML为第一IRT预测结果对应的权重系数,PMML为第一IRT预测结果对应的概率值;ωVI为第二IRT预测结果对应的常数因子,WVI为第二IRT预测结果对应的权重系数,PVI为第二IRT预测结果对应的概率值;ωDKT为DKT预测结果对应的常数因子,WDKT为DKT预测结果对应的权重系数,PDKT为DKT预测结果对应的概率值。
本实施例中,对各预测结果对应的常数因子的取值不做限定,本领域技术人员可根据实际需求进行选取。优选的,ωMML=ωVI=0.25,ωDKT=0.5。
优选的,对于上述预测概率还可进行进一步的平滑处理,得到目标预测概率。具体的,可如下公式对所述预测概率进行平滑处理,得到目标预测概率:
其中,PFinal为目标预测概率;s为预设常数;ω为第一光滑化因子,ω∈[0,1];λ为第二光滑化因子,λ∈(-∞,0),ω和λ的具体取值取决于题目模型的质量和数据的正负偏度值;PDummy为中间预测概率;
M为所述目标题库中的当前答题者的做对题目数量,N为所述目标题库中的当前答题者的已做题目总数;或者,M为所述目标题库中的指定知识点下当前答题者的做对题目数量,N为所述目标题库中的指定知识点下当前答题者的已做题目总数,所述指定知识点为所述候选题目所属的知识点。M和N的具体取值可根据答题者是否做过指定知识点内的题目来确定。
本实施例对预设常数s的具体取值不做限定,优选的,s=0.5。
即上式优选为:
可将上式称为Dummy模型,当PTemp在0.5附近表示模型预测的信心较低或者方差比较大,所以需要进行上述平滑处理,使得预测结果更加准确。
本发明实施例一提供的信息预测方法,对于目标题库中的候选题目,基于IRT预测模型和当前答题者的学习能力信息预测其做对候选题目的概率,得到IRT预测结果,基于DKT预测模型和当前答题者的历史答题信息预测其做对候选题目的概率,得到DKT预测结果,最后对IRT预测结果和DKT预测结果进行合并处理,得到当前答题者做对候选题目的预测概率。通过采用上述技术方案,综合了两种预测模型的预测结果来预测答题者做对候选题目的概率,可有效提高预测准确度。
实施例三
图5为本发明实施例三提供的信息预测装置的结构框图,该装置可由软件和/或硬件实现,一般可集成在自适应学习系统内的终端中,该终端可以是个人电脑或服务器等终端,也可以是平板电脑或智能手机等移动终端,本发明实施例不作具体限定。如图5所示,该装置包括信息获取模块31、候选题目确定模块32、第一预测模块33、第二预测模块34和预测结果处理模块35。
其中,信息获取模块31,用于获取当前答题者关于目标题库的历史答题信息和所述当前答题者的学习能力信息;
候选题目确定模块32,用于从所述目标题库中确定候选题目;
第一预测模块33,用于基于项目反映理论IRT预测模型和所述学习能力信息预测所述当前答题者做对所述候选题目的概率,得到IRT预测结果;
第二预测模块34,用于基于深度学习知识追踪DKT预测模型和所述历史答题信息预测所述当前答题者做对所述候选题目的概率,得到DKT预测结果;
预测结果处理模块35,用于对所述IRT预测结果和所述DKT预测结果进行合并处理,得到所述当前答题者做对所述候选题目的预测概率。
本发明实施例提供的信息预测装置,综合了两种预测模型的预测结果来预测答题者做对候选题目的概率,可有效提高预测准确度。
在上述实施例的基础上,该装置还包括:答题样本获取模块,用于在基于IRT模型和所述学习能力信息预测所述当前答题者做对所述候选题目的概率,得到IRT预测结果之前,获取预设数量的答题者关于所述目标题库的答题信息样本;频率权重确定模块,用于基于每个答题者所做题目的答题情况为独立事件的假设,确定所述目标题库中的对应题目被所有具备预设学习能力的答题者做对的频率权重;频率权重代入模块,用于将所述频率权重代入预设估计模型中,得到目标估计模型,其中,所述预设估计模型为基于IRT模型及边际极大似然MML估计方法的最大后验概率估计模型;信息估计模块,用于根据所述答题样本信息利用MML估计方法对所述目标估计模型进行训练,以对所述目标题库中的各题目的第一题目信息进行估计,其中,所述第一题目信息包括第一区分度和第一难度;第一预测模型建立模块,用于根据训练完成的目标估计模型建立第一IRT预测模型。所述第一预测模块用于:基于所述第一IRT预测模型、所述学习能力信息及所述候选题目的第一题目信息预测所述当前答题者做对所述候选题目的概率,得到第一IRT预测结果。
在上述实施例的基础上,该装置还包括:贝叶斯网络模型构建模块,用于在获取预设数量的答题者关于所述目标题库的答题信息样本之后,以IRT模型中的答题者的学习能力、题目的区分度及题目的难度为待估参数构建贝叶斯网络模型,其中,所述待估参数满足包含超参的预设先验分布;超参估计模块,用于采用变分推断方法确定目标函数对应的变分分布函数,并以所述目标函数和所述变分分布函数的接近程度最小为原则,基于所述贝叶斯网络模型和所述答题信息样本对所述超参进行估计,得到所述超参的参数值,其中,所述目标函数为基于所述答题信息样本的关于所述待估参数的后验估计函数;函数更新模块,用于根据所得的超参的参数值对所述变分分布函数进行更新;待估参数估计模块,用于基于更新后的变分分布函数对所述待估参数进行采样,得到对所述待估参数的估计;第一预测模型建立模块,用于根据所述待估参数的估计结果建立第二IRT预测模型,其中,估计结果包括所述目标题库中各题目的第二题目信息,所述第二题目信息包括第二区分度和第二难度。所述第一预测模块还用于:基于所述第二IRT预测模型、所述学习能力信息及所述候选题目的第二题目信息预测所述当前答题者做对所述候选题目的概率,得到第二IRT预测结果。
在上述实施例的基础上,所述第二预测模块用于:基于答题者的做题数量对所述答题信息样本进行聚类,得到多个训练样本子集;
采用迭代方式依次利用所述多个训练样本子集中的每个训练样本子集对DKT网络进行训练,得到DKT预测模型;
基于DKT预测模型和所述历史答题信息预测所述当前答题者做对所述候选题目的概率,得到DKT预测结果。
在上述实施例的基础上,所述预测结果处理模块用于:
基于如下公式对所述IRT预测结果和所述DKT预测结果进行合并处理,得到所述当前答题者做对所述候选题目的预测概率:
PTemp=ωMML*WMML*PMML+ωVI*WVI*PVI+ωDKT*WDKT*PDKT
其中,PTemp为预测概率;ωMML为第一IRT预测结果对应的常数因子,WMML为第一IRT预测结果对应的权重系数,PMML为第一IRT预测结果对应的概率值;ωVI为第二IRT预测结果对应的常数因子,WVI为第二IRT预测结果对应的权重系数,PVI为第二IRT预测结果对应的概率值;ωDKT为DKT预测结果对应的常数因子,WDKT为DKT预测结果对应的权重系数,PDKT为DKT预测结果对应的概率值。
在上述实施例的基础上,该装置还包括:
平滑处理模块,用于在对所述IRT预测结果和所述DKT预测结果进行非线性耦合处理,得到所述当前答题者做对所述候选题目的预测概率之后,基于如下公式对所述预测概率进行平滑处理,得到目标预测概率:
其中,PFinal为目标预测概率;s为预设常数;ω为第一光滑化因子,ω∈[0,1];λ为第二光滑化因子,λ∈(-∞,0);PDummy为中间预测概率;
M为所述目标题库中的当前答题者的做对题目数量,N为所述目标题库中的当前答题者的已做题目总数;或者,M为所述目标题库中的指定知识点下当前答题者的做对题目数量,N为所述目标题库中的指定知识点下当前答题者的已做题目总数,所述指定知识点为所述候选题目所属的知识点。
在上述实施例的基础上,该装置还包括题目推送模块,用于在对所述预测概率进行平滑处理,得到目标预测概率之后,当所述目标预测概率满足预设条件时,向所述当前答题者推送所述候选题目。
在上述实施例的基础上,该装置还包括:预测模型更新模块,用于在得到第一IRT预测模型和第二IRT预测模型之后,假设答题者的学习能力的演进满足维纳过程,并更新所述第一IRT预测模型和所述第二IRT预测模型;第一能力确定模块,用于根据所述历史答题信息及更新后的第一IRT预测模型确定所述当前答题者的第一当前学习能力;第二能力确定模块,用于根据所述历史答题信息及更新后的第一IRT预测模型确定所述当前答题者的第二当前学习能力。所述第一预测模块用于:基于所述第一IRT预测模型、所述第一当前学习能力及所述候选题目的第一题目信息预测所述当前答题者做对所述候选题目的概率,得到第一IRT预测结果;基于所述第二IRT预测模型、所述第二当前学习能力及所述候选题目的第二题目信息预测所述当前答题者做对所述候选题目的概率,得到第二IRT预测结果。
上述实施例中提供的信息预测装置可执行本发明任意实施例所提供的信息预测方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本发明任意实施例所提供的信息预测方法。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。