CN110659311B - 题目推送方法、装置、电子设备及存储介质 - Google Patents
题目推送方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN110659311B CN110659311B CN201910945023.2A CN201910945023A CN110659311B CN 110659311 B CN110659311 B CN 110659311B CN 201910945023 A CN201910945023 A CN 201910945023A CN 110659311 B CN110659311 B CN 110659311B
- Authority
- CN
- China
- Prior art keywords
- question
- topic
- data
- state
- questions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种题目推送方法,涉及教育学习系统,用于针对不同学生对知识点掌握程度随时间发生的变化,获取题目之间的关联性特征,有效地推送题目,该方法包括以下步骤:获取历史做题数据,按知识点对所述历史做题数据分类,每个知识点构成一个对应的题目数据集合;将题目数据集合按时间顺序输入预设的循环神经网络模型,获得关联性特征;基于关联性特征和预设的题库数据的当前答题特征,获得题库数据的题目状态st;根据题目状态st和马尔可夫决策过程,获得题目排队序列,选取排队序列中靠前的题目作为目标题目进行推送。本发明还公开了一种题目推送装置、电子设备和计算机存储介质,针对不同学生有效推送题目。
Description
技术领域
本发明涉及教育学习系统,尤其涉及一种题目推送方法、装置、电子设备及存储介质。
背景技术
随着计算机技术和网络的快速发展,基于互联网的在线教育得以广泛应用。学生可以通过在线的教育学习系统,进行在线学习、在线做题、在线考试等,方便学生进行个性化的学习和评测。因为不同学生对知识点的掌握程度不同,教育学习系统需要针对不同学生推送适合学生能力的题目,只有推送的题目与学生对知识点的掌握程度匹配时,学生才能通过做题练习获得能力的有效提升。
现有教育学习系统通常将学生对不同题目的答题情况看做是相互独立、互不影响的,根据学生当前的答题状态,来评估学生对题目所含知识点的掌握程度,从而进行题目的推送。这种题目推送方法没有考虑学生对题目中知识点的掌握程度是会随着学习时间发生动态变化的,忽略了题目之间的关联性。
发明内容
为了克服现有技术的不足,本发明的目的之一在于提供一种题目推送方法,其通过循环神经网络模型获取题目之间的关联性特征,进一步得到预设题库的题目状态,从而对题目进行排序并根据排序有效推送题目。
本发明的目的之一采用以下技术方案实现:
获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征;
获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st;
根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
预设的循环神经网络模型可以是根据历史做题数据即时训练获得的模型或者已经完成训练的模型;预设的题库数据可以根据需求从题库中任意获取。
进一步地,将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征,包括:
提取所述题目数据集合对应历史做题数据的回答时间和回答结果,将所述题目数据集合的知识点、所述回答时间和所述回答结果按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征,所述关联性特征包括所述题目数据集合的最大回答时间、最小回答时间、平均回答时间和正确率变化特性。
进一步地,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st,包括:
将所述当前答题特征与所述关联性特征输入所述循环神经网络模型,获得所述题库数据的题目状态st,所述题目状态st包括所述题库数据的知识点、回答时间和回答结果。
进一步地,根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,包括:
M是待排序的题目数量,对于排序过程在时间步t=0至t=M-1,基于马尔可夫决策过程,应用策略函数π计算所述题目状态st选择动作的概率,选择概率最大对应的动作at,是该选择动作at对应的题目,将所述题目添加至所述排队序列中;
其中,A(st)是所述题目状态st下所有可选择的动作集合,t表示时间步,假设at∈A(st)是所述题目状态st选择的一个动作,是该选择动作at对应的题目,m(at)是动作at对应题目的下标,wt是所述题目状态st下维度与题目特征相同的模型参数,所述参数wt的初始值是随机生成的;
应用价值函数,计算在所述题目状态st下选择动作at的回报率rt+1;
根据转换函数,改变所述题目状态st至st+1;
计算长期回报率Gt,根据所述长期回报率和梯度下降算法将所述参数wt更新为wt+1,直至参数收敛,获得数量为M的题目对应的排队序列。
进一步地,计算长期回报率Gt,根据所述长期回报率和梯度下降算法将所述参数wt更新为wt+1,包括:
计算所述长期回报率Gt;
其中,γ是预设的折扣因子,γk-1表示随着时间步t的增加,折扣因子的作用逐渐减小的变化,rt+k表示从时间步t=0开始的回报率;
其中,Δwt是所述题目状态st下维度与题目特征相同的中间参数,所述中间参数Δwt的初始指为0,γt表示随着时间步t的增加,折扣因子的作用逐渐减小,Gt是从时间步t=0至t=M-1的长期回报率,是在时间步 t的参数wt的梯度;
wt+1=wt+ηΔwt+1;
其中,η是预设的学习率,wt是所述题目状态st下维度与题目特征相同的模型参数,Δwt+1是时间步t更新后的中间参数。
进一步地,还包括:接收推送题目的答题信息,将所述推送题目和所述答题信息加入所述历史做题数据;所述答题信息包括回答时间和回答结果。
本发明的目的之二在于提供一种题目推送装置,其通过循环神经网络模型获取题目之间的关联性特征,进一步得到预设题库的题目状态st,从而对题目进行排序并根据排序有效推送题目。
本发明的目的之二采用以下技术方案实现:
一种题目推送装置,其包括:
历史做题获取分类模块,用于获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
关联性特征获取模块,用于将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征;
题库状态更新模块,用于获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st;
题目推送模块,用于根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
本发明的目的之三在于提供执行发明目的之一的电子设备,其包括处理器、存储介质以及计算机程序,所述计算机程序存储于存储介质中,所述计算机程序被处理器执行时本发明目的之一的题目推送方法。
本发明的目的之四在于提供存储发明目的之一的计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现本发明目的之一的题目推送方法。
相比现有技术,本发明的有益效果在于:
本发明根据相同的知识点对题目分类,将分类的题目数据集合按时间顺序输入循环神经网络模型,获取了题目之间的关联性特征,包含了学生对题目知识点掌握程度随学习时间发生的动态变化特性;基于题目之间的关联性特征和预设的题库数据的当前答题特征,对题库数据的题目状态进行更新,使得题库数据不仅包含学生当前的答题特征,还包含学生历史答题的普遍变化特性;根据马尔可夫决策过程获得题目排队序列,可以有效地选取目标题目并进行推送;针对不同学生的能力水平推送题目,有利于学生能力的提升。
附图说明
图1为本发明实施例一的题目推送方法流程图;
图2为本发明实施例五的题目推送方法流程图;
图3为本发明实施例六的题目推送装置的结构框图;
图4为本发明实施例七的电子设备的结构框图。
具体实施方式
以下将结合附图,对本发明进行更为详细的描述,需要说明的是,下参照附图对本发明进行的描述仅是示意性的,而非限制性的。各个不同实施例之间可以进行相互组合,以构成未在以下描述中示出的其他实施例。
实施例一
实施例一提供了一种题目推送方法,旨在通过对于包含相同知识点的题目数据分类进而按时间顺序输入循环神经网络模型,获得题目之间的关联性特征,基于该关联性特征和预设题库数据的当前答题特征,获得该题库数据的题目状态st,根据该题目状态st与马尔可夫决策过程,获得题目排队序列,从该排队序列中选取目标题目,从而向学生有效地推送目标题目。这种题目推送方式,考虑到学生对题目知识点的掌握程度会随着时间发生动态变化,根据学生当前的答题特征和历史答题的变化特性,针对不同学生的能力水平推送题目,有利于学生能力的提升。
请参照图1所示,一种题目推送方法,包括以下步骤:
S110、获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合。
历史做题数据Q是所有题目操作者做过的所有题目数据集合,题目数据包括题目本身、题目所包含的知识点以及所有题目操作者练习该题目的历史答题信息记录,历史答题信息记录包括所有题目操作者做题的回答时间和回答结果。该历史做题数据Q按照题目包含的知识点被分为若干个题目数据集合Qi,i=1,...,N,N是知识点数量,Q={Q1,...QN},每个题目数据集合Qi由相同知识点对应的历史做题数据构成。
题目所包含的知识点可以是通过标签形式预先为每个题目本身进行设置,也可以是通过一定的技术手段攫取题目本身的关键词进行分析获取知识点,例如,申请号为201610301360.4的中国发明专利公开了一种建立获取题目知识点模型、获取题目知识点的方法和装置;申请号为201810013406.1的中国发明专利公开了一种基于神经网络的题目知识点自动提取方法等。
S120、将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征。
将每个题目数据集合Qi(i=1,...,N)的题目数据,按照做题的时间顺序输入预设的循环神经网络模型,获得每个题目数据集合的关联性特征 Hin=[hi1,...,hin],i=1,...,N,N是知识点数量,n是关联性特征取的个数,个数可以按照需要设定,hij(i=1,...,N,j=1,...,n)是题目数据集合Qi对应的相同知识点的第j个特征。区别于其他机器学习模型,循环神经网络具有记忆性、参数共享并且图灵完备(Turing completeness),因此在对序列的非线性特征进行学习时具有一定优势。在本发明较佳的实施例中,循环神经网络模型可以是根据历史做题数据即时训练获得的模型,也可以是根据历史做题数据已经训练完成的参考模型,这些历史做题数据可以是上述的题目推送对象产生的,也可以是其他一个或多个题目操作者产生的,这里不做限定。
获得的关联性特征包含了学生对知识点掌握程度随学习时间发生的动态变化特性,例如,可以包括题目数据集合的最大回答时间、最小回答时间、平均回答时间和正确率变化特性。
S130、获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st。
获取题目推送对象练习预设题库数据的当前答题特征Xt,将该当前答题特征Xt与所述关联性特征Hin(i=1,...,N,N是知识点数量,n是关联性特征取的个数)输入所述循环神经网络模型,该循环神经网络模型即步骤S120中的循环神经网络模型,从而获得该题库数据的题目特征,由题目特征构成题目状态st,st=[qi1,...,qim]T,i=1,...,M,M是待排序的题目数量,即预设题库数据中的题目数量,m是题目特征取的个数,个数与当前答题特征包含的特征个数一致,qij(i=1,...,M,j=1,...,m)是题目qi的第j个题目特征。题目状态st包括所述题库数据的题目特征,例如,可以包括题目的知识点、回答时间和回答结果。
预设的题库数据可以是自行创建的数据库,也可以是调用其他平台的数据库,这里不做限定,同样地,预设的题库数据对应的知识点可以是预先设置,也可以是通过技术方式攫取关键词进行分析得到。
S140、根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
根据题目推送需求,将排队序列中靠前的一个或者多个题目作为目标题目,从预设的题库数据中选中对应的若干个目标题目推送给题目推送对象。该若干个目标题目的具体数量可以根据题目推送对象设置进行,而且该若干个目标题目优选是题目推送对象未操作过的题目。
实施例二
实施例二是在实施例一基础上进行的改进,提取题目数据集合的回答时间和回答结果,通过循环神经网络模型获取该题目数据集合的关联性特征。
提取每个题目数据集合Qi(i=1,...,N)对应历史做题数据的回答时间和回答结果,N是知识点数量,将所述题目数据集合的知识点、所述回答时间和回答结果按照做题的时间顺序输入预设的循环神经网络模型,获得每个题目数据集合的关联性特征Hi4=[Hi1,...,Hi4],i=1,...,N,该关联性特征包括4个特征:所述题目数据集合的最大回答时间、最小回答时间、平均回答时间和正确率变化特性。
关联性特征还可以包括回答时间变化特征,则关联性特征为 Hi5=[Hi1,...,Hi5],i=1,...,N。进一步地,关联性特征还可以是其他通过一定的技术手段进行概率计算以获得的对知识点掌握程度的描述特征,例如,申请号为201710150965.2的中国发明专利公开了一种基于大数据的知识点掌握概率计算方法等。因回答时间与正确率是答题信息对知识点掌握程度的常用描述特征之一,对回答时间与正确率的扩展特征或者其他对知识点掌握程度的描述特征均属于本发明的保护范围。
实施例三
实施例三是在实施例一基础上进行的改进,将获取到的预设题库数据的当前答题特征与关联性特征输入循环神经网络模型,获得所述题库数据的题目状态st。
获取题目推送对象练习预设题库数据的当前答题特征Xt=[Xi1,...,Xim], i=1,...,M,M是题库数据中的题目数量,m是当前答题特征包含的特征个数, Xi3=[Xi1,...,Xi3],i=1,...,N,该当前答题特征包括3个特征:答题知识点、当前回答时间和当前回答结果。
将当前答题特征Xt与所述关联性特征Hin(i=1,...,N,N是知识点数量,n 是关联性特征取的个数)输入所述循环神经网络模型,获得该题库数据的题目特征,由题目特征构成题目状态st,st=[qi1,...,qim]T,i=1,...,M,M是待排序的题目数量,即预设题库数据中的题目数量,m是题目特征取的个数,个数与当前答题特征包含的特征个数一致,qij(i=1,...,M,j=1,...,m)是题目qi的第j个题目特征。该题目状态st包括所述题库数据的题目特征,该题目特性在题目推送对象做完当前题目后更新的题库数据特征,包括题库数据的知识点、回答时间和回答结果,该题目特性同时包含题目推送对象的当前答题特性与所有题目操作者历史答题的普遍特性。
实施例四
实施例四是在实施例一至三任意一个或多个的基础上进行的改进,根据题库数据的题目状态st和马尔可夫决策过程,获得题目排队序列进而选取目标题目进行推送,包括:
M是题库数据中待排序的题目数量,对于排序过程在时间步t=0至 t=M-1,基于马尔可夫决策过程,应用策略函数π计算所述题目状态st选择动作的概率,选择概率最大对应的动作at,是该选择动作at对应的题目,将所述题目添加至所述排队序列中。
其中,A(st)是所述题目状态st下所有可选择的动作集合,t表示时间步,假设at∈A(st)是所述题目状态st选择的一个动作,是该选择动作at对应的题目,m(at)是动作at对应题目的下标,wt是所述题目状态st下维度与题目特征相同的模型参数,所述参数wt的初始值是随机生成的。
应用价值函数计算在所述题目状态st下选择动作at的回报率rt+1。
根据转换函数,改变所述题目状态st至st+1。该转换函数是映射题目状态st至st+1的一个函数映射,该转换函数是预先设置的。例如,在时间步t 选择动作at对应的题目设置转换函数T将该题目从剩下待排名的题目中移除,是初始待排序的题目数量,m是关联性特征取的个数。
计算所述长期回报率Gt。
其中,γ是预设的折扣因子,γk-1表示随着时间步t的增加,折扣因子的作用逐渐减小的变化,rt+k表示从时间步t=0开始的回报率。预设的折扣因子γ可以根据需要任意设定。
其中,Δwt是所述题目状态st下维度与题目特征相同的中间参数,所述中间参数Δwt的初始指为0,γt表示随着时间步t的增加,折扣因子的作用逐渐减小,Gt是从时间步t=0至t=M-1的长期回报率,是在时间步 t的参数wt的梯度。
wt+1=wt+ηΔwt+1
其中,η是预设的学习率,wt是所述题目状态st下维度与题目特征相同的模型参数,Δwt+1是时间步t更新后的中间参数。预设的学习率η可以根据需要任意设定。
实施例五
实施例五是在实施例一至四任意一个或多个的基础上进行的改进,请参照图2所示,该方法还包括步骤S150,步骤S150为接收推送对象做完S140推送题目的答题信息,将该推送题目和该答题信息加入所述历史做题数据;所述答题信息包括回答时间和回答结果。
该答题信息还包括对推送对象回答结果是否正确的判定结果。因推送题目可以是客观题或者主观题,对客观题是否正确的判定结果通过将回答结果与标准答案进行比对得到,对主观题是否正确的判定结果可以通过一定的技术手段对回答结果分词处理获得,例如,申请号为201711437049.3的中国发明专利公开了一种数学主观题评阅方法及系统;申请号为201710611571.2的中国发明专利公开了一种基于答案蕴涵与依存关系的主观题自适应阅卷方法等。
将该推送题目本身、题目对应的知识点与该答题信息加入历史做题数据,对历史做题数据进行更新,从而记录推送对象对该知识点的掌握程度随时间发生的变化,有利于下一次题目的有效推送。
实施例六
实施例六公开了一种对应上述实施例的一种题目推送装置,为上述实施例的虚拟装置结构,请参照图3所示,包括:
历史做题获取分类模块210,用于获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
关联性特征获取模块220,用于将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征;
题库状态更新模块230,用于获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st;
题目推送模块240,用于根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
优选地,接收推送对象做完推送题目得到的答题信息,将所述推送题目和所述答题信息加入所述历史做题数据。
实施例七
图4为本发明实施例七提供的一种电子设备的结构示意图,如图4所示,该电子设备包括处理器310、存储器320、输入装置330和输出装置340;计算机设备中处理器310的数量可以是一个或多个,图4中以一个处理器310 为例;电子设备中的处理器310、存储器320、输入装置330和输出装置340 可以通过总线或其他方式连接,图4中以通过总线连接为例。
存储器320作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的题目推送方法对应的程序指令/ 模块(例如,题目推送方法装置中的历史做题获取分类模块210、关联性特征获取模块220、题库状态更新模块230和题目推送模块240)。处理器310 通过运行存储在存储器320中的软件程序、指令以及模块,从而执行电子设备的各种功能应用以及数据处理,即实现上述实施例一至实施例五的题目推送方法。
存储器320可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器320可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器320可进一步包括相对于处理器310远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置330可用于接收历史做题数据、预设的题库数据等。输出装置 340可包括显示屏等显示设备。
实施例八
本发明实施例八还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行题目推送方法,该方法包括:
获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征;
获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st;
根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的基于题目推送方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器 (Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台电子设备(可以是手机,个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述基于题目推送方法装置实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
对本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及形变,而所有的这些改变以及形变都应该属于本发明权利要求的保护范围之内。
Claims (9)
1.一种题目推送方法,其特征在于:包括以下步骤:
获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
将每个所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得每个所述题目数据集合的关联性特征,其中,所述关联性特征包括所述题目数据集合的最大回答时间、最小回答时间、平均回答时间和正确率变化特性;
获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st;
根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目,其中,根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,包括:
M是待排序的题目数量,对于排序过程在时间步t=0至t=M-1,基于马尔可夫决策过程,应用策略函数π计算所述题目状态st选择动作的概率,选择概率最大对应的动作at,是选择动作at对应的题目,将所述题目添加至所述排队序列中;
其中,A(st)是所述题目状态st下所有可选择的动作集合,t表示时间步,假设at∈A(st)是所述题目状态st选择的一个动作,是选择动作at对应的题目,m(at)是动作at对应题目的下标,wt是所述题目状态st下维度与题目特征相同的模型参数,参数wt的初始值是随机生成的;
应用价值函数,计算在所述题目状态st下选择动作at的回报率rt+1;
根据转换函数,改变所述题目状态st至st+1;
计算长期回报率Gt,根据所述长期回报率和梯度下降算法将所述参数wt更新为wt+1,直至参数收敛,获得数量为M的题目对应的排队序列。
2.如权利要求1所述的一种题目推送方法,其特征在于:将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征,包括:
提取所述题目数据集合对应历史做题数据的回答时间和回答结果,将所述题目数据集合的知识点、所述回答时间和所述回答结果按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征,所述关联性特征包括所述题目数据集合的最大回答时间、最小回答时间、平均回答时间和正确率变化特性。
3.如权利要求1所述的一种题目推送方法,其特征在于:基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st,包括:
将所述当前答题特征与所述关联性特征输入所述循环神经网络模型,获得所述题库数据的题目状态st,所述题目状态st包括所述题库数据的知识点、回答时间和回答结果。
4.如权利要求1所述的一种题目推送方法,其特征在于:计算长期回报率Gt,根据所述长期回报率和梯度下降算法将所述参数wt更新为wt+1,包括:
计算所述长期回报率Gt;
其中,γ是预设的折扣因子;
其中,Δwt是所述题目状态st下维度与题目特征相同的中间参数,所述中间参数Δwt的初始指为0,γt表示随着时间步t的增加,折扣因子的作用逐渐减小,Gt是从时间步t=0至t=M-1的长期回报率,是在时间步t的参数wt的梯度;
wt+1=wt+ηΔwt+1;
其中,η是预设的学习率,wt是所述题目状态st下维度与题目特征相同的模型参数,Δwt+1是时间步t更新后的中间参数。
6.如权利要求1所述的一种题目推送方法,其特征在于:还包括:
接收推送题目的答题信息,将所述推送题目和所述答题信息加入所述历史做题数据;所述答题信息包括回答时间和回答结果。
7.一种题目推送装置,其特征在于,其包括:
历史做题获取分类模块,用于获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
关联性特征获取模块,用于将每个所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得每个所述题目数据集合的关联性特征,其中,所述关联性特征包括所述题目数据集合的最大回答时间、最小回答时间、平均回答时间和正确率变化特性;
题库状态更新模块,用于获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st;
题目推送模块,用于根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目,其中,根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,包括:
M是待排序的题目数量,对于排序过程在时间步t=0至t=M-1,基于马尔可夫决策过程,应用策略函数π计算所述题目状态st选择动作的概率,选择概率最大对应的动作at,是选择动作at对应的题目,将所述题目添加至所述排队序列中;
其中,A(st)是所述题目状态st下所有可选择的动作集合,t表示时间步,假设at∈A(st)是所述题目状态st选择的一个动作,是选择动作at对应的题目,m(at)是动作at对应题目的下标,wt是所述题目状态st下维度与题目特征相同的模型参数,参数wt的初始值是随机生成的;
应用价值函数,计算在所述题目状态st下选择动作at的回报率rt+1;
根据转换函数,改变所述题目状态st至st+1;
计算长期回报率Gt,根据所述长期回报率和梯度下降算法将所述参数wt更新为wt+1,直至参数收敛,获得数量为M的题目对应的排队序列。
8.一种电子设备,其包括处理器、存储介质以及计算机程序,所述计算机程序存储于存储介质中,其特征在于,所述计算机程序被处理器执行时执行权利要求1至6任一项所述的题目推送方法。
9.一种计算机存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现权利要求1至6任一项所述的题目推送方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910945023.2A CN110659311B (zh) | 2019-09-30 | 2019-09-30 | 题目推送方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910945023.2A CN110659311B (zh) | 2019-09-30 | 2019-09-30 | 题目推送方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110659311A CN110659311A (zh) | 2020-01-07 |
CN110659311B true CN110659311B (zh) | 2021-11-16 |
Family
ID=69038461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910945023.2A Active CN110659311B (zh) | 2019-09-30 | 2019-09-30 | 题目推送方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110659311B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111326040B (zh) * | 2020-01-16 | 2020-12-22 | 深圳市芥菜种科技有限公司 | 语文阅读理解智能测试和智能辅导系统和方法 |
CN111813921B (zh) * | 2020-08-20 | 2020-12-22 | 浙江学海教育科技有限公司 | 题目推荐方法、电子设备及计算机可读存储介质 |
CN112699308A (zh) * | 2021-01-13 | 2021-04-23 | 敖客星云(北京)科技发展有限公司 | 一种基于聚类算法的学科题目知识点推荐方法及系统 |
CN113066358B (zh) * | 2021-04-14 | 2023-01-10 | 吴光银 | 理科教学辅助系统 |
CN113779396B (zh) * | 2021-09-10 | 2023-09-01 | 平安科技(深圳)有限公司 | 题目推荐方法和装置、电子设备、存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109509126A (zh) * | 2018-11-02 | 2019-03-22 | 中山大学 | 一种基于用户学习行为的个性化试题推荐方法 |
CN109635100A (zh) * | 2018-12-24 | 2019-04-16 | 上海仁静信息技术有限公司 | 一种相似题目的推荐方法、装置、电子设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106469169A (zh) * | 2015-08-19 | 2017-03-01 | 阿里巴巴集团控股有限公司 | 信息处理方法及装置 |
-
2019
- 2019-09-30 CN CN201910945023.2A patent/CN110659311B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109509126A (zh) * | 2018-11-02 | 2019-03-22 | 中山大学 | 一种基于用户学习行为的个性化试题推荐方法 |
CN109635100A (zh) * | 2018-12-24 | 2019-04-16 | 上海仁静信息技术有限公司 | 一种相似题目的推荐方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110659311A (zh) | 2020-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110659311B (zh) | 题目推送方法、装置、电子设备及存储介质 | |
CN112632385B (zh) | 课程推荐方法、装置、计算机设备及介质 | |
CN110704732B (zh) | 基于认知诊断的时序性习题推荐方法、装置 | |
CN110472060B (zh) | 题目推送方法、装置、计算机设备和存储介质 | |
CN109816265B (zh) | 知识特征掌握度的评价方法、题目推荐方法及电子设备 | |
CN111651676B (zh) | 基于能力模型进行职业推荐的方法、装置、设备和介质 | |
CN109388634B (zh) | 地址信息的处理方法、终端设备及计算机可读存储介质 | |
CN114116998A (zh) | 答复语句生成方法、装置、计算机设备和存储介质 | |
CN111597446B (zh) | 基于人工智能的内容推送方法、装置、服务器和存储介质 | |
CN111428639A (zh) | 手势识别模型的训练方法、手势识别方法及装置 | |
CN111192170B (zh) | 题目推送方法、装置、设备和计算机可读存储介质 | |
CN114925284A (zh) | 一种基于人工智能的资源搜索推送系统及方法 | |
CN111311997B (zh) | 一种基于网络教育资源的互动方法 | |
CN111443973A (zh) | 备注信息的填入方法、装置、设备及存储介质 | |
CN116228361A (zh) | 基于特征匹配的课程推荐方法、装置、设备和存储介质 | |
CN111062449A (zh) | 预测模型的训练方法、兴趣度预测方法、装置和存储介质 | |
CN110689359A (zh) | 对模型进行动态更新的方法及装置 | |
CN113312445B (zh) | 数据处理方法、模型构建方法、分类方法及计算设备 | |
CN115878891A (zh) | 直播内容生成方法、装置、设备以及计算机存储介质 | |
CN111831886B (zh) | 基于大数据的网络课件推送方法 | |
CN111582446B (zh) | 用于神经网络剪枝的系统和神经网络的剪枝处理方法 | |
CN109308565B (zh) | 人群绩效等级识别方法、装置、存储介质及计算机设备 | |
CN112131427A (zh) | 一种练习套题的获取方法及系统 | |
CN112100482A (zh) | 搜索结果排序方法、装置、电子设备及存储介质 | |
CN109947927B (zh) | 一种信息处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |