CN110659311A - 题目推送方法、装置、电子设备及存储介质 - Google Patents

题目推送方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN110659311A
CN110659311A CN201910945023.2A CN201910945023A CN110659311A CN 110659311 A CN110659311 A CN 110659311A CN 201910945023 A CN201910945023 A CN 201910945023A CN 110659311 A CN110659311 A CN 110659311A
Authority
CN
China
Prior art keywords
question
topic
data
state
answer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910945023.2A
Other languages
English (en)
Other versions
CN110659311B (zh
Inventor
王伟松
金苍宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Xue Hai Education Technology Co Ltd
Original Assignee
Zhejiang Xue Hai Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Xue Hai Education Technology Co Ltd filed Critical Zhejiang Xue Hai Education Technology Co Ltd
Priority to CN201910945023.2A priority Critical patent/CN110659311B/zh
Publication of CN110659311A publication Critical patent/CN110659311A/zh
Application granted granted Critical
Publication of CN110659311B publication Critical patent/CN110659311B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种题目推送方法,涉及教育学习系统,用于针对不同学生对知识点掌握程度随时间发生的变化,获取题目之间的关联性特征,有效地推送题目,该方法包括以下步骤:获取历史做题数据,按知识点对所述历史做题数据分类,每个知识点构成一个对应的题目数据集合;将题目数据集合按时间顺序输入预设的循环神经网络模型,获得关联性特征;基于关联性特征和预设的题库数据的当前答题特征,获得题库数据的题目状态st;根据题目状态st和马尔可夫决策过程,获得题目排队序列,选取排队序列中靠前的题目作为目标题目进行推送。本发明还公开了一种题目推送装置、电子设备和计算机存储介质,针对不同学生有效推送题目。

Description

题目推送方法、装置、电子设备及存储介质
技术领域
本发明涉及教育学习系统,尤其涉及一种题目推送方法、装置、电子设备及存储介质。
背景技术
随着计算机技术和网络的快速发展,基于互联网的在线教育得以广泛应用。学生可以通过在线的教育学习系统,进行在线学习、在线做题、在线考试等,方便学生进行个性化的学习和评测。因为不同学生对知识点的掌握程度不同,教育学习系统需要针对不同学生推送适合学生能力的题目,只有推送的题目与学生对知识点的掌握程度匹配时,学生才能通过做题练习获得能力的有效提升。
现有教育学习系统通常将学生对不同题目的答题情况看做是相互独立、互不影响的,根据学生当前的答题状态,来评估学生对题目所含知识点的掌握程度,从而进行题目的推送。这种题目推送方法没有考虑学生对题目中知识点的掌握程度是会随着学习时间发生动态变化的,忽略了题目之间的关联性。
发明内容
为了克服现有技术的不足,本发明的目的之一在于提供一种题目推送方法,其通过循环神经网络模型获取题目之间的关联性特征,进一步得到预设题库的题目状态,从而对题目进行排序并根据排序有效推送题目。
本发明的目的之一采用以下技术方案实现:
获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征;
获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st
根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
预设的循环神经网络模型可以是根据历史做题数据即时训练获得的模型或者已经完成训练的模型;预设的题库数据可以根据需求从题库中任意获取。
进一步地,将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征,包括:
提取所述题目数据集合对应历史做题数据的回答时间和回答结果,将所述题目数据集合的知识点、所述回答时间和所述回答结果按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征,所述关联性特征包括所述题目数据集合的最大回答时间、最小回答时间、平均回答时间和正确率变化特性。
进一步地,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st,包括:
将所述当前答题特征与所述关联性特征输入所述循环神经网络模型,获得所述题库数据的题目状态st,所述题目状态st包括所述题库数据的知识点、回答时间和回答结果。
进一步地,根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,包括:
M是待排序的题目数量,对于排序过程在时间步t=0至t=M-1,基于马尔可夫决策过程,应用策略函数π计算所述题目状态st选择动作的概率,选择概率最大对应的动作at
Figure BDA0002223914710000031
是该选择动作at对应的题目,将所述题目添加至所述排队序列中;
Figure BDA0002223914710000032
其中,A(st)是所述题目状态st下所有可选择的动作集合,t表示时间步,假设at∈A(st)是所述题目状态st选择的一个动作,
Figure BDA0002223914710000033
是该选择动作at对应的题目,m(at)是动作at对应题目的下标,wt是所述题目状态st下维度与题目特征相同的模型参数,所述参数wt的初始值是随机生成的;
应用价值函数,计算在所述题目状态st下选择动作at的回报率rt+1
Figure BDA0002223914710000034
其中,
Figure BDA0002223914710000035
是选择题目qm(at)的相关性标签;
根据转换函数,改变所述题目状态st至st+1
计算长期回报率Gt,根据所述长期回报率和梯度下降算法将所述参数wt更新为wt+1,直至参数收敛,获得数量为M的题目对应的排队序列。
进一步地,计算长期回报率Gt,根据所述长期回报率和梯度下降算法将所述参数wt更新为wt+1,包括:
计算所述长期回报率Gt
Figure BDA0002223914710000036
其中,γ是预设的折扣因子,γk-1表示随着时间步t的增加,折扣因子的作用逐渐减小的变化,rt+k表示从时间步t=0开始的回报率;
计算在时间步t的参数wt的梯度
Figure BDA0002223914710000041
其中,A(st)是所述题目状态st下所有可选择的动作集合,t表示时间步,是选择动作at对应的题目,m(at)是动作at对应题目的下标,wt是所述题目状态st下维度与题目特征相同的模型参数;
根据所述长期回报率Gt和时间步t的参数wt的梯度
Figure BDA0002223914710000044
将中间参数Δwt更新为Δwt+1、将所述参数wt更新为wt+1
其中,Δwt是所述题目状态st下维度与题目特征相同的中间参数,所述中间参数Δwt的初始指为0,γt表示随着时间步t的增加,折扣因子的作用逐渐减小,Gt是从时间步t=0至t=M-1的长期回报率,
Figure BDA0002223914710000046
是在时间步 t的参数wt的梯度;
wt+1=wt+ηΔwt+1
其中,η是预设的学习率,wt是所述题目状态st下维度与题目特征相同的模型参数,Δwt+1是时间步t更新后的中间参数。
进一步地,所述相关性标签
Figure BDA0002223914710000047
由题目难度和回答结果计算得到;
Figure BDA0002223914710000048
其中,
Figure BDA0002223914710000049
是题目
Figure BDA00022239147100000410
对应的题目难度,
Figure BDA00022239147100000411
是题目
Figure BDA00022239147100000412
的回答结果;
其中,N是题目
Figure BDA0002223914710000052
的回答总人数,
Figure BDA0002223914710000053
代表题目
Figure BDA0002223914710000054
统计答错的人数,
Figure BDA0002223914710000055
代表题目
Figure BDA0002223914710000056
统计答对的人数。
进一步地,还包括:接收推送题目的答题信息,将所述推送题目和所述答题信息加入所述历史做题数据;所述答题信息包括回答时间和回答结果。
本发明的目的之二在于提供一种题目推送装置,其通过循环神经网络模型获取题目之间的关联性特征,进一步得到预设题库的题目状态st,从而对题目进行排序并根据排序有效推送题目。
本发明的目的之二采用以下技术方案实现:
一种题目推送装置,其包括:
历史做题获取分类模块,用于获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
关联性特征获取模块,用于将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征;
题库状态更新模块,用于获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st
题目推送模块,用于根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
本发明的目的之三在于提供执行发明目的之一的电子设备,其包括处理器、存储介质以及计算机程序,所述计算机程序存储于存储介质中,所述计算机程序被处理器执行时本发明目的之一的题目推送方法。
本发明的目的之四在于提供存储发明目的之一的计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现本发明目的之一的题目推送方法。
相比现有技术,本发明的有益效果在于:
本发明根据相同的知识点对题目分类,将分类的题目数据集合按时间顺序输入循环神经网络模型,获取了题目之间的关联性特征,包含了学生对题目知识点掌握程度随学习时间发生的动态变化特性;基于题目之间的关联性特征和预设的题库数据的当前答题特征,对题库数据的题目状态进行更新,使得题库数据不仅包含学生当前的答题特征,还包含学生历史答题的普遍变化特性;根据马尔可夫决策过程获得题目排队序列,可以有效地选取目标题目并进行推送;针对不同学生的能力水平推送题目,有利于学生能力的提升。
附图说明
图1为本发明实施例一的题目推送方法流程图;
图2为本发明实施例五的题目推送方法流程图;
图3为本发明实施例六的题目推送装置的结构框图;
图4为本发明实施例七的电子设备的结构框图。
具体实施方式
以下将结合附图,对本发明进行更为详细的描述,需要说明的是,下参照附图对本发明进行的描述仅是示意性的,而非限制性的。各个不同实施例之间可以进行相互组合,以构成未在以下描述中示出的其他实施例。
实施例一
实施例一提供了一种题目推送方法,旨在通过对于包含相同知识点的题目数据分类进而按时间顺序输入循环神经网络模型,获得题目之间的关联性特征,基于该关联性特征和预设题库数据的当前答题特征,获得该题库数据的题目状态st,根据该题目状态st与马尔可夫决策过程,获得题目排队序列,从该排队序列中选取目标题目,从而向学生有效地推送目标题目。这种题目推送方式,考虑到学生对题目知识点的掌握程度会随着时间发生动态变化,根据学生当前的答题特征和历史答题的变化特性,针对不同学生的能力水平推送题目,有利于学生能力的提升。
请参照图1所示,一种题目推送方法,包括以下步骤:
S110、获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合。
历史做题数据Q是所有题目操作者做过的所有题目数据集合,题目数据包括题目本身、题目所包含的知识点以及所有题目操作者练习该题目的历史答题信息记录,历史答题信息记录包括所有题目操作者做题的回答时间和回答结果。该历史做题数据Q按照题目包含的知识点被分为若干个题目数据集合Qi,i=1,...,N,N是知识点数量,Q={Q1,...QN},每个题目数据集合Qi由相同知识点对应的历史做题数据构成。
题目所包含的知识点可以是通过标签形式预先为每个题目本身进行设置,也可以是通过一定的技术手段攫取题目本身的关键词进行分析获取知识点,例如,申请号为201610301360.4的中国发明专利公开了一种建立获取题目知识点模型、获取题目知识点的方法和装置;申请号为201810013406.1的中国发明专利公开了一种基于神经网络的题目知识点自动提取方法等。
S120、将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征。
将每个题目数据集合Qi(i=1,...,N)的题目数据,按照做题的时间顺序输入预设的循环神经网络模型,获得每个题目数据集合的关联性特征 Hin=[hi1,...,hin],i=1,...,N,N是知识点数量,n是关联性特征取的个数,个数可以按照需要设定,hij(i=1,...,N,j=1,...,n)是题目数据集合Qi对应的相同知识点的第j个特征。区别于其他机器学习模型,循环神经网络具有记忆性、参数共享并且图灵完备(Turing completeness),因此在对序列的非线性特征进行学习时具有一定优势。在本发明较佳的实施例中,循环神经网络模型可以是根据历史做题数据即时训练获得的模型,也可以是根据历史做题数据已经训练完成的参考模型,这些历史做题数据可以是上述的题目推送对象产生的,也可以是其他一个或多个题目操作者产生的,这里不做限定。
获得的关联性特征包含了学生对知识点掌握程度随学习时间发生的动态变化特性,例如,可以包括题目数据集合的最大回答时间、最小回答时间、平均回答时间和正确率变化特性。
S130、获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st
获取题目推送对象练习预设题库数据的当前答题特征Xt,将该当前答题特征Xt与所述关联性特征Hin(i=1,...,N,N是知识点数量,n是关联性特征取的个数)输入所述循环神经网络模型,该循环神经网络模型即步骤S120中的循环神经网络模型,从而获得该题库数据的题目特征,由题目特征构成题目状态st,st=[qi1,...,qim]T,i=1,...,M,M是待排序的题目数量,即预设题库数据中的题目数量,m是题目特征取的个数,个数与当前答题特征包含的特征个数一致,qij(i=1,...,M,j=1,...,m)是题目qi的第j个题目特征。题目状态st包括所述题库数据的题目特征,例如,可以包括题目的知识点、回答时间和回答结果。
预设的题库数据可以是自行创建的数据库,也可以是调用其他平台的数据库,这里不做限定,同样地,预设的题库数据对应的知识点可以是预先设置,也可以是通过技术方式攫取关键词进行分析得到。
S140、根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
基于所述题目状态st与马尔可夫决策过程,在时间步t=0至t=M-1,选择题目状态st的一个动作at是该选择动作at对应的题目,完成排序后获得题目排队序列
Figure BDA0002223914710000092
根据题目推送需求,将排队序列
Figure BDA0002223914710000093
中靠前的一个或者多个题目作为目标题目,从预设的题库数据中选中对应的若干个目标题目推送给题目推送对象。该若干个目标题目的具体数量可以根据题目推送对象设置进行,而且该若干个目标题目优选是题目推送对象未操作过的题目。
实施例二
实施例二是在实施例一基础上进行的改进,提取题目数据集合的回答时间和回答结果,通过循环神经网络模型获取该题目数据集合的关联性特征。
提取每个题目数据集合Qi(i=1,...,N)对应历史做题数据的回答时间和回答结果,N是知识点数量,将所述题目数据集合的知识点、所述回答时间和回答结果按照做题的时间顺序输入预设的循环神经网络模型,获得每个题目数据集合的关联性特征Hi4=[Hi1,...,Hi4],i=1,...,N,该关联性特征包括4个特征:所述题目数据集合的最大回答时间、最小回答时间、平均回答时间和正确率变化特性。
关联性特征还可以包括回答时间变化特征,则关联性特征为 Hi5=[Hi1,...,Hi5],i=1,...,N。进一步地,关联性特征还可以是其他通过一定的技术手段进行概率计算以获得的对知识点掌握程度的描述特征,例如,申请号为201710150965.2的中国发明专利公开了一种基于大数据的知识点掌握概率计算方法等。因回答时间与正确率是答题信息对知识点掌握程度的常用描述特征之一,对回答时间与正确率的扩展特征或者其他对知识点掌握程度的描述特征均属于本发明的保护范围。
实施例三
实施例三是在实施例一基础上进行的改进,将获取到的预设题库数据的当前答题特征与关联性特征输入循环神经网络模型,获得所述题库数据的题目状态st
获取题目推送对象练习预设题库数据的当前答题特征Xt=[Xi1,...,Xim], i=1,...,M,M是题库数据中的题目数量,m是当前答题特征包含的特征个数, Xi3=[Xi1,...,Xi3],i=1,...,N,该当前答题特征包括3个特征:答题知识点、当前回答时间和当前回答结果。
将当前答题特征Xt与所述关联性特征Hin(i=1,...,N,N是知识点数量,n 是关联性特征取的个数)输入所述循环神经网络模型,获得该题库数据的题目特征,由题目特征构成题目状态st,st=[qi1,...,qim]T,i=1,...,M,M是待排序的题目数量,即预设题库数据中的题目数量,m是题目特征取的个数,个数与当前答题特征包含的特征个数一致,qij(i=1,...,M,j=1,...,m)是题目qi的第j个题目特征。该题目状态st包括所述题库数据的题目特征,该题目特性在题目推送对象做完当前题目后更新的题库数据特征,包括题库数据的知识点、回答时间和回答结果,该题目特性同时包含题目推送对象的当前答题特性与所有题目操作者历史答题的普遍特性。
实施例四
实施例四是在实施例一至三任意一个或多个的基础上进行的改进,根据题库数据的题目状态st和马尔可夫决策过程,获得题目排队序列进而选取目标题目进行推送,包括:
M是题库数据中待排序的题目数量,对于排序过程在时间步t=0至 t=M-1,基于马尔可夫决策过程,应用策略函数π计算所述题目状态st选择动作的概率,选择概率最大对应的动作at
Figure BDA0002223914710000111
是该选择动作at对应的题目,将所述题目添加至所述排队序列中。
Figure BDA0002223914710000112
其中,A(st)是所述题目状态st下所有可选择的动作集合,t表示时间步,假设at∈A(st)是所述题目状态st选择的一个动作,
Figure BDA0002223914710000113
是该选择动作at对应的题目,m(at)是动作at对应题目的下标,wt是所述题目状态st下维度与题目特征相同的模型参数,所述参数wt的初始值是随机生成的。
应用价值函数计算在所述题目状态st下选择动作at的回报率rt+1
其中,
Figure BDA0002223914710000115
是选择题目qm(at)的相关性标签,该相关性标签由题目难度和回答结果计算得到。
Figure BDA0002223914710000117
其中,
Figure BDA0002223914710000121
是题目
Figure BDA0002223914710000122
对应的题目难度,
Figure BDA0002223914710000123
是题目
Figure BDA0002223914710000124
的回答结果。
Figure BDA0002223914710000125
其中,N是题目
Figure BDA0002223914710000126
对应题目数据集合统计的回答总人数,
Figure BDA0002223914710000127
代表题目
Figure BDA0002223914710000128
统计答错的人数,代表题目统计答对的人数。
根据转换函数,改变所述题目状态st至st+1。该转换函数是映射题目状态st至st+1的一个函数映射,该转换函数是预先设置的。例如,在时间步t 选择动作at对应的题目
Figure BDA00022239147100001211
设置转换函数T将该题目
Figure BDA00022239147100001212
从剩下待排名的题目中移除,
Figure BDA00022239147100001213
是初始待排序的题目数量,m是关联性特征取的个数。
计算所述长期回报率Gt
其中,γ是预设的折扣因子,γk-1表示随着时间步t的增加,折扣因子的作用逐渐减小的变化,rt+k表示从时间步t=0开始的回报率。预设的折扣因子γ可以根据需要任意设定。
计算在时间步t的参数wt的梯度
Figure BDA00022239147100001215
Figure BDA00022239147100001216
其中,A(st)是所述题目状态st下所有可选择的动作集合,t表示时间步,是选择动作at对应的题目,m(at)是动作at对应题目的下标,wt是所述题目状态st下维度与题目特征相同的模型参数。
根据所述长期回报率Gt和时间步t的参数wt的梯度将中间参数Δwt更新为Δwt+1、将所述参数wt更新为wt+1
Figure BDA0002223914710000133
其中,Δwt是所述题目状态st下维度与题目特征相同的中间参数,所述中间参数Δwt的初始指为0,γt表示随着时间步t的增加,折扣因子的作用逐渐减小,Gt是从时间步t=0至t=M-1的长期回报率,
Figure BDA0002223914710000134
是在时间步 t的参数wt的梯度。
wt+1=wt+ηΔwt+1
其中,η是预设的学习率,wt是所述题目状态st下维度与题目特征相同的模型参数,Δwt+1是时间步t更新后的中间参数。预设的学习率η可以根据需要任意设定。
直至参数wt+1收敛,获得数量为M的题目对应的排队序列
Figure BDA0002223914710000135
根据题目推送需求,将排队序列
Figure BDA0002223914710000136
中靠前的一个或者多个题目作为目标题目,向题目推送对象推送该目标题目。
实施例五
实施例五是在实施例一至四任意一个或多个的基础上进行的改进,请参照图2所示,该方法还包括步骤S150,步骤S150为接收推送对象做完S140推送题目的答题信息,将该推送题目和该答题信息加入所述历史做题数据;所述答题信息包括回答时间和回答结果。
该答题信息还包括对推送对象回答结果是否正确的判定结果。因推送题目可以是客观题或者主观题,对客观题是否正确的判定结果通过将回答结果与标准答案进行比对得到,对主观题是否正确的判定结果可以通过一定的技术手段对回答结果分词处理获得,例如,申请号为201711437049.3的中国发明专利公开了一种数学主观题评阅方法及系统;申请号为201710611571.2的中国发明专利公开了一种基于答案蕴涵与依存关系的主观题自适应阅卷方法等。
将该推送题目本身、题目对应的知识点与该答题信息加入历史做题数据,对历史做题数据进行更新,从而记录推送对象对该知识点的掌握程度随时间发生的变化,有利于下一次题目的有效推送。
实施例六
实施例六公开了一种对应上述实施例的一种题目推送装置,为上述实施例的虚拟装置结构,请参照图3所示,包括:
历史做题获取分类模块210,用于获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
关联性特征获取模块220,用于将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征;
题库状态更新模块230,用于获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st
题目推送模块240,用于根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
优选地,接收推送对象做完推送题目得到的答题信息,将所述推送题目和所述答题信息加入所述历史做题数据。
实施例七
图4为本发明实施例七提供的一种电子设备的结构示意图,如图4所示,该电子设备包括处理器310、存储器320、输入装置330和输出装置340;计算机设备中处理器310的数量可以是一个或多个,图4中以一个处理器310 为例;电子设备中的处理器310、存储器320、输入装置330和输出装置340 可以通过总线或其他方式连接,图4中以通过总线连接为例。
存储器320作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的题目推送方法对应的程序指令/ 模块(例如,题目推送方法装置中的历史做题获取分类模块210、关联性特征获取模块220、题库状态更新模块230和题目推送模块240)。处理器310 通过运行存储在存储器320中的软件程序、指令以及模块,从而执行电子设备的各种功能应用以及数据处理,即实现上述实施例一至实施例五的题目推送方法。
存储器320可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器320可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器320可进一步包括相对于处理器310远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置330可用于接收历史做题数据、预设的题库数据等。输出装置 340可包括显示屏等显示设备。
实施例八
本发明实施例八还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行题目推送方法,该方法包括:
获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征;
获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st
根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的基于题目推送方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器 (Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台电子设备(可以是手机,个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述基于题目推送方法装置实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
对本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及形变,而所有的这些改变以及形变都应该属于本发明权利要求的保护范围之内。

Claims (10)

1.一种题目推送方法,其特征在于:包括以下步骤:
获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征;
获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st
根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
2.如权利要求1所述的一种题目推送方法,其特征在于:将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征,包括:
提取所述题目数据集合对应历史做题数据的回答时间和回答结果,将所述题目数据集合的知识点、所述回答时间和所述回答结果按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征,所述关联性特征包括所述题目数据集合的最大回答时间、最小回答时间、平均回答时间和正确率变化特性。
3.如权利要求1所述的一种题目推送方法,其特征在于:基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st,包括:
将所述当前答题特征与所述关联性特征输入所述循环神经网络模型,获得所述题库数据的题目状态st,所述题目状态st包括所述题库数据的知识点、回答时间和回答结果。
4.如权利要求1所述的一种题目推送方法,其特征在于:根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,包括:
M是待排序的题目数量,对于排序过程在时间步t=0至t=M-1,基于马尔可夫决策过程,应用策略函数π计算所述题目状态st选择动作的概率,选择概率最大对应的动作at
Figure FDA0002223914700000021
是该选择动作at对应的题目,将所述题目添加至所述排队序列中;
Figure FDA0002223914700000022
其中,A(st)是所述题目状态st下所有可选择的动作集合,t表示时间步,假设at∈A(st)是所述题目状态st选择的一个动作,
Figure FDA0002223914700000023
是该选择动作at对应的题目,m(at)是动作at对应题目的下标,wt是所述题目状态st下维度与题目特征相同的模型参数,所述参数wt的初始值是随机生成的;
应用价值函数,计算在所述题目状态st下选择动作at的回报率rt+1
Figure FDA0002223914700000024
其中,
Figure FDA0002223914700000025
是选择题目qm(at)的相关性标签;
根据转换函数,改变所述题目状态st至st+1
计算长期回报率Gt,根据所述长期回报率和梯度下降算法将所述参数wt更新为wt+1,直至参数收敛,获得数量为M的题目对应的排队序列。
5.如权利要求4所述的一种题目推送方法,其特征在于:计算长期回报率Gt,根据所述长期回报率和梯度下降算法将所述参数wt更新为wt+1,包括:
计算所述长期回报率Gt
Figure FDA0002223914700000031
其中,γ是预设的折扣因子,γk-1表示随着时间步t的增加,折扣因子的作用逐渐减小的变化,rt+k表示从时间步t=0开始的回报率;
计算在时间步t的参数wt的梯度
Figure FDA0002223914700000032
Figure FDA0002223914700000033
其中,A(st)是所述题目状态st下所有可选择的动作集合,t表示时间步,
Figure FDA0002223914700000034
是选择动作at对应的题目,m(at)是动作at对应题目的下标,wt是所述题目状态st下维度与题目特征相同的模型参数;
根据所述长期回报率Gt和时间步t的参数wt的梯度
Figure FDA0002223914700000035
将中间参数Δwt更新为Δwt+1、将所述参数wt更新为wt+1
Figure FDA0002223914700000036
其中,Δwt是所述题目状态st下维度与题目特征相同的中间参数,所述中间参数Δwt的初始指为0,γt表示随着时间步t的增加,折扣因子的作用逐渐减小,Gt是从时间步t=0至t=M-1的长期回报率,
Figure FDA0002223914700000037
是在时间步t的参数wt的梯度;
wt+1=wt+ηΔwt+1
其中,η是预设的学习率,wt是所述题目状态st下维度与题目特征相同的模型参数,Δwt+1是时间步t更新后的中间参数。
6.如权利要求4所述的一种题目推送方法,其特征在于:所述相关性标签
Figure FDA0002223914700000038
由题目难度和回答结果计算得到;
Figure FDA0002223914700000041
其中,
Figure FDA0002223914700000042
是题目
Figure FDA0002223914700000043
对应的题目难度,
Figure FDA0002223914700000044
是题目
Figure FDA0002223914700000045
的回答结果;
Figure FDA0002223914700000046
其中,N是题目的回答总人数,
Figure FDA0002223914700000048
代表题目
Figure FDA0002223914700000049
统计答错的人数,
Figure FDA00022239147000000410
代表题目统计答对的人数。
7.如权利要求1所述的一种题目推送方法,其特征在于:还包括:
接收推送题目的答题信息,将所述推送题目和所述答题信息加入所述历史做题数据;所述答题信息包括回答时间和回答结果。
8.一种题目推送装置,其特征在于,其包括:
历史做题获取分类模块,用于获取历史做题数据,根据所述历史做题数据的知识点对所述历史做题数据进行分类,每个知识点对应的历史做题数据构成一个题目数据集合;
关联性特征获取模块,用于将所述题目数据集合按时间顺序输入预设的循环神经网络模型,获得所述题目数据集合的关联性特征;
题库状态更新模块,用于获取预设的题库数据的当前答题特征,基于所述当前答题特征和所述关联性特征获得所述题库数据的题目状态st
题目推送模块,用于根据所述题目状态st和马尔可夫决策过程,获得题目排队序列,选取所述排队序列中靠前的一个或多个题目作为目标题目,推送所述目标题目。
9.一种电子设备,其包括处理器、存储介质以及计算机程序,所述计算机程序存储于存储介质中,其特征在于,所述计算机程序被处理器执行时执行权利要求1至7任一项所述的题目推送方法。
10.一种计算机存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现权利要求1至7任一项所述的题目推送方法。
CN201910945023.2A 2019-09-30 2019-09-30 题目推送方法、装置、电子设备及存储介质 Active CN110659311B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910945023.2A CN110659311B (zh) 2019-09-30 2019-09-30 题目推送方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910945023.2A CN110659311B (zh) 2019-09-30 2019-09-30 题目推送方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN110659311A true CN110659311A (zh) 2020-01-07
CN110659311B CN110659311B (zh) 2021-11-16

Family

ID=69038461

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910945023.2A Active CN110659311B (zh) 2019-09-30 2019-09-30 题目推送方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN110659311B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111326040A (zh) * 2020-01-16 2020-06-23 深圳市芥菜种科技有限公司 语文阅读理解智能测试和智能辅导系统和方法
CN111813921A (zh) * 2020-08-20 2020-10-23 浙江学海教育科技有限公司 题目推荐方法、电子设备及计算机可读存储介质
CN112699308A (zh) * 2021-01-13 2021-04-23 敖客星云(北京)科技发展有限公司 一种基于聚类算法的学科题目知识点推荐方法及系统
CN113066358A (zh) * 2021-04-14 2021-07-02 吴光银 理科教学辅助系统
CN113779396A (zh) * 2021-09-10 2021-12-10 平安科技(深圳)有限公司 题目推荐方法和装置、电子设备、存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180246952A1 (en) * 2015-08-19 2018-08-30 Alibaba Group Holding Limited Method and device for generating online question paths from existing question banks using a knowledge graph
CN109509126A (zh) * 2018-11-02 2019-03-22 中山大学 一种基于用户学习行为的个性化试题推荐方法
CN109635100A (zh) * 2018-12-24 2019-04-16 上海仁静信息技术有限公司 一种相似题目的推荐方法、装置、电子设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180246952A1 (en) * 2015-08-19 2018-08-30 Alibaba Group Holding Limited Method and device for generating online question paths from existing question banks using a knowledge graph
CN109509126A (zh) * 2018-11-02 2019-03-22 中山大学 一种基于用户学习行为的个性化试题推荐方法
CN109635100A (zh) * 2018-12-24 2019-04-16 上海仁静信息技术有限公司 一种相似题目的推荐方法、装置、电子设备及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111326040A (zh) * 2020-01-16 2020-06-23 深圳市芥菜种科技有限公司 语文阅读理解智能测试和智能辅导系统和方法
CN111813921A (zh) * 2020-08-20 2020-10-23 浙江学海教育科技有限公司 题目推荐方法、电子设备及计算机可读存储介质
CN112699308A (zh) * 2021-01-13 2021-04-23 敖客星云(北京)科技发展有限公司 一种基于聚类算法的学科题目知识点推荐方法及系统
CN113066358A (zh) * 2021-04-14 2021-07-02 吴光银 理科教学辅助系统
CN113779396A (zh) * 2021-09-10 2021-12-10 平安科技(深圳)有限公司 题目推荐方法和装置、电子设备、存储介质
CN113779396B (zh) * 2021-09-10 2023-09-01 平安科技(深圳)有限公司 题目推荐方法和装置、电子设备、存储介质

Also Published As

Publication number Publication date
CN110659311B (zh) 2021-11-16

Similar Documents

Publication Publication Date Title
CN110659311B (zh) 题目推送方法、装置、电子设备及存储介质
CN110704732B (zh) 基于认知诊断的时序性习题推荐方法、装置
CN112632385A (zh) 课程推荐方法、装置、计算机设备及介质
CN109816265B (zh) 知识特征掌握度的评价方法、题目推荐方法及电子设备
CN110472060B (zh) 题目推送方法、装置、计算机设备和存储介质
CN111651676B (zh) 基于能力模型进行职业推荐的方法、装置、设备和介质
CN107292785A (zh) 一种出题方法及系统
CN111090809A (zh) 题目推荐方法、装置、计算机设备和存储介质
CN114116998A (zh) 答复语句生成方法、装置、计算机设备和存储介质
CN111597446B (zh) 基于人工智能的内容推送方法、装置、服务器和存储介质
CN111832952B (zh) 一种教育课件推送系统
CN112163614A (zh) 一种主播分类方法、装置、电子设备及存储介质
CN111192170B (zh) 题目推送方法、装置、设备和计算机可读存储介质
CN109615009A (zh) 一种学习内容推荐方法及电子设备
CN114925284A (zh) 一种基于人工智能的资源搜索推送系统及方法
CN113255843B (zh) 演讲稿测评方法及设备
CN111311997B (zh) 一种基于网络教育资源的互动方法
CN116228361A (zh) 基于特征匹配的课程推荐方法、装置、设备和存储介质
CN111443973A (zh) 备注信息的填入方法、装置、设备及存储介质
CN111415283A (zh) 一种有效在线教学的因素分析方法和装置
CN116541432A (zh) 一种基于教育机器人的在线课堂智能推荐方法
CN111831886B (zh) 基于大数据的网络课件推送方法
CN109308565B (zh) 人群绩效等级识别方法、装置、存储介质及计算机设备
CN113837220A (zh) 基于在线持续学习的机器人目标识别方法、系统及设备
CN112818236A (zh) 基于场景的学习内容推荐方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant