CN112052828A - 一种学习能力确定方法、装置及存储介质 - Google Patents
一种学习能力确定方法、装置及存储介质 Download PDFInfo
- Publication number
- CN112052828A CN112052828A CN202011005655.XA CN202011005655A CN112052828A CN 112052828 A CN112052828 A CN 112052828A CN 202011005655 A CN202011005655 A CN 202011005655A CN 112052828 A CN112052828 A CN 112052828A
- Authority
- CN
- China
- Prior art keywords
- test question
- test
- knowledge
- questions
- test questions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 238000012360 testing method Methods 0.000 claims abstract description 311
- 238000012549 training Methods 0.000 claims abstract description 71
- 239000013598 vector Substances 0.000 claims description 117
- 230000006870 function Effects 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 20
- 230000004927 fusion Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 6
- 239000013604 expression vector Substances 0.000 claims description 4
- 230000017105 transposition Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000002474 experimental method Methods 0.000 description 11
- 238000003745 diagnosis Methods 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/413—Classification of content, e.g. text, photographs or tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Abstract
本申请涉及一种学习能力确定方法、装置及存储介质,所述方法包括:获取答题者已作答的预设数量试题对应的试题信息,每个所述试题的试题信息包括所述试题的作答情况和所述试题的属性信息,所述试题的属性信息至少包括所述试题的文本内容;根据各个所述试题的作答情况和文本内容,得到训练样本集;采用所述训练样本集对深度知识追踪网络进行训练,得到目标追踪模型;利用所述目标追踪模型确定所述答题者的学习能力,得到确定结果。本申请融合文本内容的信息,可以丰富模型训练内容,提高了模型预测的准确性。
Description
技术领域
本申请涉及教育测评技术领域,尤其涉及一种学习能力确定方法、装置及存储介质。
背景技术
人工智能已在老师教学与学生学习、评测的各个环节切入教育领域,正在创造着更加个性化、服务于终身学习的智能高效学习环境。在个性化学习系统中,学习能力确定是解决认知诊断问题的有效解决方案,即通过学习能力确定模型预测学生对知识点的掌握程度,准确可靠的学习能力确定模型意味着可以根据学生自身的知识状态,给学生推荐合适的练习题目,从而实现对学生进行高效的个性化教学。
现有的学习能力确定模型主要包括项目反映理论(Item Response Theory,IRT)、贝叶斯知识追踪(Bayesian Knowledge Tracing,BKT)模型以及深度知识追踪(DeepKnowledge Tracing,DKT)网络模型。相比于IRT和BKT模型,DKT网络模型基于循环神经网络的对学生进行建模,在学习能力确定性能上有了很大提升。但DKT网络模型仅将试题的作答情况(如做对或做错)视为输入,而忽略了试题所包含的其他信息,预测准确性较低。
发明内容
本申请提供了一种学习能力确定方法、装置及存储介质,丰富了模型输入,提高了模型预测的准确性。
一方面,本申请提供了一种学习能力确定方法,所述方法包括:
获取答题者已作答的预设数量试题对应的试题信息,每个所述试题的试题信息包括所述试题的作答情况和所述试题的属性信息,所述试题的属性信息至少包括所述试题的文本内容;
根据各个所述试题的作答情况和文本内容,得到训练样本集;
采用所述训练样本集对深度知识追踪网络进行训练,得到目标追踪模型;
利用所述目标追踪模型确定所述答题者的学习能力,得到确定结果。
另一方面提供了一种学习能力确定装置,所述装置包括:
数据获取模块,用于获取答题者已作答的预设数量试题对应的试题信息,每个所述试题的试题信息包括所述试题的作答情况和所述试题的属性信息,所述试题的属性信息至少包括所述试题的文本内容;
样本生成模块,用于根据各个所述试题的作答情况和文本内容,得到训练样本集;
模型训练模块,用于采用所述训练样本集对深度知识追踪网络进行训练,得到目标追踪模型;
能力确定模块,用于利用所述目标追踪模型确定所述答题者的学习能力,得到确定结果。
另一方面提供了一种计算机存储介质,所述计算机存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由处理器加载并执行以实现如上所述的学习能力确定方法。
本申请提供的学习能力确定方法、装置及存储介质,具有如下有益效果:融合试题的文本内容对深度知识追踪网络进行模型训练,使模型能够学习到试题更多的特征,而不仅仅只关注试题的作答情况,可以丰富模型输入,降低由于模型输入的特征不足带来的误差,进而提高模型预测的准确性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本申请实施例提供的一种学习能力确定系统的示意图。
图2是本申请实施例提供的一种学习能力确定方法的流程示意图。
图3是本申请实施例提供的另一种学习能力确定方法的流程示意图。
图4是本申请实施例提供的现有深度知识追踪网络模型的结构示意图。
图5是本申请实施例提供的一个确定训练样本子集的流程示意图。
图6是本申请实施例提供的确定第一特征向量的流程示意图。
图7是本申请实施例提供的另一个确定训练样本子集的流程示意图。
图8是本申请实施例提供的另一种学习能力确定方法的流程示意图。
图9是本申请实施例提供的对深度知识追踪网络进行调优处理的流程示意图。
图10是本申请实施例提供的一种目标追踪模型的结构示意图。
图11是本申请实施例提供的另一种目标追踪模型的结构示意图。
图12是本申请实施例提供的一种学习能力确定装置的结构框图示意图。
图13是本申请实施例提供的样本生成模块的结构框图示意图。
图14是本申请实施例提供的第一样本生成单元的结构框图示意图。
图15是本申请实施例提供的第一特征向量生成单元的结构框图示意图。
图16是本申请实施例提供的第二特征向量生成单元的结构框图示意图。
图17是本申请实施例提供的第一样本生成单元的另一结构框图示意图。
图18是本申请实施例提供的另一种学习能力确定装置的结构框图示意图。
图19是本申请实施例提供的模型调优模块的结构框图示意图。
图20是本申请实施例提供的一种用于实现本申请实施例所提供的方法的设备的硬件结构示意图。
具体实施方式
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。
本申请实施例提供的方案涉及人工智能的机器学习领域和自然语言处理领域。机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。自然语言处理(Nature Language Processing,NLP)是一门融语言学、计算机科学、数学于一体的科学,研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,因此这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系;自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。
云技术是基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
本申请实施例提供的方案涉及云技术中的行业应用中的教育技术领域。云教育(Cloud Computing Education简称:CCEDU),是指基于云计算商业模式应用的教育平台服务。在云平台上,所有的教育机构,培训机构,招生服务机构,宣传机构,行业协会,管理机构,行业媒体,法律结构等都集中云整合成资源池,各个资源相互展示和互动,按需交流,达成意向,从而降低教育成本,提高效率。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或服务器不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
首先对本申请实施例中所涉及的相关术语做以下解释:
DKT(Deep Knowledge Tracing,深度知识追踪):使用递归神经网络根据学生历史答题数据对学生进行建模,追踪学生对知识点的掌握情况。DKT模型的输入是学生的历史答题情况,深度学习的效果会随着数据集的增大而不断提升。
嵌入表示(embedding):在数学上表示一个映射关系(F:X->Y)。在自然语言处理中,嵌入表示特指从语义空间到向量空间的映射结果,即用一个低维度向量表示一个实体。
多模态:即多个领域或视角,每一种信息的来源或者形式都可以成为一种模态,例如作答情况、试题难度、文本内容等每一种都称为一种模态。
请参阅图1,其示出了本申请实施例提供的一种学习能力确定系统的示意图。如图1所示,该学习能力确定系统可以包括学情分析模块01、学习诊断模块02、学习路径规划模块03、第一数据库04和第二数据库05。其中,学习诊断模块02可以包括请求接入单元021、前处理单元022、模型在线推理单元023和后处理单元024。
具体的,第一数据库04用于存储学生的学习规划相关的信息,例如学习路径规划以及学习能力确定结果等等,第一数据库04可以是Redis等数据库。第二数据库05用于存储学生的试题相关的信息,例如已作答试题的试题信息,第二数据库05可以是MySQL、Oracle等数据库。通过将学生不同的数据进行分别管理,以实现数据与业务的分离。应当理解,在一些实施例中,第一数据库04和第二数据库05也可以是同一个数据库。
具体的,学情分析模块01用于检测是否需要对学生的学习进行诊断,当需要对学生的学习进行诊断时,向学习诊断模块02的请求接入单元021发起诊断请求。
具体的,请求接入单元021接收到诊断请求后,从诊断请求中提取学生的学生信息,根据学生信息从第二数据库05中获取与学生信息对应的已作答试题的试题信息,并将试题信息发送至前处理单元022。前处理单元022对试题信息进行预处理得到训练样本集,并将该训练样本集发送至模型在线推理单元023。模型在线推理单元023根据训练样本集对DKT网络进行训练得到目标追踪模型,然后根据目标追踪模型确定学生的学习能力得到确定结果,并将确定结果发送至后处理单元024。后处理单元024将确定结果写入至第一数据库04(Redis)中,并写推送消息到第一数据库04信道(Redis Channel),以使第一数据库04将确定结果推送至学情分析模块01和学习路径规划模块03。
具体的,学习路径规划模块03接收到确定结果的消息推送后,根据确定结果对学生的学习路径进行规划,例如做阶段规划、推荐每个阶段适合学生的学习试题等等,以实现个性化教学的目的。
此外,学习路径规划模块03和学情分析模块01可以根据预先设置的监听任务监听第一数据库04中的数据,确定数据是否发生变化,在数据发生变化的情况下启动相应的分析和规划。
以下介绍本申请的一种学习能力确定方法。图2是本申请实施例提供的一种学习能力确定方法的流程示意图,本说明书提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的系统或服务器产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。具体的如图2所示,所述方法可以包括:
S201,获取答题者已作答的预设数量试题对应的试题信息,每个所述试题的试题信息包括所述试题的作答情况和所述试题的属性信息,所述试题的属性信息至少包括所述试题的文本内容。
本申请实施例中,每个试题的作答情况可以包括作答结果和/或试题得分信息,其中,试题的作答结果表征对所述试题答对或答错,试题得分信息至少包括试题总分和实际得分。试题的属性信息是指用于描述或标识试题的详细信息,例如试题的文本内容、试题所涉及的知识点、试题难度、试题类型、试题质量、试题难易程度以及试题所属学科等等。为了挖掘试题更多的特征,丰富DKT网络的输入,试题的属性信息至少包括该试题的文本内容。
S202,根据各个所述试题的作答情况和文本内容,得到训练样本集。
本申请实施例中,先分别对作答情况和文本内容进行处理,得到对应的特征向量,然后通过特征向量融合以确定训练样本集。具体如图3所示,所述根据各个所述试题的作答情况和文本内容,得到训练样本集,包括:
S2021,根据每个所述试题的作答情况和文本内容,确定所述试题对应的训练样本子集。
DKT网络模型是一个循环神经网络模型,如图4所示,每一个时间步上的模型输出,都是对下一时刻的知识点掌握度的预测。DKT网络模型用单个知识点来表征题目,使用独热(one-hot)向量来表示知识点,向量维度即试题的个数。相应的,DKT网络模型的损失函数L可表示为:
其中,y为输出向量,yT为y的转置,qt+1表示试题(即知识点),at+1表示在t+1时刻对试题qt+1的回答是否正确,通常at+1∈{0,1},δ(qt+1)为t+1时刻试题qt+1的独热向量,为交叉熵函数。
如上所述可知,DKT网络模型的输入是一个试题对应一个知识点。若试题的属性信息中未包括对应试题所涉及的知识点,则可直接根据试题的作答情况得到对应的特征向量;若试题的属性信息中还包括对应试题所涉及的多个(多于一个)知识点,则可根据这多个知识点的作答情况得到对应的特征向量。
如图5所示,所述根据每个所述试题的作答情况和文本内容,确定所述试题对应的训练样本子集,包括:
S20211,确定所述试题的属性信息是否还包括所述试题所涉及的至少一个知识点。
通常在获取答题者已作答的预设数量试题对应的属性信息时,都是基于相同的数据结构进行获取的,即所有试题的属性信息中都不包括对应试题所涉及的知识点信息,或者所有试题的属性信息中都包括对应试题所涉及的知识点信息。若不包括,则属于单知识点情况,执行步骤S20212;若包括,则属于多知识点情况,执行步骤S20213。
S20212,将所述试题的作答情况转化为基于知识点的独热向量,得到所述试题对应的第一特征向量。
针对单知识点情况即将试题视为一个知识点,与DKT网络模型中知识点的表示方式一致,可将试题的作答结果使用独热码进行编码,得到基于知识点的独热向量。完成该步骤后,转入步骤S20214执行。
举例说明,假设预设数量为N即有N道试题,用ht={qt,at}表示某个学生在t时刻对试题qt的回答对错情况为at,其中qt∈{1,…,N},at∈{0,1}。那么,ht={1,0}表示学生在t时刻答错了试题1,而ht={1,1}表示学生在t时刻答对了试题1。若N为6,则对应ht={1,0}的独热编码就是{100000000000},前6位是对回答正确的信息进行编码,后6位是对回答错误的信息进行编码。
S20213,将所述试题的作答情况和所述至少一个知识点转化为基于知识点的多热向量,得到所述试题对应的第一特征向量。
针对多知识点情况即一个试题对应多个知识点,独热码将不能满足多知识点的表示,本申请实施例使用多热(multi-hot)码实现多知识点的表示。
具体参照图6所示,所述将所述试题的作答情况和所述至少一个知识点转化为基于知识点的多热向量,得到所述试题对应的第一特征向量,包括:
S202131,根据所述试题的作答情况,确定所述试题的作答结果。
在确定试题的作答结果时,需要区分三种情况:第一种,试题的作答情况中仅包括作答结果,未包括试题得分信息;第二种,试题的作答情况中未包括作答结果,但包括了试题得分信息;第三种,试题的作答情况中既包括作答结果,也包括试题得分信息。
对于第一种,可以直接从作答情况中获取作答结果,将作答结果确定为试题的作答结果。
对于第二种,可以根据试题得分信息确定试题的作答结果。具体的,先从试题得分信息中提取试题总分和实际得分,并对实际得分进行归一化处理,得到归一化值,即将实际得分与试题总分的比值确定为归一化值;然后将归一化值与预设得分阈值进行比较;若归一化值大于或等于预设得分阈值,则作答结果为答对;若归一化值小于预设得分阈值,则作答结果为答错。其中,预设得分阈值可以根据实际情况进行设置,例如可以将预设得分阈值设置为0.5。
对于第三种,具体实施时,可以选择性的使用作答情况中的作答结果或使用根据试题得分信息确定的作答结果。
S202132,将所述试题的作答结果作为每个所述知识点的作答结果。
本申请实施例中,无论试题所涉及的知识点是几个,均将试题的作答结果作为每个知识点的作答结果。例如,如果试题涉及3个知识点,试题总分是5分,答题者的实际得分是4分,归一化值是(4/5=0.8)>0.5,则作答结果为答对,相应的,3个知识点的作答结果均为答对。在具体实施时,若每个知识点都有其相应的得分,也可按照相同的构思对每个知识点进行归一化处理,得到每个知识点对应的作答结果。
S202133,将各个所述知识点的作答结果转化为基于知识点的多热向量,得到所述试题对应的第一特征向量。
当一个试题对应多个知识点时,采用多热码对各个知识点的作答结果进行编码,得到基于知识点的多热向量。例如,假设预设数量为N即有N道试题,这N道题总共有100个知识点,则用一个200维的向量进行表示,前100维对知识点进行编码,后100维对答对或答错进行编码。
S20214,对所述试题的文本内容进行特征提取,得到所述试题对应的第二特征向量。
特征提取即从文本内容中抽取出反应文本内容主题的各个特征,例如词或语句等等,然后将各个特征以向量的方式进行表示,得到第二特征向量。
具体的,所述对所述试题的文本内容进行特征提取,得到所述试题对应的第二特征向量,可以包括:对所述试题的文本内容进行嵌入表示,得到嵌入表示向量;将所述嵌入表示向量确定为所述试题对应的第二特征向量。即使用文本内容的embedding(嵌入表示)来作为第二特征向量,其中,嵌入表示的方式有多种,例如CBOW(Continuous bag ofwords,连续词袋)、Skip-Gram(Skip Grammar,跳过符号)等Word2Vec(Word-to-Vector,词嵌入向量)模型,现有技术中已有较多的方案,在此不再一一列举。
S20215,将所述试题对应的第一特征向量和第二特征向量进行拼接,得到所述试题对应的训练样本子集。
DKT网络模型仅考虑单一的知识点即试题和作答情况,未能考虑试题本身提供的多种信息,使得模型学到的特征有限,进行预测时,能够考虑到的因素也有限,影响预测结果。而本申请实施例中,训练样本子集中结合了试题的文本内容,使得模型不只是关注单一的知识点和作答情况,还会学习到试题的更多特征,提高了模型预测的准确性。
对于试题而言,除了文本内容可以对试题进行描述外,还可以用试题难度、试题类型以及试题质量等固有属性对试题进行描述,且每个固有属性有其对应的描述标识。例如,可以用难度等级(如一级、二级、三级等)作为试题难度的描述标识,可以用质量等级(如高、中、第等)作为试题质量的描述标识
在一些实施方式中,如图7所示,在所述将所述试题对应的第一特征向量和第二特征向量进行拼接,得到所述试题对应的训练样本子集之前,还包括:
S20216,确定所述试题的属性信息是否还包括所述试题的至少一个固有属性。
若所述试题的属性信息还包括所述试题的至少一个固有属性,则所述根据每个所述试题的作答情况和文本内容,确定所述试题对应的训练样本子集,还包括:
S20217,将所述至少一个固有属性中的每个固有属性转化为基于固有属性的独热向量,得到所述试题对应的第三特征向量。
具体的,使用独热码对每个固有属性对应的描述标识进行编码,得到所述固有属性对应的第三特征子向量;由所有固有属性对应的第三特征子向量构成所述试题对应的第三特征向量。
例如,固有属性为试题难度,难度等级共有N级,则可用一个N维one-hot向量来表示试题难度,得到试题难度对应的第三特征子向量。
S20218,对所述试题对应的第一特征向量、第二特征向量和第三特征向量进行拼接,得到所述试题对应的训练样本子集。
学生的作答情况与试题的固有属性强相关,例如试题难度,结合试题的固有属性,即将与作答情况强相关的试题的特征考虑进来,与实际相匹配,模型预测更为合理。
S2022,由各个所述试题对应的训练样本子集构成所述训练样本集。
S203,采用所述训练样本集对深度知识追踪网络进行训练,得到目标追踪模型。
DKT网络模型的模型的输入是基于试题的单一向量,即仅考虑单知识点,而未能考虑题目本身提供的多种信息,使得DKT网络模型学到的特征有限,严重影响了评估结果的准确性。
在一些实施方式中,为了在学习能力建模时能够综合更多的信息,如图8所示,在所述采用所述训练样本集对深度知识追踪网络进行训练,得到目标追踪模型之前,本申请实施例的学习能力确定方法还包括:
S801,对深度知识追踪网络进行调优处理。
具体如图9所示,所述对深度知识追踪网络进行调优处理,可以包括:
S8011,对所述深度知识追踪网络的输入层进行多模态融合优化,以使所述输入层实现多向量融合。
多模态融合是将每个模态对应的特征向量进行融合,即将DKT网络模型的输入层转化为多向量表示,每个向量对应于一个特征向量。如图10所示,其为多模态融合后的深度知识追踪网络模型。在图10中,包括x、w和v为三个输入向量,其中,x可以是独热向量(针对单知识点)也可以是多热向量(针对多知识点)即第一特征向量,v为文本向量即第二特征向量,w为固有属性对应的特征向量(如试题难度对应的第三特征子向量)。可以理解的,图10仅仅是一个示例,在一些实施例中,输入向量可以是其他特征向量,且输入向量的个数也不限于三个,即可以是两个也可是多于三个。
由于DKT网络模型的损失函数与知识点相关,若x为多热向量,在进行多模态融合优化时,可以对DKT网络模型的损失函数做相应优化,以使损失函数与多知识点相关联,提高损失函数的准确性。
鉴于此,所述对所述深度知识追踪网络的输入层进行多模态融合优化,以使所述输入层实现多向量融合,可以包括:对所述深度知识追踪网络的损失函数进行优化。具体的,所述对所述深度知识追踪网络的损失函数进行优化,可以包括:针对每个所述试题,将所述试题中各个知识点对应的交叉熵函数之和,确定为所述试题对应的交叉熵函数,其中,每个知识点对应的交叉熵函数的预测值,为所述深度知识追踪网络输出向量的转置与所述试题的多热向量之积,每个知识点对应的交叉熵函数的实际值,为所述知识点的作答结果;将所述各个试题对应的交叉熵函数之和,确定为所述深度知识追踪网络的损失函数。
本申请实施例中,优化后的损失函数可以表示为:
其中,y表示输出向量,yT为y的转置,δ(qt+1)表示试题qt+1的多热向量,qt+1表示t+1时刻的试题,表示对试题qt+1中第i个知识点的回答是否正确,为交叉熵函数,St+1表示试题qt+1所包含的所有知识点的作答结果。例如,若试题qt+1中包含有3个知识点,则St+1可表示为其中,表示知识点1回答错误,表示知识点2回答正确,表示知识点3回答正确。
S8012,在所述深度知识追踪网络中增加文本嵌入层,所述文本嵌入层的输入为所述试题的文本内容,并将所述文本嵌入层的输出作为所述输入层的输入之一。
为了实现文本内容的输入,在一些实施例中,如图11所示,可以增加文本嵌入层(Text embedding layer)实现对试题的文本内容进行特征提取,文本嵌入层的输入为文本内容textt。通过增加文本嵌入层,使得在融合文本内容的特征时,仅需要输入文本内容即可得到与DKT网络模型输入相一致的结构。
相应的,继续参照8中所示,所述采用所述训练样本集对深度知识追踪网络进行训练,得到目标追踪模型,包括:
S802,采用所述训练样本集对所述调优处理后的深度知识追踪网络进行训练,得到目标追踪模型。
通过对DKT网络模型进行改进,得到适用于多模态的深度学业能力预估模型(MDKT),将试题的文本内容、试题属性信息等特征进行融合,同时支持试题与知识点之间的一对多关系,提升模型的泛化能力,对学生的学习能力确定更为合理,进而提高了学习能力确定的准确性。
S204,利用所述目标追踪模型确定所述答题者的学习能力,得到确定结果。
为了说明利用目标追踪模型所得到的确定结果,相比于原始DKT网络模型具有更好的准确性,本申请实施例基于一系列实验所得到的实验结果进行说明如下表所示。其中,每个实验的其他配置保持一致,通过调整不同特征融入获得对应的ACC值和ACU值;with-knowledge(融合多知识点)表示在沿用单知识点方式的同时将题目涉及的多个知识点作为特征融入;with-text(融入文本内容)表示将文本内容作为特征融入;with-difficulty(融入题目难度)表示将题目难度作为特征融入。
实验 | with-knowledge | with-text | with-difficulty | ACC | AUC |
实验1 | no | no | no | 0.85418 | 0.79539 |
实验2 | yes | no | no | 0.85558 | 0.80010 |
实验3 | no | yes | no | 0.85664 | 0.80429 |
实验4 | no | no | yes | 0.85623 | 0.80189 |
实验5 | no | yes | yes | 0.85771 | 0.80825 |
实验6 | yes | no | yes | 0.85642 | 0.80581 |
实验7 | yes | yes | no | 0.85747 | 0.80579 |
实验8 | yes | yes | yes | 0.85752 | 0.80886 |
在机器学习领域,ACC(Accuracy,准确率)用来评判分类器性能,ACC取值越大分类器性能越好;AUC(Area Under Curve,曲线下面积)用来评价分类器准确率,AUC取值越大分类器越准确。实验结果表明,融入多知识点特征约带来0.005的AUC提升,融入题目难度约带来0.007的AUC提升,融入题目文本约带来0.01的AUC提升,同时融入三个信息约能带来0.013的AUC提升。
由以上本说明书实施例提供的技术方案可见,本说明书实施例结合试题的文本内容对深度知识追踪网络进行模型训练,使模型能够学习到试题更多的特征,而不仅仅只关注试题的作答情况,可丰富模型输入,降低由于模型输入的特征不足带来的误差,进而提高模型预测的准确性和合理性;结合试题涉及多个知识点,模型的作答情况不再是试题与知识点的一一对应关系,而是试题与知识点的一对多关系,同时结合与作答情况强相关的固有属性,使模型可以学习到试题的更多特征,进一步提高模型预测的准确性和合理性。
本申请实施例还提供了一种学习能力确定装置,如图12所示,所述装置包括可以包括:
数据获取模块121,用于获取答题者已作答的预设数量试题对应的试题信息,每个所述试题的试题信息包括所述试题的作答情况和所述试题的属性信息,所述试题的属性信息至少包括所述试题的文本内容;
样本生成模块122,用于根据各个所述试题的作答情况和文本内容,得到训练样本集;
模型训练模块123,用于采用所述训练样本集对深度知识追踪网络进行训练,得到目标追踪模型;
能力确定模块124,用于利用所述目标追踪模型确定所述答题者的学习能力,得到确定结果。
本申请实施例中,每个试题的作答情况可以包括作答结果(答对或答错)和/或试题得分信息,其中,试题得分信息至少包括试题总分和实际得分。试题的属性信息是指用于描述或标识试题的详细信息,例如试题的文本内容、试题所涉及的知识点、试题难度、试题类型、试题质量、试题难易程度以及试题所属学科等等。
在一些实施例中,如图13所示,样本生成模块122可以包括:
第一样本生成单元1221,用于根据每个所述试题的作答情况和文本内容,确定所述试题对应的训练样本子集;
第二样本生成单元1222,用于将各个所述试题对应的训练样本子集组成所述训练样本集。
具体的,如图14所示,第一样本生成单元1221可以包括:
知识点确定单元12211,用于确定所述试题的属性信息是否还包括所述试题所涉及的至少一个知识点;
第一特征向量生成单元12212,用于在所述试题的属性信息还包括所述试题所涉及的至少一个知识点的情况下,将所述试题的作答情况和所述至少一个知识点转化为基于知识点的多热向量,得到所述试题对应的第一特征向量;
第二特征向量生成单元12213,用于对所述试题的文本内容进行特征提取,得到所述试题对应的第二特征向量;
第一样本集确定单元12214,用于将所述试题对应的第一特征向量和第二特征向量进行拼接,得到所述试题对应的训练样本子集。
具体的,如图15所示,第一特征向量生成单元12212可以包括:
试题作答结果确定单元122121,用于根据所述试题的作答情况,确定所述试题的作答结果;
知识点作答结果确定单元122122,用于将所述试题的作答结果作为每个所述知识点的作答结果;
知识点向量生成单元122123,用于将各个所述知识点的作答结果转化为基于知识点的多热向量,得到所述试题对应的第一特征向量。
具体的,如图16所示,第二特征向量生成单元12213可以包括:
嵌入表示向量生成单元122131,用于对所述试题的文本内容进行嵌入表示,得到嵌入表示向量;
文本内容向量确定单元122132,用于将所述嵌入表示向量确定为所述试题对应的第二特征向量。
在一些实施例中,如图17所示,第一样本生成单元1221还可以包括:
固有属性确定单元12215,用于确定所述试题的属性信息是否还包括所述试题的至少一个固有属性,其中,所述固有属性包括试题难度、试题类型以及试题质量;
第三特征向量生成单元12216,用于在所述试题的属性信息还包括所述试题的至少一个固有属性的情况下,将所述至少一个固有属性中的每个固有属性转化为基于固有属性的独热向量,得到所述试题对应的第三特征向量;
第二样本集确定单元12217,用于对所述试题对应的第一特征向量、第二特征向量和第三特征向量进行拼接,得到所述试题对应的训练样本子集。
在一些实施例中,如图18所示,所述装置还可以包括:
模型调优模块125,用于对所述深度知识追踪网络进行调优处理。
相应的,模型训练模块123还用于采用所述训练样本集对所述调优处理后的深度知识追踪网络进行训练,得到目标追踪模型。
具体如图19所示,模型调优模块125可以包括:
多模融合处理单元1251,用于对所述深度知识追踪网络的输入层进行多模态融合优化,以使所述输入层实现多向量融合;
嵌入层增加单元1252,用于在所述深度知识追踪网络中增加文本嵌入层,所述文本嵌入层的输入为所述试题的文本内容,并将所述文本嵌入层的输出作为所述输入层的输入之一。
继续图如19中所示,所述多模融合处理单元1251可以包括:
损失函数优化单元12511,用于对所述深度知识追踪网络的损失函数进行优化。
本申请实施例中,损失函数优化单元12511可进一步用于:针对每个所述试题,将所述试题中各个知识点对应的交叉熵函数之和,确定为所述试题对应的交叉熵函数,其中,每个知识点对应的交叉熵函数的预测值,为所述深度知识追踪网络输出向量的转置与所述试题的多热向量之积,每个知识点对应的交叉熵函数的实际值,为所述知识点的作答结果;将所述各个试题对应的交叉熵函数之和,确定为所述深度知识追踪网络的损失函数。
需要说明的是,上述实施例提供的装置,在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本申请实施例还提供了一种学习能力确定设备,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或至少一段程序由所述处理器加载并执行以实现上述方法实施例的学习能力确定方法。
进一步地,图20示出了一种用于实现本申请实施例所提供的方法的设备的硬件结构示意图,所述设备可以参与构成或包含本申请实施例所提供的装置或系统。如图20所示,设备20可以包括一个或多个(图中采用2002a、2002b,……,2002n来示出)处理器2002(处理器2002可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器2004、以及用于通信功能的传输装置2006。除此以外,还可以包括:显示器、输入/输出接口(I/O接口)、通用串行总线(USB)端口(可以作为I/O接口的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图20所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,设备20还可包括比图20中所示更多或者更少的组件,或者具有与图20所示不同的配置。
应当注意到的是上述一个或多个处理器102和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到设备20(或移动设备)中的其他元件中的任意一个内。如本申请实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
存储器2004可用于存储应用软件的软件程序以及模块,如本申请实施例中所述的方法对应的程序指令/数据存储装置,处理器2002通过运行存储在存储器2004内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的一种学习能力确定方法。存储器2004可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器2004可进一步包括相对于处理器2002远程设置的存储器,这些远程存储器可以通过网络连接至设备20。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置2006用于经由一个网络接收或者发送数据。上述的网络具体实例可包括设备20的通信供应商提供的无线网络。在一个实例中,传输装置2006包括一个网络适配器(NetworkInterfaceController,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置2006可以为射频(RadioFrequency,RF)模块,其用于通过无线方式与互联网进行通讯。
显示器可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与设备20(或移动设备)的用户界面进行交互。
本申请实施例还提供了一种计算机存储介质,该计算机存储介质中存储有至少一条指令或至少一段程序,该至少一条指令或至少一段程序由处理器加载并执行以实现上述方法实施例所提供的学习能力确定方法。
可选地,上述计算机存储介质可以位于计算机网络的多个网络服务器中的至少一个网络服务器。可选地,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
由上述本说明书提供的学习能力确定方法、装置、设备及存储介质的实施例可见,本申请结合试题的文本内容对深度知识追踪网络进行模型训练,使模型能够学习到试题更多的特征,而不仅仅只关注试题的作答情况,可丰富模型输入,降低由于模型输入的特征不足带来的误差,进而提高模型预测的准确性和合理性;结合试题涉及多个知识点,模型的作答情况不再是试题与知识点的一一对应关系,而是试题与知识点的一对多关系,同时结合与作答情况强相关的固有属性,使模型可以学习到试题的更多特征,进一步提高模型预测的准确性和合理性。
需要说明的是,上述本申请实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置和电子设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述说明已经充分揭露了本申请的具体实施方式。需要指出的是,熟悉该领域的技术人员对本申请的具体实施方式所做的任何改动均不脱离本申请的权利要求书的范围。相应地,本申请的权利要求的范围也并不仅仅局限于前述具体实施方式。
Claims (10)
1.一种学习能力确定方法,其特征在于,所述方法包括:
获取答题者已作答的预设数量试题对应的试题信息,每个所述试题的试题信息包括所述试题的作答情况和所述试题的属性信息,所述试题的属性信息至少包括所述试题的文本内容;
根据各个所述试题的作答情况和文本内容,得到训练样本集;
采用所述训练样本集对深度知识追踪网络进行训练,得到目标追踪模型;
利用所述目标追踪模型确定所述答题者的学习能力,得到确定结果。
2.根据权利要求1所述的方法,其特征在于,所述根据各个所述试题的作答情况和文本内容,得到训练样本集,包括:
根据每个所述试题的作答情况和文本内容,确定所述试题对应的训练样本子集;
由各个所述试题对应的训练样本子集构成所述训练样本集。
3.根据权利要求2所述的方法,其特征在于,所述试题的属性信息还包括所述试题所涉及的至少一个知识点,所述根据每个所述试题的作答情况和文本内容,确定所述试题对应的训练样本子集,包括:
将所述试题的作答情况和所述至少一个知识点转化为基于知识点的多热向量,得到所述试题对应的第一特征向量;
对所述试题的文本内容进行特征提取,得到所述试题对应的第二特征向量;
将所述试题对应的第一特征向量和第二特征向量进行拼接,得到所述试题对应的训练样本子集。
4.根据权利要求3所述的方法,其特征在于,所述试题的属性信息还包括所述试题的至少一个固有属性,所述根据每个所述试题的作答情况和文本内容,确定所述试题对应的训练样本子集,还包括:
将所述至少一个固有属性中的每个固有属性转化为基于固有属性的独热向量,得到所述试题对应的第三特征向量;
对所述试题对应的第一特征向量、第二特征向量和第三特征向量进行拼接,得到所述试题对应的训练样本子集;
其中,所述固有属性包括试题难度、试题类型以及试题质量。
5.根据权利要求3或4所述的方法,其特征在于,所述将所述试题的作答情况和所述至少一个知识点转化为基于知识点的多热向量,得到所述试题对应的第一特征向量,包括:
根据所述试题的作答情况,确定所述试题的作答结果;
将所述试题的作答结果作为每个所述知识点的作答结果;
将各个所述知识点的作答结果转化为基于知识点的多热向量,得到所述试题对应的第一特征向量。
6.根据权利要求3或4所述的方法,其特征在于,所述对所述试题的文本内容进行特征提取,得到所述试题对应的第二特征向量,包括:
对所述试题的文本内容进行嵌入表示,得到嵌入表示向量;
将所述嵌入表示向量确定为所述试题对应的第二特征向量。
7.根据权利要求1所述的方法,其特征在于,在所述采用所述训练样本集对深度知识追踪网络进行训练,得到目标追踪模型之前,还包括对所述深度知识追踪网络进行调优处理的步骤:
所述对所述深度知识追踪网络进行调优处理,包括:
对所述深度知识追踪网络的输入层进行多模态融合优化,以使所述输入层实现多向量融合;
在所述深度知识追踪网络中增加文本嵌入层,所述文本嵌入层的输入为所述试题的文本内容,并将所述文本嵌入层的输出作为所述输入层的输入之一;
相应的,所述采用所述训练样本集对深度知识追踪网络进行训练,得到目标追踪模型,包括:
采用所述训练样本集对所述调优处理后的深度知识追踪网络进行训练,得到目标追踪模型。
8.根据权利要求7所述的方法,其特征在于,所述对所述深度知识追踪网络的输入层进行多模态融合优化,以使所述输入层实现多向量融合,包括:
对所述深度知识追踪网络的损失函数进行优化;
所述对所述深度知识追踪网络的损失函数进行优化,包括:
针对每个所述试题,将所述试题中各个知识点对应的交叉熵函数之和,确定为所述试题对应的交叉熵函数,其中,每个知识点对应的交叉熵函数的预测值,为所述深度知识追踪网络输出向量的转置与所述试题的多热向量之积,每个知识点对应的交叉熵函数的实际值,为所述知识点的作答结果;
将所述各个试题对应的交叉熵函数之和,确定为所述深度知识追踪网络的损失函数。
9.一种学习能力确定装置,其特征在于,所述装置包括:
数据获取模块,用于获取答题者已作答的预设数量试题对应的试题信息,每个所述试题的试题信息包括所述试题的作答情况和所述试题的属性信息,所述试题的属性信息至少包括所述试题的文本内容;
样本生成模块,用于根据各个所述试题的作答情况和文本内容,得到训练样本集;
模型训练模块,用于采用所述训练样本集对深度知识追踪网络进行训练,得到目标追踪模型;
能力确定模块,用于利用所述目标追踪模型确定所述答题者的学习能力,得到确定结果。
10.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由处理器加载并执行以实现如权利要求1-8任一所述的学习能力确定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011005655.XA CN112052828B (zh) | 2020-09-23 | 一种学习能力确定方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011005655.XA CN112052828B (zh) | 2020-09-23 | 一种学习能力确定方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112052828A true CN112052828A (zh) | 2020-12-08 |
CN112052828B CN112052828B (zh) | 2024-05-14 |
Family
ID=
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112785039A (zh) * | 2020-12-31 | 2021-05-11 | 科大讯飞股份有限公司 | 一种试题作答得分率的预测方法及相关装置 |
CN112800323A (zh) * | 2021-01-13 | 2021-05-14 | 中国科学技术大学 | 一种基于深度学习的智能教学系统 |
CN113052316A (zh) * | 2021-03-01 | 2021-06-29 | 浙江师范大学 | 基于因果推理的知识追踪方法、系统、设备及存储介质 |
CN113239699A (zh) * | 2021-04-15 | 2021-08-10 | 北京师范大学 | 一种融合多特征的深度知识追踪方法及系统 |
CN114282531A (zh) * | 2021-08-24 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 一种题目检测方法、装置、电子设备和存储介质 |
CN117151227A (zh) * | 2023-08-28 | 2023-12-01 | 深圳智现未来工业软件有限公司 | 一种半导体检测结果的推理方法及装置 |
CN117151227B (zh) * | 2023-08-28 | 2024-05-17 | 深圳智现未来工业软件有限公司 | 一种半导体检测结果的推理方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170270812A1 (en) * | 2016-03-16 | 2017-09-21 | Wen Tsung Chu | Method for learning assessment |
CN108229718A (zh) * | 2016-12-22 | 2018-06-29 | 上海谦问万答吧云计算科技有限公司 | 一种信息预测方法及装置 |
CN108228674A (zh) * | 2016-12-22 | 2018-06-29 | 上海谦问万答吧云计算科技有限公司 | 一种基于dkt的信息处理方法及装置 |
CN110223553A (zh) * | 2019-05-20 | 2019-09-10 | 北京师范大学 | 一种答题信息的预测方法及系统 |
CN111354237A (zh) * | 2018-12-20 | 2020-06-30 | 富士施乐株式会社 | 基于上下文的深度知识追踪的方法及其计算机可读介质 |
CN111695779A (zh) * | 2020-05-14 | 2020-09-22 | 华南师范大学 | 一种知识追踪方法、装置及存储介质 |
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170270812A1 (en) * | 2016-03-16 | 2017-09-21 | Wen Tsung Chu | Method for learning assessment |
CN108229718A (zh) * | 2016-12-22 | 2018-06-29 | 上海谦问万答吧云计算科技有限公司 | 一种信息预测方法及装置 |
CN108228674A (zh) * | 2016-12-22 | 2018-06-29 | 上海谦问万答吧云计算科技有限公司 | 一种基于dkt的信息处理方法及装置 |
CN111354237A (zh) * | 2018-12-20 | 2020-06-30 | 富士施乐株式会社 | 基于上下文的深度知识追踪的方法及其计算机可读介质 |
CN110223553A (zh) * | 2019-05-20 | 2019-09-10 | 北京师范大学 | 一种答题信息的预测方法及系统 |
CN111695779A (zh) * | 2020-05-14 | 2020-09-22 | 华南师范大学 | 一种知识追踪方法、装置及存储介质 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112785039A (zh) * | 2020-12-31 | 2021-05-11 | 科大讯飞股份有限公司 | 一种试题作答得分率的预测方法及相关装置 |
CN112785039B (zh) * | 2020-12-31 | 2023-12-01 | 科大讯飞股份有限公司 | 一种试题作答得分率的预测方法及相关装置 |
CN112800323A (zh) * | 2021-01-13 | 2021-05-14 | 中国科学技术大学 | 一种基于深度学习的智能教学系统 |
CN112800323B (zh) * | 2021-01-13 | 2024-04-02 | 中国科学技术大学 | 一种基于深度学习的智能教学系统 |
CN113052316A (zh) * | 2021-03-01 | 2021-06-29 | 浙江师范大学 | 基于因果推理的知识追踪方法、系统、设备及存储介质 |
CN113239699A (zh) * | 2021-04-15 | 2021-08-10 | 北京师范大学 | 一种融合多特征的深度知识追踪方法及系统 |
CN113239699B (zh) * | 2021-04-15 | 2023-11-07 | 北京师范大学 | 一种融合多特征的深度知识追踪方法及系统 |
CN114282531A (zh) * | 2021-08-24 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 一种题目检测方法、装置、电子设备和存储介质 |
CN117151227A (zh) * | 2023-08-28 | 2023-12-01 | 深圳智现未来工业软件有限公司 | 一种半导体检测结果的推理方法及装置 |
CN117151227B (zh) * | 2023-08-28 | 2024-05-17 | 深圳智现未来工业软件有限公司 | 一种半导体检测结果的推理方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rasheed et al. | Learning style detection in E-learning systems using machine learning techniques | |
Bhargava et al. | Beyond data literacy: Reinventing community engagement and empowerment in the age of data | |
Wang et al. | Data mining for adaptive learning sequence in English language instruction | |
Gross et al. | Example-based feedback provision using structured solution spaces | |
CN113886567A (zh) | 一种基于知识图谱的教学方法及系统 | |
CN114281957A (zh) | 自然语言数据查询方法、装置、电子设备及存储介质 | |
Sung et al. | How does augmented observation facilitate multimodal representational thinking? Applying deep learning to decode complex student construct | |
CN117252047B (zh) | 基于数字孪生的教学信息处理方法及系统 | |
CN113344053A (zh) | 一种基于试题异构图表征与学习者嵌入的知识追踪方法 | |
Giabbanelli et al. | Overcoming the PBL assessment challenge: Design and development of the incremental thesaurus for assessing causal maps (ITACM) | |
CN113705191A (zh) | 样本语句的生成方法、装置、设备及存储介质 | |
Muhammad et al. | GRL-LS: A learning style detection in online education using graph representation learning | |
CN115114974A (zh) | 一种模型蒸馏方法、装置、计算机设备和存储介质 | |
de Carvalho et al. | Intelligent tutoring system using expert knowledge and Kohonen maps with automated training | |
Mamcenko et al. | On using learning analytics to personalise learning in virtual learning environments | |
Green | Argumentation scheme-based argument generation to support feedback in educational argument modeling systems | |
Zhang et al. | Analysis of multimedia combination-assisted english teaching mode based on computer platform | |
Chrysafiadi et al. | ICALM: an intelligent mechanism for the creation of dynamically adaptive learning material | |
CN112052828B (zh) | 一种学习能力确定方法、装置及存储介质 | |
CN113469508B (zh) | 基于数据分析的个性化教育管理系统、方法、介质 | |
Fan et al. | Personalized recommendation algorithm for curriculum-and politics-oriented hybrid teaching resources | |
CN112052828A (zh) | 一种学习能力确定方法、装置及存储介质 | |
CN112749556B (zh) | 多语言模型的训练方法和装置、存储介质和电子设备 | |
Santamarıa-Bonfil et al. | A learning ecosystem for linemen training based on big data components and learning analytics | |
Terzieva et al. | Conceptual model of intelligent educational system and the need of big data analytics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |