CN112529155B - 动态知识掌握建模方法、建模系统、存储介质及处理终端 - Google Patents
动态知识掌握建模方法、建模系统、存储介质及处理终端 Download PDFInfo
- Publication number
- CN112529155B CN112529155B CN202011418200.0A CN202011418200A CN112529155B CN 112529155 B CN112529155 B CN 112529155B CN 202011418200 A CN202011418200 A CN 202011418200A CN 112529155 B CN112529155 B CN 112529155B
- Authority
- CN
- China
- Prior art keywords
- learner
- learning
- feature
- knowledge
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 135
- 238000012545 processing Methods 0.000 title claims abstract description 59
- 238000003860 storage Methods 0.000 title claims abstract description 7
- 230000004927 fusion Effects 0.000 claims abstract description 68
- 230000008569 process Effects 0.000 claims abstract description 47
- 230000006399 behavior Effects 0.000 claims abstract description 34
- 238000013139 quantization Methods 0.000 claims abstract description 20
- 238000012512 characterization method Methods 0.000 claims abstract description 17
- 239000013598 vector Substances 0.000 claims description 78
- 238000012360 testing method Methods 0.000 claims description 60
- 230000006870 function Effects 0.000 claims description 28
- 230000004044 response Effects 0.000 claims description 23
- 238000010276 construction Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 20
- 230000004913 activation Effects 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 16
- 238000009826 distribution Methods 0.000 claims description 8
- 238000011478 gradient descent method Methods 0.000 claims description 8
- 238000004140 cleaning Methods 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 6
- 230000006835 compression Effects 0.000 claims description 4
- 238000007906 compression Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 238000011161 development Methods 0.000 abstract description 8
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000002452 interceptive effect Effects 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 241000555745 Sciuridae Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000007786 learning performance Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 208000025174 PANDAS Diseases 0.000 description 1
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000036992 cognitive tasks Effects 0.000 description 1
- 238000013079 data visualisation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Tourism & Hospitality (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- Educational Administration (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于个性化学习技术领域,公开了一种动态知识掌握建模方法、建模系统、存储介质及处理终端,构建学习过程中影响学习者知识掌握状态及表现的学习资源画像指标和学习者画像指标;从在线学习平台中采集包含相应的学习者行为数据以及数字学习资源特征的数据集;对构建的学习资源画像指标和学习者画像指标进行学习者信息融合量化处理,得到浅层学习特征;利用堆叠自编码器对得到的浅层学习特征进行深度表征及融合,构建深度学习者特征;构建基于记忆与遗忘因素结合的动态知识掌握模型。本发明有利于提高学习者表现的预测精度,也为动态知识掌握建模领域发展提供了新的思路,助力该领域发展。
Description
技术领域
本发明属于个性化学习技术领域,尤其涉及一种动态知识掌握建模方法、建模系统、存储介质及处理终端。
背景技术
目前,随着互联网教育的蓬勃发展,各式各样的在线学习平台和教学系统接踵而至。但无论是线下教学模式还是线上教学方案,都会受到有限的教育资源的制约,导致教育者无法提供个性化的教学指导,学习者也无法获得个性化的学习服务。于是,研究人员试图通过人工智能领域相关的计算机技术来填补这项服务的空缺。从教育研究的角度来看,相比于面对面的课程而言,以在线学习系统为基础的研究将更具备优势。其中最显著的就是在线系统能利用记录下来的学习轨迹数据进行进一步地建模分析,这种改变为真正实现教学者的个性化辅导和学习者的个性化学习带来了一定的可能性。动态知识掌握建模就是其中一种用于学习者建模的主流方法,旨在随着时间的推移,通过观察学习者试题作答的正确情况以及回答问题时的所用时长等诸多的行为表现,确定出隐藏在学习者学习过程中的学习属性,推断出学习者在时间进程中的学习状态矩阵,从而对学习者的知识掌握情况进行动态预测。通过对学习者知识水平轨迹的预判,再根据学习者的不同表现进行诸如资料推荐、分数预测等个性化学习场景的服务。具体地来讲,动态知识掌握建模建立的是学习者的学习状态模型,通过学习者的行为表现动态地学习学习者在不同时刻下潜在的学习状态表示。模型所获得的学习状态表示最终可被看作是学习者在某时刻下对某类知识点的熟练掌握程度。
目前最主流的动态知识掌握建模方法分别是基于贝叶斯的知识掌握建模方法以及基于深度学习的知识掌握建模方法。基于贝叶斯的知识掌握建模方法核心是含有隐变量的马尔科夫模型。马尔科夫模型将学习者的知识空间用一组二进制变量进行表示,由学习者的作答情况建立马尔科夫模型,通过更新各个知识点二元隐变量的概率,从而预测含某知识点的试题能否做答正确。基于贝叶斯的知识掌握建模方法的优势在于可解释性较强,容易进行参数估计,对数据集较少的学习者也能有较好的预测表现。其劣势在于用二进制变量表示的方式限制了模型中试题的类型,并且其不考虑遗忘因素,假设学习者在学习过程中不会有遗忘,这和实际的学习过程是相违背的。通过认知任务分析的方式可以加以完善此类方法,但对教育专家的依赖性相对较高。
近年来,研究人员将循环神经网络(RNN,RecurrentNeuralNetwork)引入到动态知识掌握建模中,提出了基于深度学习的知识掌握建模方法,也使得动态知识掌握建模方法得到飞速发展。RNN所具备的高维度和连续性能对隐藏的学习状态空间表示发挥特殊的作用。基于深度学习的知识掌握建模方法不仅可以预测最近的学习情况,还可以对相对更晚的时间点的学习情况进行追踪预测,尤其是RNN的变种模型LSTM更是将这一特点发挥到极致。RNN和LSTM都可以作为根据学习者的历史做题记录进而预测学习者未来学习表现的可靠的学习模型,并较以往的动态知识掌握建模方法取得一定的突破。
传统动态知识掌握建模方法只考虑试题所包含的知识点以及学习者是否回答正确这两个学习因素,忽略了学习者学习过程中其他行为特征以及数字学习资源本身的属性特征,这既不符合实际的学习场景,也可能影响学习者表现预测的效果。
通过上述分析,现有技术存在的问题及缺陷为:
(1)基于深度学习的知识掌握建模方法忽略了学习者学习过程中其他行为特征以及数字学习资源本身的属性特征,既不符合实际的学习场景,也会导致表现预测输出结果不准确;
(2)现有的知识掌握建模方法未对学习者特征进行降维等操作,学习因素特征层面存在大量冗余信息和不相关信息。当学习交互达到一定数量后将会导致特征向量过大,从而导致学习者表现预测的效率低和精度低。
(3)学习过程中学习者的知识掌握情况是受到记忆和遗忘双重因素的影响而不断变化的。基于深度学习的知识掌握建模方法是的核心是RNN,虽然已有研究人员利用RNN的变种LSTM引入动态知识掌握建模任务中,但它们只考虑了记忆因素对学习者当前知识掌握情况及表现的影响,没有考虑记忆与遗忘双重因素的影响。
解决以上问题及缺陷的难度为:
(1)如何将更多影响学习者知识掌握情况及表现的学习因素充分融入动态知识掌握建模方法当中并得到充分表征,同时又精准预测学习者表现。
(2)如何在引入多个重要学习资源画像指标和学习者画像指标的同时解决输入维度增大导致训练时间陡增的问题。
(3)学习者过去在试题上的表现是一个记忆的累积过程,如何表征出学习过程中遗忘因素对学习者知识掌握情况及表现的影响。
解决以上问题及缺陷的意义为:
(1)本发明充分利用了在线学习平台中丰富的学习特征,并考虑了学习过程中记忆与遗忘双重因素的影响,更好地对学习者整个学习过程进行深层次的挖掘与表征。
(2)本发明公开了一种基于个性化学习特征深度融合的动态知识掌握建模方法来动态诊断学习者知识掌握情况,使得学习者的表现能够得到精准预测。对学习者来说,能更清晰自我认知结构,在线上自主学习中也能进行更有针对性的学习;对教育者来说,能够更好地进行教学干预和个性化教学,从而实现因材施教。
(3)本发明有利于提高学习者表现的预测精度,也为动态知识掌握建模领域发展提供了新的思路,助力该领域发展。
发明内容
针对现有技术存在的问题,本发明提供了一种动态知识掌握建模方法、建模系统、存储介质及处理终端。
本发明是这样实现的,一种基于个性化学习特征深度融合的动态知识掌握建模方法,所述基于个性化学习特征深度融合的动态知识掌握建模方法包括:
步骤一,基于建构主义学习理论,构建学习过程中影响学习者知识掌握状态及表现的学习资源画像指标和学习者画像指标;
步骤二,从在线学习平台中采集包含相应的学习者行为数据以及数字学习资源特征的数据集,并将数据集进行切分,得到相对较小数据量的数据集;同时对得到的数据集进行学习者数据清洗;
步骤三,对构建的学习资源画像指标和学习者画像指标进行学习者信息融合量化处理,得到浅层学习特征;利用堆叠自编码器对得到的浅层学习特征进行深度表征及融合,构建深度学习者特征;
步骤四,将学习过程中记忆与遗忘因素引入双向长短时记忆网络,构建基于记忆与遗忘因素结合的动态知识掌握模型。
进一步,步骤一中,所述学习资源画像指标包括:知识点特征和试题难度特征;所述学习者画像指标包括:正确性特征、尝试次数特征、查看提示特征以及响应时间特征。
进一步,步骤一中,所述基于建构主义学习理论,构建学习过程中影响学习者知识掌握状态及表现的学习资源画像指标和学习者画像指标包括:
(1)采集包含知识点组成成分或者SkillID相关信息的用于联系学习者和其曾练习试题的知识点特征;
(2)采集用于表征试题难度属性的试题难度特征;
(3)采集正确性特征;所述正确性特征为学习者答题的反应表征,采用二分类的输出表示形式进行训练,数值1代表试题作答正确,数值0代表试题作答错误;
(4)采集尝试次数特征;所述尝试次数特征用于表示学习者第一次正确回答某道试题时所需做题次数;所述尝试次数特征值越小,则学习者的知识点掌握程度越好,学习能力越强;
(5)采集查看提示特征;所述查看提示特征用于记录学习者在作答某道试题时在平台内寻求相关题目或知识点的官方提示的行为以及查看次数;存在查看提示特征的学习者在对应题上的表现行为良好;
(6)采集用于记录学习者回答试题时所耗费的时间的响应时间特征;所述响应时间越长表示学习者掌握程度越差。
进一步,步骤二中,所述对得到的数据集进行学习者数据清洗包括:
首先,将数据集中缺失的学习者行为数据进行零填充;并将数据集中格式为字符型的学习者行为数据重新编码成为整型;
其次,清洗去除数据集中明显不符合逻辑的学习者行为数据以及重复的学习者行为数据。
进一步,步骤三中,所述学习者信息融合量化处理包括:交叉特征处理、独热编码。
进一步,步骤三中,所述对构建的学习资源画像指标和学习者画像指标进行学习者信息融合量化处理,得到浅层学习特征包括:
(3.1)将采集的知识点特征、试题难度特征、尝试次数特征、查看提示特征、响应时间特征的数据处理为统一的数值类型,并转换成范畴特征;
(3.2)随机抽取两个范畴特征进行交叉特征处理,得到学习者联合特征;
所述交叉特征处理公式为:
C(qt,at)=qt+(max(q)+1)*at;
其中,qt表示t时刻学习者所答知识点,at表示t时刻学习者是否回答正确,max(q)表示在所有知识点特征的数据中的最大值,C(·)表示交叉特征;
(3.3)对得到的学习者联合特征进行One-Hot编码或者压缩感知处理,再进行串联,得到浅层学习者特征向量;
所述浅层学习者特征向量公式如下:
vt=O(C(qt,at))+’O(C(tt,at))
其中,qt表示t时刻学习者所答知识点,at表示t时刻学习者是否回答正确,tt表示t时刻答题所花费的时间;O(·)表示One-Hot编码;+’表示串联;vt表示t时刻学习者与试题交互形成的浅层学习者特征向量;
进一步,步骤(3.1)中,所述将采集的知识点特征、试题难度特征、尝试次数特征、查看提示特征、响应时间特征的数据处理为统一的数值类型,并转换成范畴特征包括:
(3.1.1)将数据集中响应时间特征的数据单元格式处理为秒,去除超过规定阈值的数据;
(3.1.2)对数据进行Z-Score分布处理转换为呈标准正态分布的数据,并对相应特征的数据进行分层处理,形成范畴特征;
(3.1.3)将转换为整型的学习行为数据的特征直接重新编码转为范畴特征;当特征已为较好的范畴特征则无需处理。
进一步,步骤(3.3)中,所述对得到的学习者联合特征进行One-Hot编码或者压缩感知处理包括:
当特征数较少、训练试题空间较小时,采取One-Hot编码转换为独热向量;
当特征数较多、训练试题空间较大时,采取对输入数据进行压缩的方法,通过压缩传感器将高维的输入向量压缩成低维的向量。
进一步,步骤三中,所述利用堆叠自编码器对得到的浅层学习特征进行深度表征及融合,构建深度学习者特征包括:
1)将得到的生包含学习资源画像指标和学习者画像指标的浅层学习特征向量V=(v1,v2,...,vt)输入到堆叠自编码器的第一个自编码器中,并得到第一个自编码器的输出公式如下:
h1=tanh(W1V+b1)
其中h1表示第一个编码器的隐藏层;W1表示输入层与第一个编码器的隐藏层间的权值矩阵;b1、b2表示相应的偏置向量;tanh表示激活函数;
2)将得到的第一个自编码器提取到的特征y~作为第二个自编码器的输入,经过第二个自编码器后产生输出z~,公式如下:
其中,h2表示第二个编码器的隐藏层;W2表示第一个编码器的输出层与第二个编码器的隐藏层间的权值矩阵;b3、b4表示相应的偏置向量;tanh表示激活函数;
3)采用梯度下降方法预先单独训练SAE权值,优化的目标函数为平方重构误差:
其中,ot表示实际输出,yt表示期望输出;
4)将训练好的SAE第二个自编码器隐藏层的输出作为构建的深度学习者特征向量。
进一步,步骤四中,所述将学习过程中记忆与遗忘因素引入双向长短时记忆网络,构建基于记忆与遗忘因素结合的动态知识掌握模型包括:
(4.1)将从SAE中构建的深度学习者特征向量即SAE第二个自编码器隐藏层的输出作为BiLSTM模型的输入;
(4.2)将深度学习者特征向量输入BiLSTM模型中,得到学习者过去学习轨迹所形成的潜在知识掌握情况以及学习者每一时刻的表现概率;
(4.3)通过对输出向量pt与下一时刻试题的One-Hot编码向量进行点乘提取目标预测;
根据预测输出和目标输出损失函数L表示为:
(4.4)添加l2范数正则化项对预测结果进行平滑化处理,损失函数如下:
(4.5)利用随机梯度下降法对权值进行更新。
进一步,步骤(4.2)中,所述将深度学习者特征向量输入BiLSTM模型中,得到学习者过去学习轨迹所形成的潜在知识掌握情况以及学习者每一时刻的表现概率包括:
(4.2.1)将深度学习者特征向量输入第一层长短时记忆网络模型,通过进行丢弃信息以及待更新值确定,确定更新的信息、更新细胞状态,得到学习者知识掌握情况信息;
所述丢弃信息确定公式如下:
ft=σ(Ef·[ht-1,xt]+mf)
所述待更新值确定公式如下:
it=σ(Ei·[ht-1,xt]+mi)
所述确定更新的信息:
所述更新细胞状态:
所述输出学习者知识掌握情况信息:
gt=σ(Eg·[ht-1,xt]+mg)
其中,t表示时刻;Ef,Ei,EC,Eg为权值矩阵;mf,mi,mC,mg为相应的偏执向量;σ,tanh为激活函数;
(4.2.2)将深度学习者特征向量输入第二层LSTM模型,得到第二层LSTM模型输出的学习者知识掌握情况;
公式如下:
ft’=σ(Ef’·[ht-1,xt]+mf’)
i’t=σ(Ei’·[ht-1,xt]+mi’)
g’t=σ(Eg’·[ht-1,xt]+mg’)
其中Ef’,Ei’,EU’,Eg’为权值矩阵,mf’,mi’,mU’,mg’为相应的偏执向量,σ,tanh为激活函数;
(4.2.3)基于得到的两层LSTM输出的学习者知识掌握情况得到学习者最终知识掌握情况,即t时刻学习者知识状态和表现概率为:
pt=Ehyht+mhy
其中Ehy为隐藏层和输出层的权值矩阵,mhy为相应的偏置向量。
本发明的另一目的在于提供一种实施所述基于个性化学习特征深度融合的动态知识掌握建模方法的基于个性化学习特征深度融合的动态知识掌握建模系统,所述基于个性化学习特征深度融合的动态知识掌握建模系统包括:
指标构建模块,用于基于建构主义学习理论,构建学习过程中影响学习者知识掌握状态及表现的学习资源画像指标和学习者画像指标;
学习者信息融合量化模块,用于对构建的学习者画像指标进行学习者信息融合量化处理,得到浅层学习特征;
深度学习者特征构建模块,用于利用堆叠自编码器将浅层学习特征进行深度表征及融合并构建深度学习者特征;
基于BiLSTM的动态知识掌握建模模块,用于构建基于记忆与遗忘因素结合的动态知识掌握建模模型。
本发明另一目的在于提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行所述基于个性化学习特征深度融合的动态知识掌握建模方法
本发明另一目的在于提供一种信息数据处理终端,所述信息数据处理终端用于实现所述的基于个性化学习特征深度融合的动态知识掌握建模方法。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:
本发明利用堆叠自编码器对这些浅层学习特征进行深度表征及融合,解决了因学习特征增多输入维度迅速升高、冗余信息增加、运算量增大的问题。
本发明引入双向长短时记忆网络进行动态知识掌握建模,构建基于记忆与遗忘因素结合的动态知识掌握模型来对学习者的知识掌握情况进行动态诊断,对学习者整个学习过程进行更深层次挖掘及表征并对学习者学习表现进行精准预测。本发明充分利用了在线学习平台丰富的学习特征,并将其深度融入动态知识掌握建模方法中,从而深度挖掘及表征学习者的学习过程。本发明也能使学习者更清晰自我认知结构,帮助其在线上学习时进行更有针对性的学习,教育者也更好地进行教学干预和个性化教学。
本发明公开了一种基于个性化学习特征深度融合的动态知识掌握建模方法来动态诊断学习者知识掌握情况,使得学习者的表现能够得到精准预测。对学习者来说,能更清晰自我的认知结构,在线上自主学习中也能进行更有针对性的学习;对教育者来说,能够更好地对学习者进行教学干预和个性化教学,从而实现因材施教。
本发明有利于提高学习者表现的预测精度,也为动态知识掌握建模领域发展提供了新的思路,助力该领域发展。
本发明相较于其他知识掌握建模方法在预测性能方面有较大的提升。本发明融合了更丰富的学习因素,并让这些学习因素更好更充分地表征及融合,从而对整个学习过程进行了更深层地挖掘与表征,也使得学习者更加清晰其知识结构,从而更好地进行有针对性的和个性化的学习。
本发明可以应用于课程优化、知识图谱、个性化教学等领域,帮助在线平台推荐更合适的学习序列以及进一步发现交互数据中知识的潜在依赖关系,从而提高学习者的学习效率。
本发明提出的基于个性化学习特征深度融合的动态知识掌握建模方法融合了多种学习因素动态诊断学习者知识掌握状态并预测学习者下一次交互的表现,预测性能明显优于基于其他知识掌握建模方法,实验表明在AUC和R2等方面,本发明提出的基于个性化学习特征深度融合的动态知识掌握建模方法比其他知识掌握建模方法更有效。
对比的技术效果或者实验效果。包括:
本发明将基于个性化学习特征深度融合的动态知识掌握建模方法与其他知识掌握建模方法进行对比,对比指标曲线下面积AUC和皮尔逊相关系数的平方R2,其计算方法为:
其中,代表第i条样本的序号,M,N分别是正样本的个数和负样本的个数,表示把正样本的序号加起来,y为待拟合数值,其均值为拟合值为AUC和R2为学习者表现评估预测提供了可靠的指标,其中预测值为0或1也代表了建模性能的不同信息。0.5000的AUC代表随机可获得的得分,较高的AUC分数代表更高的准确性。R2是隐变量观测值与预测值之间皮尔逊相关系数的平方。
我们将本方法与其他知识掌握建模方法进行了比较。为了公平地进行比较,所有这些方法都被调整为具有最佳性能,一种基于个性化学习特征深度融合的动态知识掌握建模方法与其他知识掌握建模方法在数据集A和数据集S下的AUC、R2对比结果如表1、图5、表2和图6所示。
表1数据集A实验结果对比
表2数据集S实验结果对比
由实验结果可知:在数据集A和数据集S中,考虑记忆与遗忘因素,利用双向LSTM进行学习者表现预测,AUC较传统知识掌握建模方法提升了3%和6%,R2提升了0.049和0.005。若融合更多的学习者画像指标,AUC又提升了5%和1%,R2又提升了0.1和0.027。再利用堆叠自编码器进行了深度学习者特征提取的话,AUC又提升了6.7%和3.9%,R2又提升了0.211和0.0058。说明考虑更多学习因素是有利于更好地表征学习者的学习过程的,堆叠自编码器的加入可以使得学习资源指标和学习者画像指标更好地进行表征和融合。本发明提出的基于个性化学习特征深度融合的动态知识掌握建模方法融合了多种学习因素来动态诊断学习者知识掌握状态并预测学习者下一次交互的表现,预测性能明显优于基于其他知识掌握建模方法,实验表明在AUC和R2等方面,本发明提出的基于个性化学习特征深度融合的动态知识掌握建模方法比其他知识掌握建模方法更有效,总之,本方法具有最佳的实验效果。
综上,本发明提供的基于个性化学习特征深度融合的动态知识掌握建模方法及系统实现了更为精准的学习者表现预测,该方法融合了学习过程中影响学习者知识状态及表现的多种学习资源指标和学习者画像指标,利用堆叠自编码器对学习资源指标和学习者画像指标进行深度表征及融合并构建深度学习者特征,最后考虑学习过程中记忆与遗忘因素,引入BiLSTM进行动态知识掌握建模,构建基于记忆与遗忘因素结合的动态知识掌握模型,从而更好地对学习者的知识掌握情况进行动态诊断并预测学习者下一次交互的表现,也更好地对整个学习过程进行更深层次地挖掘与表征,学习者在线上自主学习中也能更好地进行知识状态预测和有针对性的学习。该方法可以应用于课程优化、知识图谱、个性化学习等领域,帮助在线学习平台推荐更合适的学习序列以及进一步发现交互数据中知识的潜在依赖关系,从而提高学习者的学习效率。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图做简单的介绍,显而易见地,下面所描述的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于个性化学习特征深度融合的动态知识掌握建模方法原理图。
图2是本发明实施例提供的基于个性化学习特征深度融合的动态知识掌握建模方法流程图。
图3是本发明实施例提供的基于个性化学习特征深度融合的动态知识掌握建模系统结构示意图;
图中:1、指标构建模块;2、学习者信息融合量化模块;3、深度学习者特征构建模块;4、基于BiLSTM的动态知识掌握建模模块。
图4是本发明实施例提供的堆叠自编码器示意图。
图5是本发明实施例提供的数据集A实验结果对比示意图。
图6是本发明实施例提供的数据集S实验结果对比示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种基于个性化学习特征深度融合的动态知识掌握建模方法,下面结合附图对本发明作详细的描述。
本发明涉及的符号如下:
如图1-图2所示,本发明实施例提供的基于个性化学习特征深度融合的动态知识掌握建模方法包括以下步骤:
S101,基于建构主义学习理论,构建学习过程中影响学习者知识掌握状态及表现的学习资源画像指标和学习者画像指标;
S102,从在线学习平台中采集包含相应的学习者行为数据以及数字学习资源特征的数据集,并将数据集进行切分,得到相对较小数据量的数据集;同时对得到的数据集进行学习者数据清洗;
S103,对构建的学习资源画像指标和学习者画像指标进行学习者信息融合量化处理,得到浅层学习特征;利用堆叠自编码器对得到的浅层学习特征进行深度表征及融合,构建深度学习者特征;
S104,将学习过程中记忆与遗忘因素引入双向长短时记忆网络,构建基于记忆与遗忘因素结合的动态知识掌握模型。
步骤S101中,本发明实施例提供的学习资源画像指标包括:知识点特征和试题难度特征;所述学习者画像指标包括:正确性特征、尝试次数特征、查看提示特征以及响应时间特征。
步骤S101中,本发明实施例提供的基于建构主义学习理论,构建学习过程中影响学习者知识掌握状态及表现的学习资源画像指标和学习者画像指标包括:
(1)采集包含知识点组成成分或者SkillID相关信息的用于联系学习者和其曾练习试题的知识点特征;
(2)采集用于表征试题难度属性的试题难度特征;
(3)采集正确性特征;所述正确性特征为学习者答题的反应表征,采用二分类的输出表示形式进行训练,数值1代表试题作答正确,数值0代表试题作答错误;
(4)采集尝试次数特征;所述尝试次数特征用于表示学习者第一次正确回答某道试题时所需做题次数;所述尝试次数特征值越小,则学习者的知识点掌握程度越好,学习能力越强;
(5)采集查看提示特征;所述查看提示特征用于记录学习者在作答某道试题时在平台内寻求相关题目或知识点的官方提示的行为以及查看次数;存在查看提示特征的学习者在对应题上的表现行为良好;
(6)采集用于记录学习者回答试题时所耗费的时间的响应时间特征;所述响应时间越长表示学习者掌握程度越差。
步骤S101中,本发明实施例提供的对得到的数据集进行学习者数据清洗包括:
首先,将数据集中缺失的学习者行为数据进行零填充;并将数据集中格式为字符型的学习者行为数据重新编码成为整型;
其次,清洗去除数据集中明显不符合逻辑的学习者行为数据以及重复的学习者行为数据。
步骤S103中,本发明实施例提供的学习者信息融合量化处理包括:交叉特征处理、独热编码。
步骤S103中,本发明实施例提供的对构建的学习资源画像指标和学习者画像指标进行学习者信息融合量化处理,得到浅层学习特征包括:
(3.1)将采集的知识点特征、试题难度特征、尝试次数特征、查看提示特征、响应时间特征的数据处理为统一的数值类型,并转换成范畴特征;
(3.2)随机抽取两个范畴特征进行交叉特征处理,得到学习者联合特征;
所述交叉特征处理公式为:
C(qt,at)=qt+(max(q)+1)*at;
其中,qt表示t时刻学习者所答知识点,at表示t时刻学习者是否回答正确,max(q)表示在所有知识点特征的数据中的最大值,C(·)表示交叉特征;
(3.3)对得到的学习者联合特征进行One-Hot编码或者压缩感知处理,再进行串联,得到浅层学习者特征向量;
所述浅层学习者特征向量公式如下:
vt=O(C(qt,at))+’O(C(tt,at))
其中,qt表示t时刻学习者所答知识点,at表示t时刻学习者是否回答正确,tt表示t时刻答题所花费的时间;O(·)表示One-Hot编码;+’表示串联;vt表示t时刻学习者与试题交互形成的浅层学习者特征向量;
步骤(3.1)中,本发明实施例提供的将采集的知识点特征、试题难度特征、尝试次数特征、查看提示特征、响应时间特征的数据处理为统一的数值类型,并转换成范畴特征包括:
(3.1.1)将数据集中响应时间特征的数据单元格式处理为秒,去除超过规定阈值的数据;
(3.1.2)对数据进行Z-Score分布处理转换为呈标准正态分布的数据,并对相应特征的数据进行分层处理,形成范畴特征;
(3.1.3)将转换为整型的学习行为数据的特征直接重新编码转为范畴特征;当特征已为较好的范畴特征则无需处理。
步骤(3.3)中,本发明实施例提供的对得到的学习者联合特征进行One-Hot编码或者压缩感知处理包括:
当特征数较少、训练试题空间较小时,采取One-Hot编码转换为独热向量;
当特征数较多、训练试题空间较大时,采取对输入数据进行压缩的方法,通过压缩传感器将高维的输入向量压缩成低维的向量。
步骤S103中,本发明实施例提供的利用堆叠自编码器对得到的浅层学习特征进行深度表征及融合,构建深度学习者特征包括:
1)将得到的生包含学习资源画像指标和学习者画像指标的浅层学习特征向量V=(v1,v2,...,vt)输入到堆叠自编码器的第一个自编码器中,并得到第一个自编码器的输出y~,公式如下:
h1=tanh(W1V+b1)
其中h1表示第一个编码器的隐藏层;W1表示输入层与第一个编码器的隐藏层间的权值矩阵;b1、b2表示相应的偏置向量;tanh表示激活函数;
2)将得到的第一个自编码器提取到的特征作为第二个自编码器的输入,经过第二个自编码器后产生输出公式如下:
其中,h2表示第二个编码器的隐藏层;W2表示第一个编码器的输出层与第二个编码器的隐藏层间的权值矩阵;b3、b4表示相应的偏置向量;tanh表示激活函数;
3)采用梯度下降方法预先单独训练SAE权值,优化的目标函数为平方重构误差:
其中,ot表示实际输出,yt表示期望输出;
4)将训练好的SAE第二个自编码器隐藏层的输出作为构建的深度学习者特征向量。
步骤S104中,本发明实施例提供的将学习过程中记忆与遗忘因素引入双向长短时记忆网络,构建基于记忆与遗忘因素结合的动态知识掌握模型包括:
(4.1)将从SAE中构建的深度学习者特征向量即SAE第二个自编码器隐藏层的输出作为BiLSTM模型的输入;
(4.2)将深度学习者特征向量输入BiLSTM模型中,得到学习者过去学习轨迹所形成的潜在知识掌握情况以及学习者每一时刻的表现概率;
(4.3)通过对输出向量pt与下一时刻试题的One-Hot编码向量进行点乘提取目标预测;
根据预测输出和目标输出损失函数L表示为:
(4.4)添加l2范数正则化项对预测结果进行平滑化处理,损失函数如下:
(4.5)利用随机梯度下降法对权值进行更新。
步骤(4.2)中,本发明实施例提供的将深度学习者特征向量输入BiLSTM模型中,得到学习者过去学习轨迹所形成的潜在知识掌握情况以及学习者每一时刻的表现概率包括:
(4.2.1)将深度学习者特征向量输入第一层长短时记忆网络模型,通过进行丢弃信息以及待更新值确定,确定更新的信息、更新细胞状态,得到学习者知识掌握情况信息;
所述丢弃信息确定公式如下:
ft=σ(Ef·[ht-1,xt]+mf)
所述待更新值确定公式如下:
it=σ(Ei·[ht-1,xt]+mi)
所述确定更新的信息:
所述更新细胞状态:
所述输出学习者知识掌握情况信息:
gt=σ(Eg·[ht-1,xt]+mg)
其中,t表示时刻;Ef,Ei,EC,Eg为权值矩阵;mf,mi,mC,mg为相应的偏执向量;σ,tanh为激活函数;
(4.2.2)将深度学习者特征向量输入第二层LSTM模型,得到第二层LSTM模型输出的学习者知识掌握情况;
公式如下:
ft’=σ(Ef’·[ht-1,xt]+mf’)
i’t=σ(Ei’·[ht-1,xt]+mi’)
g’t=σ(Eg’·[ht-1,xt]+mg')
其中Ef’,Ei’,EU’,Eg’为权值矩阵,mf’,mi’,mU’,mg’为相应的偏执向量,σ,tanh为激活函数;
(4.2.3)基于得到的两层LSTM输出的学习者知识掌握情况得到学习者最终知识掌握情况,即t时刻学习者知识状态和表现概率为:
pt=Ehyht+mhy
其中Ehy为隐藏层和输出层的权值矩阵,mhy为相应的偏置向量。
如图3所示,本发明实施例提供的基于个性化学习特征深度融合的动态知识掌握建模系统包括:
指标构建模块1,用于基于建构主义学习理论,构建学习过程中影响学习者知识掌握状态及表现的学习资源画像指标和学习者画像指标;
学习者信息融合量化模块2,用于对构建的学习者画像指标进行学习者信息融合量化处理,得到浅层学习特征;
深度学习者特征构建模块3,用于利用堆叠自编码器将浅层学习特征进行深度表征及融合并构建深度学习者特征;
基于BiLSTM的动态知识掌握建模模块4,用于构建基于记忆与遗忘因素结合的动态知识掌握建模模型。
下面结合具体实施例对本发明的技术效果作进一步描述。
实施例1:
基于个性化学习特征深度融合的动态知识掌握建模方法及系统具体包括:
(1)基于建构主义学习理论,制定学习过程中影响学习者知识掌握情况及表现的学习资源画像指标以及学习者画像指标,并从在线学习平台中采集相应的学习者行为数据以及数字学习资源特征。
(2)对构建的学习资源画像指标和学习者画像指标进行学习者信息融合量化操作包括交叉特征处理、独热编码等,从而形成浅层学习特征。
(3)利用堆叠自编码器对浅层学习特征进行深度表征及融合,从而构建深度学习者特征。
(4)考虑学习过程中记忆与遗忘因素,引入双向长短时记忆网络进行动态知识掌握建模,构建基于记忆与遗忘因素结合的动态知识掌握模型来对学习者的知识掌握情况进行动态诊断。
作为本发明优选实施例。基于建构主义学习理论,制定学习过程中影响学习者知识掌握情况及表现的学习资源画像指标以及学习者画像指标,并从在线学习平台中采集相应的学习者行为数据以及数字学习资源特征,具体包括:
步骤1.1:从基于计算机的学习系统ASSISTments中的ASSISTmentsskillbuilder问题集中采集2009-2010ASSISTments数据集以及从松鼠AI智适应在线学习平台采集SONGSHUAI数据集。步骤1.1进一步包括:
步骤1.1.1:根据研究人员在使用2009-2010ASSISTments数据集进行动态知识掌握建模研究时发现的问题,对数据集进行重新划分后得到新的数据集(以下简称“数据集A”)。
步骤1.1.2:将SONGSHUAI数据集进行切分,得到相对较小数据量的数据集(以下简称“数据集S”)。对其中数据集A和数据集S的基础信息如下表3。
表3数据集A和数据集S的基础信息
基础信息 | 数据集A | 数据集S |
学习者与试题的交互数据量 | 401757条 | 122786条 |
知识点数量 | 124个 | 1055个 |
学生数量 | 4217个 | 18512个 |
知识点特征 | √ | √ |
正确性特征 | √ | √ |
试题难度特征 | √ | |
尝试次数特征 | √ | |
查看提示特征 | √ | √ |
响应时间特征 | √ | √ |
步骤1.2:对数据集A和S进行学习者数据清洗。步骤1.2进一步包括:
步骤1.2.1:将两个数据集中缺失的学习者行为数据进行零填充。
步骤1.2.2:将数据集S中格式为字符型的学习者行为数据重新编码成为整型,便于之后的特征处理。
步骤1.2.3:清洗掉数据集A和S中明显不符合逻辑如正确性特征数据值不为0和1的数据。
步骤1.2.4:清洗数据集中重复的学习者行为数据。
步骤1.3:基于建构至于学习理论,制定学习过程中影响学习者知识掌握情况及表现的学习资源画像指标以及学习者画像指标。步骤1.3进一步包括:
步骤1.3.1:采集知识点特征;该特征提供了知识点组成成分或者SkillID的相关信息,通过这个特征可以将学习者和其练习过的试题联系起来。
步骤1.3.2:采集试题难度特征;该特征体现的是试题本身所具有的难度属性,在难度越高的试题上表现良好,学习者知识掌握程度越好。
步骤1.3.3:采集正确性特征;该特征是学习者答题的反应表征,采用二分类的输出表示形式进行训练,数值1代表试题作答正确,数值0代表试题作答错误。
步骤1.3.4:采集尝试次数特征;该特征记录的是学习者第一次正确回答某道试题时所需要的做题次数,次数越少证明学习者的知识点掌握程度越好,学习能力越强。
步骤1.3.5:采集查看提示特征;该特征对学习者在作答某道试题的时候是否在平台内寻求了相关题目或知识点的官方提示以及查看次数进行了严格的记录,有查看提示行为的学习者在该题上的表现行为会良好。
步骤1.3.6:采集响应时间特征;该特征记录了学习者回答试题时所耗费的时间,时间较长证明学习者对该题及其知识点的掌握程度欠佳。
作为本发明优选实施例。步骤S102对构建的学习资源画像指标和学习者画像指标进行学习者信息融合量化操作包括交叉特征处理、独热编码等,从而形成浅层学习特征包括:
步骤2.1:将收集到的知识点特征、试题难度特征、尝试次数特征、查看提示特征、响应时间特征的数据处理成统一的数值类型,再将其转换成范畴特征,以简化模型输入。步骤2.1进一步包括:
步骤2.1.1:数据集S中知识点特征数据为字符类型,不利于后续特征处理,将其重新编码转成数值类型。
步骤2.1.2:松鼠AI原数据集中已经把试题难度标签分为了0-9这十个层次,数据集S中含有2,3,5,7,8,9六个层次,但还是将其分为0-9十个层次。
步骤2.1.3:正确性特征在原数据集中已经是很好的范畴特征,只有0和1两个值,因此不需要此步处理。
步骤2.1.4:数据集A中尝试次数特征数据比较宽泛,最多的尝试次数为3824次。将尝试次数特征数据分为3层,0次为0,1次为1,大于2次的都为2。
步骤2.1.5:数据集A中查看提示特征为查看提示的次数,该数据集已经将查看提示特征数据分为0-10这十一个特征。数据集S中查看提示特征为是否查看提示,只有0和1两个值,因此分为0和1两层。
步骤2.1.6:数据集A和S中响应时间标签的单元格式都为毫秒,首先将其单元格式变为秒,即除以1000;再去掉超过规定阈值的数据(数据集A设定的为800秒,数据集A设定的为400秒);再对数据进行Z-Score分布处理,即将数据变为呈标准正态分布的数据集;最后对此数据进行分层处理形成范畴特征。小于-0.8作为0,在-0.8~-0.6之间为1,在-0.6~0之间为2,大于0为3。
步骤2.2:利用范畴特征构造交叉特征,形成学习者联合特征,降低模型的复杂性。步骤2.2进一步包括:
步骤2.2.1:随机抽取两个范畴特征进行交叉特征处理,公式如下,从而形成学习者联合特征。
C(qt,at)=qt+(max(q)+1)*at
其中qt代表t时刻学习者所答知识点,at代表t时刻学习者是否回答正确,max(q)代表在所有知识点特征的数据中的最大值,C(·)代表交叉特征。
步骤2.3:动知识掌握态建模方法的输入序列需要长度固定的向量,因此对学习者联合特征首先进行One-Hot编码或者压缩感知处理,再进行简单的串联。对于特征数较少、训练试题空间较小的情况下,会采取先经过One-Hot编码以转换为独热向量,然后才被真正输入到神经网络模型之中的方式。对于特征数较多、训练试题空间较大的情况下,会采取对输入数据进行压缩的方法,通过压缩传感器将高维的输入向量压缩成低维的向量。以数据集A为例,其124个知识点可以构建出248组序列数据:(0,0),(0,1),(1,0),(1,1),(2,0),(2,1),(3,0),(3,1),...,(121,0),(121,1),(122,0),(122,1),(123,0),(123,1)。再通过独热编码方法对这些序列进行编码转化,例如:(0,0)可以通过编码转换为(1,0,0,0,...,0,0,0,0),(123,1)可以通过编码转换为(0,0,0,0,...,0,0,1,0),直到所有的248个特征全部编码完毕。最后根据特征组合的规律可以得到,基于个性化学习特征深度融合的动态知识掌握建模方法的输出是一个n*124的网络结构模型,其中,n是所有序列的长度之和。最终形成的浅层学习者特征向量如下公式:
vt=O(C(qt,at))+’O(C(tt,at))
其中,qt表示t时刻学习者所答知识点,at表示t时刻学习者是否回答正确,tt表示t时刻答题所花费的时间;O(·)表示One-Hot编码;+’表示串联;vt表示t时刻学习者与试题交互形成的浅层学习者特征向量;
作为本发明优选实施例。步骤S103利用堆叠自编码器对浅层学习特征进行深度表征及融合,从而构建深度学习者特征包括:
步骤3.1:堆叠自编码器结构如图4所示。在动态知识掌握建模任务中,1到t-1时刻学习者与试题进行交互,经过上述步骤产生包含学习资源画像指标和学习者画像指标的浅层学习特征向量V=(v1,v2,...,vt),并将其输入到第一个自编码器,并得到第一个自编码器的输出y~,公式如下:
h1=tanh(W1V+b1)
其中h1为第一个编码器的隐藏层,W1为输入层与第一个编码器的隐藏层间的权值矩阵,b1、b2为相应的偏置向量,tanh为激活函数。
步骤3.2:将第一个自编码器提取到的特征作为第二个自编码器的输入,经过第二个自编码器后产生输出公式如下:
其中h2为第二个编码器的隐藏层,W2为第一个编码器的输出层与第二个编码器的隐藏层间的权值矩阵,b3、b4为相应的偏置向量,tanh为激活函数。
步骤3.3:考虑到SAE与后续提到的BiLSTM一起训练,SAE权值的微调会导致参数的增加从而导致过渡拟合。因此,预先单独训练SAE,参数的权值采用梯度下降方法进行训练,优化的目标函数为平方重构误差:
其中ot为实际输出,yt为期望输出。
步骤3.4:堆叠自编码器单独做训练时,超参数设置如下表4所示:
表4SAE训练时超参数设置
num_step | 30 |
batchsize | 300 |
epoch | 5 |
learningrate | 0.005 |
步骤3.5:将训练好的SAE第二个自编码器隐藏层的输出作为构建的深度学习者特征向量。
作为本发明优选实施例。步骤S104考虑学习过程中记忆与遗忘因素,引入双向长短时记忆网络进行动态知识掌握建模,构建基于记忆与遗忘因素结合的动态知识掌握模型来对学习者的知识掌握情况进行动态诊断包括:
步骤4.1:将从SAE中构建的深度学习者特征向量作为BiLSTM模型的输入,即将SAE第二个自编码器隐藏层的输出作为BiLSTM模型的输入。值得注意的是,经过步骤3.3和3.5可知,由于SAE预先单独训练,因此构建BiLSTM模型输入特征向量时,使用的权重是预先训练好的权重,此过程权重保持不变。
步骤4.2:将深度学习者特征向量输入BiLSTM模型中,获得学习者过去学习轨迹所形成的潜在知识掌握情况以及学习者每一时刻的表现概率。步骤4.2进一步包括。
步骤4.2.1:深度学习者特征向量输入第一层长短时记忆网络(LSTM,Long-ShortTermMemory)模型时,t时刻,决定丢弃何种信息:
ft=σ(Ef·[ht-1,xt]+mf)
决定什么值将要更新:
it=σ(Ei·[ht-1,xt]+mi)
确定更新的信息:
更新细胞状态:
输出学习者知识掌握情况信息:
gt=σ(Eg·[ht-1,xt]+mg)
ht 1=gt·tanh(Ut)
其中Ef,Ei,EC,Eg为权值矩阵,mf,mi,mC,mg为相应的偏执向量,σ,tanh为激活函数。
步骤4.2.2:深度学习者特征向量输入第二层LSTM模型时,与步骤4.2.1同理,只不过t时刻学习者的知识掌握状态和t+1时刻相关,同理得到第二层LSTM模型输出的学习者知识掌握情况。
ft’=σ(Ef’·[ht-1,xt]+mf’)
i’t=σ(Ei’·[ht-1,xt]+mi’)
g’t=σ(Eg’·[ht-1,xt]+mg’)
其中Ef’,Ei’,EU’,Eg’为权值矩阵,mf’,mi’,mU’,mg’为相应的偏执向量,σ,tanh为激活函数;
步骤4.2.3:最终学习者知识掌握情况与两层LSTM输出的学习者知识掌握情况都有关,即t时刻学习者知识状态和表现概率为:
pt=Ehyht+mhy
其中Ehy为隐藏层和输出层的权值矩阵,mhy为相应的偏置向量。
步骤4.3:模型目标是预测下一个交互性能,因此通过对输出向量pt与下一时刻试题的One-Hot编码向量进行点乘来提取目标预测。根据预测输出和目标输出损失函数L可表示为:
步骤4.4:添加l2范数正则化项使得预测结果更加平滑,则损失函数为:
步骤4.5:模型使用随机梯度下降法对权值进行更新。实验对模型的超参数设置如表5所示:
表5数据集A和S实验超参数设置
除此之外,实验选择采用5折交叉检验法对模型进行训练。将循环神经网络的隐藏层节点数设置为200,并且将dropout的概率设置为0.5,学习率设置为0.05。
步骤1.12:实验过程中,主要开发平台包含了深度学习框架Tensorflow,机器学习算法库Scikit-learn,以及集成了多个科学计算包的Python的发行版本Anaconda。实验过程中,在模型建立、数据处理、训练模型和数据可视化等环节上都使用了Python这门编程语言进行设计和实现。有关设备工具的规格参数和具体使用到的科学计算包的种类都在下表6中进行了展示。
表6实验配置环境
配置环境 | 配置参数 |
操作系统 | Windows |
内存 | 8G |
编程语言 | Python |
深度学习框架 | Tensorflow |
Python库 | Numpy,Pandas,Matplotlib |
本发明将基于个性化学习特征深度融合的动态知识掌握建模方法与其他知识掌握建模方法进行对比,对比指标曲线下面积AUC和皮尔逊相关系数的平方R2,其计算方法为:
其中,代表第ii条样本的序号,M,N分别是正样本的个数和负样本的个数,表示把正样本的序号加起来,y为待拟合数值,其均值为拟合值为AUC和R2为学习者表现评估预测提供了可靠的指标,其中预测值为0或1也代表了建模性能的不同信息。0.5000的AUC代表随机可获得的得分,较高的AUC分数代表更高的准确性。R2是隐变量观测值与预测值之间皮尔逊相关系数的平方。
我们将本方法与其他知识掌握建模方法进行了比较。为了公平地进行比较,所有这些方法都被调整为具有最佳性能,一种基于个性化学习特征深度融合的动态知识掌握建模方法与其他知识掌握建模方法在数据集A和数据集S下的AUC、R2对比结果如表7、图5、表8和图6所示。
表7数据集A实验结果对比
表8数据集S实验结果对比
由实验结果可知:在数据集A和数据集S中,考虑记忆与遗忘因素,利用双向LSTM进行学习者表现预测,AUC较传统知识掌握建模方法提升了3%和6%,R2提升了0.049和0.005。若融合更多的学习者画像指标,AUC又提升了5%和1%,R2又提升了0.1和0.027。再利用堆叠自编码器进行了深度学习者特征提取的话,AUC又提升了6.7%和3.9%,R2又提升了0.211和0.0058。说明考虑更多学习因素是有利于更好地表征学习者的学习过程的,堆叠自编码器的加入可以使得学习资源指标和学习者画像指标更好地进行表征和融合。本发明提出的基于个性化学习特征深度融合的动态知识掌握建模方法融合了多种学习因素来动态诊断学习者知识掌握状态并预测学习者下一次交互的表现,预测性能明显优于基于其他知识掌握建模方法,实验表明在AUC和R2等方面,本发明提出的基于个性化学习特征深度融合的动态知识掌握建模方法比其他知识掌握建模方法更有效,总之,本方法具有最佳的实验效果。
综上,本发明提供的基于个性化学习特征深度融合的动态知识掌握建模方法及系统实现了更为精准的学习者表现预测,该方法融合了学习过程中影响学习者知识状态及表现的多种学习资源指标和学习者画像指标,利用堆叠自编码器对学习资源指标和学习者画像指标进行深度表征及融合并构建深度学习者特征,最后考虑学习过程中记忆与遗忘因素,引入BiLSTM进行动态知识掌握建模,构建基于记忆与遗忘因素结合的动态知识掌握模型,从而更好地对学习者的知识掌握情况进行动态诊断并预测学习者下一次交互的表现,也更好地对整个学习过程进行更深层次地挖掘与表征,学习者在线上自主学习中也能更好地进行知识状态预测和有针对性的学习。该方法可以应用于课程优化、知识图谱、个性化学习等领域,帮助在线学习平台推荐更合适的学习序列以及进一步发现交互数据中知识的潜在依赖关系,从而提高学习者的学习效率。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。
Claims (4)
1.一种基于个性化学习特征深度融合的动态知识掌握建模方法,其特征在于,所述基于个性化学习特征深度融合的动态知识掌握建模方法包括:
构建学习过程中影响学习者知识掌握状态及表现的学习资源画像指标和学习者画像指标;
从在线学习平台中采集包含相应的学习者行为数据以及数字学习资源特征的数据集,并将数据集进行切分,得到相对较小数据量的数据集;同时对得到的数据集进行学习者数据清洗;
对构建的学习资源画像指标和学习者画像指标进行学习者信息融合量化处理,得到浅层学习特征;利用堆叠自编码器对得到的浅层学习特征进行深度表征及融合,构建深度学习者特征;
将学习过程中记忆与遗忘因素引入双向长短时记忆网络,构建基于记忆与遗忘因素结合的动态知识掌握模型;
所述学习资源画像指标包括:知识点特征和试题难度特征;所述学习者画像指标包括:正确性特征、尝试次数特征、查看提示特征以及响应时间特征;
所述基于建构主义学习理论,构建学习过程中影响学习者知识掌握状态及表现的学习资源画像指标和学习者画像指标包括:
(1)采集包含知识点组成成分或者SkillID相关信息的用于联系学习者和其曾练习试题的知识点特征;
(2)采集用于表征试题难度属性的试题难度特征;
(3)采集正确性特征;所述正确性特征为学习者答题的反应表征,采用二分类的输出表示形式进行训练,数值1代表试题作答正确,数值0代表试题作答错误;
(4)采集尝试次数特征;所述尝试次数特征用于表示学习者第一次正确回答某道试题时所需做题次数;所述尝试次数特征值越小,则学习者的知识点掌握程度越好,学习能力越强;
(5)采集查看提示特征;所述查看提示特征用于记录学习者在作答某道试题时在平台内寻求相关题目或知识点的官方提示的行为以及查看次数;存在查看提示特征的学习者在对应题上的表现行为良好;
(6)采集用于记录学习者回答试题时所耗费的时间的响应时间特征;所述响应时间越长表示学习者掌握程度越差;
所述对得到的数据集进行学习者数据清洗包括:
首先,将数据集中缺失的学习者行为数据进行零填充;并将数据集中格式为字符型的学习者行为数据重新编码成为整型;
其次,清洗去除数据集中明显不符合逻辑的学习者行为数据以及重复的学习者行为数据;
所述学习者信息融合量化处理包括:交叉特征处理、One-Hot编码、串联;
所述对构建的学习资源画像指标和学习者画像指标进行学习者信息融合量化处理,得到浅层学习特征包括:
(3.1)将采集的知识点特征、试题难度特征、尝试次数特征、查看提示特征、响应时间特征的数据处理为统一的数值类型,并转换成范畴特征;
(3.2)随机抽取两个范畴特征进行交叉特征处理,得到学习者联合特征;
所述交叉特征处理公式为:
C(qt,at)=qt+(max(q)+1)*at;
其中,qt表示t时刻学习者所答知识点,at表示t时刻学习者是否回答正确,max(q)表示在所有知识点特征的数据中的最大值,C(·)表示交叉特征;
(3.3)对得到的学习者联合特征进行One-Hot编码或者压缩感知处理,再进行串联,得到浅层学习者特征向量;
所述浅层学习者特征向量公式如下:
vt=O(C(qt,at))+'O(C(tt,at))
其中,qt表示t时刻学习者所答知识点,at表示t时刻学习者是否回答正确,tt表示t时刻答题所花费的时间;O(·)表示One-Hot编码;+’表示串联;vt表示t时刻学习者与试题交互形成的浅层学习者特征向量;
步骤(3.1)中,所述将采集的知识点特征、试题难度特征、尝试次数特征、查看提示特征、响应时间特征的数据处理为统一的数值类型,并转换成范畴特征包括:
(3.1.1)将数据集中响应时间特征的数据单元格式处理为秒,去除超过规定阈值的数据;
(3.1.2)对数据进行Z-Score分布处理转换为呈标准正态分布的数据,并对相应特征的数据进行分层处理,形成范畴特征;
(3.1.3)将转换为整型的学习行为数据的特征直接重新编码转为范畴特征;当特征已为较好的范畴特征则无需处理;
步骤(3.3)中,所述对得到的学习者联合特征进行One-Hot编码或者压缩感知处理包括:
当特征数较少、训练试题空间较小时,采取One-Hot编码转换为独热向量;
当特征数较多、训练试题空间较大时,采取对输入数据进行压缩的方法,通过压缩传感器将高维的输入向量压缩成低维的向量;
所述利用堆叠自编码器对得到的浅层学习特征进行深度表征及融合,构建深度学习者特征包括:
1)将得到的包含学习资源画像指标和学习者画像指标的浅层学习特征向量V=(v1,v2,...,vt)输入到堆叠自编码器的第一个自编码器中,并得到第一个自编码器的输出y~,公式如下:
h1=tanh(W1V+b1)
其中h1表示第一个编码器的隐藏层;W1表示输入层与第一个编码器的隐藏层间的权值矩阵;b1、b2表示相应的偏置向量;tanh表示激活函数;
2)将得到的第一个自编码器提取到的特征作为第二个自编码器的输入,经过第二个自编码器后产生输出公式如下:
其中,h2表示第二个编码器的隐藏层;W2表示第一个编码器的输出层与第二个编码器的隐藏层间的权值矩阵;b3、b4表示相应的偏置向量;tanh表示激活函数;
3)采用梯度下降方法预先单独训练SAE权值,优化的目标函数为平方重构误差:
其中,ot表示实际输出,yt表示期望输出;
4)将训练好的SAE第二个自编码器隐藏层的输出作为构建的深度学习者特征向量;
所述将学习过程中记忆与遗忘因素引入双向长短时记忆网络,构建基于记忆与遗忘因素结合的动态知识掌握模型包括:
(4.1)将从SAE中构建的深度学习者特征向量即SAE第二个自编码器隐藏层的输出作为BiLSTM模型的输入;
(4.2)将深度学习者特征向量输入BiLSTM模型中,得到学习者过去学习轨迹所形成的潜在知识掌握情况以及学习者每一时刻的表现概率;
(4.3)通过对输出向量pt与下一时刻试题的One-Hot编码向量进行点乘提取目标预测;
根据预测输出和目标输出损失函数L表示为:
(4.4)添加l2范数正则化项对预测结果进行平滑化处理,损失函数如下:
(4.5)利用随机梯度下降法对权值进行更新;
步骤(4.2)中,所述将深度学习者特征向量输入BiLSTM模型中,得到学习者过去学习轨迹所形成的潜在知识掌握情况以及学习者每一时刻的表现概率包括:
(4.2.1)将深度学习者特征向量输入第一层长短时记忆网络模型,通过进行丢弃信息以及待更新值确定,确定更新的信息、更新细胞状态,得到学习者知识掌握情况信息;
所述丢弃信息确定公式如下:
ft=σ(Ef·[ht-1,xt]+mf)
所述待更新值确定公式如下:
it=σ(Ei·[ht-1,xt]+mi)
所述确定更新的信息:
所述更新细胞状态:
所述输出学习者知识掌握情况信息:
gt=σ(Eg·[ht-1,xt]+mg)
ht 1=gt·tanh(Ut)
其中,t表示时刻;Ef,Ei,EC,Eg为权值矩阵;mf,mi,mC,mg为相应的偏执向量;σ,tanh为激活函数;
(4.2.2)将深度学习者特征向量输入第二层LSTM模型,得到第二层LSTM模型输出的学习者知识掌握情况;
公式如下:
ft'=σ(Ef'·[ht-1,xt]+mf')
it'=σ(Ei'·[ht-1,xt]+mi')
g't=σ(Eg'·[ht-1,xt]+mg')
其中Ef',Ei',EU',Eg'为权值矩阵,mf',mi',mU',mg'为相应的偏执向量,σ,tanh为激活函数;
(4.2.3)基于得到的两层LSTM输出的学习者知识掌握情况得到学习者最终知识掌握情况,即t时刻学习者知识状态和表现概率为:
pt=Ehyht+mhy
其中Ehy为隐藏层和输出层的权值矩阵,mhy为相应的偏置向量。
2.一种应用权利要求1所述基于个性化学习特征深度融合的动态知识掌握建模方法的基于个性化学习特征深度融合的动态知识掌握建模系统,其特征在于,所述基于个性化学习特征深度融合的动态知识掌握建模系统包括:
指标构建模块,用于基于建构主义学习理论,构建学习过程中影响学习者知识掌握状态及表现的学习资源画像指标和学习者画像指标;
学习者信息融合量化模块,用于对构建的学习者画像指标进行学习者信息融合量化处理,得到浅层学习特征;
深度学习者特征构建模块,用于利用堆叠自编码器将浅层学习特征进行深度表征及融合并构建深度学习者特征;
基于BiLSTM的动态知识掌握建模模块,用于构建基于记忆与遗忘因素结合的动态知识掌握建模模型。
3.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行权利要求1所述基于个性化学习特征深度融合的动态知识掌握建模方法。
4.一种信息数据处理终端,其特征在于,所述信息数据处理终端用于实现权利要求1所述的基于个性化学习特征深度融合的动态知识掌握建模方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011418200.0A CN112529155B (zh) | 2020-12-07 | 2020-12-07 | 动态知识掌握建模方法、建模系统、存储介质及处理终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011418200.0A CN112529155B (zh) | 2020-12-07 | 2020-12-07 | 动态知识掌握建模方法、建模系统、存储介质及处理终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112529155A CN112529155A (zh) | 2021-03-19 |
CN112529155B true CN112529155B (zh) | 2024-04-05 |
Family
ID=74997168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011418200.0A Active CN112529155B (zh) | 2020-12-07 | 2020-12-07 | 动态知识掌握建模方法、建模系统、存储介质及处理终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112529155B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113591988B (zh) * | 2021-07-30 | 2023-08-29 | 华中师范大学 | 知识认知结构分析方法、系统、计算机设备、介质、终端 |
CN113762361A (zh) * | 2021-08-20 | 2021-12-07 | 联想(北京)有限公司 | 解题提示方法及装置、设备、存储介质 |
CN114037172A (zh) * | 2021-11-18 | 2022-02-11 | 国网江苏省电力有限公司电力科学研究院 | 一种谈话能力评估试题的推送优化方法及装置 |
CN114385801A (zh) * | 2021-12-27 | 2022-04-22 | 河北工业大学 | 一种基于分层细化lstm网络的知识追踪方法及系统 |
CN116450801A (zh) * | 2023-03-29 | 2023-07-18 | 北京思明启创科技有限公司 | 编程学习方法、装置、设备和存储介质 |
CN116738371B (zh) * | 2023-08-14 | 2023-10-24 | 广东信聚丰科技股份有限公司 | 基于人工智能的用户学习画像构建方法及系统 |
CN117763361B (zh) * | 2024-02-22 | 2024-04-30 | 泰山学院 | 一种基于人工智能的学生成绩预测方法及系统 |
CN118332167B (zh) * | 2024-06-11 | 2024-08-06 | 深圳市启程教育科技有限公司 | 基于习题跟踪分析的习题生成方法、系统及介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102610129A (zh) * | 2012-02-14 | 2012-07-25 | 江苏省现代企业信息化应用支撑软件工程技术研发中心 | 一种基于多个代理的个性化协同学习系统的实现方法 |
CN105117460A (zh) * | 2015-08-21 | 2015-12-02 | 湖南亿谷科技发展股份有限公司 | 学习资源推荐方法和系统 |
CA2896037A1 (en) * | 2014-07-03 | 2016-01-03 | Mentorum Solutions Inc. | Adaptive e-learning system and method |
CN106022463A (zh) * | 2016-05-13 | 2016-10-12 | 安徽教育网络出版有限公司 | 基于改进粒子群算法的个性化学习路径优化方法 |
CN106205248A (zh) * | 2016-08-31 | 2016-12-07 | 北京师范大学 | 一种表征学习者在特定领域知识学习掌握状态的在线学习认知地图生成系统及方法 |
CN107092706A (zh) * | 2017-05-31 | 2017-08-25 | 海南大学 | 一种面向5w的基于图谱的目标驱动的学习点和学习路径推荐方法 |
CN110502636A (zh) * | 2019-08-27 | 2019-11-26 | 华中师范大学 | 一种面向主客观试题的联合建模及挖掘方法及系统 |
CN110516116A (zh) * | 2019-08-27 | 2019-11-29 | 华中师范大学 | 一种多步分层的学习者认知水平挖掘方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10943497B2 (en) * | 2018-04-27 | 2021-03-09 | Adobe Inc. | Personalized e-learning using a deep-learning-based knowledge tracing and hint-taking propensity model |
-
2020
- 2020-12-07 CN CN202011418200.0A patent/CN112529155B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102610129A (zh) * | 2012-02-14 | 2012-07-25 | 江苏省现代企业信息化应用支撑软件工程技术研发中心 | 一种基于多个代理的个性化协同学习系统的实现方法 |
CA2896037A1 (en) * | 2014-07-03 | 2016-01-03 | Mentorum Solutions Inc. | Adaptive e-learning system and method |
CN105117460A (zh) * | 2015-08-21 | 2015-12-02 | 湖南亿谷科技发展股份有限公司 | 学习资源推荐方法和系统 |
CN106022463A (zh) * | 2016-05-13 | 2016-10-12 | 安徽教育网络出版有限公司 | 基于改进粒子群算法的个性化学习路径优化方法 |
CN106205248A (zh) * | 2016-08-31 | 2016-12-07 | 北京师范大学 | 一种表征学习者在特定领域知识学习掌握状态的在线学习认知地图生成系统及方法 |
CN107092706A (zh) * | 2017-05-31 | 2017-08-25 | 海南大学 | 一种面向5w的基于图谱的目标驱动的学习点和学习路径推荐方法 |
CN110502636A (zh) * | 2019-08-27 | 2019-11-26 | 华中师范大学 | 一种面向主客观试题的联合建模及挖掘方法及系统 |
CN110516116A (zh) * | 2019-08-27 | 2019-11-29 | 华中师范大学 | 一种多步分层的学习者认知水平挖掘方法及系统 |
Non-Patent Citations (1)
Title |
---|
嵌入式知识服务下图书馆知识转移动态演化研究;王丽平;李艳;;图书情报工作(22);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112529155A (zh) | 2021-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112529155B (zh) | 动态知识掌握建模方法、建模系统、存储介质及处理终端 | |
CN110264091B (zh) | 学生认知诊断方法 | |
CN113610235B (zh) | 一种基于深度知识追踪的适应性学习支持装置及方法 | |
CN112508334B (zh) | 融合认知特性及试题文本信息的个性化组卷方法及系统 | |
CN113033808A (zh) | 一种基于习题难度和学生能力的深度嵌入知识追踪方法 | |
CN107544960B (zh) | 一种基于变量绑定和关系激活的自动问答方法 | |
CN113591988B (zh) | 知识认知结构分析方法、系统、计算机设备、介质、终端 | |
Wang et al. | Using knowledge concept aggregation towards accurate cognitive diagnosis | |
CN114385801A (zh) | 一种基于分层细化lstm网络的知识追踪方法及系统 | |
CN114201684A (zh) | 一种基于知识图谱的自适应学习资源推荐方法及系统 | |
CN117540104B (zh) | 一种基于图神经网络的学习群体差异评价方法与系统 | |
CN115455186A (zh) | 一种基于多模型的学情分析方法 | |
CN113283488A (zh) | 一种基于学习行为的认知诊断方法及系统 | |
CN113869569A (zh) | 一种基于决策树的学习成绩预测及个性化干预的方法 | |
CN114429212A (zh) | 智能学习知识能力跟踪方法、电子设备及存储介质 | |
CN115510286A (zh) | 一种基于图卷积网络的多关系认知诊断方法 | |
CN117473041A (zh) | 一种基于认知策略的编程知识追踪方法 | |
CN115310520A (zh) | 融合多特征的深度知识追踪方法及习题推荐方法 | |
CN114971066A (zh) | 融合遗忘因素和学习能力的知识追踪方法及系统 | |
CN118193920A (zh) | 一种基于概念驱动的个性化遗忘机制的知识追踪方法 | |
CN113987124A (zh) | 深度知识追踪方法、系统及可存储介质 | |
CN113378581A (zh) | 一种基于多元概念注意力模型的知识追踪方法及系统 | |
CN112330509A (zh) | 模型无关的自适应测试方法 | |
CN116777695A (zh) | 融合项目反应的时序卷积知识追踪方法 | |
CN115795015A (zh) | 一种试题难度增强的综合知识追踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |