CN116955443A - 一种基于关联规则和动态路径规划的学习方法及装置 - Google Patents
一种基于关联规则和动态路径规划的学习方法及装置 Download PDFInfo
- Publication number
- CN116955443A CN116955443A CN202310702134.7A CN202310702134A CN116955443A CN 116955443 A CN116955443 A CN 116955443A CN 202310702134 A CN202310702134 A CN 202310702134A CN 116955443 A CN116955443 A CN 116955443A
- Authority
- CN
- China
- Prior art keywords
- learning
- knowledge
- learner
- user
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000007246 mechanism Effects 0.000 claims abstract description 20
- 230000015654 memory Effects 0.000 claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000004422 calculation algorithm Methods 0.000 claims description 22
- 230000003044 adaptive effect Effects 0.000 claims description 13
- 238000005065 mining Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 238000010845 search algorithm Methods 0.000 claims description 6
- 238000005315 distribution function Methods 0.000 claims description 3
- 238000003064 k means clustering Methods 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims 1
- 238000004880 explosion Methods 0.000 abstract description 5
- 230000008034 disappearance Effects 0.000 abstract description 4
- 238000003062 neural network model Methods 0.000 abstract description 3
- 238000012549 training Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000003930 cognitive ability Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013100 final test Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000007865 diluting Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2465—Query processing support for facilitating data mining operations in structured databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9024—Graphs; Linked lists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Fuzzy Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及一种基于关联规则和动态路径规划的学习方法及装置,其中一种基于关联规则和动态路径规划的学习方法通过LSTM与门机制改进了现有的神经网络模型,通过控制记忆与遗忘来防止梯度爆炸和梯度消失问题。先计算当前学习者与对应用户群体之间的相似度和关联度关系,再将此相似和关联度关系作为LSTM的先验数据对学习者的学习路径进行最优规划,并结合知识图谱生成当前学习者的最优用户学习路径,并由于引入了门机制,可以将当前时刻之前的特征对下一时刻状态的影响予以保留,使得生成用户的下一学习状态更加精准,长时间的路径预测结果更加准确,得到的学习路径更加完善。
Description
技术领域
本发明涉及图像检索领域,特别是涉及无监督哈希图像检索模型训练方法及装置。
背景技术
在线上教育如火如荼的今天,“互联网+教育”的学习模式确实具有很多传统线下教育不可比拟的优势,例如丰富而广泛的学习资源,不受时空限制的学习方式,个性化的学习方法等。但现有的线上教育,基本是采用了照搬线下教学加上内容稀释的模式,然后将海量的教学资源堆砌在学习者面前。这种方式在实际使用中,往往会使学习者陷入“信息迷航”,面对资源无从下手,个性化学习难以实现。并且在知识结构方面,传统线下教学,知识之间的关联关系是由老师在不动声色的控制着,但是在线上学习中,知识之间缺乏明显的关联性,学习者在学习很难形成系统性的知识结构,极易出现知识漏洞。这些问题都导致了线上学习并不能达到令人满意的效果。
针对上述线上教育的不足之处,目前较好地解决办法是使用自适应学习系统。自适应学习系统是指通过收集和分析学习者在进行学习活动时与线上系统的交互数据来建立学习者模型,并以此动态地适应学习者的学习需求。它将学习者由客体变成主体,变被动学习为主动学习,实现个性化学习;同时自适应学习系统还能够有效化解线上教育所固有地“总体资源无限”和“个体资源需求有限”之间的矛盾,使线上教育资源的利用最大化。自适应学习系统一般由知识模型、学生模型、结构模型和自适应引擎四部分组成,其中知识模型用于描述知识结构,表达知识概念之间的联系,是自适应学习系统进行学习适配和资源推荐的重要依据。因此,知识模型的质量直接决定了自适应学习系统的有效性。但传统教学中的知识往往会忽视了单次学习完成之后对下一步学习状态的影响,或者仅仅考虑到用户知识掌握程度与上一步计算中,当前学习者所属的用户群体之间学习路径的差别,现有的系统只能用来做短时间序列的预测,当需要实现长序列任务时前序列的特征会被后序列覆盖,导致学习路径规划不准确。
发明内容
因此,本发明提出一种基于关联规则挖掘和动态路径规划的自适应学习系统,依托于知识图谱技术构建学习内容,并根据基于关联规则挖掘的学习内容推荐算法和基于LSTM的学习路径动态规划算法来完成学习路径推荐,通过对LSTM引入记忆门与遗忘门,来控制当前时刻之前特征的流通与损失,从而给每一个用户提供一个最优的学习路径推荐。
本申请是通过如下技术方案实现的:
一方面,本申请提供一种基于关联规则和动态路径规划的学习方法,其包括:
获取当前学习者数据,根据当前学习者数据构建学习者矩阵;
将学习者矩阵做为数据基础,通过聚类算法划分相似用户群体,确定当前学习者所属的用户群体;
获取学习者所属的用户群体的历史用户数据,计算对于该用户群体,知识点与知识点之间的相似度、支持度和置信度;
根据知识点之间的相似度和关联规则挖掘获得的支持度与置信度数据,计算用户的在一知识图谱上的当前知识起点,并计算用户选择学习一知识图谱上的某一知识点的学习倾向,结合LSTM和门机制进行长时间序列预测,实时生成用户学习路径。
进一步地,根据知识点之间的相似度和关联规则挖掘获得的支持度与置信度数据,计算用户的在一知识图谱上的当前知识起点,并计算用户选择学习一知识图谱上的某一知识点的学习倾向,结合LSTM和门机制进行长时间序列预测,实时生成用户学习路径具体包括:
根据知识图谱中的知识节点并通过深度优先搜索算法找出当前学习者的当前知识起点到知识目标的所有路径;
根据学习者数据、学习者所属的用户群体的历史用户数据、以及知识点与知识点之间的相似度,支持度与置信度数据,LSTM结合门机制预测路径上知识点可能产生的学习情况,生成用户学习路径;
获取当前学习者完成每个知识点学习完成后的测试数据,根据知识图谱重新确定当前知识起点位置,若位置变动,则重复前两个步骤,若位置不变,则用户学习路径不变。
进一步地,所述LSTM和门机制结合后的LSTM模型的具体表现公式为:
其中Ct表示t时刻的状态,Ct表示t-1时刻的状态,表示单元状态更新值,ft表示遗忘门,用于控制Ct-1有哪些状态会被损失,it表示记忆门,用于控制/>的哪些特征会更新于Ct。
进一步地,在所述学习者矩阵的构建过程中,通过Felder-Silvermen模型划分当前学习者的学习风格。
进一步地,在所述学习者矩阵的构建过程中,通过将当前学习者数据中的学习历史中的时间均值与历史用户中的其他学习者作比较,并引入正态分布函数作为判断标准,其概率密度函数为:
其中μ是期望值,σ2为方差值。
进一步地,使用K-mean聚类算法划分相似用户群体。
另一方面,本申请还提供一种基于关联规则和动态路径规划的学习装置,其包括:
学习者矩阵构建模块:获取当前学习者数据,根据当前学习者数据构建学习者矩阵;
用户群体分类模块:将学习者矩阵做为数据基础,通过聚类算法划分相似用户群体,确定当前学习者所属的用户群体;
关联度计算模块:获取学习者所属的用户群体的历史用户数据,计算对于该用户群体,知识点与知识点之间的相似度、支持度和置信度;
动态路径规划模块:根据知识点之间的相似度和关联规则挖掘获得的支持度与置信度数据,计算用户的在一知识图谱上的当前知识起点,并计算用户选择学习一知识图谱上的某一知识点的学习倾向,结合LSTM和门机制进行长时间序列预测,实时生成用户学习路径。
进一步地,所述动态路径规划模块具体包括:
全路径搜索子模块:根据知识图谱中的知识节点并通过深度优先搜索算法找出当前学习者的当前知识起点到知识目标的所有路径;
路径生成子模块:根据学习者数据、学习者所属的用户群体的历史用户数据、以及知识点与知识点之间的相似度,支持度与置信度数据,LSTM结合门机制预测路径上知识点可能产生的学习情况,生成用户学习路径;
实时更新子模块:获取当前学习者完成每个知识点学习完成后的测试数据,根据知识图谱重新确定当前知识起点位置,若位置变动,则重复前两个步骤,若位置不变,则用户学习路径不变。
另一方面,本申请还提供一种计算机设备包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如上任一项所述的一种基于关联规则和动态路径规划的自适应学习方法的步骤。
另一方面,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上述任一项所述的一种基于关联规则和动态路径规划的自适应学习方法的步骤。
本申请结合LSTM与门机制改进了现有的神经网络模型,通过控制记忆与遗忘来防止梯度爆炸和梯度消失问题。先计算当前学习者与对应用户群体之间的相似度和关联度关系,再将此相似和关联度关系作为LSTM的先验数据对学习者的学习路径进行最优规划,并结合知识图谱生成当前学习者的最优用户学习路径,并由于引入了门机制,可以将当前时刻之前的特征对下一时刻状态的影响予以保留,使得生成用户的下一学习状态更加精准,长时间的路径预测结果更加准确,得到的学习路径更加完善,进一步的,获取当前用户阶段性测试结果,并结合知识图谱判断学习完成后的知识起点,若发生变动则重新进行用户群体判定和用户学习路径的规划,根据学习者阶段性的学习状态和学习趋向实时的更新最优用户学习路径,保证学习者的用户学习效率。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1为本申请提供的一种基于关联规则和动态路径规划的学习方法的流程图;
图2为本申请提供的一种基于关联规则和动态路径规划的学习装置的结构框图;
图3为本申请提供RNN的基本结构图;
图4为本申请提供的RNN的时域展开图;
图5为本申请提供的步骤S40的具体流程图;
图6为本申请提供的动态路径规划模块40的结构框图。
具体实施方式
基于现有的自适应学习系统实用性较差的问题,本研究认为,如何在长时间的学习路径规划中针对每一个学习过程,都能为学习者提供最优的学习路径规划方案,是急需解决的。请参阅图1和图2,图1为本申请提供的一种基于关联规则和动态路径规划的学习方法的流程图;图2为执行图1所示方法的一种基于关联规则和动态路径规划的学习装置的结构框图。本申请的基于关联规则和动态路径规划的学习方法具体包括:
S10:获取当前学习者数据,根据当前学习者数据构建学习者矩阵。步骤S10由学习者矩阵构建模块10执行。
学习者矩阵的建模由Felder-Silvermen学习风格模型和认知能力测定两部分组成。Felder-Silvermen模型的初始化使用所罗门学习风格量表来完成,通过量表从四个维度将学习者的学习风格划分为八种类型,分别是:信息加工(活跃型/沉思型)、感知(感悟型/直觉型)、信息输入(视觉型/言语型)、内容理解(序列型/综合型)。该量表共有44道问卷测试题,每个维度分别对应其中的11道题,每道题均只有a,b两个选项,受试者答题完成后,统计每个维度对应的a选项和b选项个数,以个数的差值的绝对值作为该受试者学习风格的判断依据。在此类计算方法下,可以有12种不同的取值,即[11a,9a,7a,5a,3a,a,b,1b,3b,5b,7b,9b],其中[11a,9a,7a,5a]标注为a类型风格,[3a,a,b,3b]标注为模糊型风格,[5b,7b,9b,11b]标注为b类型风格。例如,若在信息加工维度的11道题中受试者选择了10a和1b,则该受试者评分为(10-1)a=9a,以此可判断为活跃型学习风格,其他三个维度的学习风格确定与此类似。
学习者认知能力主要是通过系统收集的历史数据如时间、分数等来测定的。这里将认知能力量化为两个部分,一个是由学习时间信息得出的学习效率表征,一个是由学习分数信息得出的学习能力表征。
将学习历史中的时间均值作为一个表征量,与用户群体中的其他学习者作比较,判断其学习效率。引入正态分布函数作为判断标准,其概率密度函数为:
其中μ是期望值,σ2为方差值。取一个标准差σ的数据范围作为取值区间,即(0,μ-σ]定义为“慢”,(μ-σ,μ+σ)作为“中”,[μ+σ,+∞)作为“快”,同时将这个表征以三维向量的形式表示出来,如记为“快”的学习者其学习效率表征向量为(1,0,0)。同理以学习分数均值结合正态分布也可获得学习者的学习能力表征向量。
将学习者的学习风格矩阵和认知能力矩阵相互组合,即构成了一个4*4的学习者矩阵如:
S20:将学习者矩阵做为数据基础,通过聚类算法划分相似用户群体,确定当前学习者所属的用户群体。步骤S20由用户群体分类模块20执行。
基于项目的相似判断首先将已构建好的学习者矩阵为数据基础,利用聚类算法确定相似用户群体。这里的聚类算法选择的是K-means聚类。K-means是一种经典的基于划分的聚类算法,它能很好的扩展到大样本数据中而无需进行修改,因此目前广泛应用于聚类计算。其主要步骤是:首先选择初始化的k个样本作为初始聚类中心a=a1,a2....aj;然后针对数据集中每个样本x1计算他到k个聚类中心的距离并将其分到距离最小的聚类中心所对应的类中;分类完成后针对每个类别aj,重新计算它的聚类中心
之后重复上面两步,直至结果收敛至某个终止条件。对于本系统来说,xi即为学习者矩阵数据,利用K-means算法聚类完成后会获得相似学习者用户群体,并确定出当前学习者属于哪个用户群体。这其中K值的确定主要是根据轮廓系数SC(SilhouetteCoeffificient)和卡林斯基-哈拉巴兹指数CH(Calinski-Harabaz index)。当SC值和CH值都趋于最大时,取此时的K值即为最合适的聚类K值,根据聚类K值判断当前学习者属于哪一用户群体。
S30:获取学习者所属的用户群体的历史用户数据,计算对于该用户群体,知识点与知识点之间的相似度、支持度和置信度。步骤S30由关联度计算模块30执行。
在通过聚类获得相似用户群体后,我们针对某一用户群体计算学习内容的相似性和关联规则。首先借用余弦相似度的思想给出基于项目的相似度计算公式,
其中pa,pb为两个知识点,ck为某一个用户群体,N(pa|ck)为ck用户群体中选择学习a知识点的人数,sim(pa,pb|ck)即为针对ck集群来说知识点a和知识点b之间的相似度。
再定义Pi为一个知识点集,它是全部知识点集合的一个子集。对于集群ck,知识点集Pi的支持度定义为集群ck中,学习过知识点集Pi的人数百分比,即:
知识点集Pi到知识点集Pj的关联规则可以表示为Pi→Pj。对于集群ck,支持一个规则Pi→Pj的支持度定义为为集群ck中,同时学习过知识点集Pi和Pj的人数百分比,即
由此可得关联规则Pi→Pj的置信度表达式:
支持度表示的是数据或者规则的频率测量,高支持度意味着集合之间的强相关性;置信度表示的是规则的可靠性,高置信度意味着关联规则可靠且显著。接着使用数据挖掘算法中经典的Apriori算法完成各关联规则之间的支持度与置信度计算。
接下来给出一个关于学习者学习兴趣的量化,即一个系统中的学习者x对于未学习知识点a的学习兴趣,其表达式为
其中S(x)表示学习者x的学习历史集合,对于初次进入系统的学习者来说,其学习历史集合就是知识起点。
由学习兴趣值可以继续计算得出学习者的学习倾向,即学习者选择一个知识点进行学习的可能性。一个系统中的学习者x选择学习知识点a,其选择倾向表达式为
其中F(x)是由学习者x学习历史生成的频繁项目集。在获得学习倾向后,将后续知识点的学习倾向按降序排列,取排位靠前且满足知识图谱通路的2-3个知识点推荐给用户选择学习。
S40:根据知识点间的相似度和关联规则挖掘获得的支持度与置信度数据,计算用户的在一知识图谱上的当前知识起点,并计算用户选择学习一知识图谱上的某一知识点的学习倾向,结合LSTM和门机制进行长时间序列预测,实时生成用户学习路径。步骤S40由动态路径规划模块40执行。
LSTM全称长短期记忆神经网络,是一种特殊的循环神经网络(RNN)。与一般的前馈神经网络不同,LSTM可以利用时间序列对输入进行分析。比如,对于一般的前馈神经网络来说,t时刻输入的内容与t+1时刻输入的内容是完全不相关的,而对于LSTM来说t时刻输入的内容会收到时刻之前输入内容的影响。LSTM的原理是将RNN的传递状态进行了修改,
请参阅图3,图3为RNN的基本结构图;RNN在使用时会按照时间轴进行展开,再形成如图4所示的RNN的时域展开图。
这其中,xt表示t时刻的输入,yt表示t时刻的输出,st表示t时刻神经元的状态,ht表示要传递到下一时刻的状态。U、V、W是循环神经元在不同时刻的共享参数。在进行循环神经网络运算时,ht的计算是包含两部分的,一部分与输入相关,一部分与前一时刻的状态相关,其具体表达式为:
ht=f(st)
f是非线性激活函数,一般来说为双曲正切函数tanh;st由这一时刻的输入和上一时刻的状态确定,其表达式为:
st=Wxt+Uht
因此可得ht的表达式为:
ht=tanh(Wxt+Uht-1)
神经元的输出,其公式为yt=Vht,因此带入ht的表达式可得yt的表达式为:
yt=Vtanh(Wxt+Uht-1)
可以看出当前t时刻的状态ht只与t-1时刻的状态ht-1相关。这样的神经网络只能用来做短时间序列的预测,当需要实现长序列任务时前序列的特征会被后序列覆盖,并且RNN在模型训练时,会出现梯度消失和梯度爆炸问题。为了解决上述问题,我们在LSTM引入门机制来控制当前时刻之前特征的流通与损失。
重新设计后的LSTM的状态转移通式可以表示为:
其中Ct表示t时刻的状态,Ct表示t-1时刻的状态,表示单元状态更新值,它由输入数据xt和隐藏状态信息ht-1经由神经网络得到,激活函数一般使用tanh,/>整体数学表达为:
其中ft-1表示遗忘门,用于控制Ct-1有哪些状态会被损失,其数学表达式为:
ft=σ(Wf[ht-1,xt]+bf)
it表示记忆门,用于控制的哪些特征会更新于Ct,其数学表达式为:
it=σ(Wi[ht-1,xt]+bi)
ot表示对于最终输出的过滤,其数学表达式为:
ot=σ(W0[ht-1,x]+b0)
综上可以得到最终的输出ht=ot*tanh(Ct)。由此我们将长时间序列的特征一步步传递下来,同时通过控制记忆与遗忘来防止梯度爆炸和梯度消失问题。然后结合知识图谱完成当前学习者的最优的学习路径规划。
请参阅图5和图6,在另一个优选的的实施例中,步骤S40具体包括:
S41:根据知识图谱中的知识节点并通过深度优先搜索算法找出当前学习者的当前知识起点到知识目标的所有路径。步骤S41由全路径搜索子模块41执行。
给定M个学习效果数据(如分数或者时间等)的集合X={x1,x2,x3,x4,...,xM},对于N个学习者的集合Y={y1,y2,y3,y4,...,yN},将每个学习者产生的学习效果数据记为给定一个训练窗口大小为k(一般定义为3),取学习效果数据中按照学习路径顺序的k+1长度序列/>其中前k个学习效果数据/>作为输入向量,第k+1个学校效果数据作为标签,以此产生训练数据集进行训练。同时为了最小化训练中的损失函数,还采用基于梯度的随机优化算法Adam,适应性调整学习率,使训练效果更优化。
但如果来自在线课程的数据集比较小,再经过聚类后可能就会聚集成很小的数据集,那么LSTM的准确性就没办法保证。同时,针对学习路径预测的问题,LSTM还需要耗费训练时间来建立学习过程中节点与节点之间的联系,而这些联系在知识图谱中是已有的信息。因此可以联想到,将节点间的关系引入到LSTM结构中,以此减少训练时间同时可以在小数据集上获得更好的精度。这里用rlst(relationship)表示节点之间的关系结构,给定串联输入的特征向量其中/>是指训练数据中的第i条学习路径的第k个节点。将知识结构信息加入到LSTM的输出中,可得新的输出ht=ot*(tanh(Ct)+rlst)。
S42:根据学习者数据、学习者所属用户群体的历史用户数据、以及知识点与知识点之间的相似度,支持度与置信度数据,LSTM结合门机制预测路径上知识点可能产生的学习情况,生成用户学习路径。步骤S42由路径生成子模块42执行。
我们可以将其用于知识点序列学习情况的预测。在本系统中,我们在已知部分知识点序列学习情况的基础上(这部分数据基础是由前步的学习推荐算法所获得的,即学习者数据、学习者所属的用户群体的历史用户数据、以及知识点与知识点之间的相似度,支持度与置信度数据),通过LSTM预测剩下还未学习的知识点可能产生的学习情况,进而得到整条学习路径的学习情况。例如,现有一条学习路径为“1-2-3-4-5-6…”,该同学已经学习了“1-2-3”三个节点,则LSTM可以根据这三个节点的学习情况逐步预测“4”、“5”等后续节的学习情况。我们在此基础上获得了整条学习路径学习情况的预测值,这是下一步进行学习路径规划的数据基础。
S43:获取当前学习者完成每个知识点学习完成后的测试数据,根据知识图谱重新确定当前知识起点位置。步骤S43由43实时更新子模块执行。
S44:判断当前知识起点位置是否在上一步获得的用户学习路径上。若不在则重复步骤S41-S42,生成新的用户学习路径,若在则执行步骤S45。步骤S44由判断子模块44执行。
S45:输出原有的用户学习路径做为当前用户学习路径。步骤S45由路径输出子模块45执行。
系统以当前的知识状态为起点,利用深度优先搜索算法(DFS)在学习空间中找出所有从当前状态到状态终点的学习路径。DFS算法是一种遍历图存储结构的方法,简单来说就是每一个分支都深入到没有子节点的节点为止。DFS算法在学习路径规划中的使用方法是,首先以当前状态为出发点遍历出所有不可再深入的路径,然后将其中末尾是状态终点的路径收集起来,即获得所有可用学习路径的集合。在获得所有可用学习路径后,以当前知识状态和历史知识状态的学习情况数据为基础,利用LSTM预测模型预测其后一知识状态的学习情况,不断向下计算进而得到一整条学习路径的学习情况预测结果。根据学习目的比较各路径的预测结果,选择其中最优的结果推荐给学习者供其学习。例如现在有两条学习路径可以从知识状态“1”到达知识状态“10”,它们分别是“1-3-6-9-7-10”和“1-3-6-8-5-10”,路径一的学习总时间是2个小时,最终测试获得的分数是80分,路径二的学习总时间是3个小时,最终测试获得的分数是90分,则学习效率对比路径一是0.67分/分钟,路径二是0.5分/分钟。在没有学习者没有对分数提出绝对要求时(如要求最终测试至少是90分),路径一的学习效率最高,因此将路径一推荐给学习者。
在学习完成一个知识点后,系统会要求学生进行一些小型测验,这些测验是包含该知识状态下所有知识点的,即椭圆内的知识点。如果学生全部掌握了该知识状态下的知识点,则可继续按照前步推荐的学习路径学习;如果学生未全部掌握该知识状态下的知识点,则系统判断其回退到某一知识状态。按照该知识状态再次进行前述操作,更新学习路径,以此保持学习路径是动态适应学生当下知识状态的。
另外,为了确保LSTM预测模型的预测准确性,我们需要若干前置数据的真实学习情况才能对下一个知识状态进行预测。例如,现有学习路径“1-2-3-4-5”,将“1-2-3”三个顺序知识状态的学习情况输入LSTM模型,获得“4”状态的预测数据,再将“2-3-4”三个顺序知识状态的学习情况输入LSTM模型,获得“5”状态的预测数据,以此类推直至到达状态终点,这样就得到整条学习路径的学习情况预测值。在这样的运算逻辑下,系统需要目标学习者有至少三个知识状态下的学习基础。因此针对学习基础不足输入标准的学习者甚至是刚进入系统空白学习者,系统想要对其进行学习规划是存在问题的,这就是推荐系统中俗称的冷启动问题。本系统的冷启动问题是通过前述学习推荐算法来解决的,当遇到学习基础不足的学习者时,首先启动学习推荐算法为他提供下一步的学习选择,待到其学习历史满足输入标准后再进入基于LSTM的学习路径规划算法过程。
本申请结合LSTM与门机制改进了现有的神经网络模型,通过控制记忆与遗忘来防止梯度爆炸和梯度消失问题。先计算当前学习者与对应用户群体之间的相似度和关联度关系,再将此相似和关联度关系作为LSTM的先验数据对学习者的学习路径进行最优规划,并结合知识图谱生成当前学习者的最优用户学习路径,并由于引入了门机制,可以将当前时刻之前的特征对下一时刻状态的影响予以保留,使得生成用户的下一学习状态更加精准,长时间的路径预测结果更加准确,得到的学习路径更加完善,进一步的,获取当前用户阶段性测试结果,并结合知识图谱判断学习完成后的知识起点,若发生变动则重新进行用户群体判定和用户学习路径的规划,根据学习者阶段性的学习状态和学习趋向实时的更新最优用户学习路径,保证学习者的用户学习效率。
基于上述的同一发明构思,本申请还提供一种电子设备,可以是服务器、台式计算设备或移动计算设备(例如,膝上型计算设备、手持计算设备、平板电脑、上网本等)等终端设备。该设备包括一个或多个处理器和存储器,其中处理器用于执行程序实现上述一种基于关联规则和动态路径规划的学习方法;存储器用于存储可由所述处理器执行的计算机程序。
基于同一发明构思,本申请还提供一种计算机可读存储介质,与前述一种基于关联规则和动态路径规划的学习方法的实施例相对应,所述计算机可读存储介质其上存储有计算机程序,该程序被处理器执行时实现上述任一实施例所记载的一种基于关联规则和动态路径规划的学习方法的步骤。
本申请可采用在一个或多个其中包含有程序代码的存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。计算机可用存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,则本发明也意图包含这些改动和变形。
Claims (10)
1.一种基于关联规则和动态路径规划的学习方法,其特征在于,包括:
获取当前学习者数据,根据当前学习者数据构建学习者矩阵;
将学习者矩阵做为数据基础,通过聚类算法划分相似用户群体,确定当前学习者所属的用户群体;
获取学习者所属的用户群体的历史用户数据,计算对于该用户群体,知识点与知识点之间的相似度、支持度和置信度;
根据知识点之间的相似度和关联规则挖掘获得的支持度与置信度数据,计算用户的在一知识图谱上的当前知识起点,并计算用户选择学习一知识图谱上的某一知识点的学习倾向,结合LSTM和门机制进行长时间序列预测,实时生成用户学习路径。
2.根据权利要求1所述的一种基于关联规则和动态路径规划的自适应学习方法,其特征在于,根据知识点之间的相似度和关联规则挖掘获得的支持度与置信度数据,计算用户的在一知识图谱上的当前知识起点,并计算用户选择学习一知识图谱上的某一知识点的学习倾向,结合LSTM和门机制进行长时间序列预测,实时生成用户学习路径具体包括:
根据知识图谱中的知识节点并通过深度优先搜索算法找出当前学习者的当前知识起点到知识目标的所有路径;
根据学习者数据、学习者所属的用户群体的历史用户数据、以及知识点与知识点之间的相似度,支持度与置信度数据,LSTM结合门机制预测路径上知识点可能产生的学习情况,生成用户学习路径;
获取当前学习者完成每个知识点学习完成后的测试数据,根据知识图谱重新确定当前知识起点位置,若位置变动,则重复前两个步骤,若位置不变,则用户学习路径不变。
3.根据权利要求2所述的一种基于关联规则和动态路径规划的自适应学习方法,其特征在于,所述LSTM和门机制结合后的LSTM神经模型的具体表现公式为:
其中Ct表示t时刻的状态,Ct表示t-1时刻的状态,表示单元状态更新值,ft表示遗忘门,用于控制Ct-1有哪些状态会被损失,it表示记忆门,用于控制/>的哪些特征会更新于Ct。
4.根据权利要求3所述的一种基于关联规则和动态路径规划的自适应学习方法,其特征在于:在所述学习者矩阵的构建过程中,通过Felder-Silvermen模型划分当前学习者的学习风格。
5.根据权利要求4所述的一种基于关联规则和动态路径规划的自适应学习系统,其特征在于,在所述学习者矩阵的构建过程中,通过将当前学习者数据中的学习历史中的时间均值与历史用户中的其他学习者作比较,并引入正态分布函数作为判断标准,其概率密度函数为:
其中μ是期望值,σ2为方差值。
6.根据权利要求5所述的一种基于关联规则和动态路径规划的自适应学习方法,其特征在于:使用K-mean聚类算法划分相似用户群体。
7.一种基于关联规则和动态路径规划的自适应学习装置,其特征在于,包括:
学习者矩阵构建模块:获取当前学习者数据,根据当前学习者数据构建学习者矩阵;
用户群体分类模块:将学习者矩阵做为数据基础,通过聚类算法划分相似用户群体,确定当前学习者所属的用户群体;
关联度计算模块:获取学习者所属的用户群体的历史用户数据,计算对于该用户群体,知识点与知识点之间的相似度、支持度和置信度;
动态路径规划模块:根据知识点之间的相似度和关联规则挖掘获得的支持度与置信度数据,计算用户的在一知识图谱上的当前知识起点,并计算用户选择学习一知识图谱上的某一知识点的学习倾向,结合LSTM和门机制进行长时间序列预测,实时生成用户学习路径。
8.根据权利要求7所述的一种基于关联规则和动态路径规划的学习装置,其特征在于,所述动态路径规划模块具体包括:
全路径搜索子模块:根据知识图谱中的知识节点并通过深度优先搜索算法找出当前学习者的当前知识起点到知识目标的所有路径;
路径生成子模块:根据学习者数据、学习者所属的用户群体的历史用户数据、以及知识点与知识点之间的相似度,支持度与置信度数据,LSTM结合门机制预测路径上知识点可能产生的学习情况,生成用户学习路径;
实时更新子模块:获取当前学习者完成每个知识点学习完成后的测试数据,根据知识图谱重新确定当前知识起点位置,若位置变动,则重复前两个步骤,若位置不变,则用户学习路径不变。
9.一种计算机设备,其特征在于,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1至6任一项所述的一种基于关联规则和动态路径规划的自适应学习方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的一种基于关联规则和动态路径规划的自适应学习方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310702134.7A CN116955443A (zh) | 2023-06-13 | 2023-06-13 | 一种基于关联规则和动态路径规划的学习方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310702134.7A CN116955443A (zh) | 2023-06-13 | 2023-06-13 | 一种基于关联规则和动态路径规划的学习方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116955443A true CN116955443A (zh) | 2023-10-27 |
Family
ID=88460950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310702134.7A Pending CN116955443A (zh) | 2023-06-13 | 2023-06-13 | 一种基于关联规则和动态路径规划的学习方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116955443A (zh) |
-
2023
- 2023-06-13 CN CN202310702134.7A patent/CN116955443A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111104595B (zh) | 一种基于文本信息的深度强化学习交互式推荐方法及系统 | |
Zuo et al. | Fuzzy transfer learning using an infinite Gaussian mixture model and active learning | |
Liu et al. | Automated feature selection: A reinforcement learning perspective | |
CN112116090B (zh) | 神经网络结构搜索方法、装置、计算机设备及存储介质 | |
Yeung et al. | Incorporating features learned by an enhanced deep knowledge tracing model for stem/non-stem job prediction | |
CN110889450B (zh) | 超参数调优、模型构建方法和装置 | |
US11276127B1 (en) | Recommending matches using machine learning | |
CN111222847B (zh) | 基于深度学习与非监督聚类的开源社区开发者推荐方法 | |
CN110377707B (zh) | 基于深度项目反应理论的认知诊断方法 | |
CN110222838B (zh) | 文档排序方法、装置、电子设备及存储介质 | |
CN111126552B (zh) | 一种智能学习内容推送方法及系统 | |
CN111914162A (zh) | 一种基于知识图谱的个性化学习方案引导方法 | |
CN114201684A (zh) | 一种基于知识图谱的自适应学习资源推荐方法及系统 | |
CN112733035A (zh) | 基于知识图谱的知识点推荐方法、装置、存储介质及电子装置 | |
CN114298299A (zh) | 基于课程学习的模型训练方法、装置、设备及存储介质 | |
Farrell et al. | End anchoring in short-term order memory | |
CN113052316A (zh) | 基于因果推理的知识追踪方法、系统、设备及存储介质 | |
CN113609337A (zh) | 图神经网络的预训练方法、训练方法、装置、设备及介质 | |
CN112529141A (zh) | 一种基于改进免疫算法的学习路径生成方法 | |
CN116955443A (zh) | 一种基于关联规则和动态路径规划的学习方法及装置 | |
Zhang et al. | An Algorithm Research for Prediction of Extreme Learning Machines Based on Rough Sets. | |
Zhao et al. | Hybrid fuzzy rule-based classification system for MOODLE LMS system | |
Rong et al. | Exploring network behavior using cluster analysis | |
Bilgram et al. | Cost models for learned index with insertions | |
Chen | Evaluating Conditional Cash Transfer Policies with Machine Learning Methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |