CN111582694B - 一种学习评估方法及装置 - Google Patents
一种学习评估方法及装置 Download PDFInfo
- Publication number
- CN111582694B CN111582694B CN202010355144.4A CN202010355144A CN111582694B CN 111582694 B CN111582694 B CN 111582694B CN 202010355144 A CN202010355144 A CN 202010355144A CN 111582694 B CN111582694 B CN 111582694B
- Authority
- CN
- China
- Prior art keywords
- model
- answer
- sub
- result
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 57
- 230000006870 function Effects 0.000 claims abstract description 113
- 238000012549 training Methods 0.000 claims abstract description 96
- 238000000034 method Methods 0.000 claims abstract description 70
- 238000013210 evaluation model Methods 0.000 claims abstract description 36
- 230000008569 process Effects 0.000 claims description 38
- 230000015654 memory Effects 0.000 claims description 25
- 108091026890 Coding region Proteins 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 8
- 125000004122 cyclic group Chemical group 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000003745 diagnosis Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000001364 causal effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/067—Enterprise or organisation modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- General Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Tourism & Hospitality (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Educational Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Game Theory and Decision Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Primary Health Care (AREA)
- Electrically Operated Instructional Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例提供一种及人工智能技术领域,涉及一种学习评估方法及装置。通过学习能力评估模型来确定学习能力评估结果,学习能力评估模型的训练方法中的训练包括:获得训练样本以及上一次迭代训练后更新得到的模型参数,得到知识图谱中各个知识点的学习能力预测结果并通过输出层输出;分别根据每个子模型对应的目标知识点信息、样本题目的答题结果以及上一级子模型针对目标知识点信息、目标知识点在知识图谱中的关联知识点的先验答题结果以及上一级子模型针对关联知识点的预测答题结果确定总体损失函数值,根据总体损失函数值更新各个子模型的模型参数。更加准确的预测的学习能力评估结果。
Description
技术领域
本发明实施例涉及人工智能技术领域,尤其涉及一种学习评估方法及装置。
背景技术
随着信息技术的发展,教育系统越来越趋向于智能化,智能化的教育系统能够对线上或者线下的用户进行个性化辅导,并制定个性化学习路径。
现有技术中,通常是通过收集分析用户的设定时间段内的学习信息,并对设定时间段内的学习信息进行人工方式分析,对用户进行学习路径引导。
但是若存在大规模用户学习信息时,则不能从大规模学生学习信息中挖掘出用户的学习能力,因而无法根据不同用户的学习能力制定符合自身学习情况的个人学习路径。
申请内容
本申请实施例提供一种学习评估方法及装置,用以在确定目标用户学习能力的过程中,加入了各知识点之间的相关性特征,在学习评估性能上有了较大提升,从而能够从大规模学习信息中挖掘出学习用户的学习能力,进一步规划每个学习用户的个人学习路径。
一方面,本申请实施例提供一种学习评估方法,方法包括:
获取目标用户的待评估数据,待评估数据中包括多个答题信息,每个答题信息中包括答题知识点以及答题结果,所有答题知识点属于同一知识图谱;
通过学习能力评估模型以及待评估数据确定目标用户的学习能力评估结果,学习能力评估结果为目标用户针对知识图谱中所有知识点的预测答题结果,其中学习能力评估模型包括输入层和输出层,以及位于输入层和输出层之间的多个串联连接的子模型,每个子模型的模型参数相同,模型参数是经过多次迭代训练获得的,其中每次迭代训练包括:
获得训练样本以及上一次迭代训练后更新得到的模型参数,训练样本中包括由n个样本题目信息按照答题顺序排列组成的样本题目信息序列,每个样本题目信息包括样本题目在知识图谱中对应的目标知识点信息以及样本题目的答题结果,n个样本题目对应的所有目标知识点属于同一属性类别的知识图谱,其中n大于等于1;
通过输入层,分别将n个样本题目信息按照答题顺序输入各子模型中,每个子模型分别根据各自的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息,得到知识图谱中各个知识点的学习能力预测结果并通过输出层输出;以及将该子模型基于对应的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息确定的前n个样本题目的参考信息传递给下一级子模型;
分别根据每个子模型对应的目标知识点信息、样本题目的答题结果以及上一级子模型针对目标知识点信息的预测答题结果确定第一损失函数值,根据目标知识点在知识图谱中的关联知识点的先验答题结果以及上一级子模型针对关联知识点的预测答题结果确定第二损失函数值;
根据第一损失函数值以及第二损失函数值,获得本次迭代训练过程的总体损失函数值,根据总体损失函数值更新各个子模型的模型参数。
一方面,本申请实施例还提供一种学习评估装置,包括:
获取单元,用于获取目标用户的待评估数据,所述待评估数据中包括多个答题信息,每个答题信息中包括答题知识点以及答题结果,所有答题知识点属于同一知识图谱;
学习能力评估结果确定单元,用于通过学习能力评估模型以及所述待评估数据确定所述目标用户的学习能力评估结果,所述学习能力评估结果为所述目标用户针对所述知识图谱中所有知识点的预测答题结果,其中所述学习能力评估模型包括输入层和输出层,以及位于所述输入层和输出层之间的多个串联连接的子模型,每个所述子模型的模型参数相同,所述模型参数是经过多次迭代训练获得的,其中每次迭代训练包括:
训练数据获取单元,用于获得训练样本以及上一次迭代训练后更新得到的模型参数,所述训练样本中包括由n个样本题目信息按照答题顺序排列组成的样本题目信息序列,每个样本题目信息包括样本题目在知识图谱中对应的目标知识点信息以及样本题目的答题结果,n个样本题目对应的所有目标知识点属于同一属性类别的知识图谱,其中n大于等于1;
子模型处理单元,用于通过输入层,分别将n个样本题目信息按照所述答题顺序输入各子模型中,每个子模型分别根据各自的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息,得到所述知识图谱中各个知识点的学习能力预测结果并通过输出层输出;以及将该子模型基于对应的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息确定的前n个样本题目的参考信息传递给下一级子模型;
损失函数确定单元,用于分别根据每个子模型对应的目标知识点信息、样本题目的答题结果以及上一级子模型针对所述目标知识点信息的预测答题结果确定第一损失函数值,根据所述目标知识点在所述知识图谱中的关联知识点的先验答题结果以及上一级子模型针对所述关联知识点的预测答题结果确定第二损失函数值;根据所述第一损失函数值以及所述第二损失函数值,获得本次迭代训练过程的总体损失函数值,根据所述总体损失函数值更新各个子模型的模型参数。
所述数据获取单元还用于:
根据所述知识图谱的邻接矩阵以及目标知识点的标识信息,确定所述关联知识点的标识信息,所述邻接矩阵用于表征所述知识图谱中各个知识点之间的关联关系;
根据所述关联知识点的标识信息获取所述关联知识点的先验答题结果。
可选的,所述关联知识点为所述目标知识点的前置知识点中的至少一个知识点,以及所述目标知识点的后置知识点中的至少一个知识点。
可选的,所述知识图谱中的关联知识点的先验答题结果是根据所述目标知识点的历史答题结果以及关联知识点的历史答题结果确定的。
一方面,本申请实施例提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,处理器执行计算机程序时实现上述学习评估方法的步骤。
一方面,本申请实施例提供了一种计算机可读存储介质,其存储有可由计算机设备执行的计算机程序,当程序在计算机设备上运行时,使得计算机设备执行上述学习评估方法的步骤。
本申请实施例提供的学习评估方法,该评估方法能够在评估过程中通过学习能力评估模型确定目标用户的学习能力评估结果,也就是说,通过学习能力评估模型的学习预测能够力,确定了目标用户的学习评估结果,通过深度学习模型进行预测,能够准确快捷的学习该目标用户的学习规律,从而能够更加准确的预测的学习能力评估结果。
并且在本申请实施例中,在学习能力评估模型的训练过程中,根据预测结果中与输入至模型中的知识点的预测结果,知识点的关联知识点的预测结果来确定损失函数,通过在训练过程中加入了关联知识点的信息,所以在计算损失函数时,能够根据知识点之间的关联关系,计算与输入的知识点关联的知识点在模型训练过程中产生的损失函数,与现有技术相比,将关联知识点的信息加入到模型学习训练的过程中,提高了模型的预测结果的可解释性和稳定性,所说使用学习能力评估模型对目标用户的待评估数据进行学习能力评估时,对目标用户关联知识点的评估结果保持了稳定性,也进一步能够更准确的对目标用户进行学业规划。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种学习评估方法的架构示意图;
图2为本申请实施例提供的一种学习能力评估模型的架构示意图;
图3为本申请实施例提供的一种学习能力评估模型训练方法的流程示意图;
图4为本申请实施例提供的一种样本信息的传递示意图;
图5为本申请实施例提供的一种确定关联知识点的方法说明示意图;
图6为本申请实施例提供的一种学习评估方法的应用架构示意图;
图7为本申请实施例提供的一种学习能力评估模型训练方法的流程示意图;
图8为本申请实施例提供的一种学习评估方法的流程示意图;
图9为本申请实施例提供的一种比较关联知识点的预测结果的示意图;
图10为本申请实施例提供的一种比较关联知识点的预测结果的示意图;
图11为本申请实施例提供的一种学习评估装置的结构示意图;
图12为本申请实施例提供的一种学习能力评估模型的训练装置结构示意图;
图13为本申请实施例提供的一种计算机设备的结构示意图;
图14为本申请实施例提供的一种知识图谱的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
为了方便理解,下面对本申请实施例中涉及的名词进行解释:
智能学习:也称智能教学,指的是通过分析学习用户的数据,对学习用户的学习进行智能化规划的一种方法,其主要目的是进行学习用户的学习路径规划,在本申请中,学习用户可以分为在线教育学习用户以及线下教育学习用户。
学习路径:指的是以加速学习技能成长为目标而设计的综合学习方案,是对学习用户在学习成长过程的科学规划。
在线教育:指的是一种非面对面、可突破时间与空间限制、灵活自主的学习模式,不仅可以将学习与工作同时进行,而且打破了传统教育培训时间和空间的限制,使得学习用户与灵活自主地安排自己的学习计划。
知识图谱:知识图谱是一种通过将各散落的知识更有效的组织起来而形成的一种可视化关系网络,在知识图谱中,可以确定不同知识之间的相关性。示例性的如图14所示,知识图谱中可以通过有向或者无向的连接线,将各知识连接起来。图14中的知识图谱中的黑色圆点表示知识点,不同大小的知识点可以代表不同知识的分级,例如第一级知识、第二级知识等多层级知识。
机器学习(ML,Machine Learning):是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径。机器学习的核心是“使用算法解析数据,第二中学习,然后对世界上的某件事情做出决定或预测”。这意味着,与其显式地编写程序来执行某些任务,不如教计算机如何开发一个算法来完成任务。
深度学习(DL,Deep Learning):是机器学习领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标—人工智能(AI,Artificial Intelligence)。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。
RNN:(Recurrent Neural Network,循环神经网络),是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络。
LSTM:(Long Short-Term Memory,长短期记忆网络),是一种深度学习神经网络模型,具体的LSTM是一种时间循环神经网络,是为了解决一般的RNN(循环神经网络)存在的长期依赖问题而专门设计出来的,也是一种特殊的RNN。在LSTM中,LSTM具有重复模块链的形式结构,与神经网络的简单的一层相比,LSTM拥有四层,这四层以特殊的方式进行交互。
损失函数:也可以称为代价函数(cost function)是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。在应用中,损失函数通常作为学习准则与优化问题相联系,即通过最小化损失函数求解和评估模型。
在具体实践过程中,本申请的发明人发现,现有技术中在获取了学习用户的设定时间段内的学习信息,可以对该设定时间段内获取的学习信息进行分析,并根据分析结果,对学习用户进行学习路径规划。例如,针对某学习用户,获取了该学习用户在过去一周内针对数学问题的学习信息,每个学习信息至少可以包括数学问题的题目信息以及该学习用户是否答对了该题目信息。示例性的,学习用户针对二元一次方程部分的题目信息答题正确率较低,则可以在下个学习阶段,通过多次讲解二元一次方程部分的知识点,以及多次练习二元一次方程部分的题目。
但是现有技术中,通常是使用人工分析的方式来制定学习路径规划的,若存在大量学习信息,则不能有效的分析出各学习用户的学习习惯或者学习程度,也不能制定出符合各用户的学业规划。
基于上述问题,本申请的发明人提出一种学习评估方法,发明人将深度学习的方法引入学习评估的场景中,通过深度学习模型学习各学习用户的学习能力以及对知识点掌握程度,从而能够更准确的对学习用户进行学习能力评估,并进一步地能够准确的对学习用户进行学业规划。
本申请的发明人认为各学习用户的学习能力是能够通过多次答题的方式来进行表征,所以发明人构思了一种基于循环神经网络模型的学习评估方法。
但是发明人又在实践的过程中发现,使用循环神经网络模型进行学习评估时,得到的知识点的学习评估结果与知识图谱中邻近的知识点的学习评估结果相差较大,不符合各学习用户的学习实际情况。示例性的,使用循环神经网络模型进行学习评估时,目标用户针对第一知识点的学习评估结果为答题正确,目标用户针对第二知识点的学习评估结果为答题错误,但是第二知识点为第一知识点在知识图谱中的前置知识点,按照学习规律来说,目标用户需要掌握第二知识点后,才可以掌握第一知识点,所以学习评估结果不符合各学习用户的学习实际情况。
所以进一步地,发明人又构思了一种学习评估方法,同样使用循环神经网络模型进行学习评估,但是新构思的循环神经网络模型是基于知识点以及邻近知识点两部分信息进行模型训练的过程,其中针对学习能力评估模型的训练方法中,通过输入层、输出层以及输入层和输出层之间的多个串联连接的子模型的学习能力评估模型的结构以及训练样本来对模型进行训练,并且在一次训练过程中,是将训练样本中的一个样本题目信息序列输入至各子模型中,并通过子模型的输出确定针对样本题目信息所属知识图谱中各知识点的预测结果。
在进行损失函数计算时,根据预测结果中下一个输入样本信息的知识点信息的预测结果以及下一个输入样本的真实学习程度,即答题结果确定了第一损失函数,并进一步根据下一个输入样本的样本信息的关联知识点的先验答题结果以及预测结果中关联知识点的预测答题结果,确定第二损失函数,根据第一损失函数以及第二损失函数来确定总体损失函数,根据总体损失函数来更新各子模型的模型参数。
与现有技术相比,将关联知识点的信息加入到模型学习训练的过程中,提高了模型的预测结果的可解释性和稳定性,所说使用学习能力评估模型对目标用户的待评估数据进行学习能力评估时,对目标用户关联知识点的评估结果保持了稳定性,也进一步能够更准确的对目标用户进行学业规划。通过学习能力评估模型的学习预测能够力,确定了目标用户的学习评估结果,通过深度学习模型进行预测,能够准确快捷的学习该目标用户的学习规律,从而能够更加准确的预测的学习能力评估结果。
在介绍完本申请实施例的设计思想之后,下面对本申请实施例的技术方案能够适用的应用场景做一些简单介绍,需要说明的是,以下介绍的应用场景仅用于说明本申请实施例而非限定。在具体实施时,可以根据实际需要灵活地应用本申请实施例提供的技术方案。
为进一步说明本申请实施例提供的技术方案,下面结合附图以及具体实施方式对此进行详细的说明。虽然本申请实施例提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在方法中可以包括更多或者更少的操作步骤。在逻辑上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本申请实施例提供的执行顺序。
参考图1,其为本申请实施例提供的学习能力评估模型训练过程的应用场景示意图。该应用场景包括处理设备101和数据库102。其中,其中,处理设备101和数据库102之间通过无线或有线通信网络连接。处理设备101可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。数据库102可以是基于云服务器实现的数据库,数据库102中存储有大量待处理的训练样本,数据库102中还可以保存已训练的模型参数、模型初始参数或者每次迭代过程中更新的模型参数等数据。
处理设备101从数据库102中获取训练样本进行训练,具体的,训练样本中包括由n个样本题目信息按照答题顺序排列组成的样本题目信息序列,每个样本题目信息包括样本题目在知识图谱中对应的目标知识点信息以及样本题目的答题结果,n个样本题目对应的所有目标知识点属于同一属性类别的知识图谱,其中n大于等于1。
处理设备101通过输入层,分别将n个样本题目信息按照答题顺序输入各子模型中,每个子模型分别根据各自的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息,得到所述知识图谱中各个知识点的学习能力预测结果并通过输出层输出;以及将该子模型基于对应的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息确定的前n个样本题目的参考信息传递给下一级子模型。
处理设备101分别根据每个子模型对应的目标知识点信息、样本题目的答题结果以及上一级子模型针对目标知识点信息的预测答题结果确定第一损失函数值,根据目标知识点在知识图谱中的关联知识点的先验答题结果以及上一级子模型针对关联知识点的预测答题结果确定第二损失函数值;根据第一损失函数值以及第二损失函数值,获得本次迭代训练过程的总体损失函数值,根据总体损失函数值更新各个子模型的模型参数。
进一步地,处理设备101可基于学习能力评估模型对学习用户进行学业能力评估,将学业评估结果存储到数据库102中,以基于学业评估及结果进行学业规划等服务。
为进一步说明本申请实施例提供的技术方案,下面结合附图以及具体实施方式对此进行详细的说明。虽然本申请实施例提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在方法中可以包括更多或者更少的操作步骤。在逻辑上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本申请实施例提供的执行顺序。
下面结合图1所示的应用场景,对本申请实施例提供的技术方案进行说明。
本申请主要通过对学习能力评估模型进行训练后,来进行学业规划,所以首先介绍对学习能力评估模型进行训练的过程。
具体的,如图2所示,首先介绍本申请实施例中的学习能力评估模型的模型结构,模型中包括输入层、输出层以及位于输入层以及输出层之间的模型,并且由于学习用户的学习过程是按照时序进行答题的,所以模型是多个子模型,各子模型之间是串联连接的。
在图2中,示例性的示出了n个子模型,第一个子模型与第二个子模型串联,第二个子模型与第三个子模型串联,……,第n-1个子模型与第n个子模型串联。
在本申请实施例中,串联结构的各子模型为循环神经网络模型,可以是RNN模型,也可以是LSTM模型,还可以是其它循环网络模型。
在循环网络模型中,每个子模型能够接收输入的样本以及上一级子模型传递的信息,该信息表征的是之前的输入的样本特征。
以图2为例进行说明,针对第3个子模型,输入到第3个子模型中的数据为样本以及第2个子模型传递的信息,该信息能够表征第1个以及第2个样本的数据特征。
在介绍了学习能力评估模型的结构后,针对每次迭代训练过程,如图3所示,包括:
步骤S301,获得训练样本以及上一次迭代训练后更新得到的模型参数,所述训练样本中包括由n个样本题目信息按照答题顺序排列组成的样本题目信息序列,每个样本题目信息包括样本题目在知识图谱中对应的目标知识点信息以及样本题目的答题结果,n个样本题目对应的所有目标知识点属于同一属性类别的知识图谱,其中n大于等于1;
步骤S302,通过输入层,分别将n个样本题目信息按照所述答题顺序输入各子模型中,每个子模型分别根据各自的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息,得到所述知识图谱中各个知识点的学习能力预测结果并通过输出层输出;以及将该子模型基于对应的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息确定的前n个样本题目的参考信息传递给下一级子模型;
步骤S303,分别根据每个子模型对应的目标知识点信息、样本题目的答题结果以及上一级子模型针对所述目标知识点信息的预测答题结果确定第一损失函数值,根据所述目标知识点在所述知识图谱中的关联知识点的先验答题结果以及上一级子模型针对所述关联知识点的预测答题结果确定第二损失函数值;
步骤S304,根据所述第一损失函数值以及所述第二损失函数值,获得本次迭代训练过程的总体损失函数值,根据所述总体损失函数值更新各个子模型的模型参数。
在步骤S301中,首先获取训练样本以及上一次迭代训练后更新得到的模型参数,也就是本次迭代训练过程中的初始模型参数。
可以理解为,若本次迭代训练为第一次训练过程,则获取到的模型参数就是模型训练过程中的初始模型参数。
在本申请实施例中,获取的训练样本至少是多个学习用户的历史答题信息,每个学习用户的答题题目可以不同,答题的数量也可以不同,不同的学习用户的答题信息都是针对同一属性类别的知识图谱的。示例性的,不同的学习用户做的题目都是属于针对数学知识图谱中的知识点的,学习用户1做的题目是关于方程知识点的,学习用户2做的题目是关于立体几何知识点的,学习用户3做的题目是关于矩阵知识点的等等。并且获取的学习用户1做的题目数量为14,学习用户2做的题目数量为20,学习用户3做的题目数量为10。
训练样本中包括多个样本题目信息序列,该训练中包括多个样本题目信息,样本题目信息至少包括样本题目对应的知识点信息,以及学习用户针对该题目的答题结果。
一种可选的实施例中,样本题目对应的知识点信息可以是该知识点在知识图谱中的标识信息,该标识信息具有唯一性。示例性的,知识点在图谱中的标识信息为3,可以表征该知识点为知识图谱中第3个知识点。
另一种可选的实施例中,样本题目信息还可以包括题目标识信息,可以表征学习用户答题的序列信息,例如,样本题目标识信息为4,表征的是学习用户进行答题的是第4个题目。
在本申请实施例中,各样本题目信息序列中各样本题目信息是按照学习用户的答题顺序排列的,不同的学习用户的各样本题目信息序列的可以不同,也可以相同,与不同学习用户的答题数量相关。
示例性的,学习用户A在设定时间段内完成了5个题目,分别为第1题目、第2题目、第3题目以及第4题目,所以针对学习用户A,样本题目信息序列为第1题目、第2题目、第3题目以及第4题目的题目信息,每个信息可以用(知识点,答题结果)的方式表征,不是一般性的,可以用(qt,at)来表示样本题目信息,其中qt表示的样本题目的知识点信息,at表示的是针对该样本题目的答题结果。
具体的,在本申请中,为了便于子模型的计算,可以对子模型的输入进行编码,即对样本题目信息进行编码。
在本申请实施例中,可以使用独热码one-hot编码方式进行编码,具体的,对每个样本题目信息构建原始编码序列,其中原始编码序列由2n个0编码构成。
可选的,在本申请实施例中,原始编码序列的长度为2n的原因是由于答题结果为正确答题结果以及错误答题结果两种,所以需要用前n个序列表示正确答题结果的状态以及用后n个序列表示错误答题结果的状态。
一种可选的实施例中,若存在m个答题结果状态,则可以认为原始编码序列的长度为2m。
在本申请实施例中,原始编码序列的长度为样本题目信息数量的2倍,所以在确定了样本题目信息数量后,可以确定原始编码序列的长度,原始编码序列中各个编码都是0。
示例性的,样本题目信息数量为5,则原始编码序列的长度为10,则原始编码序列为0,0,0,0,0,0,0,0,0,0。
在确定了原始编码序列后,根据每个样本题目信息的答题顺序,将前n个原始编码序列中与该答题顺序对应的编码赋值更新为答题结果对应的第一编码值,将后n个原始编码序列中与该答题顺序对应的编码赋值更新为答题结果对应的第二编码值。
也就是说,在前n个原始编码序列中与该答题顺序对应的编码的位置赋值为第一编码值,同样的,在后n个原始编码序列中与该答题顺序对应的编码的位置赋值为第二编码值。
前n个序列表示正确答题结果的状态以及用后n个序列表示错误答题结果的状态。所以若确定该样本题目的答题结果为正确结果,则在前n个序列中与该答题顺序对应的编码的位置赋值为正确结果的值,若确定该样本题目的答题结果为错误结果,则在后n个序列中与该答题顺序对应的编码的位置赋值为正确结果的值,通过更新赋值,得到更新后的编码序列。
在本申请实施例中,可以进一步定义,若答题结果是正确结果,则第一编码值为1,第二编码值为0,若答题结果是错误结果,则第一编码值为0,第二编码值为1。
示例性的,学习用户针对第1个样本题目信息的答题结果为正确结果,则第1个样本题目的答题结果的编码结果为1,0,0,0,0,0,0,0,0,0;学习用户针对第1个样本题目信息的答题结果为错误结果,则第1个样本题目的答题结果的编码结果为0,0,0,0,0,1,0,0,0,0。
当然,在本申请实施例中,第一编码值、第二编码值以及其它编码位置的赋值可以是其它值,在此不做限定。
在得到更新后的编码序列后,将每个更新编码序列以及每个样本题目信息中的目标知识点输入至对应的各子模型中。
可选的,在本申请实施例中,学习用户在一次答题序列过程中可以不完成所有的知识点题目,并且不同的样本题目信息可以对应同一知识点。示例性的,知识图谱中包括20个知识点,学习用户完成了4个样本题目,并得到了4个样本题目的答题结果,其中第1个样本题目、第2个样本题目对应一个知识点,第3个样本题目、第4个样本题目对应一个知识点,也就是说,该学习用户做过的知识点的数量为2,但是该学习用户做题数量为4。
在步骤S302中,通过输入层,将多个样本题目信息按照答题顺序输入各子模型中,在本申请中,样本题目信息的数量与子模型的数量相同,所以是将每个样本题目信息输入至对应的子模型中。示例性的,样本题目信息的数量为10,则子模型的数量也为10,将第1个样本题目信息输入至第1个子模型中,将第2个样本题目信息输入至第2个子模型中,…,将第10个样本题目信息输入至第10个子模型中。
在本申请实施例中,各个子模型的输入为样本题目信息以及上一级子模型传递的参考信息,该参考信息为前面所有样本题目信息的参考信息,也就是说,在本申请实施例中,会结合学习用户的整体学习情况作出预测。
示例性的,如图4所示,在本申请中,使用的模型为RNN模型,样本题目信息的数量为4,则在预测学习用户第五次作答情况时,会将第1个样本题目信息、第2个样本题目信息、第3个样本题目信息以及第4个样本题目信息持续传递,具体的,将第1个样本题目信息传递给第2个子模型,将第1个样本题目信息、第2个样本题目信息传递给第3个子模型,将第1个样本题目信息、第2个样本题目信息以及第3个子模型传递给第4个子模型。
在本申请实施例中,由于RNN模型无法解决长距离依赖的问题,所以在本申请实施例中,还可以通过LSTM模型来进行训练,LSTM模型在RNN模型的基础上引入了门的概念,门是指一种控制输出信息量的全连接层,其输入为一个向量,输出为0到1之间的实数。LSTM模型中的门分为三种:遗忘门、输入门和输出门。遗忘门用来控制上一时刻状态单元信号传递到当前时刻状态单元的通过情况;输入门用来控制当前时刻输入信号传递到当前时刻状态单元的通过情况;输出门用来控制当前时刻状态单元信号传递到当前时刻输出的通过情况。
在本申请实施例中,LSTM模型可以在每次传递信息的过程中,遗忘部分信息,以及增加部分信息,在模型训练过程中,记住需要长时间记忆的传递信息,忘记不重要的传递信息,能够更好的根据有效的信息,取得良好的训练结果。
一种可选的实施例中,若使用的是LSTM模型,则训练的模型参数就是控制遗忘门以及记忆门的参数。
在本申请实施例中,可以用n表示样本题目的数量,每个子模型分别根据各自的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息,得到所述知识图谱中各个知识点的学习能力预测结果并通过输出层输出。
在本申请实施例中,得到是知识图谱中各个知识点的学习能力预测结果,示例性的,知识图谱中包括50个知识点,则得到的是针对这50个知识点的学习能力预测结果。
在本申请实施例中,由于并不知道学习用户下一次答题的知识点是哪一个,所以不论学习用户的样本题目数量是多少,预测的都是知识图谱中各个知识点的学习能力预测结果。
在步骤S303中,通过每个子模型的输出,可以得到针对预测结果,该预测结果是用于表征学习用户下次答题的结果,示例性的,第2个子模型的输出为针对学习用户第3次答题的结果预测。
分别根据每个子模型对应的目标知识点信息、样本题目的答题结果以及上一级子模型针对所述目标知识点信息的预测答题结果确定第一损失函数值,也就是说,针对第i个子模型,第i个子模型的输入是第i个样本信息对应的知识点的真实答题结果,而第i-1个子模型能够预测第i个样本信息对应的知识点的预测答题结果,通过真实答题结果以及预测答题结果可以确定第一损失函数值。
进一步地,在本申请实施例中,为了能够考虑到知识图谱中的知识点是具有相关性的,所以在本申请实施例中,根据目标知识点在知识图谱中的关联知识点的先验答题结果以及上一级子模型针对关联知识点的预测答题结果确定第二损失函数值具体训练过程。
也就是说,针对第i个子模型,能够获取第i个样本信息对应的知识点的信息,也能够根据知识图谱,确定知识点的关联知识点,而第i-1个子模型能够预测关联知识点的预测答题结果,通过关联知识点的先验答题结果以及预测答题结果可以确定第二损失函数值。
进一步解释关联知识点,由于在知识图谱中,各知识具有关联性,所以关联知识点指的就是具有直接或者间接关联关系的知识点。
示例性的,样本信息对应的知识点是二元一次方程,可以认为关联知识点为一元一次方程,或者二元二次方程,或者为其它相关方程知识点。
在本申请中,可选的,可以根据知识图谱的邻接矩阵以及目标知识点的标识信息,确定知识图谱中关联知识点的标识信息,邻接矩阵用于表征所述知识图谱中各个知识点之间的关联关系。
具体实施时,对于知识图谱G,将知识图谱G中的一个知识点作为一个节点,为存在关系的两个知识点之间添加边,获得知识图谱G对应的无向图,如图5所示,其中知识点A和知识点B之间、知识点A和知识点D之间存在关联关系,知识点E和知识点B之间、知识点E和知识点D之间、知识点E和知识点C之间存在关联关系,若两个知识点之间存在关联关系,则在邻接矩阵中对应的值为1,若两个知识点之间不存在关联关系,则在邻接矩阵中对应的值为0。
在本申请实施例中,关联知识点的先验答题结果可以是真实的答题结果,可以将关联知识点的历史答题结果作为参考值,将任一历史答题结果作为先验答题结果,或者可以根据关联知识点的历史答题结果以及目标知识点的历史答题结果之间的关系,确定先验答题结果。
一种可选的实施例中,根据关联知识点的历史答题结果以及目标知识点的历史答题结果之间的关系可以去确定,若目标知识点的历史答题结果为正确答题结果,关联知识点的历史答题结果也为正确答题结果,可以认为关联知识点的先验答题结果是可以通过目标知识点的样本题目信息的答题结果确定。
示例性的,目标知识点的样本题目信息的答题结果为正确结果,则可以认为关联知识点的先验答题结果是正确结果,目标知识点的样本题目信息的答题结果为错误结果,则可以认为关联知识点的先验答题结果是错误结果。具体以知识点进行阐述,目标知识点为1+2=3,则可以认为关联知识点至少为1+1=2的知识点,若学习用户做对了1+2=3这个题目,则可以认为也能够做对1+1=2这个题目。
当然,在本申请中,还有其它确定关联知识点的先验答题结果的方法,在此不做赘述。
可选的,在本申请实施例中,关联知识点为目标知识点的前置知识点中的至少一个知识点,以及目标知识点的后置知识点中的至少一个知识点。也就是说,在知识图谱中,一个知识点具有前置知识点以及后置知识点,不限定前置知识点以及后置知识点的数量。
进一步具体解释前置知识点以及后置知识点,可以认为,为了学习目标知识点而学习的历史知识点为前置知识点,则后置知识点是学习了目标知识点后,能够进一步学习的知识点。
在本申请实施例中,可以选取多个连续的前置知识点或者多个连续的后置知识点作为关联知识点,也可以不连续的选择多个前置知识点或者多个后置知识点作为关联知识点。
在本申请实施例中,各子模型的预测结果指的是回答正确各知识点的概率,概率越大,可以认为学习用户掌握了该知识点,概率越低,可以认为学习用户并没有掌握该知识点。
在介绍了关联知识点后,还需要进一步解释,每个子模型确定的是第一子损失函数值以及第二子损失函数值,根据每个模型确定的第一子损失函数值以及第二子损失函数值确定第一损失函数值以及第二损失函数值。
一种可选的实施例中,可以将每个第一子损失函数值求和,得到第一损失函数值,将每个第二子损失函数值求和,得到第二损失函数值。
进一步地,可以将每个第一子损失函数值进行加权求和,得到第一损失函数值,将每个第二子损失函数值进行加权求和,得到第二损失函数值。
在步骤S304中,根据第一损失函数值以及第二损失函数值,能够确定本次迭代训练过程的总体损失函数值,一种可选的实施例中,可以将第一损失函数值以及第二损失值进行求和,得到总体损失函数值,或者可以将第一损失函数值以及第二损失值进行加权求和,得到总体损失函数值。具体方式不做限定。
在获得了总体损失函数值后,可以更新各个子模型的模型参数,各个子模型的模型参数都更新为同样的参数值。
为了更好的解释本申请实施例,下面结合一种具体的实施场景描述本申请实施例提供的学习能力评估模型的训练方法,如图6所示。
首先获取训练样本,在本申请实施例中的训练样本为学习用户多次答题训练,每次答题训练过程中,记录了学习用户的答题信息,包括答题对应的知识点以及答题结果。
针对一个答题训练对应的各答题信息,学习用户进行了10次答题,记录了学习用户的答题信息,包括答题对应的知识点以及答题结果,这10次答题对应同一知识图谱,该知识图谱中包括15个知识点。
由于训练样本中包括10次答题记录,所以如图6所示,包括10个子模型,每个子模型传递的上一级模型的参数信息用h表示,通过第10个子模型的输出结果,预测学习用户在第11次答题时,针对知识图谱中15个知识点的预测结果。
针对本次迭代训练数据,分别用(qt,at)来表示答题信息,即(q1,a1)、(q2,a2)、…、(q10,a10)。
然后对答题结果进行编码,具体的,(q1,a1)中的a1为正确结果,则a1的编码为10000000000000000000,(q2,a2)中的a2为正确结果,则a2的编码为01000000000000000000,(q3,a3)中的a3为错误结果,则a3的编码为00000000000010000000。
针对每个答题信息,用x1、x2、…、x10来表示编码后的各答题结果以及答题题目对应的知识点,具体的,将初始模型参数h0以及x1输入至第1个子模型中,输出结果为y1,并将x1的答题信息h1传递给第2个子模型。
第2个子模型根据x2,确定输出结果为y2,并将x1、x2的答题信息传递给第3个子模型,以此类推。
针对y1,y1中是针对15个知识点进行的答题结果预测,而x2对应的知识点的真实答题结果能够获得,所以能够确定第1个子模型的第一子损失函数,以此类推,可以得到第2个子模型的第一子损失函数、第3个子模型的第一子损失函数、第4个子模型的第一子损失函数、第5个子模型的第一子损失函数、…、第10个子模型的第一子损失函数,通过10个第一子损失函数之和确定第一损失函数。
同样的,针对y1,y1中是针对15个知识点进行的答题结果预测,而x2对应的知识点的关联知识点的先验答题结果能够获得,所以确定第1个子模型的第二子损失函数,以此类推,可以得到第2个子模型的第二子损失函数、第3个子模型的第二子损失函数、第4个子模型的第二子损失函数、第5个子模型的第二子损失函数、…、第10个子模型的第二子损失函数,通过10个第二子损失函数之和确定第二损失函数。
根据第一损失函数之和以及第二损失函数之和,确定总体损失函数,并根据总体损失函数来更新各个子模型的模型参数。
为了更好的解释本申请实施例,下面结合一种具体的实施场景描述本申请实施例基于学习能力评估模型的学业路径规划系统,如图7所示,包括学情分析模块、学习路径规划模块、学业诊断模块。在本申请实施例中,学业诊断模块中包括训练完成的学习能力评估模型。
具体的,学情分析模块向学业诊断模块发送学情分析请求,学业诊断模块通过拉取学习用户的行为日志,并对行为日志进行预处理过程,预处理过程至少包括数据预处理以及统计答题得分的过程。
学业诊断模型通过训练完成的学习能力评估模型,得到预测结果,通过预测结果的后处理过程,将预测结果中概率大于设定阈值的结果作为学习用户已掌握的知识点,将预测结果中概率小于设定阈值的结果作为学习用户未掌握的知识点。
将后处理后的结果保存在数据库中。学情分析模块能够从数据库中读取结果,并进行学情分析,同样的,学习路径规划模块可以从数据库中读取结果,并进行学习路径规划。
也就是说,在本申请实施例中,在训练完成学习能力评估模型后,可以对不同的目标用户进行学习能力评估,具体的,在本申请实施例中,在实际应用过程中,获取的目标用户的待评估数据是包括多个答题题目以及答题结果的,通过多个答题题目以及答题结果进行学习能力评估。
示例性的,如图8所示,待评估数据中包括目标用户针5个题目的答题结果,这5个题目都是同一知识图谱中的知识点,且该知识图谱中的知识点的数量为10。
根据待评估数据中的5个题目的答题结果确定目标用户在第6个题目的答题结果,这个答题结果包括的是针对知识图谱中10个知识点的答题正确概率,该概率越高,表征的是答题正确率越高。所以在本申请实施例中,通过第5个答题题目和结果的输入,以及对应的第5个子模型来输出对第6个题目的答题结果,即y5。
具体的,在本申请实施例中,在确定y5的输出结果时,需要考虑前4个题目的题目信息,所以需要使用h4,h4的信息可以是依次通过h1、h2、h3各个信息的传递得到的,也可以是通过数据库中已保存的h4得到的。
在本申请实施例中,定y6的输出结果为10个概率构成的向量,示例性的,输出结果为(0.44,0.22,0.95,0.88,0.978,0.965,0.32,0.91,0.97,0.3),每个值表征的是第6次答题时,目标用户对每个知识点的答题正确概率。
通过本申请实施例中的方法,能够解决相关联的两个知识点的预测结果差距过大的问题,如图9以及如图10所示,图9表示的是在模型训练中未考虑关联知识点的损失函数而得到的训练模型针对两个关联知识点的预测结果,图10表示的在模型训练中考虑了关联知识点而得到的训练模的针对两个关联知识点的预测结果。
具体的,在图9以及图10中,用距离表示两个关联知识点的预测结果差异。图9中,知识点A以及知识点B为关联知识点,知识点A的预测答题正确的概率为0.8,知识点B的预测答题正确的概率为0.96;图10中,知识点A以及知识点B为关联知识点,知识点A的预测答题正确的概率为0.92,知识点B的预测答题正确的概率为0.935。
由于图9中知识点A以及知识点B为关联知识点之间的预测答题正确的概率相差较大,所以图9中用L1表示预测答题正确的概率相差值。在图10中,知识点A以及知识点B为关联知识点之间的预测答题正确的概率相差较小,所以图9中用L1缩短为图10中的L2。
综上所述,本申请实施例提供的学习能力评估模型的训练方法,能够在训练过程中,根据预测结果中与输入至模型中的知识点的预测结果,知识点的关联知识点的预测结果来确定损失函数,通过在训练过程中加入了关联知识点的信息,所以在计算损失函数时,能够根据知识点之间的关联关系,计算与输入的知识点关联的知识点在模型训练过程中产生的损失函数,与现有技术相比,将关联知识点的信息加入到模型学习训练的过程中,提高了模型的预测结果的可解释性和稳定性,也避免了关联的两个知识点预测结果相差较多的问题。
基于相同的技术构思,本申请实施例还提供一种学习评估装置1100,如图11所示,包括:
获取单元1101,用于获取目标用户的待评估数据,所述待评估数据中包括多个答题信息,每个答题信息中包括答题知识点以及答题结果,所有答题知识点属于同一知识图谱;
学习能力评估结果确定单元1102,用于通过学习能力评估模型以及所述待评估数据确定所述目标用户的学习能力评估结果,所述学习能力评估结果为所述目标用户针对所述知识图谱中所有知识点的预测答题结果,其中所述学习能力评估模型包括输入层和输出层,以及位于所述输入层和输出层之间的多个串联连接的子模型,每个所述子模型的模型参数相同,所述模型参数是经过多次迭代训练获得的。
针对每次迭代训练,如图12所示的训练装置,包括:
训练数据获取单元1201,用于获得训练样本以及上一次迭代训练后更新得到的模型参数,所述训练样本中包括由n个样本题目信息按照答题顺序排列组成的样本题目信息序列,每个样本题目信息包括样本题目在知识图谱中对应的目标知识点信息以及样本题目的答题结果,n个样本题目对应的所有目标知识点属于同一属性类别的知识图谱,其中n大于等于1;
子模型处理单元1202,用于通过输入层,分别将n个样本题目信息按照所述答题顺序输入各子模型中,每个子模型分别根据各自的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息,得到所述知识图谱中各个知识点的学习能力预测结果并通过输出层输出;以及将该子模型基于对应的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息确定的前n个样本题目的参考信息传递给下一级子模型;
损失函数确定单元1203,用于分别根据每个子模型对应的目标知识点信息、样本题目的答题结果以及上一级子模型针对所述目标知识点信息的预测答题结果确定第一损失函数值,根据所述目标知识点在所述知识图谱中的关联知识点的先验答题结果以及上一级子模型针对所述关联知识点的预测答题结果确定第二损失函数值;根据所述第一损失函数值以及所述第二损失函数值,获得本次迭代训练过程的总体损失函数值,根据所述总体损失函数值更新各个子模型的模型参数。
可选的,子模型处理单元1202具体用于:
对每个样本题目信息构建原始编码序列,其中原始编码序列由2n个0编码构成;
根据每个样本题目信息的答题顺序,将前n个原始编码序列中与该答题顺序对应的编码赋值更新为答题结果对应的第一编码值,将后n个原始编码序列中与该答题顺序对应的编码赋值更新为答题结果对应的第二编码值,得到更新编码序列,其中若答题结果是正确结果,则所述第一编码值为1,第二编码值为0,若答题结果是错误结果,则所述第一编码值为0,第二编码值为1;
将每个更新编码序列以及每个样本题目信息中的所述目标知识点输入至对应的各子模型中。
所述数据获取单元1202还用于:
根据所述知识图谱的邻接矩阵以及目标知识点的标识信息,确定所述关联知识点的标识信息,所述邻接矩阵用于表征所述知识图谱中各个知识点之间的关联关系;
根据所述关联知识点的标识信息获取所述关联知识点的先验答题结果。
可选的,所述关联知识点为所述目标知识点的前置知识点中的至少一个知识点,以及所述目标知识点的后置知识点中的至少一个知识点。
可选的,所述知识图谱中的关联知识点的先验答题结果是根据所述目标知识点的历史答题结果以及关联知识点的历史答题结果确定的。
基于相同的技术构思,本申请实施例提供了一种计算机设备,如图13所示,包括至少一个处理器1301,以及与至少一个处理器连接的存储器1302,本申请实施例中不限定处理器1301与存储器1302之间的具体连接介质,图13中处理器1301和存储器1302之间通过总线连接为例。总线可以分为地址总线、数据总线、控制总线等。
在本申请实施例中,存储器1302存储有可被至少一个处理器1301执行的指令,至少一个处理器1301通过执行存储器1302存储的指令,可以执行前述的学习能力评估模型的训练方法或者学习方法中所包括的步骤。
其中,处理器1301是计算机设备的控制中心,可以利用各种接口和线路连接终端设备的各个部分,通过运行或执行存储在存储器1302内的指令以及调用存储在存储器1302内的数据,从而获得客户端地址。待选的,处理器1301可包括一个或多个处理单元,处理器1301可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1301中。在一些实施例中,处理器1301和存储器1302可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。
处理器1301可以是通用处理器,例如中央处理器(CPU)、数字信号处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器1302作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器1302可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random AccessMemory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器1302是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本申请实施例中的存储器1302还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
基于相同的技术构思,本申请实施例提供了一种计算机可读存储介质,其存储有可由计算机设备执行的计算机程序,当程序在计算机设备上运行时,使得计算机设备执行学习能力评估模型的训练方法或者学习方法的步骤。
上述计算机可读存储介质可以是计算机能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NANDFLASH)、固态硬盘(SSD))等。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种学习评估方法,其特征在于,所述方法包括:
获取目标用户的待评估数据,所述待评估数据中包括多个答题信息,每个答题信息中包括答题知识点以及答题结果,所有答题知识点属于同一知识图谱;
通过学习能力评估模型以及所述待评估数据确定所述目标用户的学习能力评估结果,所述学习能力评估结果为所述目标用户针对所述知识图谱中所有知识点的预测答题结果,其中所述学习能力评估模型包括输入层和输出层,以及位于所述输入层和输出层之间的多个串联连接的子模型,每个所述子模型的模型参数相同,所述模型参数是经过多次迭代训练获得的,其中每次迭代训练包括:
获得训练样本以及上一次迭代训练后更新得到的模型参数,所述训练样本中包括由n个样本题目信息按照答题顺序排列组成的样本题目信息序列,每个样本题目信息包括样本题目在知识图谱中对应的目标知识点信息以及样本题目的答题结果,n个样本题目对应的所有目标知识点属于同一属性类别的知识图谱,其中n大于等于1;
通过输入层,分别将n个样本题目信息按照所述答题顺序输入各子模型中,每个子模型分别根据各自的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息,得到所述知识图谱中各个知识点的学习能力预测结果并通过输出层输出;以及将该子模型基于对应的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息确定的前n个样本题目的参考信息传递给下一级子模型;
分别根据每个子模型对应的目标知识点信息、样本题目的答题结果以及上一级子模型针对所述目标知识点信息的预测答题结果确定第一损失函数值,根据所述目标知识点在所述知识图谱中的关联知识点的先验答题结果以及上一级子模型针对所述关联知识点的预测答题结果确定第二损失函数值;
根据所述第一损失函数值以及所述第二损失函数值,获得本次迭代训练过程的总体损失函数值,根据所述总体损失函数值更新各个子模型的模型参数。
2.根据权利要求1所述的方法,其特征在于,所述通过输入层,分别将n个样本题目信息按照所述答题顺序输入各子模型中,包括:
对每个样本题目信息构建原始编码序列,其中原始编码序列由2n个0编码构成;
根据每个样本题目信息的答题顺序,将前n个原始编码序列中与该答题顺序对应的编码赋值更新为答题结果对应的第一编码值,将后n个原始编码序列中与该答题顺序对应的编码赋值更新为答题结果对应的第二编码值,得到更新编码序列,其中若答题结果是正确结果,则所述第一编码值为1,第二编码值为0,若答题结果是错误结果,则所述第一编码值为0,第二编码值为1;
将每个更新编码序列以及每个样本题目信息中的所述目标知识点输入至对应的各子模型中。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述知识图谱的邻接矩阵以及目标知识点的标识信息,确定所述关联知识点的标识信息,所述邻接矩阵用于表征所述知识图谱中各个知识点之间的关联关系;
根据所述关联知识点的标识信息获取所述关联知识点的先验答题结果。
4.根据权利要求1~3任一所述的方法,其特征在于,所述关联知识点为所述目标知识点的前置知识点中的至少一个知识点,以及所述目标知识点的后置知识点中的至少一个知识点。
5.根据权利要求1所述的方法,其特征在于,所述知识图谱中的关联知识点的先验答题结果是根据所述目标知识点的历史答题结果以及关联知识点的历史答题结果确定的。
6.一种学习评估装置,其特征在于,包括:
获取单元,用于获取目标用户的待评估数据,所述待评估数据中包括多个答题信息,每个答题信息中包括答题知识点以及答题结果,所有答题知识点属于同一知识图谱;
学习能力评估结果确定单元,用于通过学习能力评估模型以及所述待评估数据确定所述目标用户的学习能力评估结果,所述学习能力评估结果为所述目标用户针对所述知识图谱中所有知识点的预测答题结果,其中所述学习能力评估模型包括输入层和输出层,以及位于所述输入层和输出层之间的多个串联连接的子模型,每个所述子模型的模型参数相同,所述模型参数是经过多次迭代训练获得的,其中每次迭代训练包括:
训练数据获取单元,用于获得训练样本以及上一次迭代训练后更新得到的模型参数,所述训练样本中包括由n个样本题目信息按照答题顺序排列组成的样本题目信息序列,每个样本题目信息包括样本题目在知识图谱中对应的目标知识点信息以及样本题目的答题结果,n个样本题目对应的所有目标知识点属于同一属性类别的知识图谱,其中n大于等于1;
子模型处理单元,用于通过输入层,分别将n个样本题目信息按照所述答题顺序输入各子模型中,每个子模型分别根据各自的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息,得到所述知识图谱中各个知识点的学习能力预测结果并通过输出层输出;以及将该子模型基于对应的样本题目信息和上一级子模型传递的前n-1个样本题目的参考信息确定的前n个样本题目的参考信息传递给下一级子模型;
损失函数确定单元,用于分别根据每个子模型对应的目标知识点信息、样本题目的答题结果以及上一级子模型针对所述目标知识点信息的预测答题结果确定第一损失函数值,根据所述目标知识点在所述知识图谱中的关联知识点的先验答题结果以及上一级子模型针对所述关联知识点的预测答题结果确定第二损失函数值;根据所述第一损失函数值以及所述第二损失函数值,获得本次迭代训练过程的总体损失函数值,根据所述总体损失函数值更新各个子模型的模型参数。
7.根据权利要求6所述的装置,其特征在于,所述子模型处理单元具体用于:
对每个样本题目信息构建原始编码序列,其中原始编码序列由2n个0编码构成;
根据每个样本题目信息的答题顺序,将前n个原始编码序列中与该答题顺序对应的编码赋值更新为答题结果对应的第一编码值,将后n个原始编码序列中与该答题顺序对应的编码赋值更新为答题结果对应的第二编码值,得到更新编码序列,其中若答题结果是正确结果,则所述第一编码值为1,第二编码值为0,若答题结果是错误结果,则所述第一编码值为0,第二编码值为1;
将每个更新编码序列以及每个样本题目信息中的所述目标知识点输入至对应的各子模型中。
8.根据权利要求6所述的装置,其特征在于,所述数据获取单元还用于:
根据所述知识图谱的邻接矩阵以及目标知识点的标识信息,确定所述关联知识点的标识信息,所述邻接矩阵用于表征所述知识图谱中各个知识点之间的关联关系;根据所述关联知识点的标识信息获取所述关联知识点的先验答题结果。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1~5中任一权利要求所述方法的步骤。
10.一种计算机可读存储介质,其特征在于,其存储有可由计算机设备执行的计算机程序,当所述程序在计算机设备上运行时,使得所述计算机设备执行权利要求1~5中任一权利要求所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010355144.4A CN111582694B (zh) | 2020-04-29 | 2020-04-29 | 一种学习评估方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010355144.4A CN111582694B (zh) | 2020-04-29 | 2020-04-29 | 一种学习评估方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111582694A CN111582694A (zh) | 2020-08-25 |
CN111582694B true CN111582694B (zh) | 2023-08-08 |
Family
ID=72113925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010355144.4A Active CN111582694B (zh) | 2020-04-29 | 2020-04-29 | 一种学习评估方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111582694B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112182237A (zh) * | 2020-09-21 | 2021-01-05 | 深圳中兴网信科技有限公司 | 题目知识点关联方法、题目知识点关联系统和存储介质 |
CN112328804A (zh) * | 2020-10-26 | 2021-02-05 | 北京黑岩方碑网络科技有限公司 | 确定学习情况的方法、装置以及存储介质 |
CN112257966B (zh) * | 2020-12-18 | 2021-04-09 | 北京世纪好未来教育科技有限公司 | 模型处理方法、装置、电子设备及存储介质 |
CN112241447B (zh) * | 2020-12-18 | 2021-04-02 | 北京世纪好未来教育科技有限公司 | 一种学情数据处理方法、装置、计算机设备及存储介质 |
CN112580896A (zh) * | 2020-12-31 | 2021-03-30 | 南京谦萃智能科技服务有限公司 | 知识点预测方法、装置、设备及存储介质 |
CN112949824A (zh) * | 2021-02-07 | 2021-06-11 | 北京淇瑀信息科技有限公司 | 一种基于神经网络的多输出多任务特征评估方法、装置和电子设备 |
CN113762585B (zh) * | 2021-05-17 | 2023-08-01 | 腾讯科技(深圳)有限公司 | 数据的处理方法、账号类型的识别方法及装置 |
CN113220847B (zh) * | 2021-06-01 | 2024-06-21 | 平安科技(深圳)有限公司 | 基于神经网络的知识掌握程度测评方法、装置及相关设备 |
CN114098730B (zh) * | 2021-09-06 | 2023-05-09 | 北京无疆脑智科技有限公司 | 基于认知图谱的认知能力测试和训练方法、装置、设备和介质 |
CN113796834B (zh) * | 2021-09-18 | 2024-01-09 | 北京世纪好未来教育科技有限公司 | 认知能力评估方法、装置、设备及存储介质 |
CN113808664B (zh) * | 2021-09-26 | 2024-03-19 | 平安科技(深圳)有限公司 | 基于机器学习的抗体筛选方法及装置 |
CN114971095B (zh) * | 2022-08-02 | 2022-11-08 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 在线教育效果预测方法、装置、设备及存储介质 |
CN115120240B (zh) * | 2022-08-30 | 2022-12-02 | 山东心法科技有限公司 | 特殊行业目标感知技能的敏感性评估方法、设备及介质 |
CN115907288A (zh) * | 2022-10-31 | 2023-04-04 | 中安华邦(北京)安全生产技术研究院股份有限公司 | 一种安全能力培养效果评估方法、装置、电子设备及介质 |
CN115545570B (zh) * | 2022-11-28 | 2023-03-24 | 四川大学华西医院 | 一种护理教育培训的成果验收方法及系统 |
CN118586780A (zh) * | 2024-08-05 | 2024-09-03 | 禾辰纵横信息技术有限公司 | 一种学习行为量化评估方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103384A (zh) * | 2017-04-01 | 2017-08-29 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于三维知识网络的学习者学习轨迹量化方法 |
CN108694501A (zh) * | 2018-05-04 | 2018-10-23 | 北京航空航天大学 | 一种面向xAPI的个性化学习效果分析系统及方法 |
CN109903617A (zh) * | 2017-12-11 | 2019-06-18 | 北京三好互动教育科技有限公司 | 个性化练习方法和系统 |
CN110413728A (zh) * | 2019-06-20 | 2019-11-05 | 平安科技(深圳)有限公司 | 练习题推荐方法、装置、设备和存储介质 |
-
2020
- 2020-04-29 CN CN202010355144.4A patent/CN111582694B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103384A (zh) * | 2017-04-01 | 2017-08-29 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于三维知识网络的学习者学习轨迹量化方法 |
CN109903617A (zh) * | 2017-12-11 | 2019-06-18 | 北京三好互动教育科技有限公司 | 个性化练习方法和系统 |
CN108694501A (zh) * | 2018-05-04 | 2018-10-23 | 北京航空航天大学 | 一种面向xAPI的个性化学习效果分析系统及方法 |
CN110413728A (zh) * | 2019-06-20 | 2019-11-05 | 平安科技(深圳)有限公司 | 练习题推荐方法、装置、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111582694A (zh) | 2020-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111582694B (zh) | 一种学习评估方法及装置 | |
CN114139637B (zh) | 多智能体信息融合方法、装置、电子设备及可读存储介质 | |
CN117076993A (zh) | 基于云原生的多智能体博弈决策系统及方法 | |
CN113851020A (zh) | 一种基于知识图谱的自适应学习平台 | |
CN111506814A (zh) | 一种基于变分自注意力网络的序列推荐方法 | |
CN114254127A (zh) | 学生能力画像方法、学习资源推荐方法及装置 | |
CN114818682B (zh) | 基于自适应实体路径感知的文档级实体关系抽取方法 | |
CN112508177A (zh) | 一种网络结构搜索方法、装置、电子设备及存储介质 | |
CN114398556A (zh) | 学习内容的推荐方法、装置、设备及存储介质 | |
CN114168819B (zh) | 一种基于图神经网络的岗位匹配方法及装置 | |
CN115330142A (zh) | 联合能力模型的训练方法、能力需求匹配方法和装置 | |
CN115238169A (zh) | 一种慕课可解释推荐方法、终端设备及存储介质 | |
CN111897943A (zh) | 会话记录搜索方法、装置、电子设备及存储介质 | |
CN114971066A (zh) | 融合遗忘因素和学习能力的知识追踪方法及系统 | |
CN112819024A (zh) | 模型处理方法、用户数据处理方法及装置、计算机设备 | |
Khan et al. | Fuzzy cognitive maps and intelligent decision support–a review | |
Prescott | Explorations in reinforcement and model-based learning | |
CN113191527A (zh) | 一种基于预测模型进行人口预测的预测方法及装置 | |
Zhang et al. | Stm-gail: Spatial-Temporal meta-gail for learning diverse human driving strategies | |
Mînzu et al. | A Machine Learning Algorithm That Experiences the Evolutionary Algorithm’s Predictions—An Application to Optimal Control | |
Popchev | Soft Computing: Three Decades Fuzzy Models and Applications | |
CN113779396B (zh) | 题目推荐方法和装置、电子设备、存储介质 | |
CN118536505B (zh) | 基于融合关系与二维注意力的实体关系抽取方法及装置 | |
CN117829103A (zh) | 模型处理方法、数据处理方法及计算设备 | |
Ghosh | Learning from Sequential User Data: Models and Sample-efficient Algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |