CN112256869A - 一种基于题意文本的同知识点试题分组系统和方法 - Google Patents

一种基于题意文本的同知识点试题分组系统和方法 Download PDF

Info

Publication number
CN112256869A
CN112256869A CN202011083837.9A CN202011083837A CN112256869A CN 112256869 A CN112256869 A CN 112256869A CN 202011083837 A CN202011083837 A CN 202011083837A CN 112256869 A CN112256869 A CN 112256869A
Authority
CN
China
Prior art keywords
question
questions
grouping
vocabulary
hot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011083837.9A
Other languages
English (en)
Other versions
CN112256869B (zh
Inventor
陈建海
杨楠
沈睿
何钦铭
荣大中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202011083837.9A priority Critical patent/CN112256869B/zh
Publication of CN112256869A publication Critical patent/CN112256869A/zh
Application granted granted Critical
Publication of CN112256869B publication Critical patent/CN112256869B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于题意文本的同知识点试题分组系统和方法,属于在线试题学习领域。本系统包含了无监督模型WSD‑LDA聚类和监督学习的独热随机森林两种方法模型,利用人工智能与自然语言处理领域相关技术,对在线平台题库同学科或知识点下内容相近的题目进行细分,将相近的题目以分组形式呈现,便于用户依照自身需求对同类题目进行挑选、去重、精简、典型化等处理,解决了平台上相似题目过多,同一知识点下题目冗杂,教师难以优选试题、用户学习训练低效的问题。

Description

一种基于题意文本的同知识点试题分组系统和方法
技术领域
本发明涉及在线试题学习领域,尤其涉及一种基于题意文本的同知识点试题分组系统和方法。
背景技术
与传统的纸质试题相比,在线试题拥有更实时的反馈、更灵活的交互、更智能的评测以及更广阔的范围。也因此,越来越多的课程教学和培训移步互联网,有些课程将作业与考核放于线上,而有些甚至直接转变为线上课程。线上教学平台的普及带来了在线练习与线上考试的流行,也因此绝大多数在线教学平台(例如作业帮、拼题A、中国大学MOOC等)都拥有自己的提供填空题、选择题、判断题等多种题型的自动判题功能题库。
然而,许多在线教学平台在经过长期的发展与运营后,其题库在不断扩充的同时,也变得不断臃肿起来。大量的题目、大量的数据,逐渐令老师、学生、平台的管理者焦头烂额。目前,几乎所有教学平台对题目的分类仅停留在学科或学科下的章节、知识点层面,这使得同一个知识点下存在许多题目,其内容间互相交叉,难易程度相近,所以目前的划分对含上百道的题目数规模的知识点是远远不够的。有些章节或知识点涵盖广、范围大,需要进一步地细分,其下可能涵盖颗粒更小的题型或原子知识点,而这些往往是学习与教学的关键所在。一方面,学习者需要对不同题型的练习来掌握这一知识点的全部内容,而不是要花费较多时间做相似的题,拉低学习效率。另一方面,教师布置作业、挑选试题组成测验这些教学方式也同样需要更细的题目分组。此外,许多在线教学测试平台属于共享开放平台,每门课程的每个知识点下都有来自不同层次高校的众多教师贡献的题目,这些题目对知识点的考察角度不同,题目难易层次也有差别,也因此会出现质量参差不齐的情况。对于平台维护者来说,更细致的题目划分方法,对同类题目进行精简、整理并剔除低质量的题目至关重要。
诚然,完全依靠人力对海量的题目进行人工分类在理论上当然是可行的,但是耗时耗力,并不是一种明智的做法。另外,不同的用户可能会有不同的分类需求。因此,亟需一种能够根据题意自动实现题库试题分组的系统,且同时兼备根据用户意图进行偏好分类的功能,以此来解决同知识点下题目的划分问题。
发明内容
为了解决当前在线教学平台中大量题目内容相近,同知识点下题目堆积难以进一步划分的问题,本发明针对用户不同的需求提出了一种基于题意文本的同知识点试题分组系统和方法,系统中的多功能分组模块中包括基于无监督学习的聚类模型WSD-LDA和基于监督学习的独热随机森林分类模型。WSD-LDA模型可以完全自动智能地对同知识点下题目进行二层聚类划分,之后便可依照自身需求对同类题目进行挑选、去重、精简、典型化等处理。独热随机森林模型可根据用户自定义标签进行分组。
为了实现上述目的,本发明采用如下技术方案:
一种基于题意文本的同知识点试题分组系统,包括:
题目获取模块,其用于获取教学平台后台的题目数据,并以语种和知识点划分题目,每道题目至少包括编号和题干信息;
题目预处理模块,其用于针对同一知识点下的相同语种题目进行预处理,包括:获取同一知识点下相同语种题目的题干文本,并对获取的题干文本数据进行清洗,剔除题干文本重复的题目和题干文本缺失的题目;然后将题干文本分为若干个词汇,筛除停用词,得到各个题目的词汇集,所有题目的词汇集构成该知识点下的当前词汇表;
标签化模块,其用于对部分题目打上相应的标签;所述的部分题目是根据当前词汇表中的词汇随机筛选得到的,所筛选的题目至少覆盖80%词汇表;
多功能分组模块,其包括全自动分组的WSD-LDA子模块和带有用户偏好的半自动分组的独热随机森林子模块;
所述的WSD-LDA子模块不考虑题目标签,其首先获取所有题目的句向量,将句向量预先分为小类,再将小类中的词汇合并,继续分为大类,生成分组结果;
所述的独热随机森林子模块考虑题目标签,其首先将所有的题目进行独热编码,获得题目独热向量;然后采用带标签的题目独热向量训练独热随机森林模型;再利用训练好的独热随机森林模型对不带标签的题目独热向量进行分类,生成分组结果;
分组存储模块,其用于读取多功能分组模块生成的分组结果,将题库中的题目按照分组结果进行分组存储;
分组更新模块,其用于根据教学平台题库的更新,实现分组结果的自动更新。
所述的分组更新模块,当对WSD-LDA子模块的题目分组结果进行更新时,将新加入的题目与同一知识点下相同语种题目共同作为待分组题目,经题目预处理模块处理后,通过WSD-LDA子模块重新分组,更新分组结果。当对独热随机森林子模块的题目分组结果进行更新时,获取新题目的独热向量,直接利用训练好的独热随机森林子模块确定新题目的类型,将新题目纳入到分组结果中,更新分组结果。
当对独热随机森林子模块的题目分组结果进行更新之前,还需要判断新题目词汇与知识点当前词汇表的出入,若新题目50%及其以上的词汇均不在该知识点下的当前词汇表内,则将新题目视为新题型,将其归置在“其他”类并可接受人工调控,待新题型积攒到一定数量后,将新题型和原有题目共同作为待分组题目,经题目预处理模块处理后,对独热随机森林子模块重新进行训练;否则,将新题目视为旧题型,根据新题目在当前词汇表中的词汇,得到新题目的独热向量,根据之前训练好的独热随机森林子模块确定新题目的类型。
与现有技术相比,本发明的创新性和有益效果在于:
(1)本发明提出了一种对教学平台同知识点下的题目进行基于题意文本的划分方式,通过获取同一知识点下的相同语种题目的词汇集构成该知识点下的当前词汇表,利用词汇表征题意,根据同知识点下不同题目词汇之间的关系实现分组任务,解决了平台上相似题目过多,同一知识点下题目冗杂,教师难以优选试题、用户学习训练低效的问题。
(2)本发明提出的试题分组系统包括了两种可选模式,具有多功能。其中一种WSD-LDA子模块采用无监督学习形式,通过对题目进行词嵌入、句向量SIF平滑化并进行DBSCAN聚类后,该模型对相似题目能进行精准、细粒度地划分,然后对初步聚类结果进行LDA主题模型聚类。由模型的困惑度、轮廓系数等来决定最佳的聚类数,最终得到多层题目聚类结果。
另一种独热随机森林模型采用监督学习的形式,通过对题目进行预处理、独热编码向量化处理并进行随机森林训练后,该模型对同知识点下题目的分类可以达到很高的准确度。
(3)该发明对当前的在线教学平台题库知识点下题目提出了一种综合解决方案。用户可以利用本发明中的无监督聚类模型对题目进行智能、全自动地划分,之后便可对知识点下同类题目进行挑选、去重、精简、典型化等处理;同时,用户也可以使用本发明的监督学习分类模型,对平台的新题目进行精准分类。
附图说明
图1为本发明的整体架构示意图;
图2为本发明的预处理模块流程图;
图3为本发明WSD-LDA模型示意图;
图4为本发明的独热随机森林模型训练示意图。
具体实施方式
下面结合附图对本发明作进一步详细描述,需要指出的是,以下所述实施例旨在便于对本发明的理解,而对其不起任何限定作用。
本发明提出了一种无监督模型WSD-LDA聚类和监督学习的独热随机森林两种方法模型,并构建了一个试题分组系统。本发明利用人工智能与自然语言处理领域相关技术,对在线平台题库同学科或知识点下内容相近的题目进行细分,将相近的题目以分组形式呈现,便于用户依照自身需求对同类题目进行挑选、去重、精简、典型化等处理,解决了平台上相似题目过多,同一知识点下题目冗杂,教师难以优选试题、用户学习训练低效的问题。
下面首先对本发明采用的一些算法进行介绍,
1.独热编码
独热(One-Hot)编码,又称为一位有效编码,主要是采用位状态寄存器来对个状态进行编码,每个状态都由他独立的寄存器位,并且在任意时候只有一位有效。它是利用0和1表示一些参数,使用N位状态寄存器来对N个状态进行编码。独热编码能够处理非连续型数值特征,并且能保证不同信息的编码维度相同。任何一组离散变量均独热编码后都会转化成相同维度的0-1向量集。
2.随机森林
随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。在得到森林之后,当有一个新的输入样本进入的时候,就让森林中的每一棵决策树分别进行一下判断,看看这个样本应该属于哪一类(对于分类算法),然后看看哪一类被选择最多,就预测这个样本为那一类。随机森林既可以处理属性为离散值的量,比如ID3算法,也可以处理属性为连续值的量,比如C4.5算法。随机森林是一种有效的数据分类方法。
3.词嵌入word2vec
词嵌入模型word2vec是Google 2013年开源的一种词向量计算工具,可以在百万数量级的词典和上亿的数据集上进行高效地训练;此外,该工具得到的训练结果——词向量(word embedding),可以很好地度量词与词之间的相似性。因此word2vec是自然语言处理上将词语转化成可供计算机计算的向量的一种有效而广泛使用的方式。
4.基于密度的聚类算法DBSCAN
DBSCAN是一种典型的基于密度的聚类算法,它将簇定义为密度相连的点的最大集合,能够把具有足够高密度的区域划分为簇,并可在噪声的空间数据库中发现任意形状的聚类。DBSCAN聚类时无需指定簇的个数,只需要聚类簇的半径和最小点数。DBSCAN从一个任意的还没有被访问过的启动数据点开始。将这个点的半径为r的邻域提取出来(所有在邻域内的点都视为邻居点)。如果在邻域内有足够数量的点(minPoints),那么聚类过程开始,并且当前数据点变成新集群中的第一个点。否则,该点将被标记为噪声(之后这个噪声点可能会变成集群中的一部分)。在这两种情况中的点都被标记为“已访问”。对于这个新集群中的第一个点,在它r距离邻域内的点已将变成相同集群中的一部分。这个让所有在r邻域内的点都属于相同集群的过程在之后会一直被重复做,直到所有新点都被加进集群分组中。上述过程会一直重复直到集群内所有点都被确定,即所有在r邻域内的点都被访问且被打上标签。之后一个新的未被访问的点会被提取并处理,从而会接着发现下一个集群或噪声。这个过程反复进行直到所有的点都被编辑为已访问。最后所有的点都被访问,那么每个点都被标记为属于一个集群或者是噪声。DBSCAN方法的特点在于其不需要初始的聚类簇数,仅根据阈值半径就可对全数据集进行聚类。
5.基于主题模型的聚类算法LDA
LDA主题模型是一个广泛使用的概率主题模型,能很好地完成文本的聚类任务,并且根据该模型可以得到每个文本的主题概率分布。在LDA主题模型下,一篇文章的生成方法是:首先仍依照文档选取的概率选择一篇文档,然后从狄利克雷分布α中取样生成该文档的主题分布,并从生成的主题分布中选取一个主题类别,然后再从狄利克雷分布β中生成该主题对应的词语分布,最后从生成的词语分布中选取词语。基于LDA主题模型的聚类算法,即利用主题的概率分布模型对词语集的文本进行聚类。
本发明的试题分组系统主要包括:
题目获取模块,其用于获取教学平台后台的题目数据,并以语种和知识点划分题目,每道题目至少包括编号和题干信息;
题目预处理模块,其用于针对同一知识点下的相同语种题目进行预处理,包括:获取同一知识点下相同语种题目的题干文本,并对获取的题干文本数据进行清洗,剔除题干文本重复的题目和题干文本缺失的题目;然后将题干文本分为若干个词汇,筛除停用词,得到各个题目的词汇集,所有题目的词汇集构成该知识点下的当前词汇表;
标签化模块,其用于对部分题目打上相应的标签;所述的部分题目是根据当前词汇表中的词汇随机筛选得到的,所筛选的题目至少覆盖80%词汇表;
多功能分组模块,其包括全自动分组的WSD-LDA子模块和带有用户偏好的半自动分组的独热随机森林子模块;
所述的WSD-LDA子模块不考虑题目标签,其首先获取所有题目的句向量,将句向量预先分为小类,再将小类中的词汇合并,继续分为大类,生成分组结果;
所述的独热随机森林子模块考虑题目标签,其首先将所有的题目进行独热编码,获得题目独热向量;然后采用带标签的题目独热向量训练独热随机森林模型;再利用训练好的独热随机森林模型对不带标签的题目独热向量进行分类,生成分组结果;
分组存储模块,其用于读取多功能分组模块生成的分组结果,将题库中的题目按照分组结果进行分组存储;
分组更新模块,其用于根据教学平台题库的更新,实现分组结果的自动更新。
在图1中可以看到,本发明的源数据是教学平台后台的题目数据,并且事先已根据老师上传题目时选定的知识点进行了粗略地划分。输入的数据集可以是题库,也可以是某些待分类的题目甚至一道教师新上传的题目。
在对数据集进行预处理得到相应文本词汇后,可以通过监督学习或无监督学习两条路径对知识点下题目进行更细致、准确地分组。无监督学习的策略是将题目先通过WSD模型分为一个个小类,然后由LDA主题模型聚合为大类;而监督学习走的路则是将题目转化为独热向量然后训练随机森林模型,并以此来分组。对于待分类题目,例如教师新上传的题目,在经过文本预处理后同样进行独热编码转化为独热向量,然后代入随机森林模型中分类,并归至分类的题目组中。如果待分类题目与原数据集相差较大,则会进行人工干预处理或题目库数据集的更新。
在本发明的一项具体实施中,随机森林模型在训练时需要利用到标签化模块输出的打标后的训练题目样本,打标的标签可以是依据题目内容获取到的题目难度、题目类型等。
许多平台的在线题库中都含有多种语言的题目,如最典型的中文题和英文题。对于不同语种下题目的处理,例如分词和停用词处理会有所不同,所以一开始,需要先根据语种划分这些题目。以数量最多、最为普遍的中文题目为例,图2是数据预处理模块对于中文题目处理的流程图。每个知识点下的题库中包含各个题目的编号、标题、类型、题干、分值等信息,首先须从中获取自然语言处理需要的题干文本。由于在线题库中含有选择题、填空题、判断题、简答题等各种各样的题型,因此对于题干文本范围的获取,也可以根据不同题型的特点采取不同选取方法。当然,统一地截取全部题干(例如选择题获取题目和所有选项的文本)也是一种选择。
之后,需要获取的题目文本数据进行清洗、过滤,删除重复的题目数据和有文本缺失的数据。在过滤完成后,如果需要采用后续的监督学习,那么这时候就进入标签化阶段,对每个知识点下的题目打上相应的类别标签。根据题库的数目,可以相应地调整标签的题目数量,保证具有一定规模的有效的训练集即可。
最后是分词阶段,将题干文本分为若干个词汇,并筛除无用的停用词。互联网上有许多开源的中文分词包可供使用,而停用词表也可以使用网上整理的一般词表,当然也可以自己构建或添加。最后供后续使用的,就是各个题目相应的编号、词语集和标签(如果有的话)。
下面介绍同知识点下基于WSD-LDA模型进行题目聚类的流程。
如图3所示,经过预处理后的题目词语集首先通过大规模语料训练完成的word2vec词嵌入模型由文本转化为词向量。考虑到同知识点下题目间的相似度较高,许多与知识点相关的公共词语会影响题目划分的效果,仅仅通过词向量取平均获取句向量的策略是不够精确也不契合实际数据情况的。而这些拉近题目间距离的公共词汇一般在整个知识点下出现频率都较高,因此需要对平均词向量到句向量的方式进行一定的平滑处理。
将词汇wi的词向量表示为
Figure BDA0002719647720000083
该词在整个知识点下的频度表示为p(wi);根据p(wi)确定词语的SIF,并根据此权重求得题目所有词向量的加权平均,该平均向量即为该题目的句向量
Figure BDA0002719647720000081
其中n表示该题目含有的总词汇数,a为超参数。可见,本发明并不直接通过词向量取平均来得到句向量,而是为每个词赋予一个权重,这个词权重被称作SIF:一个词出现的次数越多、频率越高,那么它在句子中的权重就越小。
在获取句向量之后,将题目间的距离视作通过SIF得到的句向量之间的余弦距离,以最小包含点数为1的标准进行基于半径r的DBSCAN密度聚类,根据轮廓系数调整半径r提升聚类效果。得到题目间语义接近的小类。然后对这初步聚类得到的小类进行基于LDA主题模型的二次聚类。
假设WSD模型聚类得到的结果小类i共有m类,每类包含ki个题目,每个题目平均含有ni个词语。将每个小类包含的若干道题目词汇进行合并,即每个小类对应的语料为其类别下所有题目词语的合集(保留类中重复词汇),然后对这m个长度为ki×ni的语料进行LDA主题模型聚类,根据主题模型的困惑度自动调整聚类数目,最终得到数量较少且具有一定语义概括性的大类以及一个多层模型:整个知识点下包含M个大类,每个大类包含题型近似的题目群,而大类下有mj
Figure BDA0002719647720000082
个小类,而每个小类里有语义非常接近的题目群。
随着题库中新题目的加入,需要对WSD-LDA子模块的题目分组结果进行更新时,将新加入的题目与同一知识点下相同语种题目共同作为待分组题目,经题目预处理模块处理后,通过WSD-LDA子模块重新分组,更新分组结果。
下面介绍同知识点下基于独热随机森林模型进行题目分类的流程。
图4体现了独热随机森林模型的训练流程图。首先对每个知识点下题目的词语构建词汇表,然后依据词汇表为每个词进行独热编码。对题目的独热编码为其所含词汇的独热编码向量之和,并进行0-1化处理,将题目向量中所有非0位均置为1,该向量即为题目的独热向量。
举个简单的例子,某知识点下拥有2道题,其中一道题含有的词语为A、B,另一题含有的词语为A、C、A,那么A、B、C三个词对应的独热编码为(1,0,0)、(0,1,0)、(0,0,1),这两道题对应的独热向量为(1,1,0)和(1,0,1)。
在独热编码后,需要对标签化的题目独热向量划分训练集和测试集,划分的方法并不唯一或局限,用划分后的训练集训练随机森林模型,调整参数中树的个数、随机选择的特征数目以及树的深度这几个关键参数来使得模型的精确度更高。训练完成的独热随机森林模型拥有90%以上的准确率,可以对题库剩余题目和以后教师新上传的题进行分类。对于一个新的题目,在经过预处理得到题目词汇后,判断其与知识点当前词汇表的出入。如果有一半以上的词汇均不在该知识点下的词汇表内,那么这样的题极有可能是一种新题型,将其归置在“其他”类并可接受人均调控,待新题型积攒到一定数量后进行新一轮训练更新模型和词汇表。如果该题没有一半以上的词与词汇表有出入,那么根据其在词汇表中的词语按之前流程图的方法转化为独热向量后由已训练完成的随机森林模型确定相应的种类。
在本实施例中,对于WSD-LDA模块或独热随机森林模块得到的题目划分结果,对同知识点下的题目进行分组。将分类或聚类到同一类的题目归为一组,并且按照题目组规模随机地以组内某题或某些题作为结果展示,供学生学习、教师选题或其他用途。同时,用户可以通过点击的方式浏览、使用每个组内所有题目。
下面对采用试题分组系统进行基于WSD-LDA模型的试题分组方法的具体流程进行介绍。
步骤1:获取教学平台后台的题目数据,并以语种和知识点划分题目,每道题目至少包括编号和题干信息;
步骤2:针对同一知识点下的相同语种题目进行预处理,所述预处理包括:
获取同一知识点下相同语种题目的题干文本,并对获取的题干文本数据进行清洗,剔除题干文本重复的题目和题干文本缺失的题目;然后将题干文本分为若干个词汇,筛除停用词,得到各个题目的词汇集,所有题目的词汇集构成该知识点下的当前词汇表;
步骤3:通过词嵌入将每一个题目对应的词汇集中的词汇wi转化为词向量
Figure BDA0002719647720000091
统计该词汇wi在整个知识点下的频度p(wi),根据频度确定题目的句向量
Figure BDA0002719647720000101
以及题目句向量之间的余弦距离,其中n表示该题目含有的总词汇数,a为超参数;
步骤4:采用DBSCAN聚类网络对余弦距离进行以最小包含点数为1的标准进行基于半径r的DBSCAN密度聚类,将题目预分为m个小类,其中第i个小类中包含了ki个题目,每个题目平均含有ni个词语;
步骤5:通过拼接层将每个小类包含的ki个题目对应的词汇集进行合并,保留重复词汇;
步骤6:通过LDA聚类网络对m个长度为ki×ni的语料进行再聚类,根据LDA主题模型的困惑度自动调整聚类数目为M,最终将题目再分为M个大类,其中第j个大类下有mj个小类,且
Figure BDA0002719647720000102
步骤7:随着教学平台题库的更新,当需要对WSD-LDA子模块的题目分组结果进行更新时,将新加入的题目与同一知识点下相同语种题目共同作为待分组题目,重复步骤2-6,获得更新后的分组结果。
下面对采用试题分组系统进行基于独热随机森林模型的试题分组方法的具体流程进行介绍。
步骤1:获取教学平台后台的题目数据,并以语种和知识点划分题目,每道题目至少包括编号和题干信息;
步骤2:针对同一知识点下的相同语种题目进行预处理,所述预处理包括:
获取同一知识点下相同语种题目的题干文本,并对获取的题干文本数据进行清洗,剔除题干文本重复的题目和题干文本缺失的题目;然后将题干文本分为若干个词汇,筛除停用词,得到各个题目的词汇集,所有题目的词汇集构成该知识点下的当前词汇表;
步骤3:根据当前词汇表中的词汇随机筛选出部分待打标签的题目,所筛选的题目至少覆盖80%词汇表,并对筛选出的题目打上相应的标签;
步骤4:通过独热编码层对题目词汇表中每一个词汇进行独热编码,再对题目进行独热编码,所述的对题目进行独热编码为其所含词汇的独热编码向量之和,并进行0-1化处理,将题目向量中所有非0位置为1,得到带标签的题目独热向量和不带标签的题目独热向量;
步骤5:采用带标签的题目独热向量对随机森林网络进行训练,得到训练好的独热随机森林模型;将不带标签的题目独热向量输入到训练好的独热随机森林模型中,得到不带标签的题目的分组结果;
步骤6:随着教学平台题库的更新,获取到新题目,判断新题目词汇与知识点当前词汇表的出入;
若新题目50%及其以上的词汇均不在该知识点下的当前词汇表内,则将新题目视为新题型,将其归置在“其他”类并可接受人工调控,待新题型积攒到一定数量后,将新题型和原有题目共同作为待分组题目,重复步骤2-5,对独热随机森林子模块重新进行训练,获得更新后的独热随机森林模型和更新后的分组结果;
否则,将新题目视为旧题型,根据新题目在当前词汇表中的词汇,得到新题目的独热向量,根据之前训练好的独热随机森林子模块确定新题目的类型。
实施例
表格1给出了上述WSD-LDA模型具体实施流程在PTA平台的后台数据集中的“栈”知识点下短题型的部分输出结果,题型包含选择题、填空题和判断题。
此知识点共有短题型155道,算法将题目分为5大类,算法得到的具体聚类结果如下:
表1 WSD-LDA模型分类结果
Figure BDA0002719647720000111
Figure BDA0002719647720000121
同样基于栈的分组考虑,分别以栈的定义、存储、性质、应用、算法和与其他知识点结合等多方面对该知识点下的短题型进行标签化并进行独热随机森林模型的训练,在交叉验证下具有87%的准确率,达到对新上传题目进行分类的准确率需求。
以上列举的仅是本发明的具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。

Claims (10)

1.一种基于题意文本的同知识点试题分组系统,其特征在于,包括:
题目获取模块,其用于获取教学平台后台的题目数据,并以语种和知识点划分题目,每道题目至少包括编号和题干信息;
题目预处理模块,其用于针对同一知识点下的相同语种题目进行预处理,包括:获取同一知识点下相同语种题目的题干文本,并对获取的题干文本数据进行清洗,剔除题干文本重复的题目和题干文本缺失的题目;然后将题干文本分为若干个词汇,筛除停用词,得到各个题目的词汇集,所有题目的词汇集构成该知识点下的当前词汇表;
标签化模块,其用于对部分题目打上相应的标签;所述的部分题目是根据当前词汇表中的词汇随机筛选得到的,所筛选的题目至少覆盖80%词汇表;
多功能分组模块,其包括全自动分组的WSD-LDA子模块和带有用户偏好的半自动分组的独热随机森林子模块;
所述的WSD-LDA子模块不考虑题目标签,其首先进行词嵌入并获取题目的句向量,将句向量预先分为小类,再将小类中的词汇合并,继续分为大类,生成分组结果;
所述的独热随机森林子模块考虑题目标签,其首先将所有的题目进行独热编码,获得题目独热向量;然后采用带标签的题目独热向量训练独热随机森林模型;再利用训练好的独热随机森林模型对不带标签的题目独热向量进行分类,生成分组结果;
分组存储模块,其用于读取多功能分组模块生成的分组结果,将题库中的题目按照分组结果进行分组存储;
分组更新模块,其用于根据教学平台题库的更新,实现分组结果的自动更新。
2.根据权利要求1所述的一种基于题意文本的同知识点试题分组系统,其特征在于,所述的分组更新模块,当对WSD-LDA子模块的题目分组结果进行更新时,将新加入的题目与同一知识点下相同语种题目共同作为待分组题目,经题目预处理模块处理后,通过WSD-LDA子模块重新分组,更新分组结果。
3.根据权利要求1所述的一种基于题意文本的同知识点试题分组系统,其特征在于,所述的分组更新模块,当对独热随机森林子模块的题目分组结果进行更新时,获取新题目的独热向量,直接利用训练好的独热随机森林子模块确定新题目的类型,将新题目纳入到分组结果中,更新分组结果。
4.根据权利要求3所述的一种基于题意文本的同知识点试题分组系统,其特征在于,当对独热随机森林子模块的题目分组结果进行更新之前,还包括:
判断新题目词汇与知识点当前词汇表的出入,若新题目50%及其以上的词汇均不在该知识点下的当前词汇表内,则将新题目视为新题型,将其归置在“其他”类并可接受人工调控,待新题型积攒到一定数量后,将新题型和原有题目共同作为待分组题目,经题目预处理模块处理后,对独热随机森林子模块重新进行训练;
否则,将新题目视为旧题型,根据新题目在当前词汇表中的词汇,得到新题目的独热向量,根据之前训练好的独热随机森林子模块确定新题目的类型。
5.根据权利要求1所述的一种基于题意文本的同知识点试题分组系统,其特征在于,所述的WSD-LDA子模块中设置有WSD-LDA模型,所述的WSD-LDA模型包括词嵌入、DBSCAN聚类网络、拼接层和LDA聚类网络;
首先通过词嵌入将每一个题目对应的词汇集中的词汇wi转化为词向量
Figure FDA0002719647710000021
统计该词汇wi在整个知识点下的频度p(wi),根据频度确定题目的句向量
Figure FDA0002719647710000022
以及题目句向量之间的余弦距离,其中n表示该题目含有的总词汇数,a为超参数;
然后通过DBSCAN聚类网络对余弦距离进行以最小包含点数为1的标准进行基于半径r的DBSCAN密度聚类,将题目预分为m个小类,其中第i个小类中包含了ki个题目,每个题目平均含有ni个词语;
再通过拼接层将每个小类包含的ki个题目对应的词汇集进行合并,保留重复词汇;
最后通过LDA聚类网络对m个长度为ki×ni的语料进行再聚类,根据LDA主题模型的困惑度自动调整聚类数目为M,最终将题目再分为M个大类,其中第j个大类下有mj个小类,且
Figure FDA0002719647710000023
6.根据权利要求1所述的一种基于题意文本的同知识点试题分组系统,其特征在于,所述的独热随机森林子模块中设置有独热随机森林模型,所述的独热随机森林模型包括独热编码层和随机森林网络;
首先通过独热编码层对题目词汇表中每一个词汇进行独热编码,再对题目进行独热编码,所述的对题目进行独热编码为其所含词汇的独热编码向量之和,并进行0-1化处理,将题目向量中所有非0位置为1,得到带标签的题目独热向量和不带标签的题目独热向量;
然后采用带标签的题目独热向量对随机森林网络进行训练,得到训练好的独热随机森林模型;将不带标签的题目独热向量输入到训练好的独热随机森林模型中,得到不带标签的题目的分组结果。
7.一种采用权利要求1所述的试题分组系统进行基于WSD-LDA模型的试题分组方法,其特征在于,包括以下步骤:
步骤1:获取教学平台后台的题目数据,并以语种和知识点划分题目,每道题目至少包括编号和题干信息;
步骤2:针对同一知识点下的相同语种题目进行预处理,所述预处理包括:
获取同一知识点下相同语种题目的题干文本,并对获取的题干文本数据进行清洗,剔除题干文本重复的题目和题干文本缺失的题目;然后将题干文本分为若干个词汇,筛除停用词,得到各个题目的词汇集,所有题目的词汇集构成该知识点下的当前词汇表;
步骤3:通过词嵌入将每一个题目对应的词汇集中的词汇wi转化为词向量
Figure FDA0002719647710000031
统计该词汇wi在整个知识点下的频度p(wi),根据频度确定题目的句向量
Figure FDA0002719647710000032
以及题目句向量之间的余弦距离,其中n表示该题目含有的总词汇数,a为超参数;
步骤4:采用DBSCAN聚类网络对余弦距离进行以最小包含点数为1的标准进行基于半径r的DBSCAN密度聚类,将题目预分为m个小类,其中第i个小类中包含了ki个题目,每个题目平均含有ni个词语;
步骤5:通过拼接层将每个小类包含的ki个题目对应的词汇集进行合并,保留重复词汇;
步骤6:通过LDA聚类网络对m个长度为ki×ni的语料进行再聚类,根据LDA主题模型的困惑度自动调整聚类数目为M,最终将题目再分为M个大类,其中第j个大类下有mj个小类,且
Figure FDA0002719647710000033
步骤7:随着教学平台题库的更新,自动更新分组结果。
8.根据权利要求7所述的基于WSD-LDA模型的试题分组方法,其特征在于,所述步骤6中对分组结果进行自动更新时,将新加入的题目与同一知识点下相同语种题目共同作为待分组题目,重复步骤2-6,获得更新后的分组结果。
9.一种采用权利要求1所述的试题分组系统进行基于独热随机森林模型的试题分组方法,其特征在于,包括以下步骤:
步骤1:获取教学平台后台的题目数据,并以语种和知识点划分题目,每道题目至少包括编号和题干信息;
步骤2:针对同一知识点下的相同语种题目进行预处理,所述预处理包括:
获取同一知识点下相同语种题目的题干文本,并对获取的题干文本数据进行清洗,剔除题干文本重复的题目和题干文本缺失的题目;然后将题干文本分为若干个词汇,筛除停用词,得到各个题目的词汇集,所有题目的词汇集构成该知识点下的当前词汇表;
步骤3:根据当前词汇表中的词汇随机筛选出部分待打标签的题目,所筛选的题目至少覆盖80%词汇表,并对筛选出的题目打上相应的标签;
步骤4:通过独热编码层对题目词汇表中每一个词汇进行独热编码,再对题目进行独热编码,所述的对题目进行独热编码为其所含词汇的独热编码向量之和,并进行0-1化处理,将题目向量中所有非0位置为1,得到带标签的题目独热向量和不带标签的题目独热向量;
步骤5:采用带标签的题目独热向量对随机森林网络进行训练,得到训练好的独热随机森林模型;将不带标签的题目独热向量输入到训练好的独热随机森林模型中,得到不带标签的题目的分组结果;
步骤6:随着教学平台题库的更新,获取新题目的独热向量,直接利用训练好的独热随机森林子模块确定新题目的类型,并纳入到分组结果中,更新分组结果。
10.根据权利要求9所述的基于独热随机森林模型的试题分组方法,其特征在于,所述步骤6在对新题目进行分组时,首先判断新题目词汇与知识点当前词汇表的出入;
若新题目50%及其以上的词汇均不在该知识点下的当前词汇表内,则将新题目视为新题型,将其归置在“其他”类并可接受人工调控,待新题型积攒到一定数量后,将新题型和原有题目共同作为待分组题目,重复步骤2-5,对独热随机森林子模块重新进行训练,获得更新后的独热随机森林模型和更新后的分组结果;
否则,将新题目视为旧题型,根据新题目在当前词汇表中的词汇,得到新题目的独热向量,根据之前训练好的独热随机森林子模块确定新题目的类型。
CN202011083837.9A 2020-10-12 2020-10-12 一种基于题意文本的同知识点试题分组系统和方法 Active CN112256869B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011083837.9A CN112256869B (zh) 2020-10-12 2020-10-12 一种基于题意文本的同知识点试题分组系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011083837.9A CN112256869B (zh) 2020-10-12 2020-10-12 一种基于题意文本的同知识点试题分组系统和方法

Publications (2)

Publication Number Publication Date
CN112256869A true CN112256869A (zh) 2021-01-22
CN112256869B CN112256869B (zh) 2022-05-03

Family

ID=74242938

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011083837.9A Active CN112256869B (zh) 2020-10-12 2020-10-12 一种基于题意文本的同知识点试题分组系统和方法

Country Status (1)

Country Link
CN (1) CN112256869B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114913729A (zh) * 2021-02-09 2022-08-16 广州视源电子科技股份有限公司 一种选题方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016179938A1 (zh) * 2015-05-14 2016-11-17 百度在线网络技术(北京)有限公司 题目推荐方法和题目推荐装置
US20170011642A1 (en) * 2015-07-10 2017-01-12 Fujitsu Limited Extraction of knowledge points and relations from learning materials

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016179938A1 (zh) * 2015-05-14 2016-11-17 百度在线网络技术(北京)有限公司 题目推荐方法和题目推荐装置
US20170011642A1 (en) * 2015-07-10 2017-01-12 Fujitsu Limited Extraction of knowledge points and relations from learning materials

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114913729A (zh) * 2021-02-09 2022-08-16 广州视源电子科技股份有限公司 一种选题方法、装置、计算机设备和存储介质
WO2022170985A1 (zh) * 2021-02-09 2022-08-18 广州视源电子科技股份有限公司 选题方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN112256869B (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
CN107230174B (zh) 一种基于网络的在线互动学习系统和方法
CN107544960B (zh) 一种基于变量绑定和关系激活的自动问答方法
CN107944027A (zh) 创建语义键索引的方法及系统
CN107247751B (zh) 基于lda主题模型的内容推荐方法
CN112508334A (zh) 融合认知特性及试题文本信息的个性化组卷方法及系统
Pardos et al. Imputing KCs with representations of problem content and context
CN111858896A (zh) 一种基于深度学习的知识库问答方法
CN110399467A (zh) 提供用于自然语言问答系统的训练数据的方法和设备
CN114201684A (zh) 一种基于知识图谱的自适应学习资源推荐方法及系统
Bai et al. Applied research of knowledge in the field of artificial intelligence in the intelligent retrieval of teaching resources
CN114780723B (zh) 基于向导网络文本分类的画像生成方法、系统和介质
CN111783464A (zh) 一种面向电力的领域实体识别方法、系统及存储介质
Fong et al. Applying a hybrid model of neural network and decision tree classifier for predicting university admission
CN112214989A (zh) 一种基于bert的汉语句子简化方法
Duan Automatic generation and evolution of personalized curriculum based on genetic algorithm
CN110245860B (zh) 一种基于虚拟实验平台的自动评分的方法
CN112256869B (zh) 一种基于题意文本的同知识点试题分组系统和方法
CN108628959A (zh) 一种基于交通大数据的本体构建方法
CN111625631B (zh) 一种选择题选项生成方法
CN113886562A (zh) 一种ai简历筛选方法、系统、设备和存储介质
CN117494760A (zh) 一种基于超大规模语言模型的富语义标签数据增广方法
Sa et al. An English flipped classroom teaching model based on big data analysis
CN110472032A (zh) 医疗自定义实体词词性标签的多分类智能问答检索方法
CN113066358B (zh) 理科教学辅助系统
Sangodiah et al. Integration of machine learning approach in item bank test system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant