CN113052315B - 组卷模型训练及其组卷方法、装置及计算机存储介质 - Google Patents
组卷模型训练及其组卷方法、装置及计算机存储介质 Download PDFInfo
- Publication number
- CN113052315B CN113052315B CN201911368504.8A CN201911368504A CN113052315B CN 113052315 B CN113052315 B CN 113052315B CN 201911368504 A CN201911368504 A CN 201911368504A CN 113052315 B CN113052315 B CN 113052315B
- Authority
- CN
- China
- Prior art keywords
- training
- group
- paper
- volume
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 337
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000012360 testing method Methods 0.000 claims abstract description 250
- 210000002569 neuron Anatomy 0.000 claims abstract description 96
- 230000002068 genetic effect Effects 0.000 claims abstract description 20
- 239000013598 vector Substances 0.000 claims description 53
- 238000012216 screening Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000013101 initial test Methods 0.000 claims description 9
- 238000005096 rolling process Methods 0.000 claims 1
- 239000000126 substance Substances 0.000 claims 1
- 230000006870 function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000013100 final test Methods 0.000 description 2
- 230000035772 mutation Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013334 tissue model Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Physiology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Genetics & Genomics (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明实施例提供一种组卷模型训练及其组卷方法、装置及计算机存储介质,所述组卷模型训练方法包括基于预设组卷策略生成多组训练组卷参数;利用遗传算法对各组训练组卷参数分别生成多套训练试卷;构建组卷模型,所述组卷模型的输入层包括多个基于多组训练组卷参数对应的预设组卷策略构建的组卷策略神经元,所述组卷模型的输出层包括多个基于各组所述训练组卷参数分别生成的多套所述训练试卷构建的训练神经元组;以及利用所述多组训练组卷参数以及与各组训练组卷参数对应的多套训练试卷训练构建的组卷模型。由此,本发明可提高组卷结果的鲁棒性和准确性。
Description
技术领域
本发明实施例涉及教育互联网技术领域,尤其涉及一种组卷模型训练及其组卷方法、装置及计算机存储介质。
背景技术
在自适应学习中,面临的一个迫切需求是需要根据实际的教学和学习进度生成对应的试卷以检验学生的学习成果。而组卷的需求又是会经常性地发生变化,因为学习的知识点、难度进度自身是变化的,而所组的试卷也是需要根据新的进度进行针对性的调整。这就为老师和学生带来了非常大的负担和工作量,如果在自适应学习的产品中能够为教师或学生提供一个鲁棒性强且精度高的组卷方案,将能够显著提高教师和学生的学习体验,也能显著提高自适应学习的智能化程度。
现有的智能组卷技术所面临的主要问题是组卷算法的精度不高,且鲁棒性较差,且大都是采用遗传算法来进行组卷,而遗传算法面临的一个主要问题就是容易陷入局部最优解。虽然也有很多方案致力于解决遗传算法的局部最优解问题,但大多数方案还是没有能够较好地解决该问题。实际上,神经网络具有极强的表征能力和高准确度等优势,但目前还没有一种组卷方案采用神经网络来生成试卷。主要的原因来自于两个方面,一个是将智能组卷的参数和组卷结果适配到神经网络上的难度较大;另一个是缺乏充足的训练数据,因为现实世界中有效的试卷数量较少,难以保证神经网络能够得到充分地学习。
发明内容
有鉴于此,本发明实施例所解决的技术问题之一在于提供一种组卷模型训练及其组卷方法、装置及计算机存储介质,可以提升组卷结果的精度以及鲁棒性。
根据本发明实施例的第一方面,提供了一种组卷模型训练方法,所述方法包括:基于预设组卷策略生成多组训练组卷参数;利用遗传算法对各组所述训练组卷参数分别生成多套训练试卷;构建组卷模型,其中,所述组卷模型的输入层包括多个基于所述多组训练组卷参数对应的所述预设组卷策略构建的组卷策略神经元,所述组卷模型的输出层包括多个基于各组所述训练组卷参数分别生成的多套所述训练试卷构建的训练神经元组;以及利用所述多组训练组卷参数以及与各组所述训练组卷参数对应的多套所述训练试卷训练构建的所述组卷模型。
根据本发明实施例的第二方面,提供了一种组卷方法,所述方法包括:获取目标组卷参数;根据所述目标组卷参数,利用上述第一方面所述的组卷模型训练方法所训练的所述组卷神经网络模型生成多组目标组卷结果;以及基于预设筛选规则针对多组所述目标组卷结果进行筛选,并获得对应所述目标组卷参数的目标试卷。
根据本发明实施例的第三方面,提供了一种内储可读程序的计算机存储介质,所述计算机存储介质中存储有可完成上述第一方面所述的组卷模型训练方法的各所述步骤的指令;或所述计算机存储介质中存储有可完成上述第二方面所述的组卷方法的各所述步骤的指令。
根据本发明实施例的第四方面,提供了一种组卷模型训练装置,所述装置包括:参数生成模块,用于基于预设组卷策略生成多组训练组卷参数;训练数据生成模块,用于利用遗传算法对各组所述训练组卷参数分别生成多套训练试卷;模型生成模块,用于构建组卷模型,其中,所述组卷模型的输入层包括多个基于所述多组训练组卷参数对应的所述预设组卷策略构建的组卷策略神经元,所述组卷模型的输出层包括多个基于各组所述训练组卷参数分别生成的多套所述训练试卷构建的训练神经元组;以及模型训练模块,用于利用所述多组训练组卷参数以及与各组所述训练组卷参数对应的多套所述训练试卷训练构建的所述组卷模型。
根据本发明实施例的第五方面,提供了一种组卷装置,所述装置包括:组卷参数获取模块,用于获取目标组卷参数;试卷生成模块,用于根据所述目标组卷参数,利用上述第四方面所述的组卷模型的训练装置所训练的所述组卷模型生成多组目标组卷结果;以及;试卷筛选模块,用于基于预设筛选规则针对多组所述目标组卷结果进行筛选,并获得对应所述目标组卷参数的目标试卷。
由以上技术方案可见,本发明实施例的组卷方案通过针对组卷策略生成多组训练组卷参数,并针对每一组训练组卷参数生成大量的训练试卷,为充分利用神经网络强表征、高精度的优势打下了数据基础。再者,基于遗传算法所生成的大量训练试卷,结合经过针对性设计以及适配后的组卷模型,最终构建出了一个鲁棒性强、准确度高的组卷算法方案,可以为新的组卷参数生成准确的组卷结果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明实施例中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1示出了本发明的第一实施例的组卷模型训练方法的流程图;
图2至图7示出了图1的组卷模型训练方法的不同实施例流程图;
图8示出了本发明的第三实施例的组卷方法的流程图;
图9示出了本发明的第五实施例的组卷模型训练装置的基本架构图;以及
图10示出了本发明的第六实施例的组卷装置的基本架构图。
具体实施方式
为了使本领域的人员更好地理解本发明实施例中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明实施例一部分实施例,而不是全部的实施例。基于本发明实施例中的实施例,本领域普通技术人员所获取的所有其他实施例,都应当属于本发明实施例保护的范围。
下面结合本发明实施例附图进一步说明本发明实施例具体实现。
图1示出了本发明的第一实施例的组卷模型训练方法的流程示意图。如图1所示,本发明的组卷模型训练方法主要包括以下步骤:
步骤S1,基于预设组卷策略生成多组训练组卷参数,接着执行步骤S2。
本实施例中,训练组卷参数用于生成训练试卷,组卷策略用于使得利用训练组卷参数生成的训练试卷更具针对性且能够一定程度上贴近实际的教学需求。
举例而言,由于教师在组卷时更倾向于出教学大纲中重要程度高的知识点的相关试题,因此可通过预设组卷策略,使得利用所生成的训练组卷参数生成训练试卷时,让重要度程高的知识点被选中的概率高于重要程度低的知识点。
可选的,本发明的预设组卷策略包括但不限于以下元素中的至少一个:知识点重要程度、试题难度、题型。其中,知识点重要程度用于标识试题对应的知识点在教学大纲中的重要性;试题难度用于标识试题的解题难度;题型用于标识试题的种类,例如选择题、填空题、问答题等。
步骤S2,利用遗传算法对各组训练组卷参数分别生成多套训练试卷,即针对每一组训练组卷参数,均利用遗传算法生成多套训练试卷。
本实施例中,步骤S2可基于步骤S1所生成的训练组卷参数列表向量pl,采用遗传算法针对训练组卷参数列表向量中的每一个训练组卷参数plm都分别生成n套试卷。其中,本发明实施例对所选用的遗传算法不做具体限定。
需要说明的是,本实施例针对每一个训练组卷参数plm均生成n套训练试卷,一方面可避免遗传算法一次的生成结果会陷入到局部最优解中,通过一组组卷参数生成多套试卷,然后从多套试卷中综合筛选并生成最终试卷,将能够很好地解决局部最优解的问题,即提高了最终组卷的精度;另一方面提高了后续组卷模型的鲁棒性,因为当一组组卷参数只生成一套试卷时,会使得神经网络模型的训练不够充分,而通过一组组卷参数生成多套试卷将使组卷模型训练得更为充分,从而提高了组卷模型的鲁棒性。
步骤S3,构建组卷模型。于本实施例中,构建组卷模型的步骤可包括有构建组卷模型(也可称为组卷神经网络模型)的输入层、隐层和输出层,其中,
组卷模型的输入层包括多个基于多组训练组卷参数对应的预设组卷策略构建的组卷策略神经元,使得所构建的组卷策略神经元与训练组卷参数所对应的预设组卷策略之间形成映射关系,从而提供组卷模型的输入层能够自动将预设组卷策略转化为符合其格式要求的参数值。
组卷模型的输出层包括多个基于各组训练组卷参数分别生成的多套训练试卷构建的训练神经元组,使得所构建的各训练神经元组与各套训练试卷形成一一对应,也就是每一个训练神经元组代表一套训练试卷,从而确保组卷模型能够针对一组训练组卷参数所生成的多套训练试卷中的每一套进行学习,且由于是在同一组卷模型(即神经网络)中进行学习,因此能够提高组卷结果的鲁棒性。
组卷模型的隐层主要用于基于训练数据的训练结果进行针对性调整。可采用各种现有技术构建组卷模型的隐层,在本发明中不做明确的限制。
由上可知,本发明通过针对现有组卷模型(即神经网络)的输入层和输出层进行调整,以使其能够很好地匹配单输入以及多输出的形式(即单组训练组卷参数的输入以及多套训练试卷的输出),能够为后续构建精度高且鲁棒性强的组卷模型打下基础。
步骤S4,利用多组训练组卷参数以及与各组训练组卷参数分别对应的多套训练试卷训练构建的组卷模型,也就是将所有训练组卷参数的组卷结果的集合D=(d1,d2,…,dm),输入到步骤S3所生成的组卷模型中,从而提供组卷模型学习各组训练组卷参数以及与各组训练组卷参数分别对应的多套训练试卷之间的内在联系,从而构建一个鲁棒性更强且精度更高的组卷模型。
请继续参阅图2,于一可选实施例中,上述步骤S1,即基于预设组卷策略生成多组训练组卷参数还包括以下步骤:
步骤S11,基于预设组卷策略生成第一组训练组卷参数,接着执行步骤S12。
本实施例中,第一组训练组卷参数可包含有预设组卷策略中一个或者多个元素对应的参数。
以下以第一组训练组卷参数包含有预设组卷策略中三个元素对应的参数为例进行进一步的说明。如图3所示,上述步骤S11还进一步包括以下步骤:
步骤S111,基于预设组卷策略中的第一元素随机生成第一元素向量列表,并基于第一元素向量列表生成第一单元组卷参数列表,其中,第一元素向量列表包含有第一元素中的多个第一子元素以及对应各第一子元素的不同赋值。
可选的,基于预设组卷策略中的第一元素随机生成第一元素向量列表,并基于第一元素向量列表生成第一单元组卷参数列表可包括:基于第一元素随机生成第一元素向量列表,并基于第一单元组卷参数列表中所需的参数个数以及第一元素向量列表生成与第一单元组卷参数列表中所需的参数个数对应的参数列表作为第一单元组卷参数列表。此处,第一单元组卷参数列表中所需的参数个数的确定可以在第一元素向量列表的生成过程之前,也可以在其之后,本发明实施例不做具体限定。
举例而言,当第一元素为“知识点重要程度”时,首先可随机生成知识点重要程度向量列表,并表示为a=(a1,a2,…,ak,…,aK),其中,K为向量列表中的向量个数,即知识点的总个数,k表示第k个知识点,ak(即第一子元素)用于指示第k个知识点对应的重要程度,取值范围可为0到1(即第一子元素的参数赋值),取值越大表示越重要。然后,可基于知识点重要程度向量列表a=(a1,a2,…,ak,…,aK),随机生成知识点列表,即第一单元组卷参数列表,表示为其中,kl1表示第一次随机生成的知识点列表,用于标识第m1个随机生成的知识点;m1为第一次随机生成知识点列表中的知识点个数。通过调整m1的值,可满足在每次组卷时用户所选择的知识点数量会存在差异的组卷需求。
上述随机生成知识点列表的具体过程为:首先,随机生成第一次组卷的总的知识点个数m1,取值范围为1到K之间;而后,基于知识点重要程度向量列表a=(a1,a2,…,ak,…,aK)随机生成m1个不重复的知识点,组成第一次组卷的知识点列表其中,为了避知识点列表中的知识点重要程度赋值较为接近,可采用诸如轮盘赌的任一随机算法随机生成m1个不重复的知识点。
步骤S112,基于预设组卷策略中的第二元素随机生成第二元素向量列表,并基于第二元素向量列表生成第二单元组卷参数列表,其中,第二元素向量列表包含有第二元素中的多个第二子元素以及对应各第二子元素的不同赋值。
可选的,基于预设组卷策略中的第二元素随机生成第二元素向量列表,并基于第二元素向量列表生成第二单元组卷参数列表可包括:基于第二元素随机生成第二元素向量列表,并基于第二单元组卷参数列表中所需的参数个数以及第二元素向量列表生成与第二单元组卷参数列表中所需的参数个数对应的参数列表作为第二单元组卷参数列表。此处,第二单元组卷参数列表中各第二子元素的参数赋值之和为1。
举例而言,当第二元素为“试题难度”时,可生成试题难度比例向量列表,表示为dl1=(dl11,dl12,dl13,dl14,dl15),若将试题难度分为5个级别,则可分别使用1、2、3、4、5(即第二子元素)表示不同的难度值,难度值越大表示难度越高。此处,试题难度的级别也可根据实际需求设置为5个级别以上或以下,本发明实施例不做具体限定。
具体生成过程可包括:首先,针对难度1,生成一个0到1的小数dl′11(即第二子元素的参数赋值)。然后,重复难度1的生成过程,依次生成难度2、难度3、难度4和难度5对应的小数:dl′12,dl′13,dl′14,dl′15,其中,可采用随机算法随机生成难度2、难度3、难度4和难度5对应的小数。接着,针对生成的5个小数dl′11,dl′12,dl′13,dl′14,dl′15按照下列公式进行归一化处理,具体表示为:
经过上述的归一化处理之后,使得5个归一化的值dl1k之和相加能够为1,以保证最终生成的难度比例列表dl1=(dl11,dl12,dl13,dl14,dl15)与实际组卷需求更为相近。例如,当dl11=0.2,dl12=0.4,dl13=0,dl14=0.3,dl15=0.1时,表示在最终生成的试卷中,需要让难度为1的试题所占的比例为20%;难度为2的试题所占的比例为40%;难度为3的试题所占的比例为0%;难度为4的试题所占的比例为30%;难度为5的试题所占的比例为10%。
步骤S113,基于预设组卷策略中的第三元素随机生成第三元素向量列表,并基于第三元素向量列表生成第三单元组卷参数列表,其中,第三元素向量列表包含有第三元素中的多个第三子元素以及对应各第三子元素的不同赋值。
可选的,基于预设组卷策略中的第三元素随机生成第三元素向量列表,并基于第三元素向量列表生成第三单元组卷参数列表可包括:基于第三元素随机生成第三元素向量列表,并基于第三单元组卷参数列表中所需的参数个数以及第三元素向量列表生成与第三单元组卷参数列表中所需的参数个数对应的参数列表作为第三单元组卷参数列表。此处,第三单元组卷参数列表中各第三子元素的参数赋值可在预设的阈值范围的随机生成,或者也可指定各第三子元素的参数赋值。
举例而言,当第三元素为“题型”时,则可生成各题型的试题数量向量列表tl1=(tl11,tl12,tl13,tl14),其中,tl11,tl12,tl13,tl14为第三子元素,并可采用随机算法随机生成各题型的试题数量向量列表。
在实际组卷中,可根据组卷需求预先设置试卷中每种题型的试题数量,例如设置选择题、填空题、判断题和问答题的数量。题型的种类可以不限于这四种,由于上述四类题型属于当前试卷中最常见的题型,因此,为了使得组卷结果更能符合教师的实际组卷需求,也为了本发明技术方案描述的清晰性,下面仅以四种题型为例进行介绍。各题型的试题数量向量列表具体生成过程如下:
首先,针对第一种题型,可从该题型对应的试题数量范围阈值中,例如从0到40之间,随机确定一个整数tl11作为第一种题型的数量要求(即第三子元素的参数赋值)。需要说明的是,40的阈值上限可以基于实际情况进行针对性调整,例如放大或者缩小,用于表示第一种题型最多能出的试题数量。同样的,0的阈值下限也可以基于实际情况进行调整,例如调整为10,用于表示第一题型的试题数量最少为10题。
接着,类似于第一种题型的试题数量生成步骤,依次生成第二种题型、第三种题型、第四种题型对应的试题数量:tl12,tl13,tl14;
然后,基于所生成的tl11,tl12,tl13,tl14,获得各题型的试题数量列表tl1=(tl11,tl12,tl13,tl14)。
步骤S114,将第一单元组卷参数列表、第二单元组卷参数列表、与第三单元组卷参数列表进行整合,生成包含第一元素、第二元素和第三元素的第一组训练组卷参数。
可选的,可基于简单拼接方式,将kl1,dl1,和tl1进行拼接,生成第一组训练组卷参数,其表示为:pl1=(kl1,dl1,tl1)。
继续参考图2,在执行完步骤S11之后继续执行步骤S12,以重复第一组训练组卷参数的生成过程,获得预设组卷策略的多组训练组卷参数。
具体而言,通过重复执行上述步骤S11,生成预设组卷策略的多组训练组卷参数,并基于所生成的多个训练组卷参数,获得训练组卷参数列表向量,可表示为:pl=(pl1,pl2,...,plm)。其中,m值越大,最终利用组卷模型的组卷结果的精度和鲁棒性就越高。因为m值越大,代表所生成的训练试卷的样本数量就越多,涵盖的范围就越广,考虑到的可能性就越多。即参与训练的训练试卷的样本数量就越多、越全,后续组卷模型的训练就越为充分,使得组卷模型的精度和鲁棒性都能得到进一步的提升。
如图4所示,于一可选实施例中,上述步骤S2,即利用遗传算法对各组所述训练组卷参数分别生成多套训练试卷还进一步包括以下步骤:
步骤S21,针对第一组训练组卷参数生成第一套训练试卷。
请配合参阅图5,于一可选实施例中,步骤S21还进一步包括:
步骤S211,根据第一组训练组卷参数随机生成初始试卷种群。
可选的,可提取第一组训练组卷参数pl1,并针对训练组卷参数pl1生成一初始试卷种群。
步骤S212,对生成的初始试卷种群依次执行交叉操作和变异操作,得到更新试卷种群。
可选的,可采用交叉操作针对初始试卷种群中进行交叉操作,以更新初始试卷种群,而生成中间试卷种群,接着,采用变异操作针对所生成的中间试卷种群执行变异操作,以针对中间试卷种群进行再次更新,得到更新试卷种群。
步骤S213,重复上述的交叉操作与变异操作,而针对更新试卷种群进行迭代更新直至收敛,并从最终的更新试卷种群中选取适应度值最大的个体作为第一组训练组卷参数的第一套训练试卷。
本实施例中,在收敛后,可停止遗传算法过程,并从更新试卷种群中选择出适应度值最大的个体,作为第一组训练组卷参数pl1的第一套训练试卷tp11。其中,tp11为筛选出的试题序号的列表(试题序号是指各试题在试题库中的序号)。
举例而言,tp11=(1,8,20,40,100,700,1000,2001)时,表示本次组卷选择的试题分别是试题序号为1、8、20、40、100、700、1000、2001的这8道题。
可选的,可通过设定最大迭代次数,当达到设定的迭代次数时,则判断收敛;或者,可通过设定适应度变化阈值范围,当前后两次迭代的适应度值变化范围在设定的适应度变化阈值范围之内时,则判断收敛。
可选的,可通过判断训练组卷参数与基于训练组卷参数生成的训练试卷所对应的实际组卷参数之间的相似程度,而获得适应度值。
可选的,上述适应度值的计算方法例如为:计算一组训练组卷参数与对应该组训练组卷参数的多套训练试卷中的每一套训练试卷对应的实际组卷参数之间的相似程度,相似程度越高则适应度值越大,即代表所生成的训练试卷的精确度越高,越符合实际的组卷需求。
请继续参考图4,在执行完步骤S21之后继续执行步骤S22,重复上述第一组训练组卷参数的第一套训练试卷的生成过程,得到第一组训练组卷参数pl1的多套训练试卷,可使用一个二元组来表示第一组训练组卷参数pl1的组卷结果:d1=(pl1,(tp11,tp12,…,tp1n)),其中,tp1n为第一组训练组卷参数pl1的第n套训练试卷。
步骤S23,重复上述第一组训练组卷参数pl1的多套训练试卷的生成过程,得到每一组训练组卷参数的多套训练试卷,可将其表示为:dm=(plm,(tpm1,tpm2,…,tpmn))。
而后,即可基于步骤S23,得到pl中所有训练组卷参数的组卷结果的集合,其表示为:D=(d1,d2,…,dm)。集合D能够避免遗传算法陷入局部最优解的问题,且能够为后续的组卷模型提供更为充足、更为精确的组卷结果数据,保证了组卷模型的鲁棒性和精确性(请容后详述)。
可选的,请配合参考图6,上述步骤S3构建组卷模型的步骤还进一步包括构建组卷模型的输入层的子步骤,即可基于预设组卷策略中的每种元素,构建一组卷策略神经元;根据每种元素中各子元素对应的赋值,设置对应的组卷策略神经元的参数值,其可包括:
步骤S311,基于预设组卷策略中的第一元素构建多个第一组卷策略神经元,基于预设组卷策略中的第二元素构建多个第二组卷策略神经元,以及基于预设组卷策略中的第三元素构建多个第三组卷策略神经元。
步骤S312,获取第一元素中的各第一子元素对应的各个赋值,据以设定各第一组卷策略神经元的参数值,获取第二元素中的各第二子元素对应的各个赋值,据以设定各第二组卷策略神经元的参数值,以及获取第三元素中的各第三子元素对应的各个赋值,据以设定各第三组卷策略神经元的参数值。
如上在步骤S3中所描述的,所构建的组卷策略神经元可与训练组卷参数所对应的预设组卷策略之间形成映射关系,因此,在本实施例中,依照图3实施例所示的预设组卷策略中包括有三个元素(即“知识点重要程度”,“试题难度”,以及“题型”)为例进行进一步的说明,需要说明的是,输入层的组卷策略神经元的构建步骤并不下述为限,其可依照预设组卷策略的实际确定而进行相应调整。
于本实施例中,构建组卷模型的输入层的子步骤可包括:
构建知识点分布神经元,例如,若总共有K个知识点,则可构建K个知识点分布神经元,其中,每个知识点分布神经元代表一个知识点,而各个知识点对应的知识点分布神经元的取值可依据每一个训练组卷参数中的知识点列表klm中是否包括该知识点来确定。
举例而言,当针对第m组训练组卷参数进行训练时,如果klm中含有知识点a1,则知识点a1所对应的知识点分布神经元的取值为1;如果klm中不含有知识点a1,则知识点a1所对应的知识点分布神经元的取值为0。基于此原则,即可将训练组卷参数中的知识点列表转换成组卷模型的输入层的知识点分布神经元的相应取值。
构建试题难度分布神经元。例如,若总共有5个难度,可构建5个难度分布神经元,每个难度分布神经元代表某一个难度。而每个难度分布神经元的取值方法类似于步骤311,可依据每一个训练组卷参数中的dlm中各个难度的具体比例,直接将其中的比例赋值给对应难度分布神经元即可。
构建题型数量分布神经元。例如,若包括四类题型的话,则针对每类题型可构建一个题型数量分布神经元。而每个题型数量分布神经元的具体取值依据训练组卷参数中的tlm来决定。
通过上述手段,使得所构建的组卷策略神经元与训练组卷参数所对应的预设组卷策略之间形成了映射关系,从而提供组卷模型的输入层能够自动将预设组卷策略转化为组卷模型可理解的输入(即转化为符合组卷模型的输入层的格式要求的参数值),从而确保后续能够针对输入的训练试卷进行学习。
可选的,请配合参考图7,于上述步骤S3构建组卷模型的步骤中,还可包括构建组卷模型的输出层(ManyPapersNN)的子步骤,具体包括:
步骤S331,针对第一套训练试卷生成一个训练神经元组,其中,训练神经元组中包含有多个训练神经元及对应各训练神经元的不同赋值,其中,各训练神经元的赋值对应于训练试卷中各试题在试题库中的试题序号。
可选的,可根据预设的试卷试题数量,针对第一套训练试卷构建与试题数量相同的训练神经元,例如构建100个训练神经元,即表示第一套训练试卷中会包括100个试题。
可选的,对每个训练神经元的取值方式包括:依据第一套训练试卷tp*1中的试题序号(即试题在试题库中的序号)对训练神经元进行赋值。举例而言,当tp*1=(1,8,20,40,100,700,1000,2001)时,则第一个神经元取值为1,第二个神经元取值为8,第三个神经元取值为20,以此类推。若训练神经元的数量为100个,由于tp*1中只包括了8个试题序号,即仅有8个神经元根据tp*1进行了赋值,,可直接将未被赋值的92个神经元的值置为0。
步骤S332,重复上述针对第一套训练试卷生成一个训练神经元组的步骤,获得多套训练试卷的多个训练神经元组以及对各个训练神经元组中的各个训练神经元进行赋值。
步骤S333,基于预设的拼接规则,拼接各个训练神经元组中的各个训练神经元,拼接后的所有训练神经元即为组卷模型的输出层。其中,拼接规则不限。例如,为快速实现拼接,可将训练神经元的向量进行首尾拼接即可。
通过上述技术手段,使得所构建的各训练神经元组与各套训练试卷形成一一对应,使得组卷模型能够充分学习每一套训练试卷,从而提高组卷模型的鲁棒性。
可选的,还可以设置神经网络目标函数,用于评估一组训练组卷参数的多套训练卷中各试题的重要性,从而进一步优化组卷模型的组卷结果的精确性。
具体而言,若某道试题在n组训练试卷中都出现了,则表明该道试题的重要程度很高,也表面这道试题与训练组卷参数的关联性非常强;反之,如果某道试题在n组训练试卷中出现的次数非常少,则说明这道试题的重要程度相对较低。为了充分考虑不同训练试卷之间的信息流通,以及充分考虑n组训练试卷之间的彼此联系,可通过神经网络目标函数综合衡量试题重要性。。
可选的,神经网络目标函数可表示为:
其中,W为网络权重参数,其中,W的初始值可为随机设置,并在组卷模型的训练过程中,利用反向传播算法针对W的参数值进行迭代更新,当组卷模型的训练结束时,W的最后更新值即为最终值。
另外,qij表示在第i套训练试卷中的第j道试题;QIij表示试题qij在与一组训练组卷参数对应的多套训练试卷中的出现率,计算方法为n套试卷中试题qij的出现次数除以n。其中,出现率越高,则代表试题qij的重要性越高。
此外,index(tpmi,qij)为试题qij是否在训练试卷tpmi中出现的指示函数,出现为0,没有出现为1。本发明实施例中基于试题重要性所设计的神经网络目标函数能够综合考虑基于一组训练组卷参数的多套训练卷中各试题的重要性,使得在组卷模型在训练过程中,能够优先考虑重要的试题,即生成的训练试卷重点考虑重要试题,进一步提高了组卷结果的精度和鲁棒性。
本发明的第二实施例提供一种计算机存储介质,计算机存储介质中存储有用于执行上述第一实施例中组卷模型训练方法的各步骤的指令。
请继续参阅8,本发明的第三实施例还提供了一种组卷方法,基于上述组卷模型训练方法构建的组卷模型进行组卷,其具体包括:
步骤S81,获取目标组卷参数,利用第一实施例构建的组卷模型根据目标组卷参数生成多组目标组卷结果。
步骤S82,基于预设筛选规则针对多组目标组卷结果进行筛选,并获得对应目标组卷参数的目标试卷。
本发明一可选实施例中,基于预设筛选规则针对多组目标组卷结果进行筛选的规则可以为:
统计多组目标组卷结果中各目标组卷结果重复出现的次数,分析各目标组卷结果的统计次数;以及若存在统计次数最多的一组目标组卷结果,则将一组目标组卷结果作为目标试卷;若存在统计次数相同的至少二组目标组卷结果,则从至少二组目标组卷结果中选取适应度值最大的一组目标试卷结果以作为目标试卷;若至少二组目标组卷结果的适应度值相同,则从至少二组目标组卷结果中随机选择一组目标试卷结果以作为目标试卷。
举例而言,可首先统计n组试卷(即多组目标组卷结果)中各组试卷(即目标组卷结果)重复出现的次数,将重复出现次数最多的试卷作为本次组卷的最终输出,因为试卷重复次数多,说明在该组目标组卷参数下,该组试卷出现的概率最大,从统计上来说,组卷模型认为该组试卷的重要性会比较大;如果出现统计次数相同的若干组试卷,则计算各自的适应度值,适应度值越大,表明重要性越高;若适应度值也相同,则从中随机挑一组即可。需说明的是,预设的筛选规则并不以上述为限,亦可根据实际需求而采用其他筛选规则。
本发明的第四实施例提供一种计算机存储介质,计算机存储介质中存储有用于上述第三实施例中组卷方法的各步骤的指令。
请继续参考图9,本发明的第五实施例提供了一种组卷模型训练装置100,主要包括参数生成模块120,训练数据生成模块130,模型生成模块140,和模型训练模块150,其中,
参数生成模块120用于基于预设组卷策略生成多组训练组卷参数。
训练数据生成模块130用于利用遗传算法对各组训练组卷参数分别生成多套训练试卷。
模型生成模块140用于构建包含输入层、隐层与输出层的组卷模型110,本实施例中,组卷模型110的输入层包括多个基于多组训练组卷参数对应的预设组卷策略构建的组卷策略神经元,组卷模型110的输出层包括多个基于各组训练组卷参数分别生成的多套训练试卷构建的训练神经元组。
模型训练模块150用于利用多组训练组卷参数以及与各组训练组卷参数分别对应的多套训练试卷训练所构建的组卷模型。
可选的,训练数据生成模块130还用于针对第一组训练组卷参数生成第一套训练试卷;并重复第一套训练试卷的生成过程,得到第一组训练组卷参数的多套训练试卷;再重复针对第一组训练组卷参数的多套训练试卷的生成过程,得到每一组训练组卷参数的多套训练试卷;且其中,针对第一组训练组卷参数生成第一套训练试卷还包括:根据第一组训练组卷参数随机生成初始试卷种群;对初始试卷种群依次执行交叉操作和变异操作,得到更新试卷种群;以及重复交叉操作与变异操作,对更新试卷种群进行迭代更新直至收敛,并从更新试卷种群中选取适应度值最大的个体作为训练组卷参数的第一套训练试卷。
可选的,预设组卷策略包括以下元素中的至少一个:知识点重要程度、试题难度、题型。
可选的,参数生成模块120还用于生成预设组卷策略的第一组训练组卷参数;以及重复第一组训练组卷参数的生成过程,获得预设组卷策略的多组训练组卷参数;且其中,生成预设组卷策略的第一组训练组卷参数的步骤还包括:基于预设组卷策略中的第一元素随机生成第一元素向量列表,并基于第一元素向量列表生成第一单元组卷参数列表,其中,第一元素向量列表包含有第一元素中的多个第一子元素以及对应各第一子元素的不同赋值,基于预设组卷策略中的第二元素随机生成第二元素向量列表,并基于第二元素向量列表生成第二单元组卷参数列表,其中,第二元素向量列表包含有第二元素中的多个第二子元素以及对应各第二子元素的不同赋值;并整合第一单元组卷参数列表与第二单元组卷参数列表,生成包含第一元素和第二元素的第一组训练组卷参数。
可选的,参数生成模块120还用于基于预设组卷策略中的第一元素构建多个第一组卷策略神经元,以及基于预设组卷策略中的第二元素构建多个第二组卷策略神经元,以及获取第一元素中的各第一子元素的各赋值,作为各第一组卷策略神经元的设定值,以及获取第二元素中的各第二子元素的各赋值,作为各第二组卷策略神经元的设定值。
可选的,参数生成模块120还用于针对第一套训练试卷生成一个训练神经元组,其中,训练神经元组包含多个训练神经元及对应各训练神经元的不同赋值,各训练神经元的各赋值对应于训练试卷中各试题在试题库中的序号,重复针对第一套训练试卷生成一个训练神经元组的步骤,获得多套训练试卷的多个训练神经元组以及各训练神经元组中的各训练神经元的不同赋值,以及基于预设的拼接规则,拼接各训练神经元组中的各训练神经元,生成组卷模型的输出层。
可选的,模型生成模块140还用于设置神经网络目标函数,其中,神经网络目标函数表示为:
其中,W为网络权重参数;qij表示在第i套训练试卷中的第j道试题;QIij表示试题qij对应于一组训练组卷参数的多套训练试卷中的出现率;index(tpmi,qij)为试题qij是否在训练试卷tpmi中出现的指示函数。
此外,本实施例的组卷模型训练装置还可用于实现前述组卷模型训练方法中的其他步骤,并具有相应的方法步骤实施例的有益效果,在此不再赘述。
请参考图10,本发明的第六实施例还提供一种组卷装置200,其包括组卷参数获取模块210、试卷生成模块220、试卷筛选模块230,其中,
组卷参数获取模块210,用于获取目标组卷参数;
试卷生成模块220,用于根据目标组卷参数,利用第五实施例中的组卷模型的训练装置所训练的组卷模型生成多组目标组卷结果;以及;
试卷筛选模块230,用于基于预设筛选规则针对多组目标组卷结果进行筛选,并获得对应目标组卷参数的目标试卷。
可选的,试卷筛选模块230还用于统计多组目标组卷结果中各目标组卷结果重复出现的次数,分析各目标组卷结果的统计次数;以及若存在统计次数最多的一组目标组卷结果,则将一组目标组卷结果作为目标试卷;若存在统计次数相同的至少二组目标组卷结果,则从至少二组目标组卷结果中选取适应度值最大的一组目标试卷结果以作为目标试卷;若至少二组目标组卷结果的适应度值相同,则从至少二组目标组卷结果中随机选择一组目标试卷结果以作为目标试卷。
综上所述,本发明所设计的组卷参数生成机制,能够很好地模拟实际用户组卷参数,并且能够一定程度反映出实际组卷业务场景,使得生成的组卷参数更具针对性且能够一定程度上贴近实际的教学需求。
另外,本发明能够针对一组组卷参数生成多组组卷结果,再针对多个组卷结果进行综合筛选处理,从而获得最终组卷结果,不仅避免了目前遗传算法的一次生成结果容易导致局部最优解的问题,以提高最终组卷结果的精度;还能提高智能组卷模型的鲁棒性。
需要指出,根据实施的需要,可将本发明实施例中描述的各个部件/步骤拆分为更多部件/步骤,也可将两个或多个部件/步骤或者部件/步骤的部分操作组合成新的部件/步骤,以实现本发明实施例的目的。
上述根据本发明实施例的方法可在硬件、固件中实现,或者被实现为可存储在记录介质(诸如CD ROM、RAM、软盘、硬盘或磁光盘)中的软件或计算机代码,或者被实现通过网络下载的原始存储在远程记录介质或非暂时机器可读介质中并将被存储在本地记录介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件(诸如ASIC或FPGA)的记录介质上的这样的软件处理。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件(例如,RAM、ROM、闪存等),当所述软件或计算机代码被计算机、处理器或硬件访问且执行时,实现在此描述的组卷模型训练方法及组卷方法。此外,当通用计算机访问用于实现在此示出的组卷模型训练方法及组卷方法的代码时,代码的执行将通用计算机转换为用于执行在此示出的组卷模型训练方法及组卷方法的专用计算机。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明实施例的范围。
以上实施方式仅用于说明本发明实施例,而并非对本发明实施例的限制,有关技术领域的普通技术人员,在不脱离本发明实施例的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明实施例的范畴,本发明实施例的专利保护范围应由权利要求限定。
Claims (11)
1.一种组卷模型训练方法,其特征在于,所述方法包括:
基于预设组卷策略生成多组训练组卷参数;
利用遗传算法对各组所述训练组卷参数分别生成多套训练试卷;
构建组卷模型,其中,所述组卷模型的输入层包括多个基于所述多组训练组卷参数对应的所述预设组卷策略构建的组卷策略神经元,所述组卷模型的输出层包括多个基于各组所述训练组卷参数分别生成的多套所述训练试卷构建的训练神经元组;以及
利用所述多组训练组卷参数以及与各组所述训练组卷参数分别对应的多套所述训练试卷训练构建的所述组卷模型;其中,
所述基于预设组卷策略生成多组训练组卷参数的步骤包括:
生成所述预设组卷策略的第一组所述训练组卷参数;以及
重复第一组所述训练组卷参数的生成过程,获得所述预设组卷策略的多组所述训练组卷参数;且其中,
所述生成所述预设组卷策略的第一组所述训练组卷参数的步骤还包括:
基于所述预设组卷策略中的第一元素随机生成第一元素向量列表,并基于所述第一元素向量列表生成第一单元组卷参数列表,其中,所述第一元素向量列表包含有所述第一元素中的多个第一子元素以及对应各所述第一子元素的不同赋值;
基于所述预设组卷策略中的第二元素随机生成第二元素向量列表,并基于所述第二元素向量列表生成第二单元组卷参数列表,其中,所述第二元素向量列表包含有所述第二元素中的多个第二子元素以及对应各所述第二子元素的不同赋值;以及
整合所述第一单元组卷参数列表与所述第二单元组卷参数列表,生成包含所述第一元素和所述第二元素的第一组所述训练组卷参数。
2.根据权利要求1所述的组卷模型训练方法,其特征在于,所述利用遗传算法对各组所述训练组卷参数分别生成多套训练试卷的步骤包括:
针对第一组所述训练组卷参数生成第一套训练试卷;
重复所述第一套训练试卷的生成过程,得到所述第一组训练组卷参数的多套所述训练试卷;以及
重复针对所述第一组训练组卷参数的多套所述训练试卷的生成过程,得到每一组所述训练组卷参数的多套所述训练试卷;且其中,
所述针对第一组所述训练组卷参数生成第一套训练试卷的步骤包括:
根据所述第一组训练组卷参数随机生成初始试卷种群;
对所述初始试卷种群依次执行交叉操作和变异操作,得到更新试卷种群;以及
重复所述交叉操作与所述变异操作,对所述更新试卷种群进行迭代更新直至收敛,并从所述更新试卷种群中选取适应度值最大的个体作为所述训练组卷参数的第一套训练试卷。
3.根据权利要求1所述的组卷模型训练方法,其特征在于,所述预设组卷策略包括以下元素中的至少一个:知识点重要程度、试题难度、题型。
4.根据权利要求1所述的组卷模型训练方法,其特征在于,所述构建组卷模型的步骤包括构建所述组卷模型的所述输入层的子步骤,所述子步骤包括:
基于所述预设组卷策略中的所述第一元素构建多个第一组卷策略神经元,以及基于所述预设组卷策略中的所述第二元素构建多个第二组卷策略神经元;以及
获取所述第一元素中的各所述第一子元素的各所述赋值,据以设定各所述第一组卷策略神经元的参数值,以及获取所述第二元素中的各所述第二子元素的各所述赋值,据以设定各所述第二组卷策略神经元的参数值。
5.根据权利要求4所述的组卷模型训练方法,其特征在于,所述构建组卷模型的步骤包括构建所述组卷模型的所述输出层的子步骤,所述子步骤包括:
针对第一套所述训练试卷生成一个所述训练神经元组,其中,所述训练神经元组包含多个训练神经元及对应各所述训练神经元的不同赋值,各所述训练神经元的各所述赋值对应于所述训练试卷中各试题在试题库中的序号;
重复针对第一套所述训练试卷生成一个所述训练神经元组的步骤,获得多套所述训练试卷的多个所述训练神经元组以及各所述训练神经元组中的各所述训练神经元的不同赋值;以及
基于预设的拼接规则,拼接各所述训练神经元组中的各所述训练神经元,生成所述组卷模型的所述输出层。
7.一种组卷方法,其特征在于,所述方法包括:
获取目标组卷参数;
根据所述目标组卷参数,利用权利要求1至6中任一项所述的组卷模型训练方法所训练的所述组卷模型生成多组目标组卷结果;以及
基于预设筛选规则针对多组所述目标组卷结果进行筛选,并获得对应所述目标组卷参数的目标试卷。
8.根据权利要求7所述的组卷方法,其特征在于,所述基于预设筛选规则针对多组所述目标组卷结果进行筛选的步骤还包括:
统计多组所述目标组卷结果中各所述目标组卷结果重复出现的次数,分析各所述目标组卷结果的统计次数;以及
若存在所述统计次数最多的一组所述目标组卷结果,则将所述一组目标组卷结果作为所述目标试卷;若存在所述统计次数相同的至少二组所述目标组卷结果,则从所述至少二组目标组卷结果中选取适应度值最大的一组所述目标试卷结果以作为所述目标试卷;若所述至少二组目标组卷结果的所述适应度值相同,则从所述至少二组目标组卷结果中随机选择一组所述目标试卷结果以作为所述目标试卷。
9.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有用于执行根据权利要求1至6中任一项所述的组卷模型训练方法的各所述步骤的指令;或所述计算机存储介质中存储有用于执行根据权利要求7至8中任一项所述的组卷方法的各所述步骤的指令。
10.一种组卷模型训练装置,其特征在于,所述装置包括:
参数生成模块,用于基于预设组卷策略生成多组训练组卷参数;
训练数据生成模块,用于利用遗传算法对各组所述训练组卷参数分别生成多套训练试卷;
模型生成模块,用于构建组卷模型,其中,所述组卷模型的输入层包括多个基于所述多组训练组卷参数对应的所述预设组卷策略构建的组卷策略神经元,所述组卷模型的输出层包括多个基于各组所述训练组卷参数分别生成的多套所述训练试卷构建的训练神经元组;以及
模型训练模块,用于利用所述多组训练组卷参数以及与各组所述训练组卷参数分别对应的多套所述训练试卷训练构建的所述组卷模型;
其中,所述参数生成模块还用于:
生成所述预设组卷策略的第一组所述训练组卷参数;以及
重复第一组所述训练组卷参数的生成过程,获得所述预设组卷策略的多组所述训练组卷参数;且其中,
所述生成所述预设组卷策略的第一组所述训练组卷参数的步骤还包括:
基于所述预设组卷策略中的第一元素随机生成第一元素向量列表,并基于所述第一元素向量列表生成第一单元组卷参数列表,其中,所述第一元素向量列表包含有所述第一元素中的多个第一子元素以及对应各所述第一子元素的不同赋值;
基于所述预设组卷策略中的第二元素随机生成第二元素向量列表,并基于所述第二元素向量列表生成第二单元组卷参数列表,其中,所述第二元素向量列表包含有所述第二元素中的多个第二子元素以及对应各所述第二子元素的不同赋值;以及
整合所述第一单元组卷参数列表与所述第二单元组卷参数列表,生成包含所述第一元素和所述第二元素的第一组所述训练组卷参数。
11.一种组卷装置,其特征在于,所述装置包括:
组卷参数获取模块,用于获取目标组卷参数;
试卷生成模块,用于根据所述目标组卷参数,利用权利要求10中所述的组卷模型训练装置所训练的所述组卷模型生成多组目标组卷结果;以及;
试卷筛选模块,用于基于预设筛选规则针对多组所述目标组卷结果进行筛选,并获得对应所述目标组卷参数的目标试卷。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911368504.8A CN113052315B (zh) | 2019-12-26 | 2019-12-26 | 组卷模型训练及其组卷方法、装置及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911368504.8A CN113052315B (zh) | 2019-12-26 | 2019-12-26 | 组卷模型训练及其组卷方法、装置及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113052315A CN113052315A (zh) | 2021-06-29 |
CN113052315B true CN113052315B (zh) | 2022-05-17 |
Family
ID=76505406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911368504.8A Active CN113052315B (zh) | 2019-12-26 | 2019-12-26 | 组卷模型训练及其组卷方法、装置及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113052315B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1588308A (zh) * | 2004-07-02 | 2005-03-02 | 北京邮电大学 | 采用改进遗传算法的试题库自动组卷实现方法 |
CN102663910A (zh) * | 2012-03-14 | 2012-09-12 | 北京邮电大学 | 一种基于分层遗传算法的网上考试系统自动选题方法 |
CN107798321A (zh) * | 2017-12-04 | 2018-03-13 | 海南云江科技有限公司 | 一种试卷分析方法和计算设备 |
CN109634961A (zh) * | 2018-12-05 | 2019-04-16 | 杭州大拿科技股份有限公司 | 一种试卷样本生成方法、装置、电子设备和存储介质 |
CN110110585A (zh) * | 2019-03-15 | 2019-08-09 | 西安电子科技大学 | 基于深度学习的智能阅卷实现方法及系统、计算机程序 |
CN110147988A (zh) * | 2019-06-05 | 2019-08-20 | 北京易真学思教育科技有限公司 | 一种授课进度的控制方法和系统 |
CN110175332A (zh) * | 2019-06-03 | 2019-08-27 | 山东浪潮人工智能研究院有限公司 | 一种基于人工神经网络的智能出题方法及系统 |
-
2019
- 2019-12-26 CN CN201911368504.8A patent/CN113052315B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1588308A (zh) * | 2004-07-02 | 2005-03-02 | 北京邮电大学 | 采用改进遗传算法的试题库自动组卷实现方法 |
CN102663910A (zh) * | 2012-03-14 | 2012-09-12 | 北京邮电大学 | 一种基于分层遗传算法的网上考试系统自动选题方法 |
CN107798321A (zh) * | 2017-12-04 | 2018-03-13 | 海南云江科技有限公司 | 一种试卷分析方法和计算设备 |
CN109634961A (zh) * | 2018-12-05 | 2019-04-16 | 杭州大拿科技股份有限公司 | 一种试卷样本生成方法、装置、电子设备和存储介质 |
CN110110585A (zh) * | 2019-03-15 | 2019-08-09 | 西安电子科技大学 | 基于深度学习的智能阅卷实现方法及系统、计算机程序 |
CN110175332A (zh) * | 2019-06-03 | 2019-08-27 | 山东浪潮人工智能研究院有限公司 | 一种基于人工神经网络的智能出题方法及系统 |
CN110147988A (zh) * | 2019-06-05 | 2019-08-20 | 北京易真学思教育科技有限公司 | 一种授课进度的控制方法和系统 |
Non-Patent Citations (1)
Title |
---|
基于自组织映射网络的智能组卷系统;姜伟;《辽宁师范大学学报(自然科学版)》;20050930;第283-284页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113052315A (zh) | 2021-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107590247B (zh) | 一种基于群体知识诊断的智能组卷方法 | |
CN112700688B (zh) | 一种智能课堂教学辅助系统 | |
CN111159419A (zh) | 基于图卷积的知识追踪数据处理方法、系统和存储介质 | |
Intisar et al. | Classification of online judge programmers based on rule extraction from self organizing feature map | |
CN107437111A (zh) | 基于神经网络的数据处理方法、介质、装置和计算设备 | |
CN106777402A (zh) | 一种基于稀疏神经网络的图像检索文本方法 | |
Wabwoba et al. | Students selection for university course admission at the joint admissions board (kenya) using trained neural networks | |
CN115131183A (zh) | 一种提高体育教学效果的方法及系统 | |
CN112365177A (zh) | 一种基于vr的汽车维修实训的评价方法 | |
CN111552796A (zh) | 组卷方法、电子设备及计算机可读介质 | |
CN113052315B (zh) | 组卷模型训练及其组卷方法、装置及计算机存储介质 | |
Kalejaye et al. | PREDICTING STUDENTS «¤?? GRADE SCORES USING TRAINING FUNCTIONS OF ARTIFICIAL NEURAL NETWORK | |
CN111311997B (zh) | 一种基于网络教育资源的互动方法 | |
CN111832787B (zh) | 教师风格预测模型的训练方法及计算机存储介质 | |
CN114943278B (zh) | 基于强化学习的持续在线群体激励方法、装置及存储介质 | |
CN114117033B (zh) | 知识追踪方法及系统 | |
CN111369063A (zh) | 组卷模型训练方法、组卷方法及相关装置 | |
Özkan | Interest in Environmental Issues as a Determinant of Science Literacy: A Multinational Review with Artificial Neural Network Analysis | |
CN115713441A (zh) | 基于AHP-Fuzzy算法和神经网络的教学质量评价方法与系统 | |
CN109409642A (zh) | 一种基于大数据的教学资源评级方法 | |
CN113888055A (zh) | 动态教学管理系统 | |
CN112883284A (zh) | 一种基于网络和数据分析的在线学习系统及测试题推荐方法 | |
CN112182172B (zh) | 基于粒子群遗传算法的组卷方法、系统、装置及介质 | |
Ying et al. | An improved BP neural network algorithm and its application | |
CN113129184B (zh) | 组卷模型训练及其组卷方法、装置和计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |