CN110245860A - 一种基于虚拟实验平台的自动评分的方法 - Google Patents
一种基于虚拟实验平台的自动评分的方法 Download PDFInfo
- Publication number
- CN110245860A CN110245860A CN201910508859.6A CN201910508859A CN110245860A CN 110245860 A CN110245860 A CN 110245860A CN 201910508859 A CN201910508859 A CN 201910508859A CN 110245860 A CN110245860 A CN 110245860A
- Authority
- CN
- China
- Prior art keywords
- neural network
- input
- word
- door
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
Abstract
本发明公了一种基于虚拟实验平台的自动评分的方法,其特征是,包括如下步骤:1)输入文本数据:输入主观题文本数据;2)自然语言预处理;3)题型分类;4)评分过程。这种方法无需人工评分,能节省评分时间、提高评分效率和提高评分的准确率。
Description
技术领域
本发明涉及实验教学技术领域,具体是一种基于虚拟实验平台的自动评分的方法。
背景技术
实验仪器一直以来都是实验教学和科研中经常用到的测量观测设备,然而,实验仪器的研发周期长,制作工艺复杂,造价高昂,但是用虚拟软件编程设计的虚拟实验仪器可以很好的避免这些缺点和不足,虚拟实验仪器不仅能实现实验仪器的全部实验功能,而且还能对实验仪器进行功能扩展,比如添加数据的存储、分析、波形回放、链接网络实现远程控制等新的功能,并且用户在使用虚拟实验仪器时,可以节约购买仪器的成本、设备操作更加方便,而且仪器功能更加齐全。
许多高校都开始使用虚拟实验仪器来代替实验仪器,这样不仅可以节约成本还可以让学生在网上就可以使用各种实验仪器,方便快捷还能让学生加强对实验仪器的了解。对于学生使用实验仪器的情况,可以通过自动评分系统将学生在网上的操作数据进行整合,不仅有操作的分数还有操作是否规范等更多的评价,使学生对实验仪器学习有更深的体会,同时教师也能详细了解每个学生的学习情况方便接下来的教学。
然而,对于各种理科实验的设计与操作能力的测评支持得还很不够,同时,随着计算机仿真与虚拟现实技术的成熟,用于培养各种实验设计和操作能力的计算机仿真平台已经相当完善,如各种仿真化学实验室、仿真物理实验室等,但这些软件一般都由各个开发商独立设计开发,基本上都没有提供测评考试的功能模块,也没有提供必要的接口供其他研发单位在其基础上开发测评模块。
目前使用的虚拟实验评分技术主要就是在虚拟仿真平台上加入正确的数值,当实验者使用的时候将其操作的数据与正确的数值进行对比来进行评分,这种评分技术只是对结果进行定义,对实验者的操作并没有进行评价,较为机械化不够智能。例如在基于LABVIEW的虚拟示波器中加入一个移位寄存器和一个比较函数直接比较数值是否相同的方法对于学生的操作动态数据没有任何的评价,无法给学生进行正确的指导,较为机械化不够智能。
目前的技术很少使用人工智能进行评分,大部分都是通过设计大型题库采取随机抽题的方式进行考试和评分,例如计算机考试方法,目前的方法只能进行选择题的判断,对于以文本为主的主观题无法实现判分,这类的判分必须交由来人工评分。
发明内容
本发明的目的是针对现有技术的不足,而提供一种基于虚拟实验平台的自动评分的方法。这种方法无需人工评分,能节省评分时间、提高评分效率和提高评分的准确率。
实现本发明目的的技术方案是:
一种基于虚拟实验平台的自动评分的方法,包括如下步骤:
1)输入文本数据:输入主观题文本数据;
2)自然语言预处理:先将输入主观题的文本数据通过切词工具切词,然后将切好词的数据采用为虚拟实验专门设计的字典即自定义该字典来代替数据库,该字典内容根据实验的内容自主添加词语,分配给每一个词组不同的数字ID,最后将主观题文本数据以数字的形式输出,采用在GitHub上的开源切词工具jieba进行切词处理,自然语言预处理的过程为:由于虚拟实验平台的数据以中文为主,相比于英文作文评分系统可以从众多已有的语料库下载数据建立数据库,虚拟实验平台评分系统需要自己建立数据库,因此需要统计虚拟实验操作可能会使用到的所有词语,为每个词语分配一个ID,建立一个自定义的字典作为数据库,将文本转化为词语编号形式,除了加入预料出现的词语以外还需要加入句子起始符“<sos>”、句子结束符“<eos>”和停用词“<unk>”,当出现不是为虚拟实验专门设计的的字典中的词语时将其替换为停用词“<unk>”,原本的数据将转化为词语编号,并保存,接着将预处理完的数据进行筛选,去除句子起始符“<sos>”、句子结束符“<eos>”和停用词“<unk>”,保留存在于字典中文本信息,将经过切词后的数据通过为虚拟实验专门设计的字典进行筛选,保留存在于字典中文本信息,并将其转为数字向量再输出;
3)题型分类:由于学生的答案与正确答案不可能相同,与正确答案相比存在许多不同,因此可以采用长短时记忆网络LSTM(long short-term memory,简称LSTM)通过人工智能的方式将不同题型的学生答案进行自动分类,即将经过自然语言预处理完后得到的数字向量输入到LSTM神经网络中,将通过LSTM神经网络后得到的原始输出值通过softmax层将结果表示为概率分布的形式,假设神经网络原始的输出值为y1,y2,…,yn,经过softmax处理之后的输出为:
将输出结果与所有题型标准答案通过交叉熵公式H(p,q)=-∑p(x)log q(x)获得的交叉熵的大小,最小结果为匹配度最高的题型,从而将文本数据分类到相应的题型中去,将输入的值分配给概率最高的题型,题型分类阶段实现方式如下:通过自然语言预处理将词语转化为数字向量(流程图中的Embedding层),将数字向量输入到LSTM神经网络中,接着将通过LSTM神经网络后得到的原始输出值通过softmax层使其结果以概率分布的形式表示,系统会根据概率将数字向量输入值所对应的文本信息分配给概率最高的题型中,
LSTM是一种拥有三个“门”结构的特殊网络结构,LSTM靠一些“门”的结构让信息有选择性地影响循环神经网络中每个时刻的状态,所谓“门”的结构就是一个使用sigmoid神经网络和一个按位做乘法的操作,这两个操作合在一起就是一个“门”的结构,之所以该结构叫做“门”是因为使用sigmoid作为激活函数的全连接神经网络层会输出一个0到1之间的数值,描述当前输入有多少信息量可以通过这个结构,于是这个结构的功能就类似于一扇门,当门打开时即sigmoid神经网络层输出为1时,全部信息都可以通过;当门关上时即sigmoid神经网络层输出为0时,任何信息都无法通过,为了使循环神经网更有效的保存长期记忆,“遗忘门”和“输入门”至关重要,它们是LSTM结构的核心,“遗忘门”的作用是让循环神经网络“忘记”之前没有用的信息,“遗忘门”会根据当前的输入xt和上一时刻输出ht-1决定哪一部分记忆需要被遗忘,f取值接近0的维度上的信息就会被“忘记”,而f取值接近1的维度上的信息会被保留,在循环神经网络“忘记”了部分之前的状态后,它还需要从当前的输入补充最新的记忆,这个过程就是“输入门”完成的,“输入门”会根据xt和ht-1决定哪些信息加入到状态ct-1中生成新的状态ct,
具体LSTM每个“门”的公式定义如下:
i=sigmoid(Wi[ht-1,xt]) 输入门 f=sigmoid(Wf[ht-1,xt]) 遗忘门
o=sigmoid(Wo[ht-1,xt]) 输出门 ct=f·ct-1+i·z 新状态
ht=o·tanct 输出
交叉熵是常用的评判方法之一,它刻画了两个概率分布之间的距离,它是分类问题中使用的比较广的一种损失函数,交叉熵的值越小则越接近正确结果;
4)评分过程:完成题型分类后,不同题型的文本数据将会被分配到相应的题型中进行评分,评分采用循环神经网络(Recurrent Neural Network,简称RNN)对进行完题型分类的数据进行处理获得输出值,依据决策树算法建立的评分模型进行评分,最后输出评分结果。
步骤4)中所述的循环神经网络结构及处理原理为:RNN是一种特殊的神经网络结构,其一个序列当前的输出与前面的输出也有关,具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出,用一句话解释RNN,就是一个单元结构重复使用的神经网络结构,将完成题型分类的数据按照自然语言处理后的数字向量形式输入,采用设定循环体内部向量的值获得每一单词向量输入后所得的新结果,该结果可以被视为输出值也可以被视为下一时刻的输入值,每一时刻所获得的输出值和最终的输出值都将被保留用于接下来的评分,RNN数据处理过程为:
假设状态的维度为2,输入、输出的维度都为1,而且循环体中的全连接层中权重为:
偏置项的大小为br=[0.1 -0.1],用于输出的全连接层权重为:偏置项大小为bo=0.1,那么在时刻t0,因为没有上一时刻,所以将状态初始化为[00],而当前的输入为1,所以拼接得到的向量为[0 0 1],通过循环体中的全连接层神经网络得到的结果为:
依据上述处理方式后所获得的输出值就是依据每步操作后的结果与最终操作结果以数值的形式表示,最后将每一时刻所获得的输出值和最终的输出值放入评分模型就可以获得最终的得分。
步骤4)中所述的评分模型为决策树模型,即将实验评分的要求作为决策树的的每一个节点,树的分支代表每一要求所对应的结果,通过将循环神经网络的输出值放入决策树模型中,获得最终的评分结果。
本技术方案与现有技术相比具有以下优点:
1.使用人工智能算法进行题型分类和操作评分,无需人工评分,节省评分时间,提高评分效率;
2.针对学生操作可能出现错误的情况,通过LSTM和softmax层可以过滤错误操作,直接通过学生操作就可以进行题型的分类;
3.针对虚拟实验设计自定义字典,可以排除通过正常训练文本进行训练时所带来的干扰,提高评分的准确率;
4.使用RNN算法对自然语言处理,解决目前虚拟实验评分只能进行选择题或是只能进行数值评分的问题,可以对以文字为主的主观题进行评分。
这种方法无需人工评分,能节省评分时间、提高评分效率和提高评分的准确率。
附图说明
图1为本实施例中的方法流程示意图;
图2为本实施例中的题型分类的过程示意图;
图3为本实施例中LSTM单元结构示意图;
图4为本实施例中RNN神经元结构示意图;
图5为本实施例中RNN数据处理过程示意图。
具体实施方式
下面结合附图和实施例对本发明的内容作进一步的阐述,但不是对本发明的限定。
实施例:
参照图1,一种基于虚拟实验平台的自动评分的方法,包括如下步骤:
1)输入文本数据:输入主观题文本数据;
2)自然语言预处理:先将输入主观题的文本数据通过切词工具切词,然后将切词好后的数据采用为虚拟实验专门设计的字典即自定义该字典来代替数据库,该字典内容根据实验的内容自主添加词语,分配给每一个词组不同的数字ID,最后将主观题文本数据以数字的形式输出,本例采用在GitHub上的开源切词工具jieba进行切词处理,自然语言预处理的过程为:由于虚拟实验平台的数据以中文为主,相比于英文作文评分系统可以从众多已有的语料库下载数据建立数据库,虚拟实验平台评分系统需要自己建立数据库,因此需要统计虚拟实验操作可能会使用到的所有词语,为每个词语分配一个ID,建立一个自定义的字典作为数据库,将文本转化为词语编号形式,除了加入预料出现的词语以外还需要加入句子起始符“<sos>”、句子结束符“<eos>”和停用词“<unk>”,当出现不是为虚拟实验专门设计的字典中的词语时将其替换为停用词“<unk>”,原本的数据将转化为词语编号,并保存,接着将预处理完的数据进行筛选,去除句子起始符“<sos>”、句子结束符“<eos>”和停用词“<unk>”,保留存在于字典中的文本信息,将经过切词后的数据通过为虚拟实验专门设计的字典进行筛选,保留存在于字典中文本信息,并将其转为数字向量再输出;
3)题型分类:由于学生的答案与正确答案不可能相同,与正确答案相比存在许多不同,因此可以采用长短时记忆网络LSTM,通过人工智能的方式将不同题型的学生答案进行自动分类,即将经过自然语言预处理完后得到的数字向量输入到LSTM神经网络中,将通过LSTM神经网络后得到的原始输出值通过softmax层将结果表示为概率分布的形式,假设神经网络原始的输出值为y1,y2,…,yn,经过softmax处理之后的输出为:
将输出结果与所有题型标准答案通过交叉熵公式H(p,q)=-∑p(x)log q(x)获得的交叉熵的大小,最小结果为匹配度最高的题型,从而将文本数据分类到相应的题型中去,将输入的值分配给概率最高的题型,题型分类阶段实现方式如如图2所示:通过自然语言预处理将词语转化为数字向量,图中的Embedding层,将数字向量输入到LSTM神经网络中,接着将通过LSTM神经网络后得到的原始输出值通过softmax层使其结果以概率分布的形式表示,系统会根据概率将数字向量输入值所对应的文本信息分配给概率最高的题型中,
LSTM是一种拥有三个“门”结构的特殊网络结构如图3所示,LSTM靠一些“门”的结构让信息有选择性地影响循环神经网络中每个时刻的状态,所谓“门”的结构就是一个使用sigmoid神经网络和一个按位做乘法的操作,这两个操作合在一起就是一个“门”的结构,之所以该结构叫做“门”是因为使用sigmoid作为激活函数的全连接神经网络层会输出一个0到1之间的数值,描述当前输入有多少信息量可以通过这个结构,于是这个结构的功能就类似于一扇门,当门打开时即sigmoid神经网络层输出为1时,全部信息都可以通过;当门关上时即sigmoid神经网络层输出为0时,任何信息都无法通过,为了使循环神经网更有效的保存长期记忆,“遗忘门”和“输入门”至关重要,它们是LSTM结构的核心,“遗忘门”的作用是让循环神经网络“忘记”之前没有用的信息,“遗忘门”会根据当前的输入xt和上一时刻输出ht-1决定哪一部分记忆需要被遗忘,f取值接近0的维度上的信息就会被“忘记”,而f取值接近1的维度上的信息会被保留,在循环神经网络“忘记”了部分之前的状态后,它还需要从当前的输入补充最新的记忆,这个过程就是“输入门”完成的,“输入门”会根据xt和ht-1决定哪些信息加入到状态ct-1中生成新的状态ct,
具体LSTM每个“门”的公式定义如下:
i=sigmoid(Wi[ht-1,xt]) 输入门 f=sigmoid(Wf[ht-1,xt]) 遗忘门
o=sigmoid(Wo[ht-1,2t]) 输出门 ct=f·ct-1+i·z 新状态
ht=o·tanct 输出
交叉熵是常用的评判方法之一,它刻画了两个概率分布之间的距离,它是分类问题中使用的比较广的一种损失函数,交叉熵的值越小则越接近正确结果;
4)评分过程:完成题型分类后,不同题型的文本数据将会被分配到相应的题型中进行评分,采用循环神经网络RNN对进行完题型分类的数据进行处理获得输出值,依据决策树算法建立的评分模型进行评分,最后输出评分结果。
步骤4)中所述的循环神经网络结构及处理原理如图4所示为:RNN是一种特殊的神经网络结构,其一个序列当前的输出与前面的输出也有关,具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出,用一句话解释RNN,就是一个单元结构重复使用的神经网络结构,将完成题型分类的数据按照自然语言处理后的数字向量形式输入,采用设定循环体内部向量的值获得每一单词向量输入后所得的新结果,该结果可以被视为输出值也可以被视为下一时刻的输入值,每一时刻所获得的输出值和最终的输出值都将被保留用于接下来的评分,RNN数据处理过程如图5所示为:
假设状态的维度为2,输入、输出的维度都为1,而且循环体中的全连接层中权重为:
偏置项的大小为br=[0.1 -0.1],用于输出的全连接层权重为:偏置项大小为bo=0.1,那么在时刻t0,因为没有上一时刻,所以将状态初始化为[0 0],而当前的输入为1,所以拼接得到的向量为[0 0 1],通过循环体中的全连接层神经网络得到的结果为:
依据上述处理方式后所获得的输出值就是依据每步操作后的结果与最终操作结果以数值的形式表示,最后将每一时刻所获得的输出值和最终的输出值放入评分模型就可以获得最终的得分。
步骤4)中所述的评分模型为决策树模型,即将实验评分的要求作为决策树的的每一个节点,树的分支代表每一要求所对应的结果,通过将循环神经网络的输出值放入决策树模型中,获得最终的评分结果。
Claims (3)
1.一种基于虚拟实验平台的自动评分的方法,其特征是,包括如下步骤:
1)输入文本数据:输入主观题文本数据;
2)自然语言预处理:先将输入主观题的文本数据通过切词工具切词,然后将切词好后的数据采用为虚拟实验专门设计的字典即自定义该字典来代替数据库,该字典内容根据实验的内容自主添加词语,分配给每一个词组不同的数字ID,最后将主观题文本数据以数字的形式输出,本例采用在GitHub上的开源切词工具jieba进行切词处理,自然语言预处理的过程为:统计虚拟实验操作可能会使用到的所有词语,为每个词语分配一个ID,建立一个自定义的字典作为数据库,将文本转化为词语编号形式,除了加入预料出现的词语以外还需要加入句子起始符“<sos>”、句子结束符“<eos>”和停用词“<unk>”,当出现不是为虚拟实验专门设计的字典中的词语时将其替换为停用词“<unk>”,原本的数据将转化为词语编号,并保存,接着将预处理完的数据进行筛选,去除句子起始符“<sos>”、句子结束符“<eos>”和停用词“<unk>”,保留存在于字典中文本信息,将经过切词后的数据通过为虚拟实验专门设计的字典进行筛选,保留存在于字典中文本信息,并将其转为数字向量再输出;
3)题型分类:采用长短时记忆网络LSTM通过人工智能的方式将不同题型的学生答案进行自动分类,即将经过自然语言预处理完后得到的数字向量输入到LSTM神经网络中,将通过LSTM神经网络后得到的原始输出值通过softmax层将结果表示为概率分布的形式,假设神经网络原始的输出值为y1,y2,···,yn,经过softmax处理之后的输出为:
将输出结果与所有题型标准答案通过交叉熵公式H(p,q)=-∑p(x)log q(x)获得的交叉熵的大小,最小结果为匹配度最高的题型,从而将文本数据分类到相应的题型中去,将输入的值分配给概率最高的题型,题型分类阶段具体实现方式如下:通过自然语言预处理将词语转化为数字向量,将数字向量输入到LSTM神经网络中,接着将通过LSTM神经网络后得到的原始输出值通过softmax层使其结果以概率分布的形式表示,系统会根据概率将数字向量输入值所对应的文本信息分配给概率最高的题型中,
LSTM是一种拥有三个“门”结构的特殊网络结构,LSTM靠一些“门”的结构让信息有选择性地影响循环神经网络中每个时刻的状态,所谓“门”的结构就是一个使用sigmoid神经网络和一个按位做乘法的操作,这两个操作合在一起就是一个“门”的结构,之所以该结构叫做“门”是因为使用sigmoid作为激活函数的全连接神经网络层会输出一个0到1之间的数值,描述当前输入有多少信息量可以通过这个结构,于是这个结构的功能就类似于一扇门,当门打开时即sigmoid神经网络层输出为1时,全部信息都可以通过;当门关上时即sigmoid神经网络层输出为0时,任何信息都无法通过,为了使循环神经网更有效的保存长期记忆,“遗忘门”和“输入门”至关重要,它们是LSTM结构的核心,“遗忘门”的作用是让循环神经网络“忘记”之前没有用的信息,“遗忘门”会根据当前的输入xt和上一时刻输出ht-1决定哪一部分记忆需要被遗忘,f取值接近0的维度上的信息就会被“忘记”,而f取值接近1的维度上的信息会被保留,在循环神经网络“忘记”了部分之前的状态后,它还需要从当前的输入补充最新的记忆,这个过程就是“输入门”完成的,“输入门”会根据xt和ht-1决定哪些信息加入到状态ct-1中生成新的状态ct,
具体LSTM每个“门”的公式定义如下:
i=sigmoid(Wt[ht-1,xt]) 输入门f=sigmoid(Wf[ht-1,xt]) 遗忘门
o=sigmoid(Wo[ht-1,xt]) 输出门ct=f·ct-1+i·z 新状态
ht=o·tanct 输出
交叉熵刻画了两个概率分布之间的距离,交叉熵的值越小则越接近正确结果;
4)评分过程:采用循环神经网络RNN对进行完题型分类的数据进行处理获得输出值,依据决策树算法建立的评分模型进行评分,最后输出评分结果。
2.根据权利要求1所述的基于虚拟实验平台的自动评分的方法,其特征是,步骤4)中所述的循环神经网络结构及处理原理为:RNN是一种特殊的神经网络结构,是一个单元结构重复使用的神经网络结构,将完成题型分类的数据按照自然语言处理后的数字向量形式输入,采用设定循环体内部向量的值获得每一单词向量输入后所得的新结果,该结果可以被视为输出值也可以被视为下一时刻的输入值,每一时刻所获得的输出值和最终的输出值都将被保留用于接下来的评分,RNN数据处理过程为:
假设状态的维度为2,输入、输出的维度都为1,而且循环体中的全连接层中权重为:
偏置项的大小为br=[0.1 -0.1],用于输出的全连接层权重为:偏置项大小为bo=0.1,那么在时刻t0,将状态初始化为[0 0],而当前的输入为1,所以拼接得到的向量为[0 0 1],通过循环体中的全连接层神经网络得到的结果为: 依据上述处理方式后所获得的输出值就是依据每步操作后的结果与最终操作结果以数值的形式表示,最后将每一时刻所获得的输出值和最终的输出值放入评分模型就可以获得最终的得分。
3.根据权利要求1所述的基于虚拟实验平台的自动评分的方法,其特征是,步骤4)中所述的评分模型为决策树模型,即将实验评分的要求作为决策树的的每一个节点,树的分支代表每一要求所对应的结果,通过将循环神经网络的输出值放入决策树模型中,获得最终的评分结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910508859.6A CN110245860B (zh) | 2019-06-13 | 2019-06-13 | 一种基于虚拟实验平台的自动评分的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910508859.6A CN110245860B (zh) | 2019-06-13 | 2019-06-13 | 一种基于虚拟实验平台的自动评分的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110245860A true CN110245860A (zh) | 2019-09-17 |
CN110245860B CN110245860B (zh) | 2022-08-23 |
Family
ID=67886779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910508859.6A Active CN110245860B (zh) | 2019-06-13 | 2019-06-13 | 一种基于虚拟实验平台的自动评分的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110245860B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111754062A (zh) * | 2019-11-27 | 2020-10-09 | 北京沃东天骏信息技术有限公司 | 物品质量检测模型建立的方法和装置 |
CN113283605A (zh) * | 2021-07-26 | 2021-08-20 | 中国科学院自动化研究所 | 基于预训练模型的交叉聚焦损失的溯因推理方法 |
CN113313168A (zh) * | 2021-05-28 | 2021-08-27 | 上海大学 | 无人监考的智能防作弊自助考试系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739867A (zh) * | 2008-11-19 | 2010-06-16 | 中国科学院自动化研究所 | 运用计算机对口语翻译质量进行评分的方法 |
US20150147728A1 (en) * | 2013-10-25 | 2015-05-28 | Kadenze, Inc. | Self Organizing Maps (SOMS) for Organizing, Categorizing, Browsing and/or Grading Large Collections of Assignments for Massive Online Education Systems |
CN107480133A (zh) * | 2017-07-25 | 2017-12-15 | 广西师范大学 | 一种基于答案蕴涵与依存关系的主观题自适应阅卷方法 |
CN107729925A (zh) * | 2017-09-26 | 2018-02-23 | 中国科学技术大学 | 对程序竞赛型源代码按照解题方法做自动分类与评分的方法 |
CN107967318A (zh) * | 2017-11-23 | 2018-04-27 | 北京师范大学 | 一种采用lstm神经网络的中文短文本主观题自动评分方法和系统 |
CN109635100A (zh) * | 2018-12-24 | 2019-04-16 | 上海仁静信息技术有限公司 | 一种相似题目的推荐方法、装置、电子设备及存储介质 |
CN109670042A (zh) * | 2018-12-04 | 2019-04-23 | 广东宜教通教育有限公司 | 一种基于递归神经网络的试题分类及难度分级方法 |
WO2019075820A1 (zh) * | 2017-10-20 | 2019-04-25 | 深圳市鹰硕技术有限公司 | 一种试卷批阅系统 |
-
2019
- 2019-06-13 CN CN201910508859.6A patent/CN110245860B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739867A (zh) * | 2008-11-19 | 2010-06-16 | 中国科学院自动化研究所 | 运用计算机对口语翻译质量进行评分的方法 |
US20150147728A1 (en) * | 2013-10-25 | 2015-05-28 | Kadenze, Inc. | Self Organizing Maps (SOMS) for Organizing, Categorizing, Browsing and/or Grading Large Collections of Assignments for Massive Online Education Systems |
CN107480133A (zh) * | 2017-07-25 | 2017-12-15 | 广西师范大学 | 一种基于答案蕴涵与依存关系的主观题自适应阅卷方法 |
CN107729925A (zh) * | 2017-09-26 | 2018-02-23 | 中国科学技术大学 | 对程序竞赛型源代码按照解题方法做自动分类与评分的方法 |
WO2019075820A1 (zh) * | 2017-10-20 | 2019-04-25 | 深圳市鹰硕技术有限公司 | 一种试卷批阅系统 |
CN107967318A (zh) * | 2017-11-23 | 2018-04-27 | 北京师范大学 | 一种采用lstm神经网络的中文短文本主观题自动评分方法和系统 |
CN109670042A (zh) * | 2018-12-04 | 2019-04-23 | 广东宜教通教育有限公司 | 一种基于递归神经网络的试题分类及难度分级方法 |
CN109635100A (zh) * | 2018-12-24 | 2019-04-16 | 上海仁静信息技术有限公司 | 一种相似题目的推荐方法、装置、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
欧阳经纶: "文本相似度算法在自动评分系统中的应用研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
王川: "基于自然语言处理的作文自动评分系统研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111754062A (zh) * | 2019-11-27 | 2020-10-09 | 北京沃东天骏信息技术有限公司 | 物品质量检测模型建立的方法和装置 |
CN111754062B (zh) * | 2019-11-27 | 2023-01-31 | 北京沃东天骏信息技术有限公司 | 物品质量检测模型建立的方法和装置 |
CN113313168A (zh) * | 2021-05-28 | 2021-08-27 | 上海大学 | 无人监考的智能防作弊自助考试系统 |
CN113283605A (zh) * | 2021-07-26 | 2021-08-20 | 中国科学院自动化研究所 | 基于预训练模型的交叉聚焦损失的溯因推理方法 |
CN113283605B (zh) * | 2021-07-26 | 2021-11-09 | 中国科学院自动化研究所 | 基于预训练模型的交叉聚焦损失的溯因推理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110245860B (zh) | 2022-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Henseler | Composite-based structural equation modeling: Analyzing latent and emergent variables | |
Shipley | Cause and correlation in biology: a user's guide to path analysis, structural equations and causal inference with R | |
CN110188351A (zh) | 语句通顺度及句法评分模型的训练方法及装置 | |
Haris et al. | A rule-based approach in Bloom's Taxonomy question classification through natural language processing | |
CN110245860A (zh) | 一种基于虚拟实验平台的自动评分的方法 | |
CN112508334A (zh) | 融合认知特性及试题文本信息的个性化组卷方法及系统 | |
CN109871322B (zh) | 一种基于机器学习的程序题自动评分方法 | |
Fonseca et al. | Automatic Subject-Based Contextualisation of Programming Assignment Lists. | |
CN109086837A (zh) | 基于卷积神经网络的用户属性分类方法、存储介质、装置及电子设备 | |
CN112686056A (zh) | 一种情感分类方法 | |
CN110245232A (zh) | 文本分类方法、装置、介质和计算设备 | |
Isljamovic et al. | Predicting students’ academic performance using artificial neural network: a case study from faculty of organizational sciences | |
Khabaza et al. | Data mining with Clementine | |
Somogyi | The Application of Artificial Intelligence | |
Sinha et al. | NLP-based automatic answer evaluation | |
CN113010655B (zh) | 一种机器阅读理解的回答与干扰项生成方法、装置 | |
Schicchi et al. | Machine learning models for measuring syntax complexity of english text | |
Aryadoust | Predicting item difficulty in a language test with an Adaptive Neuro Fuzzy Inference System | |
JP7303243B2 (ja) | 試験問題予測システム及び試験問題予測方法 | |
CN114358579A (zh) | 评阅方法、评阅装置、电子设备以及计算机可读存储介质 | |
Fuadi et al. | Automatic Question Generation from Indonesian Texts Using Text-to-Text Transformers | |
Adel et al. | Interpreting Human Responses in Dialogue Systems using Fuzzy Semantic Similarity Measures | |
YIN | A compression-based BiLSTM for treating teenagers’ depression chatbot | |
Sangani et al. | Comparing deep sentiment models using quantified local explanations | |
Cochran et al. | Improving NLP Model Performance on Small Educational Data Sets Using Self-Augmentation. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |