CN111581379A - 一种基于作文扣题度的自动作文评分计算方法 - Google Patents
一种基于作文扣题度的自动作文评分计算方法 Download PDFInfo
- Publication number
- CN111581379A CN111581379A CN202010352090.6A CN202010352090A CN111581379A CN 111581379 A CN111581379 A CN 111581379A CN 202010352090 A CN202010352090 A CN 202010352090A CN 111581379 A CN111581379 A CN 111581379A
- Authority
- CN
- China
- Prior art keywords
- document
- graph
- layer
- training
- vertex
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000000203 mixture Substances 0.000 title claims abstract description 51
- 238000004364 calculation method Methods 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 42
- 238000013528 artificial neural network Methods 0.000 claims abstract description 35
- 238000007781 pre-processing Methods 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims description 66
- 239000011159 matrix material Substances 0.000 claims description 31
- 238000000034 method Methods 0.000 claims description 20
- 230000004913 activation Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 230000003993 interaction Effects 0.000 claims description 4
- 230000003595 spectral effect Effects 0.000 claims description 3
- 238000013077 scoring method Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 7
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001218 confocal laser scanning microscopy Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于作文扣题度的自动作文评分计算方法,该方法包括S1:句子预处理和分布式表示;S2:图卷积神经网络构建;S3:图卷积神经网络训练;S4:多层感知机分类器训练预测。本发明应用在自动作文评分领域,实现对非扣题作文的检测和发现,作文参考范文和学生作答作文的文本匹配程度是作文评分的一个重要特征,通过一种新颖的方式构建了图神经网络,综合了各个句子的相似度计算作文扣题度。
Description
技术领域
本发明属于自动作文评分技术领域,尤其涉及一种基于作文扣题度的自动作文评分计算方法。
背景技术
文本匹配是自然语言理解中的一个核心问题。很多的自然语言处理任务中,比如问答系统、复述问题、信息检索、机器翻译、对话系统等都可以抽象成文本匹配问题,一般都会以文本相似度计算,文本相关性计算等形式出现。根据文本长度的不同,语义匹配可以细分为三类:短文本-短文本语义匹配,短文本-长文本语义匹配和长文本-长文本语义匹配。
文本语义匹配计算方法,目前的方法集中在以下几个方面:
(1)向量空间模型
向量空间模型用高维稀疏向量来表示文档,简单明了。对应维度使用TF-IDF计算,从信息论角度包含了词和文档的点互信息熵,以及文档的信息编码长度。有了文档向量表示,相似度度量的公式有Jaccard、Cosine、Euclidean distance、BM25等。
(2)矩阵分解方法
通过矩阵分解的方法,把高维稀疏矩阵分解成两个狭长小矩阵,而这两个低维矩阵包含了语义信息,这个过程即潜在语义分析。潜在语义分析能对文档或者词做低维度语义表示,在做匹配时其性能较高(比如文档有效词数大于K),它包含语义信息,对于语义相同的一些文档较准确。
(3)主题模型
PLSA(Probabilistic Latent Semantic Analysis)、LDA(Latent DirichletAllocation)等在潜在语义分析之上引入了主题概念,它是一种语义含义,对文档的主题建模不再是矩阵分解,而是概率分布(比如多项式分布),这样就能解决多义词的分布问题,并且主题是有明确含义的。这些技术对文本的语义表示形式简洁、运算方便,较好的弥补了传统词汇匹配方法的不足。
(4)基于深度学习的方法
通过神经语言模型可以建模词分布式表示和句分布式表示,DSSM、CLSM、LSTM-DSSM等模型通过神经网络建模句子表示层和交互矩阵关系层,可以捕获高维文本语义信息,取得了很好的效果。
发明内容
本发明的目的在于,针对现有技术的不足,提出一种基于作文扣题度的自动作文评分计算方法,通过一种新颖的方式构建了图神经网络,综合了各个句子的相似度计算文档相似度,提高了模型准确性和鲁棒性,同时使用Triplet network引入第三个文档建模句子间相似度。
一种基于作文扣题度的自动作文评分计算方法,包括以下步骤:
S1:句子预处理和分布式表示;
S2:图卷积神经网络构建;
S3:图卷积神经网络训练;
S4:多层感知机分类器训练预测;
所述句子预处理和分布式表示,用于对文档句子进行预处理并形成句向量;
所述图卷积神经网络构建,用于构建图神经网络的顶点和边;
所述图卷积神经网络训练,用于通过图卷积神经网络对顶点特征向量进行训练;所述多层感知机分类器训练预测,用于进行最终文本匹配程度训练和预测。
进一步的,步骤S1具体包括以下子步骤:
S11:输入三个文档,分别为文档A,文档B,文档C,其中当文档A和文档B为相似文本时,文档C为文档A的不相似文本,当文档A和文档B为不相似文本时,文档C为文档A的相似文本,分别对三个文档进行下面的处理;
S12:使用jieba分词对文档中各个句子分词,根据停用词列表去除句子中的停用词;
S13:使用训练好的word2vec模型,对每个句子中的过滤之后的词取出相应的word2vec词向量,句向量为所有词向量的平均值。
进一步的,步骤S2具体包括以下子步骤:
S21:使用K-Means算法根据向量欧氏距离对文档A,文档B,文档C中所有句向量进行聚类处理得到k个簇,其中k选取等于10;
S22:对于文档A聚类结果的十个类中的每个类,分别得到文档B,文档C聚好的十个类中与文档A每个类最相近的类,计算方法为计算余弦相似度的最大值,最终得到十个句子类,每一个类中都包含文档A,文档B,文档C中的句子;
S23:构建一个图,图的顶点为步骤S22得到的十个类,计算十个类每个类中句子的向量平均值,计算任意两个类向量的余弦相似度,如果相似度大于0.5,此两个类在图中的顶点连边,此边的权重值为余弦相似度的值,如果相似度小于0.5,此两个类在图中的顶点不连边;
S24:对于图的顶点,使用Triplet network方式得到顶点的特征向量。
进一步的,步骤S24具体包括以下子步骤:
S241:使用一个Triplet network,对于文档A,如果文档B和文档A为相似文本,此时标记文档B为Positive(x+),标记文档C为Negative(x-),如果文档C和文档A为相似文本,此时标记文档C为Positive(x+),标记文档B为Negative(x-),由此构成一个(A,Positive,Negative)三元组;(A,Positive,Negative)三元组之间的关系用欧氏距离表示,并通过训练参数使得x向x+靠近,远离x-。
S242:对于顶点代表的三个文档中的句子,首先得到每个文档中此顶点所有句子每个词的word2vec词向量,构建一个Context层,Context层使用lstm对词向量进行建模,下一层使用Triplet loss方式进行网络训练;
S243:对于文档A和文档B,训练结束后得到Context层的结果C(A)和C(B),分别计算|C(A)-C(B)|和C(A)#C(B),#代表哈达玛积,|C(A)-C(B)|的意思为对向量的每一维,计算|c(A)-c(B)|,C(A)#C(B)的意思为对向量的每一维,计算c(A)*c(B);
S244:拼接|C(A)-C(B)|和C(A)#C(B)得到的两个向量为此顶点的特征向量。
进一步的,步骤S3具体包括以下子步骤:
S31:图的权重邻接矩阵为A∈RN*N,其中Aij=wij,wij指顶点i和顶点j之间边的权重,D是对角矩阵,即Dii=∑jAij,图神经网络的输入层为H(0)=X,X指初始的图顶点特征向量,代表隐含层第l层的矩阵特征;
S32:使用如下公式根据上一层矩阵计算下一层的矩阵:
S33:采用三个隐含层,使用由图上局部频谱滤波器的一阶逼近所推动的图卷积规则,递归地应用来提取顶点之间的交互模式。
进一步的,步骤S4具体包括以下子步骤:
S41:经过图神经网络训练后,得到十个图顶点的特征向量,取十个特征向量的平均值,作为输入层向量输入到多层感知机中;
S42:添加三个全连接层,中间的激活函数采用Relu函数;
S43:最终的输出层激活函数采用Sigmoid函数,输出标签为文档A和文档B的相似度标签,当文档A和文档B为相似文本时,标签为0,当文档A和文档B为不相似文本时,标签为1;
S44:训练结束后将中间网络层参数保存;
S45:对于待测试文本M和文本N,经过前面所有步骤的处理和所保存网络层参数计算,得到最终两个文本的语义匹配相似度;其中M对应于训练过程中的文档A,N对应于训练过程中的文档B。
本发明的有益效果:
(1)本发明提出了将作文扣题程度应用在自动作文评分领域,实现对非扣题作文的检测和发现。作文参考范文和学生作答作文的文本匹配程度是作文评分的一个重要特征,通过一种新颖的方式构建了图神经网络,综合了各个句子的相似度计算作文扣题度。
(2)通过一种新颖的方式构建了图神经网络,综合了各个句子的相似度计算文档相似度,提高了模型准确性和鲁棒性。使用Triplet network引入第三个文档建模句子间相似度。传统方法一般使用孪生网络进行两个句子的相似度匹配,Triplet Network网络训练时损失函数得到的信息更多,得到的向量表示更好。
附图说明
图1为本发明一种基于作文扣题度的自动作文评分计算方法的流程图;
图2为本发明一种基于作文扣题度的自动作文评分计算方法的结构框图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图说明本发明的具体实施方式。
如图1所示,一种基于作文扣题度的自动作文评分计算方法,其特征在于:包括句子预处理和分布式表示,图卷积神经网络构建,图卷积神经网络训练,多层感知机(MLP)分类器训练预测;
所述句子预处理和分布式表示,用于对文档句子进行预处理并形成句向量;
所述图卷积神经网络构建,用于构建图神经网络的顶点和边;
所述图卷积神经网络训练,用于通过图卷积神经网络对顶点特征向量进行训练;
所述多层感知机(MLP)分类器训练预测,用于使用分类器进行最终文本匹配程度训练和预测;
如图2所示,句子预处理和分布式表示,包括以下步骤:
输入三个文档,分别为文档A,文档B,文档C,其中当文档A和文档B为相似文本时,文档C为文档A的不相似文本,当文档A和文档B为不相似文本时,文档C为文档A的相似文本,分别对三个文档进行下面的处理;
使用jieba分词对文档中各个句子分词,根据停用词列表去除句子中的停用词;
使用训练好的word2vec模型,对每个句子中的过滤之后的词取出相应的word2vec词向量,句向量为所有词向量的平均值;
图卷积神经网络构建,其特征在于:包括以下步骤:
使用KMeans算法根据向量欧氏距离对文档A,文档B,文档C中所有句向量进行聚类处理,其中k选取等于10;
对于文档A聚类结果的十个类中的每个类,分别得到文档B,文档C聚好的十个类中与文档A每个类最相近的类,计算方法为计算余弦相似度的最大值,最终得到十个句子类,每一个类中都包含文档A,文档B,文档C中的句子;
构建一个图,图的顶点为步骤S2得到的十个类,计算十个类每个类中句子的向量平均值,计算任意两个类向量的余弦相似度,如果相似度大于0.5,此两个类在图中的顶点连边,此边的权重值为余弦相似度的值,如果相似度小于0.5,此两个类在图中的顶点不连边;
对于图的顶点,使用一种Triplet network方式得到顶点的特征向量;
图卷积神经网络构建,得到顶点的特征向量包括以下子步骤:
使用一个Triplet network,对于文档A,如果文档B和文档A为相似文本,此时标记文档B为Positive(x+),标记文档C为Negative(x-),如果文档C和文档A为相似文本,此时标记文档C为Positive(x+),标记文档B为Negative(x-),由此构成一个(A,Positive,Negative)三元组。他们之间的关系用欧氏距离表示,并通过训练参数使得x向x+靠近,远离x-,从而实现分类任务。
对于顶点代表的三个文档中的句子,首先得到每个文档中此顶点所有句子每个词的word2vec词向量,构建一个Context层,此层使用lstm对词向量进行建模,下一层使用Triplet loss方式进行网络训练;
对于文档A和文档B,训练结束后得到Context层的结果C(A)和C(B),分别计算|C(A)-C(B)|和C(A)#C(B),此处#代表哈达玛积,|C(A)-C(B)|的意思为对向量的每一维,计算|c(A)-c(B)|,C(A)#C(B)的意思为对向量的每一维,计算c(A)*c(B);
拼接|C(A)-C(B)|和C(A)#C(B)得到的两个向量得到此顶点的特征向量;
图卷积神经网络训练,包括以下步骤:
图的权重邻接矩阵为A∈RN*N,其中Aij=wij,wij指顶点i和顶点j之间边的权重,D是对角矩阵,即Dii=∑jAij,图神经网络的输入层为H(0)=X,X指初始的图顶点特征向量,代表隐含层第l层的矩阵特征,
使用如下公式根据上一层矩阵计算下一层的矩阵:
采用三个隐含层,使用由图上局部频谱滤波器的一阶逼近所推动的图卷积规则,递归地应用来提取顶点之间的交互模式;
多层感知机(MLP)分类器训练预测,包括以下步骤:
经过图神经网络训练后,得到十个图顶点的特征向量,取十个特征向量的平均值,作为输入层向量输入到多层感知机中;
添加三个全连接层,中间的激活函数采用Relu函数;
最终的输出层激活函数采用Sigmoid函数,输出标签为文档A和文档B的相似度标签,当文档A和文档B为相似文本时,标签为0,当文档A和文档B为不相似文本时,标签为1;
训练结束后将中间网络层参数保存;
对于待测试文本M和文本N,经过前面所有步骤的处理和所保存网络层参数网络计算,得到最终两个文本语义匹配相似度;其中M对应于训练过程中的文档A,N对应于训练过程中的文档B。
对于作文评分,首先选择出若干篇作文范文,通过上述步骤计算学生作文和范文中每一篇的语义匹配度的值,得到其中的最大值作为语义匹配度特征,加上作文长度、标点符号数量、句子数量、平均句子深度等作文特征,在作文评分数据集上使用随机森林算法进行拟合,训练结束后保存模型参数。对待评分作文使用上述算法和保存好的参数进行作文评分。
本发明提出的一种基于作文扣题度的自动作文评分计算方法,将作文扣题程度应用在自动作文评分领域,实现对非扣题作文的检测和发现。作文参考范文和学生作答作文的文本匹配程度是作文评分的一个重要特征,通过一种新颖的方式构建了图神经网络,综合了各个句子的相似度计算作文扣题度。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (6)
1.一种基于作文扣题度的自动作文评分计算方法,其特征在于,包括以下步骤:
S1:句子预处理和分布式表示;
S2:图卷积神经网络构建;
S3:图卷积神经网络训练;
S4:多层感知机分类器训练预测;
所述句子预处理和分布式表示,用于对文档句子进行预处理并形成句向量;
所述图卷积神经网络构建,用于构建图神经网络的顶点和边;
所述图卷积神经网络训练,用于通过图卷积神经网络对顶点特征向量进行训练;
所述多层感知机分类器训练预测,用于进行最终文本匹配程度训练和预测。
2.根据权利要求1所述的一种基于作文扣题度的自动作文评分计算方法,其特征在于,所述步骤S1具体包括以下子步骤:
S11:输入三个文档,分别为文档A,文档B,文档C,其中当文档A和文档B为相似文本时,文档C为文档A的不相似文本,当文档A和文档B为不相似文本时,文档C为文档A的相似文本,分别对A、B、C三个文档进行下面的处理;
S12:使用jieba分词对文档中各个句子分词,根据停用词列表去除句子中的停用词;
S13:使用训练好的word2vec模型,对每个句子中的过滤之后的词取出相应的word2vec词向量,句向量为所有词向量的平均值。
3.根据权利要求1所述的一种基于作文扣题度的自动作文评分计算方法,其特征在于,所述步骤S2具体包括以下子步骤:
S21:使用K-Means算法根据向量欧氏距离对文档A,文档B,文档C中所有句向量进行聚类处理得到k个簇,其中k选取等于10;
S22:对于文档A聚类结果的十个类中的每个类,分别得到文档B,文档C聚好的十个类中与文档A每个类最相近的类,计算方法为计算余弦相似度的最大值,最终得到十个句子类,每一个类中都包含文档A,文档B,文档C中的句子;
S23:构建一个图,图的顶点为步骤S22得到的十个类,计算十个类每个类中句子的向量平均值,计算任意两个类向量的余弦相似度,如果相似度大于0.5,此两个类在图中的顶点连边,此边的权重值为余弦相似度的值,如果相似度小于0.5,此两个类在图中的顶点不连边;
S24:对于图的顶点,使用Triplet network方式得到顶点的特征向量。
4.根据权利要求3所述的一种基于作文扣题度的自动作文评分计算方法,其特征在于,所述步骤S24具体包括以下子步骤:
S241:使用一个Triplet network,对于文档A,如果文档B和文档A为相似文本,此时标记文档B为Positive(x+),标记文档C为Negative(x-),如果文档C和文档A为相似文本,此时标记文档C为Positive(x+),标记文档B为Negative(x-),由此构成一个(A,Positive,Negative)三元组;(A,Positive,Negative)三元组之间的关系用欧氏距离表示,并通过训练参数使得x向x+靠近,远离x-;
S242:对于顶点代表的三个文档中的句子,首先得到每个文档中此顶点所有句子每个词的word2vec词向量,构建一个Context层,Context层使用lstm对词向量进行建模,下一层使用Triplet loss方式进行网络训练;
S243:对于文档A和文档B,训练结束后得到Context层的结果C(A)和C(B),分别计算|C(A)-C(B)|和C(A)#C(B),#代表哈达玛积,|C(A)-C(B)|的意思为对向量的每一维,计算|c(A)-c(B)|,C(A)#C(B)的意思为对向量的每一维,计算c(A)*c(B);
S244:拼接|C(A)-C(B)|和C(A)#C(B)得到的两个向量为此顶点的特征向量。
5.根据权利要求1所述的一种基于作文扣题度的自动作文评分计算方法,其特征在于,所述步骤S3具体包括以下子步骤:
S31:图的权重邻接矩阵为A∈RN*N,其中Aij=wij,wij指顶点i和顶点j之间边的权重,D是对角矩阵,即Dii=∑jAij,图神经网络的输入层为H(0)=X,X指初始的图顶点特征向量,代表隐含层第l层的矩阵特征;
S32:使用如下公式根据上一层矩阵计算下一层的矩阵:
S33:采用三个隐含层,使用由图上局部频谱滤波器的一阶逼近所推动的图卷积规则,递归地应用来提取顶点之间的交互模式。
6.根据权利要求1所述的一种基于作文扣题度的自动作文评分计算方法,其特征在于,所述步骤S4具体包括以下子步骤:
S41:经过图神经网络训练后,得到十个图顶点的特征向量,取十个特征向量的平均值,作为输入层向量输入到多层感知机中;
S42:添加三个全连接层,中间的激活函数采用Relu函数;
S43:最终的输出层激活函数采用Sigmoid函数,输出标签为文档A和文档B的相似度标签,当文档A和文档B为相似文本时,标签为0,当文档A和文档B为不相似文本时,标签为1;
S44:训练结束后将中间网络层参数保存;
S45:对于待测试文本M和文本N,经过前面所有步骤的处理和所保存网络层参数计算,得到最终两个文本的语义匹配相似度;其中M对应于训练过程中的文档A,N对应于训练过程中的文档B。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010352090.6A CN111581379B (zh) | 2020-04-28 | 2020-04-28 | 一种基于作文扣题度的自动作文评分计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010352090.6A CN111581379B (zh) | 2020-04-28 | 2020-04-28 | 一种基于作文扣题度的自动作文评分计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111581379A true CN111581379A (zh) | 2020-08-25 |
CN111581379B CN111581379B (zh) | 2022-03-25 |
Family
ID=72123561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010352090.6A Expired - Fee Related CN111581379B (zh) | 2020-04-28 | 2020-04-28 | 一种基于作文扣题度的自动作文评分计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111581379B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112699658A (zh) * | 2020-12-31 | 2021-04-23 | 科大讯飞华南人工智能研究院(广州)有限公司 | 文本比对方法及相关装置 |
CN114048305A (zh) * | 2021-11-05 | 2022-02-15 | 山东大学 | 一种基于图卷积神经网络的行政处罚文书的类案推荐方法 |
CN116304748A (zh) * | 2023-05-17 | 2023-06-23 | 成都工业学院 | 一种文本相似度计算方法、系统、设备及介质 |
CN114048305B (zh) * | 2021-11-05 | 2024-06-07 | 山东大学 | 一种基于图卷积神经网络的行政处罚文书的类案推荐方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060147890A1 (en) * | 2005-01-06 | 2006-07-06 | Ecollege.Com | Learning outcome manager |
US20150186504A1 (en) * | 2009-04-23 | 2015-07-02 | Deep Sky Concepts, Inc. | In-context access of stored declarative knowledge using natural language expression |
US20170069215A1 (en) * | 2015-09-08 | 2017-03-09 | Robert A. Borofsky | Assessment of core educational proficiencies |
CN107506360A (zh) * | 2016-06-14 | 2017-12-22 | 科大讯飞股份有限公司 | 一种文章评分方法及系统 |
CN108363687A (zh) * | 2018-01-16 | 2018-08-03 | 深圳市脑洞科技有限公司 | 主观题评分及其模型的构建方法、电子设备及存储介质 |
CN108519975A (zh) * | 2018-04-03 | 2018-09-11 | 北京先声教育科技有限公司 | 作文评分方法、装置及存储介质 |
CN108710614A (zh) * | 2018-05-31 | 2018-10-26 | 校宝在线(杭州)科技股份有限公司 | 一种基于用户行为的作文评测方法 |
CN110222347A (zh) * | 2019-06-20 | 2019-09-10 | 首都师范大学 | 一种作文离题检测方法 |
CN110298037A (zh) * | 2019-06-13 | 2019-10-01 | 同济大学 | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 |
CN110427609A (zh) * | 2019-06-25 | 2019-11-08 | 首都师范大学 | 一种写人作文篇章结构合理性自动评测方法 |
CN110705306A (zh) * | 2019-08-29 | 2020-01-17 | 首都师范大学 | 一种作文文题一致性的测评方法 |
CN110851599A (zh) * | 2019-11-01 | 2020-02-28 | 中山大学 | 一种中文作文自动评分方法及教辅系统 |
-
2020
- 2020-04-28 CN CN202010352090.6A patent/CN111581379B/zh not_active Expired - Fee Related
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060147890A1 (en) * | 2005-01-06 | 2006-07-06 | Ecollege.Com | Learning outcome manager |
US20150186504A1 (en) * | 2009-04-23 | 2015-07-02 | Deep Sky Concepts, Inc. | In-context access of stored declarative knowledge using natural language expression |
US20170069215A1 (en) * | 2015-09-08 | 2017-03-09 | Robert A. Borofsky | Assessment of core educational proficiencies |
CN107506360A (zh) * | 2016-06-14 | 2017-12-22 | 科大讯飞股份有限公司 | 一种文章评分方法及系统 |
CN108363687A (zh) * | 2018-01-16 | 2018-08-03 | 深圳市脑洞科技有限公司 | 主观题评分及其模型的构建方法、电子设备及存储介质 |
CN108519975A (zh) * | 2018-04-03 | 2018-09-11 | 北京先声教育科技有限公司 | 作文评分方法、装置及存储介质 |
CN108710614A (zh) * | 2018-05-31 | 2018-10-26 | 校宝在线(杭州)科技股份有限公司 | 一种基于用户行为的作文评测方法 |
CN110298037A (zh) * | 2019-06-13 | 2019-10-01 | 同济大学 | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 |
CN110222347A (zh) * | 2019-06-20 | 2019-09-10 | 首都师范大学 | 一种作文离题检测方法 |
CN110427609A (zh) * | 2019-06-25 | 2019-11-08 | 首都师范大学 | 一种写人作文篇章结构合理性自动评测方法 |
CN110705306A (zh) * | 2019-08-29 | 2020-01-17 | 首都师范大学 | 一种作文文题一致性的测评方法 |
CN110851599A (zh) * | 2019-11-01 | 2020-02-28 | 中山大学 | 一种中文作文自动评分方法及教辅系统 |
Non-Patent Citations (2)
Title |
---|
NGUYEN: ""Neural Networks for Automated Essay Grading"", 《THE JOURNAL OF TECHNOLOGY, LEARNING AND ASSESSMENT》 * |
马洪超 等: ""基于SVM 和BP 神经网络的作文自动评分效果比较"", 《考试研究》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112699658A (zh) * | 2020-12-31 | 2021-04-23 | 科大讯飞华南人工智能研究院(广州)有限公司 | 文本比对方法及相关装置 |
CN112699658B (zh) * | 2020-12-31 | 2024-05-28 | 科大讯飞华南人工智能研究院(广州)有限公司 | 文本比对方法及相关装置 |
CN114048305A (zh) * | 2021-11-05 | 2022-02-15 | 山东大学 | 一种基于图卷积神经网络的行政处罚文书的类案推荐方法 |
CN114048305B (zh) * | 2021-11-05 | 2024-06-07 | 山东大学 | 一种基于图卷积神经网络的行政处罚文书的类案推荐方法 |
CN116304748A (zh) * | 2023-05-17 | 2023-06-23 | 成都工业学院 | 一种文本相似度计算方法、系统、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111581379B (zh) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ghorbani et al. | ConvLSTMConv network: a deep learning approach for sentiment analysis in cloud computing | |
Murthy et al. | Text based sentiment analysis using LSTM | |
Wang et al. | An LSTM approach to short text sentiment classification with word embeddings | |
Cao et al. | Deep neural networks for learning graph representations | |
CN113051916B (zh) | 一种社交网络中基于情感偏移感知的交互式微博文本情感挖掘方法 | |
CN112818861A (zh) | 一种基于多模态上下文语义特征的情感分类方法及系统 | |
CN107688576B (zh) | 一种cnn-svm模型的构建及倾向性分类方法 | |
Liu et al. | AMFF: A new attention-based multi-feature fusion method for intention recognition | |
CN111581379B (zh) | 一种基于作文扣题度的自动作文评分计算方法 | |
Chaturvedi et al. | Bayesian deep convolution belief networks for subjectivity detection | |
CN116049387A (zh) | 一种基于图卷积的短文本分类方法、装置、介质 | |
CN114547303A (zh) | 基于Bert-LSTM的文本多特征分类方法及装置 | |
CN114443846A (zh) | 一种基于多层级文本异构图的分类方法、装置及电子设备 | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
Chan et al. | Optimization of language models by word computing | |
CN111859955A (zh) | 一种基于深度学习的舆情数据分析模型 | |
Lu et al. | Incorporating Lexicons into LSTM for sentiment classification | |
KR102466559B1 (ko) | 동적 텍스트 소스를 활용한 ai 기반 의사결정지원 시스템 | |
Jasim et al. | Analyzing Social Media Sentiment: Twitter as a Case Study | |
CN114595324A (zh) | 电网业务数据分域的方法、装置、终端和非暂时性存储介质 | |
Card et al. | Automated coding of open-ended survey responses | |
Hamid et al. | Fprosentiment analysis on mobile phone brands reviews using convolutional neural network (CNN) | |
Elbarougy et al. | Continuous audiovisual emotion recognition using feature selection and lstm | |
CN116484004B (zh) | 一种对话情绪识别分类方法 | |
Lee et al. | A two-level recurrent neural network language model based on the continuous Bag-of-Words model for sentence classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220325 |
|
CF01 | Termination of patent right due to non-payment of annual fee |