CN110222344B - 一种针对小学生作文辅导的作文要素分析算法 - Google Patents
一种针对小学生作文辅导的作文要素分析算法 Download PDFInfo
- Publication number
- CN110222344B CN110222344B CN201910521472.4A CN201910521472A CN110222344B CN 110222344 B CN110222344 B CN 110222344B CN 201910521472 A CN201910521472 A CN 201910521472A CN 110222344 B CN110222344 B CN 110222344B
- Authority
- CN
- China
- Prior art keywords
- composition
- text
- word
- pupils
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 239000000203 mixture Substances 0.000 title claims abstract description 104
- 238000004458 analytical method Methods 0.000 title claims abstract description 36
- 210000001747 pupil Anatomy 0.000 title claims abstract description 20
- 230000011218 segmentation Effects 0.000 claims abstract description 17
- 238000012545 processing Methods 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 20
- 238000013528 artificial neural network Methods 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 11
- 238000010801 machine learning Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 5
- 238000003058 natural language processing Methods 0.000 claims description 5
- 238000007405 data analysis Methods 0.000 claims description 4
- 238000013499 data model Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 241000590419 Polygonia interrogationis Species 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 claims description 3
- 238000007667 floating Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 238000011160 research Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明创造属于教学辅导领域,具体涉及了一种针对小学生作文辅导的作文要素分析算法。为了解决存在小学生作文写作难的问题,本发明创造提出了一种可以高效、明了并轻松的提升小学生作文写作水平的针对小学生作文辅导的作文要素分析算法。为了实现上述目的,本发明创造所用采用的技术方案是,一种针对小学生作文辅导的作文要素分析算法,包括以下步骤:S1:初始化;S2:录入需分析的作文;S3:对作文做结构分段处理;S4:对作文做写作要素点提取和分析;S5:给出作文分析结果。
Description
技术领域
本发明创造属于教学辅导领域,具体涉及了一种针对小学生作文辅导的作文要素分析算法。
背景技术
语文学习中会写作文的重要性,是众所周知的。它对语文和其他学科高效的学习,都有基础性的作用。但现实是:中国九成的中小学生都害怕写作文,不喜欢写作文,作文成绩总是让人揪心。如此,作文,成了中国亿万家长和学生心中永远的痛。
家长痛点:(1)九成的家长在学生时代就害怕作文,不会写作文,所以没有信心与能力指导孩子的写作。极少部分家长,自己写作能力还可以,但如何指导不同学习阶段的孩子,写出符合不同学习阶段要求的作文,也是一筹莫展。
(2)家长们听说:要想作文好,孩子就要多读书、多写。但不久后,他们就会绝望地发现,孩子喜欢看书、读了很多书,作文能力没有提高;写了很多,孩子的作文还是写得很不理想,测试中得分也不搞。
(3)送孩子去作文培训机构,效果也不是很明显。个别写作方法会了,但整体作文能力还是差强人意。
与之相随,学生写作文的痛点是:
(1)不想写什么内容。
(2)不熟练写作方法。
(3)没有写作的信心,所以厌恶和恐惧写作文。
那作文学习为什么会出现如此巨大的痛点呢?那还是因为我国中小学语文教学最大的难题是:整个小学阶段和中学阶段的作文训练点不成体系,没有操作性的系统。相应,每次的习作训练点也就不具有足够的操作性与实效。
发明内容
为了解决上述存在小学生作文写作难的问题,本发明创造提出了一种可以高效、明了并轻松的提升小学生作文写作水平的针对小学生作文辅导的作文要素分析算法。
为了实现上述目的,本发明创造所用采用的技术方案是,一种针对小学生作文辅导的作文要素分析算法,包括以下步骤:S1:初始化;S2:录入需分析的作文;S3:对作文做结构分段处理;S4:对作文做写作要素点提取和分析;S5:给出作文分析结果。
作为优选,所述的S3包括以下步骤:A1:将作文按命题进行层次化分类,为每类作文都精心设计结构组成部分;A2:根据大量的范文标注和数据分析,建立文本分段和标注的数据模型;A3:采用机器学习的算法,将学生习作作文进行自动的分段结构分析。
作为优选,所述的A3包括:B1:基于输入文本的自然标点信息进行初步分割,根据文本中的回车换行符、句号以及表示句子结束的叹、问号,将文本分割成一组句子级别的单元,简称句单元;B2:对每个句单元文本,进行各自的语义分析,包括语法分析和词法分析,提取出关键成分比如主语,命名实体,谓词等;B3:运用文本主题模型和文本自动摘要技术,为每个句单元提取标注一些关键词;B4:将句单元聚类,形成段落;B5:将聚类形成的段落进行标注,判定此段落是否属于某类作文。
作为优选,所述B4中聚类的依据为:一是直接计算各个句单元对直接的文本相似度,二是根据上一步骤每个句单元提取处理的关键成分以及关键词摘要来计算,同时也结合每个句单元的字数长度等基础信息。
作为优选,所述的S4包括以下步骤:C1:建立了形容词、副词、动词的词典,词汇选取上侧重小学语文教学大纲涵盖的范围;C2:引入自然语言处理学术领域上经典的语料数据,配合互联网上海量文本数据和社交网络丰富的资源,建立了一个针对小学生作文领域的词汇本体库;C3:构建一个3层的神经网络,含有一个输入层、一个隐含层和一个输出层;C4:通过对已标注作文数据的分析处理,对于一个要素点,提取出包含的所有关键词,根据词汇本体库,对这些关键词进行聚类,并记录词的类别分布和权重;C5:遇到新的待分析的作文时,将文本分词,然后逐个词语进行计算对比,如果和某个要素点的关键词类别分布接近,列入候选,最后计算各个候选的归一化得分,排序后,输出概率最高的候选项,即为这段作文可能包含的要素点;C6:建立一个专家系统,通过标注数据来设计一个规则模板组成决策流程;C7:依照决策流程依次判决,最终得到目标的要素点;C8:将原文中含有相对应要素的句子和相应的关键词汇,进行高亮显示。
作为优选,所述的专家系统的构建方法:D1:搜集大量的,各个年级小学生的范文和真实作文作业,请有经验的教研老师进行了标注,即将作文中含有的写作要素点标注出来,并且给出对应的文字范围,以及重要的关键词和词组特征;D2:定义一整套的文本特征单元,从细到粗,分为:字,词,词组,短语(如主谓,动宾),子句(逗号等分隔的),分句,从句,整句,句群,段落,章节,篇章;D3:在各级别单元上,分别可以定义一系列的规则和模式,以类文法语言描述。
作为优选,所述的C3中的神经网络中输入层输入的为一段上下文环境的文本片段,输出层引入softmax函数来预测此段上下文的中心词的概率;输入层到隐藏层的神经网络参数即为每个词的嵌入表达,亦可成为词向量,是一个200维的浮点数向量;得到词向量之后,任意两个词的语义关系,可简单理解为近义程度,可以通过两个词的词向量计算所得(最简单方法为词向量做内积);反之,给定一个词,可以搜索计算它的同义词。
作为优选,所述的神经网络的构建方法为:首先,构建机器学习算法框架中需要的训练集,验证集和测试集;将标注的作文文本,格式化成神经网络的输入数据,即将已经标注出要素集合,作为各段文本的多类标签;采用多层的循环神经网络来构建模型;在隐藏层,引入了双向长短时记忆单元。
本发明创造的有益效果:(1)结构分段处理。深度结合小学作文教学大纲要求,将作文按命题进行层次化分类,为每类作文都精心设计结构组成部分。再根据大量的范文标注和数据分析,建立文本分段和标注的数据模型。(2)采用机器学习的算法,将学生习作作文进行自动的分段结构分析。(3)分段之后,为下一步基于段落的要素点分析和评价建立了基础。基于段落的作文分析,比基于整篇的分析方法,更加具体直观,小学生和家长都更易于理解。(4)写作要素点提取和分析:在已知年级范围,作文主题类别后,再判定当前段落结构,就可以分段进行要素点提取。(5)通过基于关键词规则模板库和文本大数据的专家系统,分析出一段文字中含有的要素点,比如从“眼睛圆圆的像个灯泡”中检查出“比喻”这个要素点。(6)此要素点为“状物-动物”类命题作文中“外形特点”段落的基础要素,这句话采用“比喻”要素点的力度为“中等”。(7)根据这个算法的输出结果,在作文辅导的交互界面上,用户点选“比喻”这个要素点,能够将原文中含有此要素的句子,和相应的关键模式,进行高亮显示;清晰的像学生和家长指明,这段话写的是否好,好在哪里;如果缺失某个基础要素,也会给出提示,给下一步的写作改进指明方向。(8)基于这两步关键算法,配合作文辅导交互系统的用户界面,可以高效的完成对整篇作文的辅导和点评。
附图说明
图1:要素分析算法原理图
具体实施方式
一种针对小学生作文辅导的作文要素分析算法,包括以下步骤:S1:初始化;S2:录入需分析的作文;S3:对作文做结构分段处理;S4:对作文做写作要素点提取和分析;S5:给出作文分析结果。
作为优选,所述的S3包括以下步骤:A1:将作文按命题进行层次化分类,为每类作文都精心设计结构组成部分;A2:根据大量的范文标注和数据分析,建立文本分段和标注的数据模型;A3:采用机器学习的算法,将学生习作作文进行自动的分段结构分析。
作为优选,所述的A3包括:B1:基于输入文本的自然标点信息进行初步分割,根据文本中的回车换行符、句号以及表示句子结束的叹号、问号等,将文本分割成一组句子级别的单元,简称句单元;B2:对每个句单元文本,进行各自的语义分析,包括语法分析和词法分析,提取出关键成分比如主语,命名实体,谓词等;B3:运用文本主题模型和文本自动摘要技术,为每个句单元提取标注一些关键词;B4:将句单元聚类,形成段落;B5:将聚类形成的段落进行标注,判定此段落是否属于某类作文。根据预定义的各个作文类别的结构,聚类算法对于类的个数K是预先选定的,比如,状物-动物的作文分为4段(来历、外形、习性、结尾),叙事类作文是分为3段的(开头,主体,结尾)。
作为优选,所述B4中聚类的依据为:一是直接计算各个句单元对直接的文本相似度,二是根据上一步骤每个句单元提取处理的关键成分以及关键词摘要来计算,同时也结合每个句单元的字数长度等基础信息。
在我们的算法中,将要素点分为以下几类:
1)浅层语义类:直观的关键词能描述的要素,比如【比喻】要素点,通常会使用“像”,“似的”,“仿佛”……;再比如【三者互动】,通常会出现“我”“他”“它”等多个人称代词。
2)深层语义类:无法简单以关键词来描述的要素,比如【拟人】要素点,需要满足两个条件:一,句子主题/主语是动物;二,写了人类特有的行为,比如说话哭笑思考等等。
3)隐含语义类:具有非显式的语义特征,比如【真实心里感受】……
对于浅层语义类,关键词可以描述此类要素的重要语义信息,算法的重点在于全面准确的获取同一语义信息下的关键词词意表达。这里我们引入了同义词检测补全的方法;
作为优选,所述的S4包括一下步骤:C1:建立了形容词、副词、动词的词典,词汇选取上侧重小学语文教学大纲涵盖的范围;C2:引入自然语言处理学术领域上经典的语料数据,配合互联网上海量文本数据和社交网络丰富的资源,建立了一个针对小学生作文领域的词汇ontology(本体库);C3:构建一个3层的神经网络,含有一个输入层、一个隐含层和一个输出层;C4:通过对已标注作文数据的分析处理,对于一个要素点,提取出包含的所有关键词,根据词语本体库,对这些关键词进行聚类,并记录词的类别分布和权重;C5:遇到新的待分析的作文时,将文本分词,然后逐个词语进行计算对比,如果和某个要素点的关键词类别分布接近,列入候选,最后计算各个候选的归一化得分,排序后,输出概率最高的候选项,即为这段作文可能包含的要素点;C6:建立一个专家系统,通过标注数据来设计一个规则模板组成决策流程;C7:依照决策流程依次判决,最终得到目标的要素点;C8:将原文中含有相对应要素的句子和相应的关键词汇,进行高亮显示。
在本体库中,每个词可以查找到上/下一层级概念的词(如轿车->汽车->交通工具),也可以查找到同一层次(同义,近义)的词(如高兴/快乐/愉快/幸福)。基于这个词语本体库,我们可以解决浅层语义类和部分解决深层语义类里要素提取的问题。
针对深层语义类要素点,我们主要采用的方法为建立一个专家系统,通过标注数据来设计一个规则模板组成决策流程;
作为优选,所述的专家系统的构建方法:D1:搜集大量的,各个年级小学生的范文和真实作文作业,请有经验的教研老师进行了标注,即将作文中含有的写作要素点标注出来,并且给出对应的文字范围,以及重要的关键词和词组特征;D2:定义一整套的文本特征单元,从细到粗,分为:字,词,词组,短语(如主谓,动宾),子句(逗号等分隔的),分句,从句,整句,句群,段落,章节,篇章;D3:在各级别单元上,分别可以定义一系列的规则和模式,以类文法语言描述。
例如:
Count(字数)>10;count(子句)>=2;Label(拟人)=0
Match(动物名称词)>=1;extract(子句(主体)+人物动作)>1
其中的对象可以进一步用文法定义式展开:
身体部位名词=[上身总体部位名词|上身局部部位名词|中身总体部位名词|中身局部部位名词|下身总体部位名词|下身局部部位名词|全身总体部位名词]
以上基于词典/词汇本体库,和专家系统的两层方法,对浅层语义类和深层语义类的要素点,已经可以得到相当的准确性能。为了处理隐含语义类问题,以及进一步提升前两类要素点的提取准确性,我们在算法中又引入了基于大数据的深度学习的方法。
作为优选,所述的C3中的神经网络中输入层输入的为一段上下文环境的文本片段,输出层引入softmax函数来预测此段上下文的中心词的概率;输入层到隐藏层的神经网络参数即为每个词的嵌入表达,亦可成为词向量,是一个200维的浮点数向量;得到词向量之后,任意两个词的语义关系,可简单理解为近义程度,可以通过两个词的词向量计算所得(最简单方法为词向量做内积);反之,给定一个词,我们可以搜索计算它的同义词。
作为优选,所述的神经网络的构建方法为:首先,构建机器学习算法框架中需要的训练集,验证集和测试集;将标注的作文文本,格式化成神经网络的输入数据,即将已经标注出要素集合,作为各段文本的多类标签;采用多层的循环神经网络(RNN)来构建模型;在隐藏层,引入了双向长短时记忆单元(Bi-LSTM)。
在应用模型时,也吸取了现在学术界流行的语言模型预训练方法,可以提升模型的初始性能,并且大大的加速模型的训练过程和调优流程。因为领域的特殊性,训练数据一开始不是特别充分,为了缓解n元语言模型估算概率时的数据稀疏问题,算法中引入了神经网络语言模型。用前文中提到的词嵌入的向量表述,取代普通的高维独热(one-hot)向量。在我们的具体实验中,使用了一份预训练的词向量。进一步的,我们吸取了ELMo(Peters,M.E.et al.Deep contextualized word representations.naacl(2018))的思想。在进行有监督的NLP任务时,可以将ELMo直接当做特征拼接到具体任务模型的词向量输入或者是模型的最高层表示上。总结一下,不像传统的词向量,每一个词只对应一个词向量,ELMo利用预训练好的双向语言模型,然后根据具体输入从该语言模型中可以得到上下文依赖的当前词表示,再当成特征加入到具体的NLP有监督模型里。
我们也参考了Google提出的语言模型预训练方法BERT,使用Transformer的编码器来作为语言模型。由于self-attention机制,所以模型上下层直接全部互相连接的。
和传统的词向量相比,使用语言模型预训练其实可以看成是一个句子级别的上下文的词表示,它可以充分利用大规模的单语语料,并且可以对一词多义进行建模。
最终的试验表明,我们的组合算法,各类要素提取的准确性可以达到一个较好的水平,参见下表:
以上详细描述了本发明创造的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明创造的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明创造的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (5)
1.一种针对小学生作文辅导的作文要素分析算法,其特征在于,包括以下步骤:
S1:初始化;
S2:录入需分析的作文;
S3:对作文做结构分段处理;
S4:对作文做写作要素点提取和分析;
S5:给出作文分析结果;
其中,所述的S3包括以下步骤:
A1:将作文按命题进行层次化分类,为每类作文都精心设计结构组成部分;
A2:根据大量的范文标注和数据分析,建立文本分段和标注的数据模型;
A3:采用机器学习的算法,将学生习作作文进行自动的分段结构分析;
其中,所述的A3包括:
B1:基于输入文本的自然标点信息进行初步分割,根据文本中的回车换行符、句号以及表示句子结束的叹号、问号,将文本分割成一组句子级别的单元,简称句单元;
B2:对每个句单元文本,进行各自的语义分析,包括语法分析和词法分析,提取出关键成分;
B3:运用文本主题模型和文本自动摘要技术,为每个句单元提取标注一些关键词;
B4:将句单元聚类,形成段落;
B5:将聚类形成的段落进行标注,判定此段落是否属于某类作文;
其中,所述B4中聚类的依据为:一是直接计算各个句单元对直接的文本相似度,二是根据上一步骤每个句单元提取处理的关键成分以及关键词摘要来计算,同时也结合每个句单元的字数长度基础信息。
2.根据权利要求1所述的一种针对小学生作文辅导的作文要素分析算法,其特征在于,所述的S4包括以下步骤:
C1:建立形容词、副词、动词的词典,词汇选取上侧重小学语文教学大纲涵盖的范围;
C2:引入自然语言处理学术领域上经典的语料数据,配合互联网上海量文本数据和社交网络丰富的资源,建立一个针对小学生作文领域的词汇本体库;
C3:构建一个3层的神经网络,含有一个输入层、一个隐含层和一个输出层;
C4:通过对已标注作文数据的分析处理,对于一个要素点,提取出包含的所有关键词,根据词汇本体库,对这些关键词进行聚类,并记录词的类别分布和权重;
C5:遇到新的待分析的作文时,将文本分词,然后逐个词语进行计算对比,如果和某个要素点的关键词类别分布接近,列入候选,最后计算各个候选的归一化得分,排序后,输出概率最高的候选项,即为这段作文可能包含的要素点;
C6:建立一个专家系统,通过标注数据来设计一个规则模板组成决策流程;
C7:依照决策流程依次判决,最终得到目标的要素点;
C8:将原文中含有相对应要素的句子和相应的关键词汇,进行高亮显示。
3.根据权利要求2所述的一种针对小学生作文辅导的作文要素分析算法,其特征在于,所述的专家系统的构建方法:
D1:搜集大量的,各个年级小学生的范文和真实作文作业,请有经验的教研老师进行了标注,即将作文中含有的写作要素点标注出来,并且给出对应的文字范围,以及重要的关键词和词组特征;
D2:定义一整套的文本特征单元,从细到粗,分为:字,词,词组,短语,子句,分句,从句,整句,句群,段落,章节,篇章;
D3:在各级别单元上,分别可以定义一系列的规则和模式,以类文法语言描述。
4.根据权利要求2所述的一种针对小学生作文辅导的作文要素分析算法,其特征在于,所述的C3中的神经网络中输入层输入的为一段上下文环境的文本片段,输出层引入softmax函数来预测此段上下文的中心词的概率;输入层到隐藏层的神经网络参数即为每个词的嵌入表达,亦可成为词向量,是一个200维的浮点数向量;得到词向量之后,任意两个词的语义关系,可简单理解为近义程度,可以通过两个词的词向量计算所得;反之,给定一个词,可以搜索计算它的同义词。
5.根据权利要求2所述的一种针对小学生作文辅导的作文要素分析算法,其特征在于,所述的神经网络的构建方法为:
首先,构建机器学习算法框架中需要的训练集、验证集和测试集;将标注的作文文本,格式化成神经网络的输入数据,即将已经标注出要素集合,作为各段文本的多类标签;采用多层的循环神经网络来构建模型;在隐藏层,引入了双向长短时记忆单元。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910521472.4A CN110222344B (zh) | 2019-06-17 | 2019-06-17 | 一种针对小学生作文辅导的作文要素分析算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910521472.4A CN110222344B (zh) | 2019-06-17 | 2019-06-17 | 一种针对小学生作文辅导的作文要素分析算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110222344A CN110222344A (zh) | 2019-09-10 |
CN110222344B true CN110222344B (zh) | 2022-09-23 |
Family
ID=67817524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910521472.4A Expired - Fee Related CN110222344B (zh) | 2019-06-17 | 2019-06-17 | 一种针对小学生作文辅导的作文要素分析算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110222344B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112214992A (zh) * | 2020-10-14 | 2021-01-12 | 哈尔滨福涛科技有限责任公司 | 一种基于深度学习和规则结合的记叙文结构分析方法 |
CN113505598A (zh) * | 2021-08-06 | 2021-10-15 | 贵州江南航天信息网络通信有限公司 | 一种基于混合神经网络的网络文本实体关系抽取算法 |
CN117808638B (zh) * | 2023-12-08 | 2024-06-04 | 广东信聚丰科技股份有限公司 | 基于用户行为分析的学习内容优化方法及系统 |
CN117829107A (zh) * | 2024-03-05 | 2024-04-05 | 成都华栖云科技有限公司 | 一种基于大模型的预习文案生成方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11328180A (ja) * | 1998-03-12 | 1999-11-30 | Ricoh Co Ltd | 文作成支援装置、文作成支援方法及び文作成支援データ・プログラム記憶媒体 |
JP2003281136A (ja) * | 2002-03-20 | 2003-10-03 | Fuji Xerox Co Ltd | 自然言語処理システム及び自然言語処理方法、並びにコンピュータ・プログラム |
JP2005092616A (ja) * | 2003-09-18 | 2005-04-07 | Fuji Xerox Co Ltd | 自然言語処理システム及び自然言語処理方法、並びにコンピュータ・プログラム |
CN101446940A (zh) * | 2007-11-27 | 2009-06-03 | 北京大学 | 为文档集自动生成摘要的方法及装置 |
CN103699525A (zh) * | 2014-01-03 | 2014-04-02 | 江苏金智教育信息技术有限公司 | 一种基于文本多维度特征自动生成摘要的方法和装置 |
CN107240305A (zh) * | 2017-06-07 | 2017-10-10 | 胡军 | 语文写作教学方法及装置 |
CN107291694A (zh) * | 2017-06-27 | 2017-10-24 | 北京粉笔未来科技有限公司 | 一种自动评阅作文的方法和装置、存储介质及终端 |
CN109271626A (zh) * | 2018-08-31 | 2019-01-25 | 北京工业大学 | 文本语义分析方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10706736B2 (en) * | 2015-11-14 | 2020-07-07 | The King Abdulaziz City For Science And Technology | Method and system for automatically scoring an essay using plurality of linguistic levels |
-
2019
- 2019-06-17 CN CN201910521472.4A patent/CN110222344B/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11328180A (ja) * | 1998-03-12 | 1999-11-30 | Ricoh Co Ltd | 文作成支援装置、文作成支援方法及び文作成支援データ・プログラム記憶媒体 |
JP2003281136A (ja) * | 2002-03-20 | 2003-10-03 | Fuji Xerox Co Ltd | 自然言語処理システム及び自然言語処理方法、並びにコンピュータ・プログラム |
JP2005092616A (ja) * | 2003-09-18 | 2005-04-07 | Fuji Xerox Co Ltd | 自然言語処理システム及び自然言語処理方法、並びにコンピュータ・プログラム |
CN101446940A (zh) * | 2007-11-27 | 2009-06-03 | 北京大学 | 为文档集自动生成摘要的方法及装置 |
CN103699525A (zh) * | 2014-01-03 | 2014-04-02 | 江苏金智教育信息技术有限公司 | 一种基于文本多维度特征自动生成摘要的方法和装置 |
CN107240305A (zh) * | 2017-06-07 | 2017-10-10 | 胡军 | 语文写作教学方法及装置 |
CN107291694A (zh) * | 2017-06-27 | 2017-10-24 | 北京粉笔未来科技有限公司 | 一种自动评阅作文的方法和装置、存储介质及终端 |
CN109271626A (zh) * | 2018-08-31 | 2019-01-25 | 北京工业大学 | 文本语义分析方法 |
Non-Patent Citations (1)
Title |
---|
《计算机自动评估系统辅助课堂写作教学的研究述评》;王嫣女;《海外英语》;20120531;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110222344A (zh) | 2019-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Amin et al. | Bengali vader: A sentiment analysis approach using modified vader | |
CN108363743B (zh) | 一种智能问题生成方法、装置和计算机可读存储介质 | |
CN110222344B (zh) | 一种针对小学生作文辅导的作文要素分析算法 | |
CN110264792B (zh) | 一种针对小学生作文智能辅导系统 | |
Almutiri et al. | Markov models applications in natural language processing: a survey | |
Shaalan et al. | Analysis and feedback of erroneous Arabic verbs | |
Lee | Natural Language Processing: A Textbook with Python Implementation | |
Tukur et al. | Parts-of-speech tagging of Hausa-based texts using hidden Markov model | |
Clementeena et al. | A literature survey on question answering system in natural language processing | |
Guo | RETRACTED: An automatic scoring method for Chinese-English spoken translation based on attention LSTM [EAI Endorsed Scal Inf Syst (2022), Online First] | |
Arachchige et al. | Transformer-based Language models for the Identification of Idiomatic Expressions | |
Henno et al. | Machine learning vs human learning | |
Zheng | A Novel Computer-Aided Emotion Recognition of Text Method Based on WordEmbedding and Bi-LSTM | |
Meng et al. | Intelligent algorithms of English semantic analysis based on deep learning technology | |
Maxwell-Smith et al. | Scoping natural language processing in Indonesian and Malay for education applications | |
Wei et al. | Research on Error Detection Technology of English Writing Based on Recurrent Neural Network | |
Marfani et al. | Analysis of learners’ sentiments on MOOC forums using natural language processing techniques | |
Aparna et al. | A review on different approaches of pos tagging in NLP | |
Almuayqil et al. | Towards an ontology-based fully integrated system for student e-assessment | |
Chotirat et al. | Question Classification from Thai Sentences by Considering Word Context to Question Generation | |
Huda et al. | Arabic part of speech (pos) tagging analysis using bee colony optimization (BCO) algorithm on Quran corpus | |
Perikos et al. | A methodology for generating natural language paraphrases | |
Hira et al. | A Systematic Review of Sentiment Analysis from Bengali Text using NLP | |
Abdelkader et al. | How Existing NLP Tools of Arabic Language Can Serve Hadith Processing | |
Siram et al. | Parts of Speech Tagging of the Nyishi Language Using Hmm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220923 |