CN112527968A - 一种基于神经网络的作文评阅方法和系统 - Google Patents

一种基于神经网络的作文评阅方法和系统 Download PDF

Info

Publication number
CN112527968A
CN112527968A CN202011524721.4A CN202011524721A CN112527968A CN 112527968 A CN112527968 A CN 112527968A CN 202011524721 A CN202011524721 A CN 202011524721A CN 112527968 A CN112527968 A CN 112527968A
Authority
CN
China
Prior art keywords
document
review
neural network
sentence
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011524721.4A
Other languages
English (en)
Inventor
任宏凯
孙绍利
樊劲松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Datang Telecom Convergence Communications Co Ltd
Original Assignee
Datang Telecom Convergence Communications Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Datang Telecom Convergence Communications Co Ltd filed Critical Datang Telecom Convergence Communications Co Ltd
Priority to CN202011524721.4A priority Critical patent/CN112527968A/zh
Publication of CN112527968A publication Critical patent/CN112527968A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种基于神经网络的作文评阅方法和系统,涉及自然语言处理领域。所述方法包括:获取待评阅文档;根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果;根据所述特征评阅结果,加权求和得到所述待评阅文档的文档评阅结果。本发明的作文评阅方法和系统可以从整体和局部等多个维度考察待评阅文档的质量:词汇错误程度、篇章结构、主题、文采等,使得本发明能实现对文档的自动评分。

Description

一种基于神经网络的作文评阅方法和系统
技术领域
本发明涉及自然语言处理领域,特别涉及一种基于神经网络的作文评阅方法和系统。
背景技术
作文教学一直以来都是语文学科教育的重要问题,也是整个社会教育的问题,作文教育与孩子的认知、价值观、情感态度观的培养有着密不可分的关系。传统的作文评阅需要教师全程参与,耗时耗力,而且人工干预因素较多,对老师的能力和体力都提出了极大的挑战,因此作文批改的反馈时间相对较长,无法充分调动学生的主观能动性。
近年来,人工智能教育已经深入到教育领域,比如:语音辅助教学、图像识别等。其主要得益于深度学习的快速发展,深度学习模型由于其复杂的网络结构和强有效的特征抽取能力在自然语言处理任务中的表现远超于统计机器学习模型。如果能将人工智能技术应用到作文评阅教育中,让机器替代或辅助老师对作文进行评分和批改,将极大减轻老师负担,有效支持教育的结果评价、过程评价;同时,机器的评阅速度远超老师,可以及时有效地反馈评阅结果,同时也给教师留有充足的时间进行个性化“因材施教”。
传统的方法利用自然语言处理浅层分析的结果构建特征,如文档的长度、段落数、词汇丰富性等。不难发现,很多特征与人评价作文时考察的维度和深度相距较远。作文评阅不仅需要考察其题意、内容、语言、文体等基础等级,还要考察深刻、丰富、文采、创意等发展等级。
发明内容
本发明实施例提供一种基于神经网络的作文评阅方法和系统,以解决现有技术的评审文档方法考察的维度单一的问题。本发明的基于神经网络的作文评阅方法和系统是从多维度、多角度考虑,以期客观公正评阅文档。
为了解决上述技术问题,本发明采用如下技术方案:
本发明实施例提供一种基于神经网络的作文评阅方法,包括:
获取待评阅文档;
根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果;
根据所述特征评阅结果,加权求和得到所述待评阅文档的文档评阅结果。
可选的,所述预设深度神经网络包括全卷积序列到序列模型,所述特征信息包括语句,所述特征评阅结果包括语句评阅结果;
所述根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果,包括:
通过所述全卷积序列到序列模型,对所述待评语文档的语句进行评阅,得到语句评阅结果;其中,所述全卷积序列到序列模型包括编码层、注意力机制和解码层。
可选的,所述通过所述全卷积序列到序列模型,对所述待评语文档的语句进行评阅,包括:
结合目标语句的上下文,确定参考语句;
使用所述参考语句,按照错误类型,将所述目标语句中的词语进行错误分析;
根据所述错误分析,得到语句评阅结果。
可选的,所述错误类型包括:多词、少词、错词、乱序。
可选的,所述根据所述错误分析,得到语句评阅结果,包括:
根据所述错误分析,确定错误词语在所述待评语文档的概率;
根据所述概率,确定所述目标语句评阅的语句得分,并将所述语句得分作为所述语句评阅结果。
可选的,所述预设深度神经网络包括预训练语言模型和神经网络模型,所述特征信息包括语句和段落,所述特征评阅结果包括篇章结构评阅结果;
所述根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果,包括:
通过所述预训练语言模型和神经网络模型,对所述待评语文档的语句和段落进行评阅,得到篇章结构评阅结果;其中,所述篇章结构评阅结果包括以下至少一项:连贯性分布评阅结果、词汇链评阅结果、词向量评阅结果和句子长度评阅结果。
可选的,所述通过所述预训练语言模型和神经网络模型,对所述待评语文档的语句和段落进行评阅,包括:
获取目标段落中词的向量表征以及对应的语句向量;
使用所述语句向量,按照文体类型,将所述目标段落中的向量表征和语句向量进行结构分析;
根据所述结构分析,得到篇章结构评阅结果。
可选的,所述根据所述结构分析,得到篇章结构评阅结果,包括:
根据所述结构分析,确定篇章结构评阅结果的种类;
根据每一种类对应的权重占比,计算所述篇章结构评阅的结构得分。
可选的,所述预设深度神经网络包括贝叶斯模型和预训练语言模型,所述特征信息包括所述待评语文档整体和词语,所述特征评阅结果包括主题评阅结果;
所述根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果,包括:
通过所述贝叶斯模型和预训练语言模型,对所述待评语文档整体和词语进行评阅,得到主题评阅结果;其中,所述主题评阅结果包括中心思想评阅结果和分主题评阅结果。
可选的,所述通过所述贝叶斯模型和预训练语言模型,对所述待评语文档的语句和词语进行评阅,得到主题评阅结果,包括:
结合所述待评语文档整体,确定所述待评语文档的多个主题;
计算所述多个主题的概率分布;
根据所述概率分布,得到主题评阅结果。
可选的,所述通过所述贝叶斯模型和预训练语言模型,对所述待评语文档的语句和词语进行评阅,得到主题评阅结果,包括:
结合所述待评语文档整体,确定所述待评语文档的词向量;
根据所述词向量和所述待评语文档的词语之间的映射关系,得到主题评阅结果。
可选的,所述预设深度神经网络包括双向长短时记忆网络模型,所述特征信息包括语句,所述特征评阅结果包括语句评阅结果;
所述根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果,包括:
通过所述双向长短时记忆网络模型,对所述待评语文档的语句进行评阅,得到语句文采评阅结果。
可选的,所述通过所述双向长短时记忆网络模型,对所述待评语文档的语句进行评阅,包括:
双向捕获目标语句的词向量,并对所述词向量进行整合得到参考语句;
使用所述参考语句,按照文采类型,将目标语句中的语句进行文采评分;
根据所述文采评分,得到语句评阅结果。
可选的,所述文采类型,包括:
修辞手法特征、词汇文采特征和表达特征;
其中,所述修辞手法特征包括以下至少一项:排比特征、引用特征、比喻特征和拟人特征;所述词汇文采特征包括以下至少一项:不重复词汇的数量特征、成语数量特征和高级词汇数量特征。
可选的,所述根据所述特征评阅结果,加权求和得到所述待评阅文档的文档评阅结果,包括:
对所述特征评阅结果进行评分标注;
提取所述特征评阅结果的评分特征;
基于所述评分标注和评分特征,确定所述特征评阅结果的权重占比;
根据所述权重占比,加权求和得到所述待评阅文档的文档评阅结果。
本发明实施例还提供一种基于神经网络的作文评阅系统,包括:
获取模块,用于获取待评阅文档;
得到模块,用于根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果;
处理模块,用于根据所述特征评阅结果,加权求和得到所述待评阅文档的文档评阅结果。
本发明的有益效果是:
上述方案中,通过获取待评阅文档;根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果,从整体和局部等多个维度考察待评阅文档的质量:词汇错误程度、篇章结构、主题、文采等;根据所述特征评阅结果,加权求和得到所述待评阅文档的文档评阅结果,使得本发明能实现对文档的自动评分。
附图说明
图1表示本发明实施例提供的基于神经网络的作文评阅方法的流程示意图;
图2表示本发明实施例提供的得到所述待评阅文档的特征评阅结果的流程示意图之一;
图3表示本发明实施例提供的得到所述待评阅文档的特征评阅结果的流程示意图之二;
图4表示本发明实施例提供的得到所述待评阅文档的特征评阅结果的流程示意图之三;
图5表示本发明实施例提供的得到所述待评阅文档的特征评阅结果的流程示意图之四;
图6表示本发明实施例提供的基于神经网络的作文评阅系统的模块示意图之一;
图7表示本发明实施例提供的基于神经网络的作文评阅系统的模块示意图之二。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。在下面的描述中,提供诸如具体的配置和组件的特定细节仅仅是为了帮助全面理解本发明的实施例。因此,本领域技术人员应该清楚,可以对这里描述的实施例进行各种改变和修改而不脱离本发明的范围和精神。另外,为了清楚和简洁,省略了对已知功能和构造的描述。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。
在本发明的各种实施例中,应理解,下述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
应当知道的是,深度学习的主要原理是让模型从大量数据中学习如何工作,应用到作文评阅过程中就是让模型学习作文评阅,显然这是一个有监督的学习过程,需要有大量的数据支撑,让模型反复地训练、纠错、修正“大脑”的思考判断逻辑(“预训练语言模型”),教会机器自己通过比对某些“标准”来自己判断文本内容的好坏。
而文本表征是训练深度学习模型好坏的关键,近年来,随着自然语言处理技术的不断发展,预训练语言模型在文本表征方面有较强的特征抽取能力,相较于传统的词向量编码有明显的优势:能够根据上下文的不同,对上下文中的词提取符合其语境的词表征,该词表征向量为一个动态向量,即不同上下文输入预训练模型后,同一个词的词表征向量在两个上下文中的词表征是不同的。实验表明,语言模型的预训练能够有效提高神经语言程序学(NLP)领域任务的性能,而且能够很方便地通过各种迁移方式应用到下游任务(Down-stream Tasks)中,通常有两种策略:基于特征(Feature-based):将预训练模型隐藏层的特征表征作为下游任务的输入,下游任务的模型结构可根据具体任务具体设计;微调(Fine-tuning):下游任务使用预训练语言模型的结构,通过增加特定任务的层和微调的方式来训练模型,即结构重用。
本发明针对现有技术的评审文档方法考察的维度单一的问题,提供一种基于神经网络的作文评阅方法和系统。
如图1所示,本发明实施例提供的基于神经网络的作文评阅方法,包括:
步骤100,获取待评阅文档;
步骤200,根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果;
该实施例中,通过所述待评阅文档的多个特征信息和预设深度神经网络可以得到多个维度评阅文档的评阅结果。所述预设深度神经网络是根据获取预设文档库或者多个评阅要求的文档后形成的预训练模型,预训练模型由于其复杂的结构和庞大的参数,需要大量的数据使其学习到如何评阅作文,优选应用光学字符识别(Optical CharacterRecognition,OCR)技术,加上具有多个评阅要求的文档数据,完全可以支撑训练大规模的预训练语言模型。
步骤300,根据所述特征评阅结果,加权求和得到所述待评阅文档的文档评阅结果。
本步骤中,根据步骤200获得的多维度的特征评阅结果,每个特征评阅结果包括但不限于评阅语、批注语和分数,将所述特征评阅结果,加权求和得到所述待评阅文档的文档评阅结果,可以认为将多个角度的评阅分数进行加权求和得到待评阅文档的评分结果。
需要说明的是,在本实施例中,所述待评阅文档的体裁包括但不限于:记叙文、说明文、议论文、应用文、演讲稿等,例如,该文档可以为考试作文、评论、稿件等。该待评分文档可以是中文、英文等各种语言种类的文档。
待评阅文档可以为文字形式,当然也可以是图片格式,此外,也可以是包含图片的文本,例如,对名画、名书法的点评文档等,实际应用中仅点评文本内容,还是同时也对文档中包含的图片中文字内容进行评分,具体视使用需求而定。当待评分文档为图片格式,可以通过图像处理及文字识别等技术获取待评分文档的文本;当待评分文档没有电子版本时,可以采用扫描仪设备进行扫描,或者采用高拍仪、移动成像设备等获取文档图像,此外,也可以是从扫描图像中截取的文档图像等,然后通过光学字符识别(Optical CharacterRecognition,OCR)获取待评分文档的文本,在此不做限定。
需要强调的是,本发明尤其适用于作文评分,现有技术中,对于作文的评分,多还是采用人工评分方式,耗费大量人力。尤其是大规模的考试,如高考、中考等,往往需要在非常短时间内完成阅卷评分工作,这对阅卷员的体力、脑力均是很大的考验。且作文是主观性最强的题目,为了尽量减少不同阅卷老师的主观差异带来的评分影响,还需要各类培训统一评分标注或进行多轮次多人评价等,而本发明可以根据后续提取的所述待评阅文档的多个特征信息和预设深度神经网络自动对作文进行评分,相较于人工评分更加客观公正。
作为一种可选的实施方式,如图2所示,所述预设深度神经网络包括全卷积序列到序列模型,所述特征信息包括语句,所述特征评阅结果包括语句评阅结果;
所述步骤200,包括:
步骤210,通过所述全卷积序列到序列模型,对所述待评语文档的语句进行评阅,得到语句评阅结果;其中,所述全卷积序列到序列模型包括编码层、注意力机制和解码层。
该实施例中,所述全卷积序列到序列模型的编码层和解码层均采用全卷积神经网络捕获句子语义信息,编码层和解码层之间又采用注意力机制,可以有效捕获原始句子中的重点信息,实现准确解码。该模型类似于翻译模型,通过从有监督数据中学习错误句子到正确句子间的映射关系,从而将错误句子“翻译”成正确句子。因此,在测试阶段,只需输入错误的作文语句,模型会自动纠正并输出正确的语句。该步骤210为作文自动评阅提供了强有力的字词级别诊断功能,为教师减负与学生能力诊断提供有力的工具。
可选的,所述步骤210,包括:
结合目标语句的上下文,确定参考语句;
使用所述参考语句,按照错误类型,将所述目标语句中的词语进行错误分析;
根据所述错误分析,得到语句评阅结果。
该实施例中,通过注意力机制结合目标语句的上下文,确定参考语句,使用所述参考语句,按照错误类型,将所述目标语句中的词语进行错误分析;比如,例句“我欢喜吃苹果”,通过注意力机制结合目标语句的上下文,确定参考语句为“我喜欢吃苹果”,将目标语句中的词语和参考语句中的词语分析对比,确定目标语句的“欢喜”的错误类型为错词类型,根据所述错误分析,得到语句评阅结果为错词类型。
优选的,根据所述语句评阅结果,输出错误类型结果,并根据错误分析,并输出正确词语或语句。
可选的,所述错误类型包括:多词、少词、错词、乱序。特别地,当所述待评分文档为考试作文时,所述方法还会根据语句特征信息,判断作文长度、书写整洁度和/或字体工整度是否存在错误。其中,书写整洁度能反映手写内容部分是否整洁,是否存在涂抹、插入内容等。
可选的,所述步骤210,包括:
根据所述错误分析,确定错误词语在所述待评语文档的概率;
根据所述概率,确定所述目标语句评阅的语句得分,并将所述语句得分作为所述语句评阅结果。
该实施例中,根据所述错误分析,确定错误词语在所述待评语文档的概率,优选的,所述概率不应超过所述待评语文档的10%,根据所述概率,确定所述目标语句评阅的语句得分,并将所述语句得分作为所述语句评阅结果。具体地,假设整篇文档500字数,其中错一个词记作0.5分,最多错词扣分为10分,当超过整篇文档的10%,即50字时,确定当前作为为不合格作文,从而确定所述目标语句评阅的不合格。
作为一种可选的实施方式,如图3所示,所述预设深度神经网络包括预训练语言模型和神经网络模型,所述特征信息包括语句和段落,所述特征评阅结果包括篇章结构评阅结果;
所述步骤200,包括:
所述步骤220,通过所述预训练语言模型(BERT模型)和神经网络模型,对所述待评语文档的语句和段落进行评阅,得到篇章结构评阅结果;其中,所述篇章结构评阅结果包括以下至少一项:连贯性分布评阅结果、词汇链评阅结果、词向量评阅结果和句子长度评阅结果。
该实施例中,作文评分需要篇章级的文本理解,即篇章结构分析。本发明首先基于BERT模型实现基础篇章结构分析,根据不同文章体裁构建个性化篇章分析。针对议论文,其引论、主旨、论点、论据等对篇章内容分析起着重要作用,因此本发明主要通过识别句子和段落的论辩角色来表示篇章结构,提出了层次多任务学习方法融合句子级和段落级的篇章角色表示进行议论文篇章结构质量评价;针对记叙文,可以利用词汇链和事件链等结构刻画篇章结构,本发明也提出通过识别记叙、议论、描写、抒情、说明等表达方式作为篇章单元角色来描述记叙文的结构。当然,作为其它文体的判断,本发明均可以实现。
具体地,所述步骤220,包括:
获取目标段落中词的向量表征以及对应的语句向量;
使用所述语句向量,按照文体类型,将所述目标段落中的向量表征和语句向量进行结构分析;
根据所述结构分析,得到篇章结构评阅结果。
该实施例中,获取目标段落中词的向量表征即X1 1至X1 N,将所述X1 1至X1 N通过BERT模型得到第一个句子的语句向量,同理,获取目标段落中词的向量表征即X1 L至XL N,将所述X1 L至XL N通过BERT模型得到第L个句子的语句向量,使用第一个至第L个的语句向量,按照文体类型,将所述目标段落中的向量表征和语句向量进行结构分析;结构分析可以依据一个预先设定的神经网络模型(GRU)分析,再通过输入至归一化线性层和全连接层,可以得到所述待评语文档的连贯性分布评阅结果、词汇链评阅结果、词向量评阅结果和句子长度评阅结果,但不限于上述的评阅结果。
需要说明的是,篇章结构特征由于从宏观结构反映文章的质量,篇章结构在文章评分标准中属于基础等级的表达部分,根据表达质量可分为:结构严谨、结构完整、结构基本完整和结构混乱等,当然也可以采用其他分档方式。
可选的,所述根据所述结构分析,得到篇章结构评阅结果,包括:
根据所述结构分析,确定篇章结构评阅结果的种类;
根据每一种类对应的权重占比,计算所述篇章结构评阅的结构得分。
该实施例中,根据所述结构分析,确定篇章结构为哪一种文体类型,按照所述文体类型,根据篇章结构评阅结果的种类,确定每一种类对应的权重占比,计算所述篇章结构评阅的结构得分。例如:记叙文中,针对主旨和论点的权重占比高于引论和论据的权重占比。
作为一种可选的实施方式,如图4所示,所述预设深度神经网络包括贝叶斯模型(Latent Dirichlet Allocation,LDA)模型和预训练语言模型(BERT),所述特征信息包括所述待评语文档整体和词语,所述特征评阅结果包括主题评阅结果;
所述步骤200,包括:
步骤230,通过所述贝叶斯模型和预训练语言模型,对所述待评语文档整体和词语进行评阅,得到主题评阅结果;其中,所述主题评阅结果包括中心思想评阅结果和分主题评阅结果。
需要说明的是,扣题是作文评阅最重要也是最基础的评价标准之一,因此本步骤230的底层使用LDA模型,可以将文档集中每篇文档的主题以概率分布的形式给出,从而通过分析一些文档抽取出它们的主题分布,便可以根据主题分布进行主题聚类或文本分类。上层使用循环神经网络(RNN)进行语义抽取,抽取隐藏层状态的同时针对不同主题设置不同权重,最终达到主题分类。两层主题模型可以大大提高作文评阅系统主题分析的准确度。
可选的,所述步骤230,包括:
步骤231,结合所述待评语文档整体,确定所述待评语文档的多个主题;
计算所述多个主题的概率分布;
根据所述概率分布,得到主题评阅结果。
该实施例中,通过LDA模型,结合所述待评语文档整体,以考试作文为例进行说明,采用本次考试的大量数据训练LDA模型,得到本次考试全局的主题分布;这里的主题评阅结果为中心思想评阅结果。在分析当前作文中心思想是否集中时,具体的,可以将当前作文向量化,输入已经训练好的LDA模型,得到该作文属于各主题的概率,如果在各主题上概率都比较平均,则主题不集中;反之,如果仅在小部分主题上概率比较高,则主题集中。可以采用信息熵的形式来反映作文属于主题的概率。
可选的,所述步骤230,还包括:
步骤232,结合所述待评语文档整体,确定所述待评语文档的词向量;
根据所述词向量和所述待评语文档的词语之间的映射关系,得到主题评阅结果。这里,所述主题评阅结果为分主题评阅结果。
该实施例中,通过所述BERT模型,确定所述待评语文档的词向量,通过所述LDA模型,结合所述待评语文档整体,确定所述待评语文档中关于主题的词语,根据所述词向量和所述待评语文档的词语之间的映射关系,得到主题评阅结果,即确定评分文档的主题分布与定标高分文档的主题分布的相似度。
具体可以理解为,可以获取少量人工定标文档,将文档向量化输入到LDA模型,得到文档的主题到词语的分布情况;通过所述BERT模型,确定所述待评语文档的词向量,结合主题到词语的分布和词向量的映射关系,得到主题评阅结果。人工定标分数的高低可以反映主题得分的高低。在测试时,根据待考察文档的主题分布来计算主题得分特征,一般认为如果待评分文档的主题分布与定标高分文档相近,则主题得分较高。反之亦然,如果待评分文档的主题分布于定标低分文档相近,则主题得分较低。其中,人工定标文档指的是具有人工标注的文档得分信息的文档。
作为一种可选的实施方式,如图5所示,所述预设深度神经网络包括双向长短时记忆网络模型,所述特征信息包括语句,所述特征评阅结果包括语句评阅结果;
所述步骤200,包括:
步骤240,通过所述双向长短时记忆网络模型,对所述待评语文档的语句进行评阅,得到语句文采评阅结果。
该实施例中,所述双向长短时记忆网络模型使用的是分类算法,通过众包手段收集大量优美句子,构建大规模有监督训练数据集,基于数据驱动的方法让模型学习到判别优美句子的能力,即针对输入句子判别其是否为比喻、拟人等修辞手法,然后得到语句文采评阅结果。所述双向长短时记忆网络模型可以双向获取所述待评语文档的语句特征信息,增加了识别的准确度。
可选的,所述步骤240,包括:
双向捕获目标语句的词向量,并对所述词向量进行整合得到参考语句;
使用所述参考语句,按照文采类型,将目标语句中的语句进行文采评分;
根据所述文采评分,得到语句评阅结果。
该实施例中,通过将目标语句的词向量输入嵌入层,然后双向捕获目标语句的词向量,即将图5中的词向量X1至XN均输入嵌入层,正向捕获一次词向量即A1至AN,再反向捕获一次词向量即B1至BN,分别将对应的A1和B1一直到AN至BN整合至最大池化层,以得到所述词向量进行整合得到参考语句;将所述参考语句输入至归一化线性层和全连接层实现词向量和参考语句的映射,在使用所述参考语句,按照文采类型,将目标语句中的语句进行文采评分;根据所述文采评分,得到语句评阅结果。
以下通过一个具体例子说明比喻、拟人的识别过程:如一个句子中只有名词、动词,则该句子的词性向量表示为约几十维的词性向量中,表示名词和动词的维为1,其余维为0。
需要说明的是,所述文采类型,包括:
修辞手法特征、词汇文采特征和表达特征;
其中,所述修辞手法特征包括以下至少一项:排比特征、引用特征、比喻特征和拟人特征;所述词汇文采特征包括以下至少一项:不重复词汇的数量特征、成语数量特征和高级词汇数量特征。
该实施例中,所述排比特征包括:使用排比的总数量、使用排比的句子长度、使用不同排比的数量;所述引用特征包括:引用的次数、引用的主题是否和文档主题匹配、引用的出处和引用的作者信息;所述比喻特征包括:使用比喻的总数量、使用比喻的句子长度、使用不同比喻的数量;所述拟人特征包括:使用拟人的总数量、使用拟人的句子长度、使用不同拟人的数量;提取所述表达特征可以包括:预先构建分类模型,将待评分文档中句子输入所述分类模型,得到表达优美度。
其中,引用特征通过引用识别获取,包括名人名言、古语诗词的引用,亦反映了文档的文采,也体现了学生的阅读范围。具体可以通过构建名人名言库、古诗文库进行引用识别,该库包括文档出处、作者、主题等信息。基于库中的信息,采用文本检索的方式识别文档中引用,并将文档中出现引用的次数、引用的主题是否和文档匹配、出处和作者信息等编码作为特征。
同理,所述不重复词汇的数量特征、成语数量特征和高级词汇数量特征,均可以作为检测待评语文档的文采程度的依据。
作为一种实施方式,所述步骤300,包括:
步骤310,对所述特征评阅结果进行评分标注;这里可以通过人工对所述训练数据进行评分标注。需要说明的是,当训练数据已经具有评分标注信息时,可以省略该步骤。
步骤320,提取所述特征评阅结果的评分特征;这里,依据上述步骤200获取的多个特征评阅结果的各个评分特征。
步骤330,基于所述评分标注和评分特征,确定所述特征评阅结果的权重占比;
步骤340,根据所述权重占比,加权求和得到所述待评阅文档的文档评阅结果。
该实施例中,基于所述评分标注和评分特征,采用支持向量回归模型,确定所述特征评阅结果占待评语文档整体的权重比例,例:文采部分可以设置占权重比例为25%,文采的得分为80分,而文采占待评语文档整体的得分为80分与25%的乘积,即20分。所述权重占比可以基于现有常见的回归模型训练方法进行训练,模型的输出为文档的分数,通过调整模型参数使得输出的分数趋近于人工标注的评分。
需要说明的是,权重占比的模型前提是选择训练数据进行训练,所述训练数据可以是考试作文、评论、稿件等,训练数据的体裁包括但不限于:记叙文、说明文、议论文、应用文、演讲稿。训练数据的语种应当和待评分文档的语种一致;优选地,形式也应当和待评分文档的一致,以便于后续提取出对应的评分特征,例如,当待评分文档包含手写内容时,优选包含手写内容的文档作为训练数据。以考试作文作为训练数据为例进行说明,从本次考试或测试中,按照作文长度分布、非作文题得分分布、平时作文水平分布中的一种或多种,进行训练数据选取。
本发明另一实施例中基于神经网络的作文评阅方法,还包括:获取待评分文档的文本;对所述待评分文档进行异常检测。如果存在异常,则进行标识或提示,所述异常包括以下任意一种或多种:抄袭、随意涂抹。此时优选人工核查检测。这里,所述随意涂抹检测主要指卷面涂抹严重、扫描不清晰等,其判断方法采用现有的图像处理技术,在此不再详细阐述。
该实施例中,通过对所述待评分文档进行异常检测,以达到抄袭检测,主要包括范文的抄袭、考生间作弊抄袭。具体地,可以通过收集大量范文,以及同批文档构成对比文库,根据相似度检索对比文库中是否存在与待评分文档相似度超过一定阈值的文档,例如60%,若有,则判定为抄袭。
综上所述,本发明的基于神经网络的作文评阅方法从多个维度考察待评阅文档的质量:词汇错误程度、篇章结构、主题、文采等,使得本发明能实现对文档的自动评分。
如图6和图7所示,本发明实施例还提供一种基于神经网络的作文评阅系统,包括:
获取模块10,用于获取待评阅文档;
得到模块20,用于根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果;
处理模块30,用于根据所述特征评阅结果,加权求和得到所述待评阅文档的文档评阅结果。
可选的,所述作文评阅系统还包括语法纠错模块40,所述语法纠错模块40包括全卷积序列到序列模型,所述特征信息包括语句,所述特征评阅结果包括语句评阅结果;
所述得到模块20,包括:
第一得到子模块,用于通过所述全卷积序列到序列模型,对所述待评语文档的语句进行评阅,得到语句评阅结果;其中,所述全卷积序列到序列模型包括编码层、注意力机制和解码层。
可选的,所述第一得到子模块,包括:
第一确定单元,用于结合目标语句的上下文,确定参考语句;
第一分析单元,用于使用所述参考语句,按照错误类型,将所述目标语句中的词语进行错误分析;
第一得到单元,用于根据所述错误分析,得到语句评阅结果。
需要说明的是,所述错误类型包括:多词、少词、错词、乱序。
可选的,所述第一得到单元,包括:
第一确定子单元,用于根据所述错误分析,确定错误词语在所述待评语文档的概率;
第一得到子单元,用于根据所述概率,确定所述目标语句评阅的语句得分,并将所述语句得分作为所述语句评阅结果。
可选的,所述作文评阅系统还包括篇章结构分析模块50,所述篇章结构分析模块50包括预训练语言模型和神经网络模型,所述特征信息包括语句和段落,所述特征评阅结果包括篇章结构评阅结果;
所述得到模块20,包括:
第二得到子模块,用于通过所述预训练语言模型和神经网络模型,对所述待评语文档的语句和段落进行评阅,得到篇章结构评阅结果;其中,所述篇章结构评阅结果包括以下至少一项:连贯性分布评阅结果、词汇链评阅结果、词向量评阅结果和句子长度评阅结果。
可选的,所述第二得到子模块,包括:
第一获取单元,用于获取目标段落中词的向量表征以及对应的语句向量;
第二分析单元,用于使用所述语句向量,按照文体类型,将所述目标段落中的向量表征和语句向量进行结构分析;
第二得到单元,用于根据所述结构分析,得到篇章结构评阅结果。
可选的,所述第二得到单元,包括:
第二确定子单元,用于根据所述结构分析,确定篇章结构评阅结果的种类;
第一计算子单元,用于根据每一种类对应的权重占比,计算所述篇章结构评阅的结构得分。
可选的,所述作文评阅系统还包括主题分析模块60,所述主题分析模块60包括贝叶斯模型和预训练语言模型,所述特征信息包括所述待评语文档整体和词语,所述特征评阅结果包括主题评阅结果;
所述得到模块20,包括:
第三得到子模块,用于通过所述贝叶斯模型和预训练语言模型,对所述待评语文档整体和词语进行评阅,得到主题评阅结果;其中,所述主题评阅结果包括中心思想评阅结果和分主题评阅结果。
可选的,所述第三得到子模块,包括:
第二确定单元,用于结合所述待评语文档整体,确定所述待评语文档的多个主题;
第一计算单元,用于计算所述多个主题的概率分布;
第三得到单元,用于根据所述概率分布,得到主题评阅结果。
可选的,所述第三得到子模块,还包括:
第三确定单元,用于结合所述待评语文档整体,确定所述待评语文档的词向量;
第四得到单元,用于根据所述词向量和所述待评语文档的词语之间的映射关系,得到主题评阅结果。
可选的,所述作文评阅系统还包括文采判别模型70,所述文采判别模型70包括双向长短时记忆网络模型,所述特征信息包括语句,所述特征评阅结果包括语句评阅结果;
所述得到模块20,包括:
第四得到子模块,用于通过所述双向长短时记忆网络模型,对所述待评语文档的语句进行评阅,得到语句文采评阅结果。
可选的,所述第四得到子模块,包括:
第一整合单元,用于双向捕获目标语句的词向量,并对所述词向量进行整合得到参考语句;
第一评分单元,用于使用所述参考语句,按照文采类型,将目标语句中的语句进行文采评分;
第五得到单元,用于根据所述文采评分,得到语句评阅结果。
需要说明的是,所述文采类型包括:
修辞手法特征、词汇文采特征和表达特征;
其中,所述修辞手法特征包括以下至少一项:排比特征、引用特征、比喻特征和拟人特征;所述词汇文采特征包括以下至少一项:不重复词汇的数量特征、成语数量特征和高级词汇数量特征。
可选的,所述处理模块30,包括:
第一标注子模块,用于对所述特征评阅结果进行评分标注;
第一提取子模块,用于提取所述特征评阅结果的评分特征;
第一确定子模块,用于基于所述评分标注和评分特征,确定所述特征评阅结果的权重占比;
第一评阅子模块,用于根据所述权重占比,加权求和得到所述待评阅文档的文档评阅结果。
综上所述,本发明提供的方法和系统以辅助教师进行作文教学,会给作文教育带来以下优势:高效率,一般来说,传统人力阅卷需要经历的一些步骤,包括字词的修正,语法等基本错误的指出,都可以交给机器完成,扫描一张纸的时间,阅卷结果就出来了。高准确率,对于作文而言,庞大的阅读量使得教师凭借肉眼难免会出错,而机器可以凭借技术优势完成批改,不会遗漏和疲倦;让教师更加关注作业中的人文素养,例如作文的批改,除了去纠正孩子的字词用法,更多的目的在于培养孩子的想象力与创造力,把基本语法错误交给机器,家长和老师更多关注孩子表达欲,才能发挥出作文最大的人文教育功能。
本发明的方法和系统能识别出文档中的“多词、少词、错词、乱序”四种错误类型并进行纠正,并以此来判断作文词汇方面的得分,同时给出纠正提示;还能对文档进行多维度的语义分析来判别文档衔接流畅度,包含句子级别分析、段落级别分析、篇章级别分析;还能通过主题识别、离题检测技术对作文扣题程度进行分析;还能通过对排比、比喻、拟人等常用修辞手法的识别,来判断文档在文采程度的得分;本发明的方法和系统可以从整体和局部等多个维度考察待评分文档的质量:篇章结构、主题、文采、词汇量等,使得本发明能实现对文档的自动评分。
以上所述的是本发明的优选实施方式,应当指出对于本技术领域的普通人员来说,在不脱离本发明所述的原理前提下还可以作出若干改进和润饰,这些改进和润饰也在本发明的保护范围内。

Claims (16)

1.一种基于神经网络的作文评阅方法,其特征在于,包括:
获取待评阅文档;
根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果;
根据所述特征评阅结果,加权求和得到所述待评阅文档的文档评阅结果。
2.根据权利要求1所述的基于神经网络的作文评阅方法,其特征在于,所述预设深度神经网络包括全卷积序列到序列模型,所述特征信息包括语句,所述特征评阅结果包括语句评阅结果;
所述根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果,包括:
通过所述全卷积序列到序列模型,对所述待评语文档的语句进行评阅,得到语句评阅结果;其中,所述全卷积序列到序列模型包括编码层、注意力机制和解码层。
3.根据权利要求2所述的基于神经网络的作文评阅方法,其特征在于,所述通过所述全卷积序列到序列模型,对所述待评语文档的语句进行评阅,包括:
结合目标语句的上下文,确定参考语句;
使用所述参考语句,按照错误类型,将所述目标语句中的词语进行错误分析;
根据所述错误分析,得到语句评阅结果。
4.根据权利要求3所述的基于神经网络的作文评阅方法,其特征在于,所述错误类型包括:多词、少词、错词、乱序。
5.根据权利要求3所述的基于神经网络的作文评阅方法,其特征在于,所述根据所述错误分析,得到语句评阅结果,包括:
根据所述错误分析,确定错误词语在所述待评语文档的概率;
根据所述概率,确定所述目标语句评阅的语句得分,并将所述语句得分作为所述语句评阅结果。
6.根据权利要求1所述的基于神经网络的作文评阅方法,其特征在于,所述预设深度神经网络包括预训练语言模型和神经网络模型,所述特征信息包括语句和段落,所述特征评阅结果包括篇章结构评阅结果;
所述根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果,包括:
通过所述预训练语言模型和神经网络模型,对所述待评语文档的语句和段落进行评阅,得到篇章结构评阅结果;其中,所述篇章结构评阅结果包括以下至少一项:连贯性分布评阅结果、词汇链评阅结果、词向量评阅结果和句子长度评阅结果。
7.根据权利要求6所述的基于神经网络的作文评阅方法,其特征在于,所述通过所述预训练语言模型和神经网络模型,对所述待评语文档的语句和段落进行评阅,包括:
获取目标段落中词的向量表征以及对应的语句向量;
使用所述语句向量,按照文体类型,将所述目标段落中的向量表征和语句向量进行结构分析;
根据所述结构分析,得到篇章结构评阅结果。
8.根据权利要求7所述的基于神经网络的作文评阅方法,其特征在于,所述根据所述结构分析,得到篇章结构评阅结果,包括:
根据所述结构分析,确定篇章结构评阅结果的种类;
根据每一种类对应的权重占比,计算所述篇章结构评阅的结构得分。
9.根据权利要求1所述的基于神经网络的作文评阅方法,其特征在于,所述预设深度神经网络包括贝叶斯模型和预训练语言模型,所述特征信息包括所述待评语文档整体和词语,所述特征评阅结果包括主题评阅结果;
所述根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果,包括:
通过所述贝叶斯模型和预训练语言模型,对所述待评语文档整体和词语进行评阅,得到主题评阅结果;其中,所述主题评阅结果包括中心思想评阅结果和分主题评阅结果。
10.根据权利要求9所述的基于神经网络的作文评阅方法,其特征在于,所述通过所述贝叶斯模型和预训练语言模型,对所述待评语文档的语句和词语进行评阅,得到主题评阅结果,包括:
结合所述待评语文档整体,确定所述待评语文档的多个主题;
计算所述多个主题的概率分布;
根据所述概率分布,得到主题评阅结果。
11.根据权利要求9所述的基于神经网络的作文评阅方法,其特征在于,所述通过所述贝叶斯模型和预训练语言模型,对所述待评语文档的语句和词语进行评阅,得到主题评阅结果,包括:
结合所述待评语文档整体,确定所述待评语文档的词向量;
根据所述词向量和所述待评语文档的词语之间的映射关系,得到主题评阅结果。
12.根据权利要求1所述的基于神经网络的作文评阅方法,其特征在于,所述预设深度神经网络包括双向长短时记忆网络模型,所述特征信息包括语句,所述特征评阅结果包括语句评阅结果;
所述根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果,包括:
通过所述双向长短时记忆网络模型,对所述待评语文档的语句进行评阅,得到语句文采评阅结果。
13.根据权利要求12所述的基于神经网络的作文评阅方法,其特征在于,所述通过所述双向长短时记忆网络模型,对所述待评语文档的语句进行评阅,包括:
双向捕获目标语句的词向量,并对所述词向量进行整合得到参考语句;
使用所述参考语句,按照文采类型,将目标语句中的语句进行文采评分;
根据所述文采评分,得到语句评阅结果。
14.根据权利要求13所述的基于神经网络的作文评阅方法,其特征在于,所述文采类型,包括:
修辞手法特征、词汇文采特征和表达特征;
其中,所述修辞手法特征包括以下至少一项:排比特征、引用特征、比喻特征和拟人特征;所述词汇文采特征包括以下至少一项:不重复词汇的数量特征、成语数量特征和高级词汇数量特征。
15.根据权利要求1所述的基于神经网络的作文评阅方法,其特征在于,所述根据所述特征评阅结果,加权求和得到所述待评阅文档的文档评阅结果,包括:
对所述特征评阅结果进行评分标注;
提取所述特征评阅结果的评分特征;
基于所述评分标注和评分特征,确定所述特征评阅结果的权重占比;
根据所述权重占比,加权求和得到所述待评阅文档的文档评阅结果。
16.一种基于神经网络的作文评阅系统,其特征在于,包括:
获取模块,用于获取待评阅文档;
得到模块,用于根据所述待评阅文档的多个特征信息和预设深度神经网络,得到所述待评阅文档的特征评阅结果;
处理模块,用于根据所述特征评阅结果,加权求和得到所述待评阅文档的文档评阅结果。
CN202011524721.4A 2020-12-22 2020-12-22 一种基于神经网络的作文评阅方法和系统 Pending CN112527968A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011524721.4A CN112527968A (zh) 2020-12-22 2020-12-22 一种基于神经网络的作文评阅方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011524721.4A CN112527968A (zh) 2020-12-22 2020-12-22 一种基于神经网络的作文评阅方法和系统

Publications (1)

Publication Number Publication Date
CN112527968A true CN112527968A (zh) 2021-03-19

Family

ID=75002157

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011524721.4A Pending CN112527968A (zh) 2020-12-22 2020-12-22 一种基于神经网络的作文评阅方法和系统

Country Status (1)

Country Link
CN (1) CN112527968A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113343972A (zh) * 2021-06-29 2021-09-03 北京市商汤科技开发有限公司 一种阅卷方法、装置、电子设备及存储介质
CN113435179A (zh) * 2021-06-24 2021-09-24 科大讯飞股份有限公司 一种作文评阅方法、装置、设备及存储介质
CN113743086A (zh) * 2021-08-31 2021-12-03 北京阅神智能科技有限公司 一种中文作文句评输出方法
CN116187339A (zh) * 2023-02-13 2023-05-30 首都师范大学 基于双塔模型进行特征语义融合的作文自动评分方法
CN116821377A (zh) * 2023-08-31 2023-09-29 南京云创大数据科技股份有限公司 基于知识图谱和大模型的小学语文自动评测系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103294660A (zh) * 2012-02-29 2013-09-11 张跃 一种英语作文自动评分方法及系统
CN107133211A (zh) * 2017-04-26 2017-09-05 中国人民大学 一种基于注意力机制的作文评分方法
CN107291694A (zh) * 2017-06-27 2017-10-24 北京粉笔未来科技有限公司 一种自动评阅作文的方法和装置、存储介质及终端
CN107506360A (zh) * 2016-06-14 2017-12-22 科大讯飞股份有限公司 一种文章评分方法及系统
CN110298361A (zh) * 2019-05-22 2019-10-01 浙江省北大信息技术高等研究院 一种rgb-d图像的语义分割方法和系统
CN110825848A (zh) * 2019-06-10 2020-02-21 北京理工大学 一种基于短语向量的文本分类方法
CN111104789A (zh) * 2019-11-22 2020-05-05 华中师范大学 文本评分方法、装置和系统
CN111142679A (zh) * 2019-12-25 2020-05-12 维沃移动通信有限公司 一种显示处理方法及电子设备
CN111737968A (zh) * 2019-03-20 2020-10-02 小船出海教育科技(北京)有限公司 一种作文自动批改及评分的方法及终端
CN111832278A (zh) * 2020-06-15 2020-10-27 北京百度网讯科技有限公司 文档流畅度的检测方法、装置、电子设备及介质
CN111914532A (zh) * 2020-09-14 2020-11-10 北京阅神智能科技有限公司 一种中文作文评分方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103294660A (zh) * 2012-02-29 2013-09-11 张跃 一种英语作文自动评分方法及系统
CN107506360A (zh) * 2016-06-14 2017-12-22 科大讯飞股份有限公司 一种文章评分方法及系统
CN107133211A (zh) * 2017-04-26 2017-09-05 中国人民大学 一种基于注意力机制的作文评分方法
CN107291694A (zh) * 2017-06-27 2017-10-24 北京粉笔未来科技有限公司 一种自动评阅作文的方法和装置、存储介质及终端
CN111737968A (zh) * 2019-03-20 2020-10-02 小船出海教育科技(北京)有限公司 一种作文自动批改及评分的方法及终端
CN110298361A (zh) * 2019-05-22 2019-10-01 浙江省北大信息技术高等研究院 一种rgb-d图像的语义分割方法和系统
CN110825848A (zh) * 2019-06-10 2020-02-21 北京理工大学 一种基于短语向量的文本分类方法
CN111104789A (zh) * 2019-11-22 2020-05-05 华中师范大学 文本评分方法、装置和系统
CN111142679A (zh) * 2019-12-25 2020-05-12 维沃移动通信有限公司 一种显示处理方法及电子设备
CN111832278A (zh) * 2020-06-15 2020-10-27 北京百度网讯科技有限公司 文档流畅度的检测方法、装置、电子设备及介质
CN111914532A (zh) * 2020-09-14 2020-11-10 北京阅神智能科技有限公司 一种中文作文评分方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435179A (zh) * 2021-06-24 2021-09-24 科大讯飞股份有限公司 一种作文评阅方法、装置、设备及存储介质
CN113435179B (zh) * 2021-06-24 2024-04-30 科大讯飞股份有限公司 一种作文评阅方法、装置、设备及存储介质
CN113343972A (zh) * 2021-06-29 2021-09-03 北京市商汤科技开发有限公司 一种阅卷方法、装置、电子设备及存储介质
CN113743086A (zh) * 2021-08-31 2021-12-03 北京阅神智能科技有限公司 一种中文作文句评输出方法
CN116187339A (zh) * 2023-02-13 2023-05-30 首都师范大学 基于双塔模型进行特征语义融合的作文自动评分方法
CN116187339B (zh) * 2023-02-13 2024-03-01 首都师范大学 基于双塔模型进行特征语义融合的作文自动评分方法
CN116821377A (zh) * 2023-08-31 2023-09-29 南京云创大数据科技股份有限公司 基于知识图谱和大模型的小学语文自动评测系统

Similar Documents

Publication Publication Date Title
CN107506360B (zh) 一种文章评分方法及系统
CN110110585B (zh) 基于深度学习的智能阅卷实现方法及系统、计算机程序
CN112527968A (zh) 一种基于神经网络的作文评阅方法和系统
Jarvis Comparison-based and detection-based approaches to transfer research
CN108121702B (zh) 数学主观题评阅方法及系统
CN108052504B (zh) 数学主观题解答结果的结构分析方法及系统
Srihari et al. Automatic scoring of short handwritten essays in reading comprehension tests
CN109949637B (zh) 一种客观题目的自动解答方法和装置
CN113435179A (zh) 一种作文评阅方法、装置、设备及存储介质
KR102344144B1 (ko) 손글씨 인식을 통한 유아 학습 시스템
Sijimol et al. Handwritten short answer evaluation system (HSAES)
Oka et al. Fully automated short answer scoring of the trial tests for common entrance examinations for Japanese university
Rowtula et al. Towards automated evaluation of handwritten assessments
Jiménez et al. Sentiment Analysis of Student Surveys--A Case Study on Assessing the Impact of the COVID-19 Pandemic on Higher Education Teaching.
CN115544226B (zh) 一种基于多模态情感分析的相似识别方法
CN107992482B (zh) 数学主观题解答步骤的规约方法及系统
Samodro et al. Backpropagation Implementation To Classify Dysgraphia In Children
CN115080690A (zh) 一种基于nlp的试卷文本自动化批改方法及系统
Raina et al. Complementary systems for off-topic spoken response detection
Krichen et al. Online analysis of children handwritten words in dictation context
Kamal et al. Virtual technical aids to help people with dysgraphia
CN112085985A (zh) 一种面向英语考试翻译题目的学生答案自动评分方法
Srihari et al. Automated scoring of handwritten essays based on latent semantic analysis
Srihari et al. On the Automatic Scoring of Handwritten Essays.
de Lima et al. Automatic Punctuation Verification of School Students’ Essay in Portuguese

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination