CN112182210B - 基于作文论据特征分类器的语言生成模型及写作支持方法 - Google Patents

基于作文论据特征分类器的语言生成模型及写作支持方法 Download PDF

Info

Publication number
CN112182210B
CN112182210B CN202011023526.3A CN202011023526A CN112182210B CN 112182210 B CN112182210 B CN 112182210B CN 202011023526 A CN202011023526 A CN 202011023526A CN 112182210 B CN112182210 B CN 112182210B
Authority
CN
China
Prior art keywords
composition
discussion
scoring
square
arguments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011023526.3A
Other languages
English (en)
Other versions
CN112182210A (zh
Inventor
高震
蒋天惠
曹希燕
肖聪
阎华�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Huakong Tianxing Technology Co ltd
Original Assignee
Sichuan Huakong Tianxing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Huakong Tianxing Technology Co ltd filed Critical Sichuan Huakong Tianxing Technology Co ltd
Priority to CN202011023526.3A priority Critical patent/CN112182210B/zh
Publication of CN112182210A publication Critical patent/CN112182210A/zh
Application granted granted Critical
Publication of CN112182210B publication Critical patent/CN112182210B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种基于作文论据特征分类器的语言生成模型及写作支持方法,它包括语言模型训练步骤和用户写作步骤;所述用户写作步骤包括寻求论据支持写作步骤和/或寻求开放性写作步骤。本发明的优点在于:提高了语言生成模型的稳定性,生成的提示内容词句通顺达意,并与作者的论点相关度有大幅度提高(60%),为用户提供传统方法无法达到的强一致性论据提示模型和文章续写模型;可以为广大学生提供低成本、高效、实时且精准的写作指导。尤其是对于英语等外语写作学习,将为学生提供接近母语的写作建议、帮助学生尽快跨过初级写作门槛、让学生能依照自己观点顺利完成作文。

Description

基于作文论据特征分类器的语言生成模型及写作支持方法
技术领域
本发明涉及主题分析技术领域,尤其涉及基于作文论据特征分类器的语言生成模型及写作支持方法。
背景技术
传统机器学习和自然语言处理界的摘要模型和语言生成模型直接应用在教育领域的议论文写作的效果不理想;首先传统的写作批改建议模型在评分标准总结阶段不区分支持论据和反对论据,导致在评语建议阶段提出的论据,可能会和作者的论点相冲突。而最近几年的支持预训练的深度学习语言模型(比如GPT-2)对于议论文写作提示方面不具有足够的语境信息,不能生成高质量的跟作文题目相关的内容。即使该语言生成模型经过了微调训练而具备了一定的语境信息,但是该语言环境信息并不区分是正方观点还是反方观点,从而使生成的建议内容混杂了正方观点和反方观点,导致语言模型的生成内容不可用或者效率低下,使得GPT-2在该领域的大范围应用受到了阻碍。
申请号为201711160875.8公布的一种级联式作文生成方法的专利中存在句子间逻辑无法连贯,不能保证生成的作文能够符合主题的问题;而申请号为201811202083.7公布的一种基于主题模型的HSK作文生成方法的专利中仍然采用基于低效的关键词搜索句子的方法,无法产生新的句子,且所需样本量大,句子件逻辑性查,观点一致性差;申请号为201710322347.1公布的一种基于模板的自动生成作文的系统及实现方法的专利中则存在生成的作文范围窄,生成文本单调,词句连贯性逻辑性差的问题。
发明内容
本发明的目的在于克服现有技术的缺点,提供了一种基于作文论据特征分类器的语言生成模型及写作方法,解决了现有作文写作方法不区分支持论据和反对论据,导致在评语建议阶段提出的论据,或者语言提示的内容经常会和作者的论点相冲突的问题。
本发明的目的通过以下技术方案来实现:一种基于作文论据特征分类器的语言生成模型,它包括以下内容:
根据TextRank算法对作文库中输入的大量高分作文进行作文论据评分,输出基于论据的评分标准并对评分标准进行预分类得到支持论据集合和反对论据集合;
对所有作文的摘要进行总结并将当前作文的总结和评分标准进行对比后得到作文库中全部作文的特征向量表;
根据支持论据集合和反对论据集合与作文库的特征向量表对每一篇作文进行打分,得到正方观点作文集合和反方观点作文集合;
将正方观点作文集合和反方观点作文集合作为输入并根据评分标准分别生成正方论据模型和反方论据模型,并对各作文库进行微调训练得到GPT-2语言生成模型。
进一步地,所述根据TextRank算法对作文库中输入的大量高分作文进行作文论据评分,输出基于论据的评分标准并对评分标准进行预分类得到支持论据和反对论据集合包括:
通过TextRank算法对作文库中每一篇作为做摘要之后将高分作文的摘要集合起来,删除冗余论据,整合成一个包含支持论据和反对论据的论据集合,即评分标准,并将其输出;
采用VaderSentiment方法对每一个论据句子给出一个支持性评分,并根据评分结果得到支持论据集合和反对论据集合。
进一步地,所述对所有作文的摘要进行总结包括:
根据TextRank算法将作文文章中的句子看作图中的点,把句子之间的相似度看作图中的边;
假设两个句子所拥有的相似词越多则其相似度越高,从而计算句子相似度即计算边的权重;
通过将边的权重合成为节点权重的方法来计算句子的分数,将分数排名在预设排名前的句子设置为摘要内容;
重复上述步骤得到所有作文的摘要总结。
进一步地,所述将当前作文的总结和评分标准进行对比后得到作文库中全部作文的特征向量表包括:
通过TextRank算法将作文文章摘要的每一句话与评分标准中的每一个论据进行对比,得到相似度分数;
判断对比结果,当文章摘要中存在与评分标准中相似的论据,则在特征向量的相应位置标注1,反之则标注0,进而得到该作文文章摘要与评分标准对比结果生成的特征向量表;
重复上述步骤,得到全部作文的特征向量表。
进一步地,所述根据支持论据集合和反对论据集合与作文库的特征向量表对每一篇作文进行打分,得到正方观点作文集合和反方观点作文集合包括:
判断作文的特征向量表与支持论据集合和反对论据集合的论据对应关系,如果存在与支持论据集合中对应的论据,则得一分;如果存在与反对论据集合中对应的论据,则减一分;
将该作文的分数进行累计得到总分,将总分为正的归入正方观点作文集合,总分为负的归入反方观点作文集合;
重复上述步骤完成所有作文的归类。
进一步地,所述将正方观点作文集合和反方观点作文集合作为输入并根据评分标准分别生成正方论据模型和反方论据模型,并对模型进行微调训练得到GPT-2语言生成模型包括:
将正方观点作文集合和反方观点作文集合作为输入,并分别生成正方论据集合和反方论据集合,得到正方论据模型和反方论据模型;
通过GPT-2语言模型对正方语料和反方语料进行语言微调训练。
一种作文写作支持方法,所述写作方法包括语言模型训练步骤和用户写作步骤;所述用户写作步骤包括寻求论据支持写作步骤和/或寻求开放性写作步骤;
寻求论据支持写作步骤包括:
根据作文题目选择以正方或者反方观点写作,并寻求论据支持使用预先加载的正方或者反方GPT-2语言生成模型生成多个最相关且用户没有使用过的论据;
用户阅读生成的多个论据,并根据论据构思下一步写作计划;
用户重复请求GPT-2语言生成模型得到新的论据支持,一直到模型没有生成新的论据,则表示写作完成;或者用户认为不需要生成新的论据就能完成写作;
寻求开放性写作步骤包括:
使用预先加载的正方或者反方GPT-2语言生成模型和通用语言生成模型生成多句最相关的写作内容提示;
用户选择多句写作内容提示中的一条进行下一步写作,或者不选择当前生成内容提示,或者反复生成新的内容提示,构造最佳的写作方案;
当用户达到规定写作时间,或者对当前的文章状态已经满意,则可以提交当前作文。
进一步地,所述语言模型训练步骤包括:
根据TextRank算法对作文库中输入的大量高分作文进行作文论据评分,输出基于论据的评分标准并对评分标准进行预分类得到支持论据集合和反对论据集合;
对所有作文的摘要进行总结并将当前作文的总结和评分标准进行对比后得到作文库中全部作文的特征向量表;
根据支持论据集合和反对论据集合与作文库的特征向量表对每一篇作文进行打分,得到正方观点作文集合和反方观点作文集合;
将正方观点作文集合和反方观点作文集合作为输入并根据评分标准分别生成正方论据模型和反方论据模型,并对模型进行微调训练得到GPT-2语言生成模型。
进一步地,所述根据TextRank算法对作文库中输入的大量高分作文进行作文论据评分,输出基于论据的评分标准并对评分标准进行预分类得到支持论据和反对论据集合包括:
通过TextRank算法对作文库中每一篇作为做摘要之后将高分作文的摘要集合起来,删除冗余论据,整合成一个包含支持论据和反对论据的论据集合,即评分标准,并将其输出;
采用VaderSentiment方法对每一个论据句子给出一个支持性评分,并根据评分结果得到支持论据集合和反对论据集合。
进一步地,所述对所有作文的摘要进行总结并将当前作文的总结和评分标准进行对比后得到作文库中全部作文的特征向量表包括:
根据TextRank算法将作文文章中的句子看作图中的点,把句子之间的相似度看作图中的边;假设两个句子所拥有的相似词越多则其相似度越高,从而计算句子相似度即计算边的权重;通过将边的权重合成为节点权重的方法来计算句子的分数,将分数排名在预设排名前的句子设置为摘要内容;重复该步骤得到所有作文的摘要总结;
通过TextRank算法将作文文章摘要的每一句话与评分标准中的每一个论据进行对比,得到相似度分数;判断对比结果,当文章摘要中存在与评分标准中相似的论据,则在特征向量的相应位置标注1,反之则标注0,进而得到该作文文章摘要与评分标准对比结果生成的特征向量表;重复该步骤得到全部作文的特征向量表。
进一步地,所述根据支持论据集合和反对论据集合与作文库的特征向量表对每一篇作文进行打分,得到正方观点作文集合和反方观点作文集合包括:
判断作文的特征向量表与支持论据集合和反对论据集合的论据对应关系,如果存在与支持论据集合中对应的论据,则得一分;如果存在与反对论据集合中对应的论据,则减一分;
将该作文的分数进行累计得到总分,将总分为正的归入正方观点作文集合,总分为负的归入反方观点作文集合;
重复上述步骤完成所有作文的归类。
进一步地,所述将正方观点作文集合和反方观点作文集合作为输入并根据评分标准分别生成正方论据模型和反方论据模型,并对模型进行微调训练得到GPT-2语言生成模型包括:
将正方观点作文集合和反方观点作文集合作为输入,并分别生成正方论据集合和反方论据集合,得到正方论据模型和反方论据模型;
通过GPT-2语言模型对正方语料和反方语料进行语言微调训练。
本发明具有以下优点:一种基于作文论据特征分类的语言生成模型及作文写作方法,提高了语言生成模型的稳定性,生成的提示内容词句通顺达意,并与作者的论点相关度有大幅度提高(60%),为用户提供传统方法无法达到的强一致性论据提示模型和文章续写模型;可以为广大学生提供低成本、高效、实时且精准的写作指导。尤其是对于英语等外语写作学习,将为学生提供接近母语的写作建议、帮助学生尽快跨过初级写作门槛、让学生能依照自己观点顺利完成作文。
附图说明
图1为本发明模型训练阶段的流程示意图;
图2为本发明用户使用阶段的流程示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的保护范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。下面结合附图对本发明做进一步的描述。
如图1所示,本发明使用目前领先支持反对语言分类器对论据进行预分类,然后结合基于论据的特征向量生成正方反方作文分类器。之后用分类出来的正方和反方作文分别训练语言模型,解决了不区分支持论据和反对论据,导致在评语建议阶段提出的论据,或者语言提示的内容经常会和作者的论点相冲突,其包括以下内容:
下述内容中“D”代表数据;“M”代表数据处理模块;
语言模型训练阶段:
D1:作文库,由作文题目学生的真实作文和作文打分构成。作文库的大小需包含至少上千篇作文。
M1:使用TextRank的作文论据评分生成方法,输入大量高分作文,输出基于论据的评分标准。此算法使用文本排序算法(TextRank)对每一篇作文做摘要之后,再将高分作文的摘要集合起来,删掉冗余论据,整合成一个论据集合(即打分标准),其中包含了重要的支持论据和反对论据。
D2:输出基于论据的评分标准,直接由自然语言表示。
M2:使用目前先进的支持性语音和反对性语言分类器,来对评分标准进行预分类。具体实施采用“价值意识字典和情感推理器”(VaderSentiment)方法对每一个论据句子给出一个支持性评分。该分数为区间在-1到1之间的实数。越小代表语言越倾向于反对;越大代表语言越倾向于支持;0代表语言倾向中立。我们把获得大于零分数的论据归入偏支持论据集合,把小于零的论据归入偏反对论据集合。
D3:通过M2得到有一定可靠性的偏支持论据和偏反对论据集合。
D4:作文库D1中的单篇作文。
M3:作文总结模块。使用TextRank技术完成对作文的摘要总结。TextRank通过把文章中的句子当作图中的点,把句子之间的相似度看作图中的边,从而进行拓扑图生成。TextRank首先假设两个句子所拥有的相似的词越多,则它们相似度越高,从而计算句子相似度(边的权重)。其随后通过将边的权重合成为节点权重的方法来计算句子的分数。排名前k%(e.g.k=50)的句子即为摘要内容。
D5:作文总结,即当前作文的论据集合。
M4:使用奥托等人在2019年提出的模型将当前作文的总结和评分标准进行对比。
此方法将文章摘要的每一句话Si与打分标准中的每一个论据Rj使用TextRank进行对比,得到相似度分数。而两句话的重合度越高(相同相似的词语多),则相似度分数越高。如果当前文章含有跟Rj相似的论据,则在特征向量的相应位置标注1,反之则标注为0。奥托等人提出的方法在作文的评审阶段给出可以使用的论据建议。在这里我们仅利用此方法将与评分标准的对比结果生成特征向量,而不输出评分结果。
D6:由M4模块输出的特征向量xi
D7:对作文库中的每一篇作文重复上述过程,得到作文库全部作文的特征向量X。
M5:结合在D3中预判断的支持论据列表,反对论据列表和作文库的特征表,对每一篇作文打分。具体来说,作文ei与D3中对应的每一个偏支持论据Rj得一分,每一个偏反对性论据Rk得-1分,而分数的连加结果就是作文的支持/反对分数。我们把得分为正的作文归入正方观点作文集合,把得分为负的作文归入反方观点作文集合,对得分为零的作文不作处理。
D8:通过对作文库D1中的每一篇进行M5中的操作,得到正方观点作文集合和反方观点作文集合。
M6:该模块包括评分标准生成和评语生成两个功能。其中评分标准生成同M1。不同M1的将整个作文库作为输入,M6将区分的正反观点作文库和反方观点作文库分别作为输入,并分别生成正方论据集合和反方论据集合。在此论据集合的基础上添加评语生成模块,即把待输出的论据列表添加自然语言连接。
比如,当学生的作文是支持性论点,并有三条支持性论据,该模块输出“好样的,请继续努力!除了您写作的这三条论据,其他高分作文还写了……。请参考。”此步骤得到正/反方评语模型D9。
D9:由M6生成的正方论据(评价)模型和反方论据(评价)模型为写作练习阶段备用。
M7:用GPT-2语言模型对正方语料,反方语料和全部语料进行语言微调训练。语言模型的经典结构是一个条件概率模型,即在一个序列里已知词w1到词wn-1的基础上估计词wn,即计算P(wn|w1,w2,…wn-1)。而GPT-2创造性的使用了基于深度神经网络的特征提取器(Transformer)来进行语言模型的生成。GPT-2先使用海量通用语料库进行预训练,使模型具有初步的通用续写能力,之后提供微调训练的接口,由应用领域专家进行微调训练,使得模型具有强大的特定领域续写能力。比如通过输入小说文库微调GPT-2使其具有续写小说的能力,或使用法律文书微调GPT-2使其具有法律文件辅助协作功能,抑或使用电子邮件微调GPT-2使其具有邮件写作辅助功能。这里我们通过调用GPT-2的微调训练接口使其分别在正方文库,反方文库,和全部文库上进行训练,得到正方语言生成模型,反方语言生成模型和通用语言生成模型。在学生使用我们的在线产品进行写作练习时,这三个模型为学生提供写作支持服务。
D10:微调训练得到的GPT-2语言生成模型(正方模型,反方模型和通用模型);
如图2所示,用户写作练习阶段:
用户首先阅读由教师选择的作文题目,然后选择以正方或者反方观点写作。系统载入模型集合,进入就绪状态。比如教师选择一篇讨论计算机对人类社会是有益还是有害的作文题目,交给学生进行写作练习,学生登录系统做作业,并选择了支持计算机是有益的观点,系统加载正方评语模型、正方语言生成模型和通用语言生成模型这三个模型,并进入就绪状态。
M8:当用户寻求论据支持,使用预先加载的正方或者反方论据模型生成三个最相关的、并且用户没有使用过的论据。
比如用户已经写作了“计算机能够帮助人们记录、检索并编辑海量的图书资料”,之后想要寻求更多的论据帮助,就可以通过M8模块寻求论据支持。而M8模块可以通过比较功能,意识到用户已经写作了当前这一条论据,之后随机选择三条用户还没有使用的论据对用户进行提示,比如“计算机通过对大气运行的仿真模拟,帮助人们预防气象灾害”,“计算机的工业辅助设计功能,帮助人们设计更漂亮的汽车、手机等工业品”,“计算机提供给人们一个可以接触影视、音乐和游戏等文化产品的终端,让人们的生活更加丰富多彩。”
用户阅读生成的三条论据,构思下一步的写作计划。我们给出用户三条论据支持而不是只给出一条论据的原因是为用户提供更多选择,而不一次性提供更多条论据的原因是不希望提供太多需要分心阅读的内容。用户重复请求M8可以随机得到新的论据支持。如果系统只剩下一到三条论据,则每次的重复请求的结果维持不变。如果系统没有任何剩余论据,则系统提示“好样的!你已经写作了所有我知道的论据,请继续努力。”
M9:当用户寻求开放性写作支持,使用预先加载的正方或者反方GPT-2语言生成模型和通用语言生成模型生成三句最相关的写作内容提示。其中,系统调用两次正方或者反方GPT-2语言生成模型生成两句不同的续写句子,调用一次通用语言生成模型生成一句普通续写句子。如果生成的三个句子有相同的,则删除冗余句子,只保留独特的句子;
而如果三条句子都一样,则输出这唯一一个句子供用户参考。用户阅读生成的三条续写句,选择其中的一条进行下一步的写作,用户也可以不选择当前生成内容,或者反复生成新的续写句子,构造最佳的写作方案。
当用户到达规定写作时间,或者对当前的文章状态已经满意,就可以提交当前作文。
本发明的工作原理是:首先假设一篇持支持性观点的文章会含有更多的支持性论据,而不是反对性论据,反之亦然。本文提出使用传统的支持观点与反对观点分类器对对评分标准进行预分类,然后结合聚类和回归的方法对作文的支持分数进行打分。之后我们分别对一组高分的支持性作文和一组高分的反对性论文进行作文评语模型训练和对GPT-2语言模型进行微调训练。在作文评语阶段或者续写阶段,本方法首先判断作文是支持性作文还是反对性作文,之后动态的选择一个支持模型或者选择反对模型为该作文提出关于论据的写作建议或者开放性的语言续写。本工作的创新关键在于提出使用有针对性的作文题库训练支持性模型和反对型模型,从而达到准确的区分支持性作文和反对性作文的目的。
以上所述仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (7)

1.一种基于作文论据特征分类器的语言生成模型的训练方法,其特征在于:所述训练方法包括以下内容:
根据TextRank算法对作文库中输入的大量高分作文进行作文论据评分,输出基于论据的评分标准并对评分标准进行预分类得到支持论据集合和反对论据集合;
对所有作文的摘要进行总结并将当前作文的总结和评分标准进行对比后得到作文库中全部作文的特征向量表;
根据支持论据集合和反对论据集合与作文库的特征向量表对每一篇作文进行打分,得到正方观点作文集合和反方观点作文集合;
将正方观点作文集合和反方观点作文集合作为输入并根据评分标准分别生成正方论据模型和反方论据模型,并对模型进行微调训练得到GPT-2语言生成模型;
所述对所有作文的摘要进行总结,包括:
根据TextRank算法将作文文章中的句子看作图中的点,把句子之间的相似度看作图中的边;
假设两个句子所拥有的相似词越多则其相似度越高,从而计算句子相似度即计算边的权重;
通过将边的权重合成为节点权重的方法来计算句子的分数,将分数排名在预设排名前的句子设置为摘要内容;
重复上述步骤得到所有作文的摘要总结;
所述将当前作文的总结和评分标准进行对比后得到作文库中全部作文的特征向量表包括:
通过TextRank算法将作文文章摘要的每一句话与评分标准中的每一个论据进行对比,得到相似度分数;
判断对比结果,当文章摘要中存在与评分标准中相似的论据,则在特征向量的相应位置标注1,反之则标注0,进而得到该作文文章摘要与评分标准对比结果生成的特征向量表;
重复上述步骤,得到全部作文的特征向量表。
2.根据权利要求1所述的一种基于作文论据特征分类器的语言生成模型的训练方法,其特征在于:所述根据TextRank算法对作文库中输入的大量高分作文进行作文论据评分,输出基于论据的评分标准并对评分标准进行预分类得到支持论据和反对论据集合,包括:
通过TextRank算法对作文库中每一篇作文做摘要之后将高分作文的摘要集合起来,删除冗余论据,整合成一个包含支持论据和反对论据的论据集合,即评分标准,并将其输出;
采用VaderSentiment方法对每一个论据句子给出一个支持性评分,并根据评分结果得到支持论据集合和反对论据集合。
3.根据权利要求1所述的一种基于作文论据特征分类器的语言生成模型的训练方法,其特征在于:所述根据支持论据集合和反对论据集合与作文库的特征向量表对每一篇作文进行打分,得到正方观点作文集合和反方观点作文集合,包括:
判断作文的特征向量表与支持论据集合和反对论据集合的论据对应关系,如果存在与支持论据集合中对应的论据,则得一分;如果存在与反对论据集合中对应的论据,则减一分;
将该作文的分数进行累计得到总分,将总分为正的归入正方观点作文集合,总分为负的归入反方观点作文集合;
重复上述步骤完成所有作文的归类。
4.根据权利要求3所述的一种基于作文论据特征分类器的语言生成模型的训练方法,其特征在于:所述将正方观点作文集合和反方观点作文集合作为输入并根据评分标准分别生成正方论据模型和反方论据模型,并对模型进行微调训练得到GPT-2语言生成模型包括:
将正方观点作文集合和反方观点作文集合作为输入,并分别生成正方论据集合和反方论据集合,得到正方论据模型和反方论据模型;
通过GPT-2语言生成模型对正方语料和反方语料进行语言微调训练。
5.一种作文写作支持方法,其特征在于:所述写作支持方法包括语言生成模型训练步骤和用户写作步骤;所述用户写作步骤包括寻求论据支持写作步骤和/或寻求开放性写作步骤;
寻求论据支持写作步骤包括:
根据作文题目选择以正方或者反方观点写作,并寻求论据支持使用预先加载的正方或者反方GPT-2语言生成模型生成多个最相关且用户没有使用过的论据;
用户阅读生成的多个论据,并根据论据构思下一步写作计划;
用户重复请求GPT-2语言生成模型得到新的论据支持,一直到模型没有生成新的论据,则表示写作完成;或者用户认为不需要生成新的论据就能完成写作;
寻求开放性写作步骤包括:
使用预先加载的正方或者反方GPT-2语言生成模型和通用语言生成模型生成多句最相关的写作内容提示;
用户选择多句写作内容提示中的一条进行下一步写作,或者不选择当前生成内容提示,或者反复生成新的内容提示,构造最佳的写作方案;
当用户达到规定写作时间,或者对当前的文章状态已经满意,则可以提交当前作文;
所述语言生成模型训练步骤包括:
根据TextRank算法对作文库中输入的大量高分作文进行作文论据评分,输出基于论据的评分标准并对评分标准进行预分类得到支持论据集合和反对论据集合;
对所有作文的摘要进行总结并将当前作文的总结和评分标准进行对比后得到作文库中全部作文的特征向量表;
根据支持论据集合和反对论据集合与作文库的特征向量表对每一篇作文进行打分,得到正方观点作文集合和反方观点作文集合;
将正方观点作文集合和反方观点作文集合作为输入并根据评分标准分别生成正方论据模型和反方论据模型,并对模型进行微调训练得到GPT-2语言生成模型;
所述对所有作文的摘要进行总结并将当前作文的总结和评分标准进行对比后得到作文库中全部作文的特征向量表包括:
根据TextRank算法将作文文章中的句子看作图中的点,把句子之间的相似度看作图中的边;假设两个句子所拥有的相似词越多则其相似度越高,从而计算句子相似度即计算边的权重;通过将边的权重合成为节点权重的方法来计算句子的分数,将分数排名在预设排名前的句子设置为摘要内容;重复该步骤得到所有作文的摘要总结;
通过TextRank算法将作文文章摘要的每一句话与评分标准中的每一个论据进行对比,得到相似度分数;判断对比结果,当文章摘要中存在与评分标准中相似的论据,则在特征向量的相应位置标注1,反之则标注0,进而得到该作文文章摘要与评分标准对比结果生成的特征向量表;重复该步骤得到全部作文的特征向量表。
6.根据权利要求5所述的一种作文写作支持方法,其特征在于:所述根据TextRank算法对作文库中输入的大量高分作文进行作文论据评分,输出基于论据的评分标准并对评分标准进行预分类得到支持论据和反对论据集合包括:
通过TextRank算法对作文库中每一篇作文做摘要之后将高分作文的摘要集合起来,删除冗余论据,整合成一个包含支持论据和反对论据的论据集合,即评分标准,并将其输出;
采用VaderSentiment方法对每一个论据句子给出一个支持性评分,并根据评分结果得到支持论据集合和反对论据集合。
7.根据权利要求5所述的一种作文写作支持方法,其特征在于:所述根据支持论据集合和反对论据集合与作文库的特征向量表对每一篇作文进行打分,得到正方观点作文集合和反方观点作文集合包括:
判断作文的特征向量表与支持论据集合和反对论据集合的论据对应关系,如果存在与支持论据集合中对应的论据,则得一分;如果存在与反对论据集合中对应的论据,则减一分;
将该作文的分数进行累计得到总分,将总分为正的归入正方观点作文集合,总分为负的归入反方观点作文集合;
重复上述步骤完成所有作文的归类;
所述将正方观点作文集合和反方观点作文集合作为输入并根据评分标准分别生成正方论据模型和反方论据模型,并对模型进行微调训练得到GPT-2语言生成模型包括:
将正方观点作文集合和反方观点作文集合作为输入,并分别生成正方论据集合和反方论据集合,得到正方论据模型和反方论据模型;
通过GPT-2语言生成模型对正方语料和反方语料进行语言微调训练。
CN202011023526.3A 2020-09-25 2020-09-25 基于作文论据特征分类器的语言生成模型及写作支持方法 Active CN112182210B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011023526.3A CN112182210B (zh) 2020-09-25 2020-09-25 基于作文论据特征分类器的语言生成模型及写作支持方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011023526.3A CN112182210B (zh) 2020-09-25 2020-09-25 基于作文论据特征分类器的语言生成模型及写作支持方法

Publications (2)

Publication Number Publication Date
CN112182210A CN112182210A (zh) 2021-01-05
CN112182210B true CN112182210B (zh) 2023-11-24

Family

ID=73945224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011023526.3A Active CN112182210B (zh) 2020-09-25 2020-09-25 基于作文论据特征分类器的语言生成模型及写作支持方法

Country Status (1)

Country Link
CN (1) CN112182210B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115146624A (zh) * 2021-03-30 2022-10-04 京东科技控股股份有限公司 用于生成数据的方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108153723A (zh) * 2017-12-27 2018-06-12 北京百度网讯科技有限公司 热点资讯评论文章生成方法、装置及终端设备
CN109376347A (zh) * 2018-10-16 2019-02-22 北京信息科技大学 一种基于主题模型的hsk作文生成方法
CN109933791A (zh) * 2019-03-06 2019-06-25 科大讯飞股份有限公司 素材推荐方法、装置、计算机设备及计算机可读存储介质
CN110287489A (zh) * 2019-06-24 2019-09-27 北京大米科技有限公司 文本生成方法、装置、存储介质和电子设备
CN111177365A (zh) * 2019-12-20 2020-05-19 山东科技大学 一种基于图模型的无监督自动文摘提取方法
CN111460833A (zh) * 2020-04-01 2020-07-28 合肥讯飞数码科技有限公司 文本生成方法、装置和设备
CN111538828A (zh) * 2020-04-21 2020-08-14 招商局金融科技有限公司 文本情感分析方法、装置、计算机装置及可读存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007076137A2 (en) * 2005-12-27 2007-07-05 Late Night Writer, Llc System and method for creating a writing
US10552543B2 (en) * 2017-05-10 2020-02-04 International Business Machines Corporation Conversational authoring of event processing applications

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108153723A (zh) * 2017-12-27 2018-06-12 北京百度网讯科技有限公司 热点资讯评论文章生成方法、装置及终端设备
CN109376347A (zh) * 2018-10-16 2019-02-22 北京信息科技大学 一种基于主题模型的hsk作文生成方法
CN109933791A (zh) * 2019-03-06 2019-06-25 科大讯飞股份有限公司 素材推荐方法、装置、计算机设备及计算机可读存储介质
CN110287489A (zh) * 2019-06-24 2019-09-27 北京大米科技有限公司 文本生成方法、装置、存储介质和电子设备
CN111177365A (zh) * 2019-12-20 2020-05-19 山东科技大学 一种基于图模型的无监督自动文摘提取方法
CN111460833A (zh) * 2020-04-01 2020-07-28 合肥讯飞数码科技有限公司 文本生成方法、装置和设备
CN111538828A (zh) * 2020-04-21 2020-08-14 招商局金融科技有限公司 文本情感分析方法、装置、计算机装置及可读存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Multi-draft composing: An iterative model for academic argument writing;Grant Eckstein 等;《Journal of English for Academic Purposes》;162-172 *
一种基于海量数据的信息云系统及其关键技术研究;屠要峰 等;《电信科学》;41-47 *
英汉双语学习词典原型释义模式的构建;李大国;《中国博士学位论文全文数据库哲学与人文科学辑》;F085-2 *

Also Published As

Publication number Publication date
CN112182210A (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
Sharma Language transfer and discourse universals in Indian English article use
Garner A phrase-frame approach to investigating phraseology in learner writing across proficiency levels
CN107291694B (zh) 一种自动评阅作文的方法和装置、存储介质及终端
Flor Four types of context for automatic spelling correction
CN111242816A (zh) 基于人工智能的多媒体教案制作方法和系统
Lamontagne et al. Textual reuse for email response
Xiong et al. HANSpeller: a unified framework for Chinese spelling correction
Kim et al. Overview of the eighth dialog system technology challenge: DSTC8
CN111897918A (zh) 一种在线教学课堂笔记生成方法
CN112182210B (zh) 基于作文论据特征分类器的语言生成模型及写作支持方法
de Vargas et al. Automated Generation of Storytelling Vocabulary from Photographs for use in AAC
JP3787310B2 (ja) キーワード決定方法、装置、プログラム、および記録媒体
Sorell A study of issues and techniques for creating core vocabulary lists for English as an international language
CN111326030A (zh) 一种集读听写识字学习系统、装置及方法
Tayyebi The vocabulary learning strategy use of Iranian elementary EFL learners
Conrad Using corpus linguistics to improve the teaching of grammar
Gavela The grammar and lexis of conversational informal English in advanced textbooks
Noiyoo et al. A Comparison of Machine Learning and Neural Network Algorithms for An Automated Thai Essay Quality Checking
CN101989387A (zh) 基于学员中介语管理的外语句型借词训练系统及方法
McGarrell et al. How General Is the Vocabulary in a General English Language Textbook?.
Oh Use of Signaling Nouns in Published and Korean Student Academic Writing in Applied Linguistics.
Kim Uses of make in Korean EFL learner writing: A corpus-based study
Wijayanti et al. Types of Lexical Cohesion in Song Lyrics of The Greatest Showman Movie Soundtrack Album
Mulatsih et al. Textual Meaning of the Lecturers’ Utterances and Gestures Used in Teaching Reading and Writing: A Systemic Functional Multimodal Discourse Analysis (SFMDA)
Barker et al. ChatGPT as a text simplification tool to remove bias

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant