CN116089603A - 篇章结构评分模型的训练方法、评分方法和相关设备 - Google Patents

篇章结构评分模型的训练方法、评分方法和相关设备 Download PDF

Info

Publication number
CN116089603A
CN116089603A CN202111308362.3A CN202111308362A CN116089603A CN 116089603 A CN116089603 A CN 116089603A CN 202111308362 A CN202111308362 A CN 202111308362A CN 116089603 A CN116089603 A CN 116089603A
Authority
CN
China
Prior art keywords
chapter
sentence
model
training
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111308362.3A
Other languages
English (en)
Inventor
刘旺旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Shiyuan Electronics Thecnology Co Ltd
Guangzhou Shiyuan Artificial Intelligence Innovation Research Institute Co Ltd
Original Assignee
Guangzhou Shiyuan Electronics Thecnology Co Ltd
Guangzhou Shiyuan Artificial Intelligence Innovation Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Shiyuan Electronics Thecnology Co Ltd, Guangzhou Shiyuan Artificial Intelligence Innovation Research Institute Co Ltd filed Critical Guangzhou Shiyuan Electronics Thecnology Co Ltd
Priority to CN202111308362.3A priority Critical patent/CN116089603A/zh
Publication of CN116089603A publication Critical patent/CN116089603A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本申请提供了一种篇章结构评分模型的训练方法、评分方法和相关设备,在进行模型训练时,系统获取人工标注的训练语料,该训练语料包括多个篇章文本,各个篇章文本对应标注有实际结构评分。然后,基于修辞结构理论解析训练语料,得到各个篇章文本分别对应的文章修辞结构。系统将各个篇章文本、各个篇章文本各自对应的实际结构评分和文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为篇章结构评分模型。训练完成后的篇章结构评分模型在对待评分文章进行结构评分时,能够综合考虑到文章的篇章组织结构关系,从而使得模型输出的结构评分的准确性和客观性更高。

Description

篇章结构评分模型的训练方法、评分方法和相关设备
技术领域
本申请涉及文本处理技术领域,特别涉及一种篇章结构评分模型的训练方法、评分方法和相关设备。
背景技术
在作文自动批改系统中,篇章结构评分是很重要的一部分内容。现有的评分方法一般先构建特征,例如段落个数,连接词占比,从句个数,单词个数等,然后使用这些特征拟合已标注好的篇章结构得分。对于新的作文,评分模型会自动给出篇章结构得分。但是这些特征比较简单,与篇章组织结构关系不大,评分结果往往与篇幅,分段个数更相关,而没有真正考虑到篇章的组织结构,从而导致最终得到的篇章结构得分的准确性、关联性较低。
发明内容
本公开目的在于:提供了一种篇章结构评分模型的训练方法、评分方法和相关设备,其在对文章进行结构评分时,能够综合考虑到文章的篇章组织结构关系,评分效果更为客观、准确。
为达上述目的,本申请采用以下技术方案:一种篇章结构评分模型的训练方法,包括:
获取训练语料,所述训练语料包括多个篇章文本,各所述篇章文本对应标注有实际结构评分;
基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构;
将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型。
本申请还提供了一种篇章结构的评分方法,包括:
获取待评分文章;
将所述待评分文章输入篇章结构评分模型进行解析,得到所述待评分文章的结构评分,其中,所述篇章结构评分模型为上述的篇章结构评分模型的训练方法训练得到的评分模型。
本申请还提供了一种篇章结构评分模型的训练装置,包括:
第一获取模块,用于获取训练语料,所述训练语料包括多个篇章文本,各所述篇章文本对应标注有实际结构评分;
解析模块,用于基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构;
训练模块,用于将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型。
本申请还提供了一种篇章结构的评分装置,包括:
第二获取模块,用于获取待评分文章;
评分模块,用于将所述待评分文章输入篇章结构评分模型进行解析,得到所述待评分文章的结构评分,其中,所述篇章结构评分模型为上述的篇章结构评分模型的训练方法训练得到的评分模型。
本申请还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
本申请中提供的一种篇章结构评分模型的训练方法、评分方法和相关设备,在进行模型训练时,系统获取人工标注的训练语料,该训练语料包括多个篇章文本,各个篇章文本对应标注有实际结构评分。然后,基于修辞结构理论解析训练语料,得到各个篇章文本分别对应的文章修辞结构。系统将各个篇章文本、各个篇章文本各自对应的实际结构评分和文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为篇章结构评分模型。本申请模型训练时利用了篇章文本的结构信息(即文章修辞结构),该结构信息显示了篇章文本中各个句子之间的语篇关系,从而使得训练完成后的篇章结构评分模型在对待评分文章进行结构评分时,能够综合考虑到文章的篇章组织结构关系,从而使得模型输出的结构评分的准确性和客观性更高,评分效果远胜于现有技术。
附图说明
图1是本申请一实施例中篇章结构评分模型的训练方法的步骤示意图;
图2是本申请一实施例中篇章结构的评分方法的步骤示意图;
图3是本申请一实施例中篇章结构的评分方法的文章修辞结构图;
图4是本申请一实施例中篇章结构评分模型的结构图;
图5是本申请一实施例中句子表征向量的获取流程图;
图6是本申请一实施例中篇章结构评分模型的训练装置的整体结构框图;
图7是本申请一实施例中篇章结构的评分装置的整体结构框图
图8是本申请一实施例的计算机设备的结构示意框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
参照图1,本申请一实施例中提供了一种篇章结构评分模型的训练方法,其中,包括:
S1:获取训练语料,所述训练语料包括多个篇章文本,各所述篇章文本对应标注有实际结构评分;
S2:基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构;
S3:将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型。
本实施例中,训练系统获取开发人员录入的训练语料,训练语料包括多个篇章文本(可以简单理解为文章,不限语种),各个篇章文本对应人工标注有实际结构评分。训练系统通过修辞结构理论(比如使用论文Top-Down RST Parsing Utilizing GranularityLevels in Documents提出的修辞结构解析器)对训练语料中的每个篇章文本进行解析,从而得到各个篇章文本分别对应的文章修辞结构。以单个篇章文本为例进行说明,训练系统首先将篇章文本分割成若干个基础语篇单元,然后根据相邻两个基础语篇单元之间的语篇关系,以及相邻两个基础语篇单元与其余基础语篇单元(或者说其余基础语篇单元的组合)之间的语篇关系,构建得到篇章文本的文章修辞结构,该文章修辞机构为二叉树结构,基础语篇单元位于二叉树结构的叶子节点。训练系统将各个篇章文本、各个篇章文本各自对应的实际结构评分和文章修辞结构作为训练样本输入神经网络模型进行模型训练,迭代循环,直至模型的损失函数最小化(或者说损失函数不再下降),则保存在验证集上识别效果最高(即识别率最高)的一个模型作为最终训练所得的篇章结构评分模型。以单个篇章文本的损失函数的计算过程为例,首先对篇章文本进行分句,然后通过神经网络模型对各个句子进行特征提取,得到各个句子分别对应的句子表征向量。再根据文章修辞结构中,各个句子之间的篇章组织关系,将各个句子对应的句子表征向量进行组合,得到根节点表征向量(根节点表征向量即为整个篇章文本的表征向量)和若干个非叶子节点表征向量。训练系统通过分类器对根节点表征向量和各个非叶子节点表征向量进行语篇关系分类,得到各节点分别对应的分类器输出概率;并将根节点表征向量输入全连接层(即评分器)进行评分计算,得到预测结构评分。最后,根据各个分类器输出概率、篇章文本的预测结构评分以及实际结构评分,计算得到对应的损失函数。
本实施例中,模型训练时利用了篇章文本的结构信息(即文章修辞结构),该结构信息显示了篇章文本中各个句子之间的语篇关系,从而使得训练完成后的篇章结构评分模型在对待评分文章进行结构评分时,能够综合考虑到文章的篇章组织结构关系,从而使得模型输出的结构评分的准确性和客观性更高,评分效果远胜于现有技术。
进一步的,所述基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构的步骤中,单个所述篇章文本的解析步骤为:
S201:将所述篇章文本分割成若干个基础语篇单元;
S202:根据相邻两个所述基础语篇单元之间的语篇关系,以及相邻两个所述基础语篇单元与其余所述基础语篇单元之间的语篇关系,构建所述篇章文本的文章修辞结构,所述文章修辞结构为二叉树结构,所述二叉树结构的叶子节点为所述基础语篇单元。
本实施例中,训练系统基于修辞结构理论对训练语料中的各个篇章文本进行解析,从而得到各个篇章文本各自对应的文章修辞结构;其中,各个篇章文本的解析逻辑相同,下面以单个篇章文本的解析步骤为例进行详细说明。训练系统首先将篇章文本分割成若干个基础语篇单元,然后根据相邻两个基础语篇单元之间的语篇关系,以及相邻两个基础语篇单元与其余基础语篇单元之间的语篇关系,构建得到该篇章文本的文章修辞结构。本实施例以一个句子为一个基础语篇单元,假定篇章文本分句后为:(1、my father is atypical man,who is not very talkative.2、when other fathers say how much theylove their children,my father just keep quiet.3、he barely says sweet words tome.4、but he will never miss every important moment for me,like theperformance in school.5、he is always one of the audience and watch myperformance.6、my father tells me to study with passion and he sets the goodexample for me,because he loves his work.7、sometimes he shows me his designof work,and i admire him.8、i know my father loves me so much.9、though he doesnot talk much,he will be right by my side whenever i need him.),单个句子即为单个基础语篇单元;基于修辞结构理论解析后得到的文章修辞结构则如图3所示,文章修辞结构为二叉树结构,二叉树结构的叶子节点为基础语篇单元(即图3中的数字1、2、3等)。二叉树结构的左边节点内容为篇章文本的核心内容,右边节点内容为该核心内容的背景信息。
进一步的,所述将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型的步骤中,单个所述篇章文本对应的损失函数的计算步骤为:
S301:获取各所述基础语篇单元各自对应的句子表征向量;
S302:根据所述文章修辞结构和各所述句子表征向量,解析得到所述文章修辞结构的根节点表征向量和若干个非叶子节点表征向量;
S303:对所述根节点表征向量和各所述非叶子节点表征向量进行语篇关系分类,得到各节点分别对应的分类器输出概率;并对所述根节点表征向量进行评分计算,得到预测结构评分;
S304:根据所述分类器输出概率、所述预测结构评分和所述实际结构评分,计算得到所述损失函数。
本实施例中,训练样本所包含的各个篇章文本、各篇章文本各自对应的实际结构评分和文章修辞结构作为训练样本进行模型训练时,每个损失函数的计算逻辑相同。下面以单个篇章文本对应的损失函数的计算逻辑为例进行说明:首先对篇章文本进行分句,由于本实施中单个句子为单个基础语篇单元,由此篇章文本分句后得到若干个基础语篇单元。然后,通过神经网络模型对各个基础语篇单元(即各个句子)进行特征提取,从而得到各个基础语篇单元各自对应的句子表征向量。再结合各个基础语篇单元在文章修辞结构中的节点分布,对各个句子表征向量进行组合,解析得到文章修辞结构的根节点表征向量和若干个非叶子节点表征向量。如图4所示,e1表征篇章文本的句子1的句子表征向量,e2表征篇章文本的句子2的句子表征向量,依次类推,各个句子表征向量为二叉树结构的叶子节点;span则为非叶子节点向量,由下级节点的两个句子表征向量组合得到,或者由下级节点的一个句子表征向量和一个span节点表征向量组合得到,或者有下级节点的两个span节点表征向量组合得到;text embed即为二叉树结构的根节点表征向量,由图4可知根节点表征向量表征整个篇章文本的表征向量。训练系统对根节点表征向量和非叶子节点表征向量进行语篇关系分类(根节点、各非叶子节点均连接有分类器,图4为了图示清晰,只画出一个分类器作为例子进行说明),得到各个节点(包含根节点和各个非叶子节点)分别对应的分类器输出概率;并将根节点表征向量输入全连接层(即评分器)进行评分计算,从而得到篇章文本对应的预测结构评分。其中,分类器输出概率的第一计算公式为:Pspan=sofmax(span),其中,Pspan表征非叶子节点表征向量的分类器输出概率;同理,根节点表征向量的分类器输出概率的计算公式为:Ptext embed=sofmax(text embed),Ptext embed即为根节点表征向量的分类器输出概率;而篇章文本对应的预测结构评分的第二计算公式为:
Figure BDA0003341050040000071
Figure BDA0003341050040000072
即为篇章文本对应的预测结构评分,wscore和bscore为待训练参数。最后,根据各个分类器输出概率、预测结构评分和实际结构评分按照第三计算式进行计算,得到对应的损失函数。其中,第三计算公式为:
Figure BDA0003341050040000073
其中,lval为损失函数;d是指训练样本中的第d个篇章文本;N为训练集中的篇章文本的个数;M是每个篇章文本中非叶子结点个数(包括根结点);yd是第d个篇章文本的实际结构评分,l为非叶子结点(包括根结点)的语篇关系类别索引,通过训练好的修辞结构解析器得到,第i个非叶子结点的语篇关系类别为li,Pi表示第i个非叶子结点上的分类器输出概率,
Figure BDA0003341050040000075
是实际语篇关系对应的概率,λ是超参数,作为评分器误差的权重。
进一步的,所述获取各所述基础语篇单元各自对应的句子表征向量的步骤,包括:
S3011:将各所述基础语篇单元输入bert模型,得到各所述基础语篇单元分别对应的所述句子表征向量。
本实施例中,训练系统通过bert模型获取篇章文本中各个基础语篇单元(即各个句子)对应的句子表征向量。具体地,首先对输入的篇章文本进行分句,假定第i个句子为sentence i={x1,x2,...,xn},x1...xn表示sentence i中的单词。然后,通过神经网络模型获取句子表征向量ei,如图5中以BERT为例,输入层除了词向量,还需要加上位置向量,以及句子标识向量[CLS]和[SEP],将[CLS]位置的输出作为句子表征向量;篇章中其他句子的表征向量也通过相同的方式获得。以函数表征为:句子为:
Figure BDA0003341050040000074
句子表征向量为:ei=Bert(Si)。
进一步的,根据所述文章修辞结构和各所述句子表征向量,解析得到所述文章修辞结构的根节点表征向量和若干个非叶子节点表征向量的步骤,包括:
S3021:按照各所述句子表征向量在所述文章修辞结构中的节点层级,从低到高依次将处于同一级节点的两个句子表征向量进行组合,得到所述非叶子节点表征向量;
S3022:将倒数第二节点层级的两个非叶子节点表征向量进行组合,得到所述根节点表征向量。
本实施例中,篇章文本的文章修辞结构为二叉树结构,各个基础语篇单元的句子表征向量处于二叉树结构的叶子节点。如图4所示,训练系统按照各个句子表征向量在文章修辞结构中的节点层级,从低到高依次将处于同一节点的两个句子表征向量进行组合,从而得到非叶子节点表征向量(即在一次次组合后,得到各个非叶子节点表征向量,即图4中的span)。然后,将倒数第二节点层级的两个非叶子节点表征向量进行组合,从而得到根节点表征向量(即图4中的text embed)。具体地,各个节点(非叶子节点和根节点)的表征向量的计算逻辑为:
Figure BDA0003341050040000081
Span=gleft⊙eleft+gright⊙eright,其中,
Figure BDA0003341050040000082
均为待训练的参数,eleft表征二叉树左边的句子表征向量,同理,eright表征二叉树右边的句子表征向量;δ是sigmoid函数,等号左边是输出值,输出值在0—1之间;
Figure BDA0003341050040000083
Figure BDA0003341050040000084
用两个sigmoid的函数的结果(0-1)之间,来分别控制用多少左边的信息和右边的信息;Span=gleft⊙eleft+gright⊙eright表征对于二叉树结构的左边和右边的表征向量组合得到父节(或者上一层级节点)的表征向量。
参照图2,本申请一实施例还提供了一种篇章结构的评分方法,其中,包括:
A1:获取待评分文章;
A2:将所述待评分文章输入篇章结构评分模型进行解析,得到所述待评分文章的结构评分,其中,所述篇章结构评分模型为上述任一所述的篇章结构评分模型的训练方法训练得到的评分模型。
优选的,所述将所述待评分文章输入篇章结构评分模型进行解析,得到所述待评分文章的结构评分的步骤,包括:
A201:通过修辞结构理论解析得到所述待评分文章的待评分文章修辞结构,并获取所述待评分文章中各个句子分别对应的待评分句子表征向量;
A202:根据所述待评分文章修辞结构和各所述待评分句子表征向量,组合得到所待评分文章对应的文本表征向量;
A203:将所述文本表征向量输入全连接层进行计算,得到所述结构评分。
本实施例中,操作人员将待评分文章输入评分系统内,评分系统将接收的待评分文章输入上述训练方法训练得到的篇章结构评分模型中进行解析,在进行相应的处理后,篇章结构评分模型输出该待评分文正的结构评分。具体地,篇章结构评分模型(下面简称评分模型)首先通过修辞结构理论对待评分文章进行解析,对待评分文章进行基础语篇单元分割(本实施例以单个句子为单个基础语篇单元),然后根据相邻两个基础篇单元之间的语篇关系,以及相邻两个基础语篇单元与其余基础语篇单元之间的语篇关系,构建待评分文章的待评分文章修辞结构,该文章修辞结构为二叉树结构(可参照图3);并且,通过神经网络模型提取待评分文章中各个句子分别对应的待评分句子表征向量。评分模型根据上述二叉树结构的待评分文章修辞结构和各个待评分句子表征向量,从下往上进行组合,最终得到待评分文章对应的文本表征向量。评分模型将文本表征向量输入全连接层(即评分器)进行计算,从而得到待评分文本的结构评分。
参照图6,本申请提供了一种篇章结构评分模型的训练装置,其中,包括:
第一获取模块1,用于获取训练语料,所述训练语料包括多个篇章文本,各所述篇章文本对应标注有实际结构评分;
解析模块2,用于基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构;
训练模块3,用于将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型。
进一步的,所述解析模块2,包括:
分割单元,用于将所述篇章文本分割成若干个基础语篇单元;
构建单元,用于根据相邻两个所述基础语篇单元之间的语篇关系,以及相邻两个所述基础语篇单元与其余所述基础语篇单元之间的语篇关系,构建所述篇章文本的文章修辞结构,所述文章修辞结构为二叉树结构,所述二叉树结构的叶子节点为所述基础语篇单元。
进一步的,所述训练模块3,包括:
获取单元,用于获取各所述基础语篇单元各自对应的句子表征向量;
第一解析单元,用于根据所述文章修辞结构和各所述句子表征向量,解析得到所述文章修辞结构的根节点表征向量和若干个非叶子节点表征向量;
第一计算单元,用于对所述根节点表征向量和各所述非叶子节点表征向量进行语篇关系分类,得到各节点分别对应的分类器输出概率;并对所述根节点表征向量进行评分计算,得到预测结构评分;
第二计算单元,用于根据所述分类器输出概率、所述预测结构评分和所述实际结构评分,计算得到所述损失函数。
进一步的,所述获取单元,包括:
输入子单元,用于将各所述基础语篇单元输入bert模型,得到各所述基础语篇单元分别对应的所述句子表征向量。
进一步的,所述解析单元,包括:
第一组合子单元,用于按照各所述句子表征向量在所述文章修辞结构中的节点层级,从低到高依次将处于同一级节点的两个句子表征向量进行组合,得到所述非叶子节点表征向量;
第二组合子单元,用于将倒数第二节点层级的两个非叶子节点表征向量进行组合,得到所述根节点表征向量。
本实施例中,篇章结构评分模型的训练装置中各模块、单元、子单元用于对应执行与上述篇章结构评分模型的训练方法中的各个步骤,其具体实施过程在此不做详述。
参照图7,本申请还提供了一种篇章结构的评分装置,包括:
第二获取模块4,用于获取待评分文章;
评分模块5,用于将所述待评分文章输入篇章结构评分模型进行解析,得到所述待评分文章的结构评分,其中,所述篇章结构评分模型为上述的篇章结构评分模型的训练方法训练得到的评分模型。
进一步的,所述评分模块5,包括:
第二解析单元,用于通过修辞结构理论解析得到所述待评分文章的待评分文章修辞结构,并获取所述待评分文章中各个句子分别对应的待评分句子表征向量;
组合单元,用于根据所述待评分文章修辞结构和各所述待评分句子表征向量,组合得到所待评分文章对应的文本表征向量;
第三计算单元,用于将所述文本表征向量输入全连接层进行计算,得到所述结构评分。
本实施例中,篇章结构的评分装置中各模块、单元用于对应执行与上述篇章结构的评分方法中的各个步骤,其具体实施过程在此不做详述。
本实施例提供的一种篇章结构评分模型的训练装置、篇章结构的评分装置,在进行模型训练时,系统获取人工标注的训练语料,该训练语料包括多个篇章文本,各个篇章文本对应标注有实际结构评分。然后,基于修辞结构理论解析训练语料,得到各个篇章文本分别对应的文章修辞结构。系统将各个篇章文本、各个篇章文本各自对应的实际结构评分和文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为篇章结构评分模型。本申请模型训练时利用了篇章文本的结构信息(即文章修辞结构),该结构信息显示了篇章文本中各个句子之间的语篇关系,从而使得训练完成后的篇章结构评分模型在对待评分文章进行结构评分时,能够综合考虑到文章的篇章组织结构关系,从而使得模型输出的结构评分的准确性和客观性更高,评分效果远胜于现有技术。
参照图8,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储训练语料等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种篇章结构评分模型的训练方法和一种篇章结构的评分方法。
上述处理器执行上述篇章结构评分模型的训练方法的步骤:
S1:获取训练语料,所述训练语料包括多个篇章文本,各所述篇章文本对应标注有实际结构评分;
S2:基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构;
S3:将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型。
进一步的,所述基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构的步骤中,单个所述篇章文本的解析步骤为:
S201:将所述篇章文本分割成若干个基础语篇单元;
S202:根据相邻两个所述基础语篇单元之间的语篇关系,以及相邻两个所述基础语篇单元与其余所述基础语篇单元之间的语篇关系,构建所述篇章文本的文章修辞结构,所述文章修辞结构为二叉树结构,所述二叉树结构的叶子节点为所述基础语篇单元。
进一步的,所述将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型的步骤中,单个所述篇章文本对应的损失函数的计算步骤为:
S301:获取各所述基础语篇单元各自对应的句子表征向量;
S302:根据所述文章修辞结构和各所述句子表征向量,解析得到所述文章修辞结构的根节点表征向量和若干个非叶子节点表征向量;
S303:对所述根节点表征向量和各所述非叶子节点表征向量进行语篇关系分类,得到各节点分别对应的分类器输出概率;并对所述根节点表征向量进行评分计算,得到预测结构评分;
S304:根据所述分类器输出概率、所述预测结构评分和所述实际结构评分,计算得到所述损失函数。
进一步的,所述获取各所述基础语篇单元各自对应的句子表征向量的步骤,包括:
S3011:将各所述基础语篇单元输入bert模型,得到各所述基础语篇单元分别对应的所述句子表征向量。
进一步的,根据所述文章修辞结构和各所述句子表征向量,解析得到所述文章修辞结构的根节点表征向量和若干个非叶子节点表征向量的步骤,包括:
S3021:按照各所述句子表征向量在所述文章修辞结构中的节点层级,从低到高依次将处于同一级节点的两个句子表征向量进行组合,得到所述非叶子节点表征向量;
S3022:将倒数第二节点层级的两个非叶子节点表征向量进行组合,得到所述根节点表征向量。
上述处理器执行上述篇章结构的评分方法的步骤:
A1:获取待评分文章;
A2:将所述待评分文章输入篇章结构评分模型进行解析,得到所述待评分文章的结构评分,其中,所述篇章结构评分模型为上述任一所述的篇章结构评分模型的训练方法训练得到的评分模型。
优选的,所述将所述待评分文章输入篇章结构评分模型进行解析,得到所述待评分文章的结构评分的步骤,包括:
A201:通过修辞结构理论解析得到所述待评分文章的待评分文章修辞结构,并获取所述待评分文章中各个句子分别对应的待评分句子表征向量;
A202:根据所述待评分文章修辞结构和各所述待评分句子表征向量,组合得到所待评分文章对应的文本表征向量;
A203:将所述文本表征向量输入全连接层进行计算,得到所述结构评分。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现一种篇章结构评分模型的训练方法和一种篇章结构的评分方法,所述篇章结构评分模型的训练方法具体为:
S1:获取训练语料,所述训练语料包括多个篇章文本,各所述篇章文本对应标注有实际结构评分;
S2:基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构;
S3:将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型。
进一步的,所述基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构的步骤中,单个所述篇章文本的解析步骤为:
S201:将所述篇章文本分割成若干个基础语篇单元;
S202:根据相邻两个所述基础语篇单元之间的语篇关系,以及相邻两个所述基础语篇单元与其余所述基础语篇单元之间的语篇关系,构建所述篇章文本的文章修辞结构,所述文章修辞结构为二叉树结构,所述二叉树结构的叶子节点为所述基础语篇单元。
进一步的,所述将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型的步骤中,单个所述篇章文本对应的损失函数的计算步骤为:
S301:获取各所述基础语篇单元各自对应的句子表征向量;
S302:根据所述文章修辞结构和各所述句子表征向量,解析得到所述文章修辞结构的根节点表征向量和若干个非叶子节点表征向量;
S303:对所述根节点表征向量和各所述非叶子节点表征向量进行语篇关系分类,得到各节点分别对应的分类器输出概率;并对所述根节点表征向量进行评分计算,得到预测结构评分;
S304:根据所述分类器输出概率、所述预测结构评分和所述实际结构评分,计算得到所述损失函数。
进一步的,所述获取各所述基础语篇单元各自对应的句子表征向量的步骤,包括:
S3011:将各所述基础语篇单元输入bert模型,得到各所述基础语篇单元分别对应的所述句子表征向量。
进一步的,根据所述文章修辞结构和各所述句子表征向量,解析得到所述文章修辞结构的根节点表征向量和若干个非叶子节点表征向量的步骤,包括:
S3021:按照各所述句子表征向量在所述文章修辞结构中的节点层级,从低到高依次将处于同一级节点的两个句子表征向量进行组合,得到所述非叶子节点表征向量;
S3022:将倒数第二节点层级的两个非叶子节点表征向量进行组合,得到所述根节点表征向量。
所述篇章结构的评分方法具体为:
A1:获取待评分文章;
A2:将所述待评分文章输入篇章结构评分模型进行解析,得到所述待评分文章的结构评分,其中,所述篇章结构评分模型为上述任一所述的篇章结构评分模型的训练方法训练得到的评分模型。
优选的,所述将所述待评分文章输入篇章结构评分模型进行解析,得到所述待评分文章的结构评分的步骤,包括:
A201:通过修辞结构理论解析得到所述待评分文章的待评分文章修辞结构,并获取所述待评分文章中各个句子分别对应的待评分句子表征向量;
A202:根据所述待评分文章修辞结构和各所述待评分句子表征向量,组合得到所待评分文章对应的文本表征向量;
A203:将所述文本表征向量输入全连接层进行计算,得到所述结构评分。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储与一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM通过多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其它变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、第一物体或者方法不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、装置、第一物体或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、第一物体或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (10)

1.一种篇章结构评分模型的训练方法,其中,包括:
获取训练语料,所述训练语料包括多个篇章文本,各所述篇章文本对应标注有实际结构评分;
基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构;
将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型。
2.根据权利要求1所述的篇章结构评分模型的训练方法,其中,所述基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构的步骤中,单个所述篇章文本的解析步骤为:
将所述篇章文本分割成若干个基础语篇单元;
根据相邻两个所述基础语篇单元之间的语篇关系,以及相邻两个所述基础语篇单元与其余所述基础语篇单元之间的语篇关系,构建所述篇章文本的文章修辞结构,所述文章修辞结构为二叉树结构,所述二叉树结构的叶子节点为所述基础语篇单元。
3.根据权利要求2所述的篇章结构评分模型的训练方法,其中,所述将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型的步骤中,单个所述篇章文本对应的损失函数的计算步骤为:
获取各所述基础语篇单元各自对应的句子表征向量;
根据所述文章修辞结构和各所述句子表征向量,解析得到所述文章修辞结构的根节点表征向量和若干个非叶子节点表征向量;
对所述根节点表征向量和各所述非叶子节点表征向量进行语篇关系分类,得到各节点分别对应的分类器输出概率;并对所述根节点表征向量进行评分计算,得到预测结构评分;
根据所述分类器输出概率、所述预测结构评分和所述实际结构评分,计算得到所述损失函数。
4.根据权利要求3所述的篇章结构评分模型的训练方法,其中,所述获取各所述基础语篇单元各自对应的句子表征向量的步骤,包括:
将各所述基础语篇单元输入bert模型,得到各所述基础语篇单元分别对应的所述句子表征向量。
5.根据权利要求3所述的篇章结构评分模型的训练方法,其中,根据所述文章修辞结构和各所述句子表征向量,解析得到所述文章修辞结构的根节点表征向量和若干个非叶子节点表征向量的步骤,包括:
按照各所述句子表征向量在所述文章修辞结构中的节点层级,从低到高依次将处于同一级节点的两个句子表征向量进行组合,得到所述非叶子节点表征向量;
将倒数第二节点层级的两个非叶子节点表征向量进行组合,得到所述根节点表征向量。
6.一种篇章结构的评分方法,其中,包括:
获取待评分文章;
将所述待评分文章输入篇章结构评分模型进行解析,得到所述待评分文章的结构评分,其中,所述篇章结构评分模型为权利要求1—5中任一的篇章结构评分模型的训练方法训练得到的评分模型。
7.根据权利要求6所述的篇章结构的评分方法,其中,所述将所述待评分文章输入篇章结构评分模型进行解析,得到所述待评分文章的结构评分的步骤,包括:
通过修辞结构理论解析得到所述待评分文章的待评分文章修辞结构,并获取所述待评分文章中各个句子分别对应的待评分句子表征向量;
根据所述待评分文章修辞结构和各所述待评分句子表征向量,组合得到所待评分文章对应的文本表征向量;
将所述文本表征向量输入全连接层进行计算,得到所述结构评分。
8.一种篇章结构评分模型的训练装置,其中,包括:
第一获取模块,用于获取训练语料,所述训练语料包括多个篇章文本,各所述篇章文本对应标注有实际结构评分;
解析模块,用于基于修辞结构理论解析所述训练语料,得到各所述篇章文本分别对应的文章修辞结构;
训练模块,用于将各所述篇章文本、各所述篇章文本各自对应的所述实际结构评分和所述文章修辞结构作为训练样本输入神经网络模型进行模型训练,直至损失函数最小化,保存识别率最高的一个模型作为所述篇章结构评分模型。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,其中,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现权利要求1至7任一项所述的方法的步骤。
CN202111308362.3A 2021-11-05 2021-11-05 篇章结构评分模型的训练方法、评分方法和相关设备 Pending CN116089603A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111308362.3A CN116089603A (zh) 2021-11-05 2021-11-05 篇章结构评分模型的训练方法、评分方法和相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111308362.3A CN116089603A (zh) 2021-11-05 2021-11-05 篇章结构评分模型的训练方法、评分方法和相关设备

Publications (1)

Publication Number Publication Date
CN116089603A true CN116089603A (zh) 2023-05-09

Family

ID=86206863

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111308362.3A Pending CN116089603A (zh) 2021-11-05 2021-11-05 篇章结构评分模型的训练方法、评分方法和相关设备

Country Status (1)

Country Link
CN (1) CN116089603A (zh)

Similar Documents

Publication Publication Date Title
CN110021439B (zh) 基于机器学习的医疗数据分类方法、装置和计算机设备
WO2021042503A1 (zh) 信息分类抽取方法、装置、计算机设备和存储介质
CN109992664B (zh) 争议焦点的标注分类方法、装置、计算机设备和存储介质
WO2018028077A1 (zh) 一种基于深度学习的中文语义分析的方法及装置
US9224155B2 (en) Systems and methods for managing publication of online advertisements
KR20190085098A (ko) 키워드 추출 방법, 컴퓨터 장치, 및 저장 매체
CN112052684A (zh) 电力计量的命名实体识别方法、装置、设备和存储介质
CN115599901B (zh) 基于语义提示的机器问答方法、装置、设备及存储介质
Singh et al. A decision tree based word sense disambiguation system in Manipuri language
CN111695591A (zh) 基于ai的面试语料分类方法、装置、计算机设备和介质
CN112200153B (zh) 基于历史匹配结果的人岗匹配方法、装置及设备
CN112185361B (zh) 一种语音识别模型训练方法、装置、电子设备及存储介质
CN115309910B (zh) 语篇要素和要素关系联合抽取方法、知识图谱构建方法
CN112084769B (zh) 依存句法模型优化方法、装置、设备及可读存储介质
CN113051887A (zh) 一种公告信息元素抽取方法、系统及装置
CN111832281A (zh) 作文评分方法、装置、计算机设备及计算机可读存储介质
CN111159405B (zh) 基于背景知识的讽刺检测方法
JP5441937B2 (ja) 言語モデル学習装置、言語モデル学習方法、言語解析装置、及びプログラム
CN112380848A (zh) 文本生成方法、装置、设备及存储介质
CN115455189A (zh) 基于提示学习的政策文本分类方法
Wosiak Automated extraction of information from Polish resume documents in the IT recruitment process
CN113302683A (zh) 多音字预测方法及消歧方法、装置、设备及计算机可读存储介质
CN112380346A (zh) 金融新闻情感分析方法、装置、计算机设备及存储介质
CN111680132A (zh) 一种用于互联网文本信息的噪声过滤和自动分类方法
CN115934948A (zh) 一种基于知识增强的药物实体关系联合抽取方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination