CN112183065A - 文本评估方法、装置、计算机可读存储介质及终端设备 - Google Patents

文本评估方法、装置、计算机可读存储介质及终端设备 Download PDF

Info

Publication number
CN112183065A
CN112183065A CN202010975459.9A CN202010975459A CN112183065A CN 112183065 A CN112183065 A CN 112183065A CN 202010975459 A CN202010975459 A CN 202010975459A CN 112183065 A CN112183065 A CN 112183065A
Authority
CN
China
Prior art keywords
text
target text
evaluation
result
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010975459.9A
Other languages
English (en)
Inventor
杨亿飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Siyuan Zhitong Technology Co ltd
Original Assignee
Beijing Siyuan Zhitong Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Siyuan Zhitong Technology Co ltd filed Critical Beijing Siyuan Zhitong Technology Co ltd
Priority to CN202010975459.9A priority Critical patent/CN112183065A/zh
Publication of CN112183065A publication Critical patent/CN112183065A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/151Transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本申请属于文本处理技术领域,尤其涉及一种文本评估方法、装置、计算机可读存储介质及终端设备。所述方法包括:获取待评估的目标文本;使用已训练好的文本评估模型对所述目标文本进行处理,得到所述目标文本的评分结果;其中,所述文本评估模型为基于从预设的若干个评估维度标注的文本数据,在掩码语言模型上进行微调得到的模型。通过本申请,在训练完的掩码语言模型上进一步对从多个维度标注后的文本数据做微调,从多个维度来对作文进行评估,为老师批改作文和学生的写作练习提供有效的辅助,可以提升老师的批改效率,改善学生的写作练习效果。

Description

文本评估方法、装置、计算机可读存储介质及终端设备
技术领域
本申请属于文本处理技术领域,尤其涉及一种文本评估方法、装置、计算机可读存储介质及终端设备。
背景技术
批改大量学生的作文通常会耗费老师大量的时间,为了减轻老师批改作文的负担,有必要为其提供有效的作文评估参考。学生平时写作练习的时候,往往也缺乏有效的作文评估手段,缺乏针对性的改善建议,因此练习的效果往往差强人意。
发明内容
有鉴于此,本申请实施例提供了一种文本评估方法、装置、计算机可读存储介质及终端设备,以解决现有技术中老师批改作文负担过重,以及学生缺乏有效的作文评估手段的问题。
本申请实施例的第一方面提供了一种文本评估方法,可以包括:
获取待评估的目标文本;
使用已训练好的文本评估模型对所述目标文本进行处理,得到所述目标文本的评分结果;其中,所述文本评估模型为基于从预设的若干个评估维度标注的文本数据,在掩码语言模型上进行微调得到的模型。
在第一方面的一种可能的实现方式中,所述使用已训练好的文本评估模型对所述目标文本进行处理,得到所述目标文本的评分结果,包括:
计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布;
对于每个评估维度,将概率分布中概率最大的评分等级作为所述目标文本在该评估维度的评分结果。
在第一方面的一种可能的实现方式中,所述计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布,包括:
获取所述目标文本的编码信息;
按预设算法对所述编码信息进行转换处理,得到所述目标文本的转换处理结果;
根据所述转换处理结果,计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布。
在第一方面的一种可能的实现方式中,所述根据所述转换处理结果,计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布,包括:
对所述转换处理结果的第一维度取均值,得到所述转换处理结果的均值向量;
对所述均值向量进行线性变换,得到所述均值向量的线性变换结果;
对所述线性变换结果分别在不同的评估维度做softmax变换,得到所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布。
在第一方面的一种可能的实现方式中,所述获取所述目标文本的编码信息,包括:
获取词嵌入矩阵和所述目标文本中每个词在词典中的索引,所述词嵌入矩阵是与所述词典中的词相对应的矩阵;
根据所述词嵌入矩阵和所述目标文本中每个词在所述词典中的索引,确定所述目标文本的嵌入编码;
获取所述目标文本的位置编码,所述位置编码根据所述目标文本中每个词的相对位置信息确定;
根据所述嵌入编码与所述位置编码,确定所述目标文本的编码信息。
在第一方面的一种可能的实现方式中,所述按预设算法对所述编码信息进行转换处理,得到所述目标文本的转换处理结果,包括:
基于注意力机制对所述编码信息进行转换处理,得到初始转换结果;
将所述编码信息与所述初始转换处理结果作残差连接处理,得到残差连接结果;
通过全连接层对所述残差连接结果进行全连接处理,得到所述目标文本的转换处理结果。
在第一方面的一种可能的实现方式中,所述若干个评估维度包括:语法合理性、词藻丰富程度、拼写正确性以及逻辑连贯性。
本申请实施例的第二方面提供了一种文本评估装置,可以包括:
文本获取单元,用于获取待评估的目标文本;
文本评估单元,用于使用已训练好的文本评估模型对所述目标文本进行处理,得到所述目标文本的评分结果;其中,所述文本评估模型为基于从预设的若干个评估维度标注的文本数据,在掩码语言模型上进行微调得到的模型。
本申请实施例的第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种文本评估方法的步骤。
本申请实施例的第四方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任一种文本评估方法的步骤。
本申请实施例的第五方面提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述任一种文本评估方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:本申请实施例采用掩码的方式,并辅以参数分解以及参数共享等技术手段,基于大量的文本数据训练得到的语言模型可以较好的学习文本中每个词带上下文信息的语义表示。在训练完的掩码语言模型上进一步对从多个维度标注后的文本数据做微调,从多个维度来对作文进行评估,为老师批改作文和学生的写作练习提供有效的辅助,可以提升老师的批改效率,改善学生的写作练习效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例中一种文本评估方法的一个实施例流程图;
图2为文本评估模型对目标文本的处理过程的示意流程图;
图3为计算目标文本分别在若干个评估维度的不同评分等级上的概率分布的示意流程图;
图4为本申请实施例中一种文本评估装置的一个实施例结构图;
图5为本申请实施例中一种终端设备的示意框图。
具体实施方式
为使得本申请的发明目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本申请一部分实施例,而非全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参阅图1,本申请实施例中一种文本评估方法的一个实施例可以包括:
步骤S101、获取待评估的目标文本。
所述目标文本可以由用户根据实际情况进行指定,例如,当老师批改作文时,可以将待批改的作文指定为所述目标文本;当学生进行写作练习时,可以将自己的习作指定为所述目标文本。
步骤S102、使用已训练好的文本评估模型对所述目标文本进行处理,得到所述目标文本的评分结果。
其中,所述文本评估模型为基于从预设的若干个评估维度标注的文本数据,在掩码语言模型上进行微调得到的模型。
所述文本评估模型主要由三部分组成,包括输入层、转换处理层以及输出层。具体地,所述文本评估模型用于根据输入的目标文本,输出对应的评分结果。
作为本申请一种可能的实施方式,图2示出了本申请实施例提供的文本评估方法中文本评估模型对所述目标文本的处理的具体实现流程,详述如下步骤S201至S202:
步骤S201、计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布。
作为本申请一种可能的实施方式,图3示出了本申请实施例提供的文本评估方法步骤S201的具体实现流程,详述如下:
A1:获取所述目标文本的编码信息。
上述编码信息是通过文本评估模型的输入层对目标文本中句子进行编码得到的。在本申请实施例中,具体通过词嵌入编码和位置编码对句子进行编码,得到上述目标文本中句子的编码信息。
在本申请实施例中,句子的编码信息包括嵌入编码和位置编码。
作为本申请一种可能的实施方式,上述步骤A1具体包括:
A11:获取词嵌入矩阵和所述目标文本中每个词在词典中的索引。
所述词嵌入矩阵是与所述词典中的词相对应的矩阵。在本申请实施例中,基于训练语料库中的文本信息进行分词,得到词典Vocabulary,其中,Vocabulary={w1,w2,…,wv},w1,w2,…,wv分别为词典中的各个词,v为词典Vocabulary中词的数量,利用高斯分布随机初始化一个词嵌入矩阵Mv
Figure BDA0002685612570000061
m为词向量的维度。词嵌入矩阵Mv中的一行对应着词典Vocabulary中相应位置词的初始词向量,且词嵌入矩阵Mv随着文本评估模型的不断训练而不断更新。
对于所述目标文本中由n个词组成的句子S(w1,w2,…,wn),n为句子S中的词的数量,通过查找词典Vocabulary,可以得到句子S中的每个词在词典Vocabulary中的索引。
A12:根据所述词嵌入矩阵和所述目标文本中每个词在所述词典中的索引,确定所述目标文本的嵌入编码。
具体地,基于上述句子中每个词在所述词典中的索引与词嵌入矩阵,可以得到句子S中每个词的词向量,将句子S中所有词的词向量进行拼接形成一个二维矩阵,该二维矩阵即表示所述句子的嵌入编码Semb
Figure BDA0002685612570000062
A13:获取所述目标文本的位置编码。
所述位置编码根据所述目标文本中每个词的相对位置信息确定。在本申请实施例中,嵌入编码中并不包含每个词的位置信息,通过引入位置编码,可有效标识词在句子中的位置。具体地,使用高斯分布随机初始化位置编码Spos
Figure BDA0002685612570000071
位置编码Spos随着文本评估模型的不断训练而不断更新。
A14:根据所述嵌入编码与所述位置编码,确定所述目标文本的编码信息。
在本申请实施例中,句子的编码信息由嵌入编码Semb和位置编码Spos确定。在训练文本评估模型的时候,一般的做法是维持词向量的维度m与后一层的隐层(Hidden State)的大小相等,然而词向量学习到的是关于词的上下文无关的语义表示,隐层往往学习到的是关于词的上下文相关的语义表示。词的上下文信息对于文本评估是非常重要的信息,为了使得隐层具有更强的表示能力,学得更丰富的上下文信息,隐层的大小往往比较大。由于词嵌入矩阵中词向量的大小与隐层大小相等,词嵌入矩阵中的参数量因此会非常大,导致整个模型的参数量巨大。
在本申请实施例中,由于词嵌入矩阵Mv是一个参数量很大的矩阵,
Figure BDA0002685612570000072
m的值一般会很大,通过引入一个中间转换矩阵Mh,对词嵌入矩阵Mv进行分解,将词向量的维度与隐层的大小解耦,使得文本评估模型可以以较小的参数维持一个较小的词嵌入矩阵和一个较大的隐层。
在一些实施方式中,对词嵌入矩阵Mv的分解具体如下所示:
Mv=Mf×Mh (1)
具体地,将Mv分解为Mf和Mh,Mf为分解后的词嵌入矩阵,Mh为中间转换矩阵,原始词嵌入矩阵Mv的参数量为v×m,分解后的参数量为v×s+s×m,m>>s,s为分解后的词嵌入矩阵中的词向量的维度大小,Mf和Mh两个矩阵的参数随着文本评估模型的训练而学习得到。
作为本申请一种可能的实施方式,在对目标文本中句子进行嵌入编码阶段,通过查询句子S中每个词在Mf中的索引得到S的嵌入编码Semb,将S的嵌入编码Semb与位置编码相加后再与中间矩阵Mh相乘,得到句子S最终的编码信息X,即:
Figure BDA0002685612570000081
对矩阵X做层归一化处理,X在第t个词对应位置的均值μt为:
Figure BDA0002685612570000082
标准差σt为:
Figure BDA0002685612570000083
X在第t个词对应位置的归一化后的值为:
Figure BDA0002685612570000084
其中,g和b为模型参数,在模型训练的时候通过学习而得到,
Figure BDA0002685612570000085
Figure BDA0002685612570000086
∈为常数,为了避免除0的情况,通常给分母加上一个非常小的值∈,∈的值一般取1×10-7
A2:按预设算法对所述编码信息进行转换处理,得到所述目标文本的转换处理结果。
在本申请实施例中,通过上述文本评估模型的转换处理层对上述编码信息进行转换处理,得到目标文本的转换处理结果。
作为本申请一种可能的实施方式,上述步骤A2具体包括:
A21:基于注意力机制对所述编码信息进行转换处理,得到初始转换结果。
注意力机制(attention mechanism)的作用是在对某个词做处理的时候,能够将句子中其他词的信息结合起来综合考虑,可以有效地将其上下文信息包含进来。
在本申请实施例中,在上述文本评估模型的训练开始之前,模型参数是随机初始化的值,文本评估模型的训练开始时,用随机值初始化模型参数,模型参数随着模型的训练而不断迭代更新,训练完成后得到的模型参数将使文本评估模型具有很好的表示能力。
获取给定的文本评估模型的第一模型参数,上述第一模型参数包括Wq,Wk,Wy
Figure BDA0002685612570000091
其中,q、k、y均为标识。
在一些实施方式中,设有c个注意力头,且满足r×c=m,r为上述第一模型参数Wq、Wk、Wv模型参数矩阵的第二维度的尺寸。对于第i个注意力头,将层归一化后的句子S的编码信息X分别与上述三个模型参数矩阵相乘可得如下结果:
Q=X·Wq,K=X·Wk,Y=X·Wy (6)
其中,
Figure BDA0002685612570000092
上述Q、K、Y为计算中间变量。
进一步做如下转化:
Figure BDA0002685612570000093
Figure BDA0002685612570000094
其中,
Figure BDA0002685612570000095
A为计算中间变量,k、j为下标,
Figure BDA0002685612570000096
Zi为第i个注意力头的计算中间量,将c个注意力头的计算结果{Z1,Z2,…,Zc}沿模型参数矩阵第二维度进行矩阵拼接,可得初始转换处理结果Z:
Figure BDA0002685612570000097
A22:将所述编码信息与所述初始转换处理结果作残差连接处理,得到残差连接结果。
具体地,根据如下公式将Z与X做残差连接:
Figure BDA0002685612570000098
再次对Xres做层归一化,具体计算过程与上述的层归一化一样,可得残差连接的结果:
Xnorm=layernorm(Xres) (11)
Figure BDA0002685612570000099
这里使用layernorm来表示层归一化过程。
A23:通过全连接层对所述残差连接结果进行全连接处理,得到所述目标文本的转换处理结果。
具体地,在Xnorm后面增加两个全连接层。获取给定的第二模型参数,第二模型参数包括模型参数Wf1,Wf2,其中
Figure BDA0002685612570000101
d1表示矩阵Wf1第二维度的大小,对Xnorm具体做如下变换,得到所述目标文本中句子的转换处理结果:
F=relu(Xnorm·Wf1) (12)
H1=F·Wf2 (13)
其中,relu(x)=max(x,0),
Figure BDA0002685612570000102
H1表示第1层的Transformer Block转换层的输出。
在本申请实施例中,整个文本评估模型共有g层的Transformer Block。示例性地,g可以为12,即文本评估模型共有12层Transformer Block。每一层的计算逻辑都一样,且层与层之间共享模型参数。将每一个Transformer Block层的输出Ho作为下一个TransformerBlock层的输入,o为层数索引。最后一层Transformer Block层的输出即为Hg,即为目标文本中句子的转换处理结果,
Figure BDA0002685612570000103
在本申请实施例中,通过编码层的参数分解以及转换层的参数共享,可大幅减少模型参数。
在训练模型的时候,为了更好的利用每个词的上下文信息,可以使用掩码语言模型来学习每个词的语义表示,即以一定的比例,将原始的句子S={w1,w2,w3,w4,w5,w6}中的词用掩码[MASK]替换掉,替换后S={w1,w2,M,w4,M,w6},其中M即为掩码[MASK]。让模型来预测这些被遮掩掉的词,这样模型将从[MASK]的左右两边来预测遮掩掉的词,使得模型能学习到每个词的带有上下文信息的语义表示。
由于在预测的时候,真实的句子S中并不会出现[MASK]这样的词,因此会造成模型在训练和预测的场景不一致问题。为了解决这种训练和预测不一致的情况,在训练模型的时候,对于选中的要遮掩掉的词,可以取其中的80%用[MASK]替换掉,取其中的10%保持不变,取其中的10%用其他的词替换掉。这样在训练模型的时候,模型就不知道哪些词是用[MASK]给遮掩掉的,哪些词是用其他的词替换掉的,哪些词是保持不变的,模型就会为每个词都学习到其上下文相关的语义表示。
在训练完掩码语言模型后,可以在其基础上做微调(fine-tuning),来学习文本中不同评估维度的得分。本申请实施例可以从语法合理性、词藻丰富程度、拼写正确性以及逻辑连贯性等四个维度来对文本评分。
A3:根据所述转换处理结果,计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布。
在本申请实施例中,通过上述文本评估模型的输出层进行概率分布的计算,并输出最终的评分结果。
作为本申请一种可能的实施方式,上述步骤A3具体包括:
A31:对所述转换处理结果的第一维度取均值,得到所述转换处理结果的均值向量。
基于训练好的掩码语言模型,通过计算可以得到最后一个Transformer Block的输出Hg
Figure BDA0002685612570000111
对Hg的第一个维度取均值,得到所述转换处理结果的均值向量Hmean,即:
Figure BDA0002685612570000112
A32:对所述均值向量进行线性变换,得到所述均值向量的线性变换结果。
具体地,可以根据下式计算得到线性变换结果O:
O=Hmean·Wo (15)
其中,
Figure BDA0002685612570000113
Wo为模型参数矩阵,通过学习得到,c为最终输出的维度,本申请实施例中从语法合理性、词藻丰富程度、拼写正确性以及逻辑连贯性等四个维度来做评估,每个维度又分为高、中、低三个等级,因此c=4×3=12。A33:对所述线性变换结果分别在不同的评估维度做softmax变换,得到所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布。
具体的softmax变换过程如下所示:
p1=softmax(O[1:3])
p2=softmax(O[4:6])
p3=softmax(O[7:9])
p4=softmax(O[10:12]) (16)
其中,
Figure BDA0002685612570000121
表示语法合理性的评分概率分布,
Figure BDA0002685612570000122
表示词藻丰富程度的评分概率分布,
Figure BDA0002685612570000123
表示拼写正确性的评分概率分布,
Figure BDA0002685612570000124
表示逻辑连贯性的评分概率分布。
步骤S202、对于每个评估维度,将概率分布中概率最大的评分等级作为所述目标文本在该评估维度的评分结果。
具体的计算过程如下所示:
Figure BDA0002685612570000125
Figure BDA0002685612570000126
Figure BDA0002685612570000127
Figure BDA0002685612570000128
最终即可得到所述目标文本在每一个评估维度的评分等级。
综上所述,本申请实施例采用掩码的方式,并辅以参数分解以及参数共享等技术手段,基于大量的文本数据训练得到的语言模型可以较好的学习文本中每个词带上下文信息的语义表示。在训练完的掩码语言模型上进一步对从多个维度标注后的文本数据做微调,从多个维度来对作文进行评估,为老师批改作文和学生的写作练习提供有效的辅助,可以提升老师的批改效率,改善学生的写作练习效果。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的一种文本评估方法,图4示出了本申请实施例提供的一种文本评估装置的一个实施例结构图。
本实施例中,一种文本评估装置可以包括:
文本获取单元401,用于获取待评估的目标文本;
文本评估单元402,用于使用已训练好的文本评估模型对所述目标文本进行处理,得到所述目标文本的评分结果;其中,所述文本评估模型为基于从预设的若干个评估维度标注的文本数据,在掩码语言模型上进行微调得到的模型。
作为本申请一种可能的实施方式,所述文本评估单元可以包括:
概率分布计算子单元,用于计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布;
评分结果确定子单元,用于对于每个评估维度,将概率分布中概率最大的评分等级作为所述目标文本在该评估维度的评分结果。
作为本申请一种可能的实施方式,所述概率分布计算子单元可以包括:
编码信息获取模块,用于获取所述目标文本的编码信息;
转换处理模块,用于按预设算法对所述编码信息进行转换处理,得到所述目标文本的转换处理结果;
概率分布计算模块,用于根据所述转换处理结果,计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布。
作为本申请一种可能的实施方式,所述概率分布计算模块可以包括:
均值向量计算子模块,用于对所述转换处理结果的第一维度取均值,得到所述转换处理结果的均值向量;
线性变换子模块,用于对所述均值向量进行线性变换,得到所述均值向量的线性变换结果;
概率分布计算子模块,用于对所述线性变换结果分别在不同的评估维度做softmax变换,得到所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布。
作为本申请一种可能的实施方式,所述概率分布计算模块可以包括:
索引获取子模块,用于获取词嵌入矩阵和所述目标文本中每个词在词典中的索引,所述词嵌入矩阵是与所述词典中的词相对应的矩阵;
嵌入编码确定子模块,用于根据所述词嵌入矩阵和所述目标文本中每个词在所述词典中的索引,确定所述目标文本的嵌入编码;
位置编码获取子模块,用于获取所述目标文本的位置编码,所述位置编码根据所述目标文本中每个词的相对位置信息确定;
编码信息确定子模块,用于根据所述嵌入编码与所述位置编码,确定所述目标文本的编码信息。
作为本申请一种可能的实施方式,所述转换处理模块可以包括:
初始转换子模块,用于基于注意力机制对所述编码信息进行转换处理,得到初始转换结果;
残差连接子模块,用于将所述编码信息与所述初始转换处理结果作残差连接处理,得到残差连接结果;
全连接子模块,用于通过全连接层对所述残差连接结果进行全连接处理,得到所述目标文本的转换处理结果。
作为本申请一种可能的实施方式,所述若干个评估维度包括:语法合理性、词藻丰富程度、拼写正确性以及逻辑连贯性。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置,模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
图5示出了本申请实施例提供的一种终端设备的示意框图,为了便于说明,仅示出了与本申请实施例相关的部分。
如图5所示,该实施例的终端设备5包括:处理器50、存储器51以及存储在所述存储器51中并可在所述处理器50上运行的计算机程序52。所述处理器50执行所述计算机程序52时实现上述各个文本评估方法实施例中的步骤,例如图1所示的步骤S101至步骤S102。或者,所述处理器50执行所述计算机程序52时实现上述各装置实施例中各模块/单元的功能,例如图4所示模块401至模块402的功能。
示例性的,所述计算机程序52可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器51中,并由所述处理器50执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序52在所述终端设备5中的执行过程。
所述终端设备5可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。本领域技术人员可以理解,图5仅仅是终端设备5的示例,并不构成对终端设备5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备5还可以包括输入输出设备、网络接入设备、总线等。
所述处理器50可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器51可以是所述终端设备5的内部存储单元,例如终端设备5的硬盘或内存。所述存储器51也可以是所述终端设备5的外部存储设备,例如所述终端设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器51还可以既包括所述终端设备5的内部存储单元也包括外部存储设备。所述存储器51用于存储所述计算机程序以及所述终端设备5所需的其它程序和数据。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读存储介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种文本评估方法,其特征在于,包括:
获取待评估的目标文本;
使用已训练好的文本评估模型对所述目标文本进行处理,得到所述目标文本的评分结果;其中,所述文本评估模型为基于从预设的若干个评估维度标注的文本数据,在掩码语言模型上进行微调得到的模型。
2.根据权利要求1所述的文本评估方法,其特征在于,所述使用已训练好的文本评估模型对所述目标文本进行处理,得到所述目标文本的评分结果,包括:
计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布;
对于每个评估维度,将概率分布中概率最大的评分等级作为所述目标文本在该评估维度的评分结果。
3.根据权利要求2所述的文本评估方法,其特征在于,所述计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布,包括:
获取所述目标文本的编码信息;
按预设算法对所述编码信息进行转换处理,得到所述目标文本的转换处理结果;
根据所述转换处理结果,计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布。
4.根据权利要求3所述的文本评估方法,其特征在于,所述根据所述转换处理结果,计算所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布,包括:
对所述转换处理结果的第一维度取均值,得到所述转换处理结果的均值向量;
对所述均值向量进行线性变换,得到所述均值向量的线性变换结果;
对所述线性变换结果分别在不同的评估维度做softmax变换,得到所述目标文本分别在所述若干个评估维度的不同评分等级上的概率分布。
5.根据权利要求3所述的文本评估方法,其特征在于,所述获取所述目标文本的编码信息,包括:
获取词嵌入矩阵和所述目标文本中每个词在词典中的索引,所述词嵌入矩阵是与所述词典中的词相对应的矩阵;
根据所述词嵌入矩阵和所述目标文本中每个词在所述词典中的索引,确定所述目标文本的嵌入编码;
获取所述目标文本的位置编码,所述位置编码根据所述目标文本中每个词的相对位置信息确定;
根据所述嵌入编码与所述位置编码,确定所述目标文本的编码信息。
6.根据权利要求3所述的文本评估方法,其特征在于,所述按预设算法对所述编码信息进行转换处理,得到所述目标文本的转换处理结果,包括:
基于注意力机制对所述编码信息进行转换处理,得到初始转换结果;
将所述编码信息与所述初始转换处理结果作残差连接处理,得到残差连接结果;
通过全连接层对所述残差连接结果进行全连接处理,得到所述目标文本的转换处理结果。
7.根据权利要求1至6中任一项所述的文本评估方法,其特征在于,所述若干个评估维度包括:语法合理性、词藻丰富程度、拼写正确性以及逻辑连贯性。
8.一种文本评估装置,其特征在于,包括:
文本获取单元,用于获取待评估的目标文本;
文本评估单元,用于使用已训练好的文本评估模型对所述目标文本进行处理,得到所述目标文本的评分结果;其中,所述文本评估模型为基于从预设的若干个评估维度标注的文本数据,在掩码语言模型上进行微调得到的模型。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的文本评估方法的步骤。
10.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的文本评估方法的步骤。
CN202010975459.9A 2020-09-16 2020-09-16 文本评估方法、装置、计算机可读存储介质及终端设备 Pending CN112183065A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010975459.9A CN112183065A (zh) 2020-09-16 2020-09-16 文本评估方法、装置、计算机可读存储介质及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010975459.9A CN112183065A (zh) 2020-09-16 2020-09-16 文本评估方法、装置、计算机可读存储介质及终端设备

Publications (1)

Publication Number Publication Date
CN112183065A true CN112183065A (zh) 2021-01-05

Family

ID=73921491

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010975459.9A Pending CN112183065A (zh) 2020-09-16 2020-09-16 文本评估方法、装置、计算机可读存储介质及终端设备

Country Status (1)

Country Link
CN (1) CN112183065A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966509A (zh) * 2021-04-16 2021-06-15 重庆度小满优扬科技有限公司 文本质量评估方法、装置、存储介质及计算机设备
CN113435187A (zh) * 2021-06-24 2021-09-24 湖北大学 工业告警信息的文本纠错方法及系统
CN114386391A (zh) * 2022-01-11 2022-04-22 平安科技(深圳)有限公司 基于人工智能的句向量特征提取方法、装置、设备及介质
CN116386790A (zh) * 2023-06-01 2023-07-04 宁德时代新能源科技股份有限公司 导电性能评估方法、装置、电子设备及可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506360A (zh) * 2016-06-14 2017-12-22 科大讯飞股份有限公司 一种文章评分方法及系统
CN108519975A (zh) * 2018-04-03 2018-09-11 北京先声教育科技有限公司 作文评分方法、装置及存储介质
CN110795538A (zh) * 2019-10-30 2020-02-14 腾讯科技(深圳)有限公司 一种基于人工智能的文本评分方法和相关设备
CN110851599A (zh) * 2019-11-01 2020-02-28 中山大学 一种中文作文自动评分方法及教辅系统
CN111104789A (zh) * 2019-11-22 2020-05-05 华中师范大学 文本评分方法、装置和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506360A (zh) * 2016-06-14 2017-12-22 科大讯飞股份有限公司 一种文章评分方法及系统
CN108519975A (zh) * 2018-04-03 2018-09-11 北京先声教育科技有限公司 作文评分方法、装置及存储介质
CN110795538A (zh) * 2019-10-30 2020-02-14 腾讯科技(深圳)有限公司 一种基于人工智能的文本评分方法和相关设备
CN110851599A (zh) * 2019-11-01 2020-02-28 中山大学 一种中文作文自动评分方法及教辅系统
CN111104789A (zh) * 2019-11-22 2020-05-05 华中师范大学 文本评分方法、装置和系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966509A (zh) * 2021-04-16 2021-06-15 重庆度小满优扬科技有限公司 文本质量评估方法、装置、存储介质及计算机设备
CN112966509B (zh) * 2021-04-16 2023-04-07 重庆度小满优扬科技有限公司 文本质量评估方法、装置、存储介质及计算机设备
CN113435187A (zh) * 2021-06-24 2021-09-24 湖北大学 工业告警信息的文本纠错方法及系统
CN114386391A (zh) * 2022-01-11 2022-04-22 平安科技(深圳)有限公司 基于人工智能的句向量特征提取方法、装置、设备及介质
CN114386391B (zh) * 2022-01-11 2023-08-15 平安科技(深圳)有限公司 基于人工智能的句向量特征提取方法、装置、设备及介质
CN116386790A (zh) * 2023-06-01 2023-07-04 宁德时代新能源科技股份有限公司 导电性能评估方法、装置、电子设备及可读存储介质
CN116386790B (zh) * 2023-06-01 2023-11-03 宁德时代新能源科技股份有限公司 导电性能评估方法、装置、电子设备及可读存储介质

Similar Documents

Publication Publication Date Title
CN110110041B (zh) 错词纠正方法、装置、计算机装置及存储介质
CN112183065A (zh) 文本评估方法、装置、计算机可读存储介质及终端设备
CN111695352A (zh) 基于语义分析的评分方法、装置、终端设备及存储介质
US20140156575A1 (en) Method and Apparatus of Processing Data Using Deep Belief Networks Employing Low-Rank Matrix Factorization
CN110795938B (zh) 文本序列分词方法、装置及存储介质
CN111177348B (zh) 问题生成模型的训练方法、装置、电子设备及存储介质
CN114492363B (zh) 一种小样本微调方法、系统及相关装置
CN113806514B (zh) 基于Transformer模型的实体关系抽取方法和系统
CN112434134B (zh) 搜索模型训练方法、装置、终端设备及存储介质
CN110929532B (zh) 数据处理方法、装置、设备及存储介质
CN113886550A (zh) 基于注意力机制的问答匹配方法、装置、设备及存储介质
CN110046344B (zh) 添加分隔符的方法及终端设备
CN112926655B (zh) 一种图像内容理解与视觉问答vqa方法、存储介质和终端
CN114528391A (zh) 问答对评分模型的训练方法、装置、设备及存储介质
CN114239589A (zh) 语义理解模型的鲁棒性评估方法、装置及计算机设备
CN112632956A (zh) 文本匹配方法、装置、终端和存储介质
CN116935057A (zh) 目标评价方法、电子设备和计算机可读存储介质
CN111832699A (zh) 用于神经网络的计算高效富于表达的输出层
CN112507081B (zh) 相似句匹配方法、装置、计算机设备及存储介质
CN114330375A (zh) 一种基于固定范式的术语翻译方法及系统
CN112597208A (zh) 企业名称检索方法、企业名称检索装置及终端设备
JP6910061B2 (ja) テキスト生成装置、テキスト生成方法及びテキスト生成プログラム
CN117057347B (zh) 一种分词方法、电子设备及存储介质
CN113505838B (zh) 一种图像聚类方法、装置、电子设备及存储介质
CN112183057A (zh) 文章生成方法、装置、智能设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination