CN110442706A - 一种文本摘要生成的方法、系统、设备及存储介质 - Google Patents

一种文本摘要生成的方法、系统、设备及存储介质 Download PDF

Info

Publication number
CN110442706A
CN110442706A CN201910645168.0A CN201910645168A CN110442706A CN 110442706 A CN110442706 A CN 110442706A CN 201910645168 A CN201910645168 A CN 201910645168A CN 110442706 A CN110442706 A CN 110442706A
Authority
CN
China
Prior art keywords
word
text sequence
text
matrix
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910645168.0A
Other languages
English (en)
Other versions
CN110442706B (zh
Inventor
曾碧卿
张敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Normal University
Original Assignee
South China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Normal University filed Critical South China Normal University
Priority to CN201910645168.0A priority Critical patent/CN110442706B/zh
Publication of CN110442706A publication Critical patent/CN110442706A/zh
Application granted granted Critical
Publication of CN110442706B publication Critical patent/CN110442706B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种文本摘要生成的方法,包括:对输入的文本序列进行词嵌入处理、局部注意力处理及卷积操作,得到文本序列的特征表达矩阵;将文本序列的特征表达矩阵输入至训练完成的摘要生成模型中,得到输出结果,并将输出结果作为文本序列的摘要。本申请令得到的文本序列的特征表达矩阵能更好的表达输入文本更深层次的隐藏特征,更进一步的提取了输入文本的特征,相对于现有技术本申请着重于之前解码步生成的文本信息,使得最终生成的摘要文本语义连贯,解决了现有技术存在的生成摘要语义无关、语句不通顺的问题。本申请同时还提供了一种文本摘要生成的系统、设备及计算机可读存储介质,具有上述有益效果。

Description

一种文本摘要生成的方法、系统、设备及存储介质
技术领域
本申请涉及文本摘要生成领域,特别涉及一种文本摘要生成的方法、系统、设备及计算机可读存储介质。
背景技术
随着信息技术的发展,目前比较流行的自动文本摘要方法大多基于深度学习实现,其中,以基于注意力机制的序列到序列(sequence-to-sequece, Seq2Sseq)模型(有时又被称为编码器-解码器模型、encoder-decoder模型)的生成式摘要方法尤为常见。由于该模型结合卷积神经网络(Convolutional Neural Network,CNN)或循环神经网络(Recurrent Neural Network,RNN) 和注意力机制,能更好地提取文本中蕴含的隐藏特征信息,相比传统自然语言处理方法有更明显的优势。
然而,现有的基于神经网络的文本摘要方法由于忽略了之前解码步生成的文本信息,从而导致生成摘要存在语义无关、语句不通顺的问题。
因此,如何避免生成的文本摘要存在语义无关、语句不通顺是本领域技术人员目前需要解决的技术问题。
发明内容
本申请的目的是提供一种文本摘要生成的方法、系统、设备及计算机可读存储介质,用于避免生成的文本摘要存在语义无关、语句不通顺。
为解决上述技术问题,本申请提供一种文本摘要生成的方法,该方法包括:
对输入的文本序列进行词嵌入处理,得到所述文本序列的词嵌入表示矩阵;
对所述词嵌入表示矩阵进行局部注意力处理,得到具有局部注意力权重的词嵌入表示矩阵;
利用预设卷积神经网络对所述具有局部注意力权重的词嵌入表示矩阵进行卷积操作,得到所述文本序列的特征表达矩阵;
将所述文本序列的特征表达矩阵输入至训练完成的摘要生成模型中,得到输出结果,并将所述输出结果作为所述文本序列的摘要。
可选的,对所述词嵌入表示矩阵进行局部注意力处理,得到具有局部注意力权重的词嵌入表示矩阵,包括:
根据公式计算文本序列长度为n的第i个词的加权词向量表示;
根据各所述加权词向量表示确定为所述具有局部注意力权重的词嵌入表示矩阵;
其中,s(i)为所述文本序列中第i个词的加权注意力分数,xi为所述文本序列中第i个词的词嵌入表示。
可选的,利用预设卷积神经网络对所述具有注意力权重的词嵌入表示矩阵进行卷积操作,得到所述文本序列的特征表达矩阵,包括:
根据公式确定根据第j个卷积核计算得到的词xi:i+h-1的向量表示;
根据各所述向量表示确定Cj=[c1j,c2j,...,cnj]为根据所述第j个卷积核得到的所述文本序列的特征表示;
根据各所述文本序列的特征表示确定为所述文本序列的特征表达矩阵;
其中,xi:i+h-1为所述加权词向量表示xi,xi+1,...,xh-1的串接,m为所述卷积核的个数,cij为根据第j个卷积核计算得到的词xi:i+h-1的向量表示,kj为所述第j 个卷积核,b为偏置常数,f为激活函数。
可选的,将所述文本序列的特征表达矩阵输入至训练完成的摘要生成模型中,得到输出结果,并将所述输出结果作为所述文本序列的摘要,包括:
将所述文本序列的特征表达矩阵输入到双向RNN组成的编码器中进行编码,得到所述文本序列的隐藏状态序列;
将所述文本序列的隐藏状态序列输入至解码器中,并根据公式Pvocab(w)=softmax(Wsst+bs)计算第t个解码步的目标词存在于预定义词表中的概率;
根据公式Pgen=σ(Wcct+Wsst+Wxxt+bgen)计算所述第t个解码步的目标词的确定方式为自动生成的概率;
根据公式计算所述第t个解码步的目标词存在于未登录词表中的概率;
根据公式P(w)=PgenPvocab(w)+(1-Pgen)Poov(w)计算所述第t个解码步的目标词被选择的概率;
将所述P(w)最大的目标词作为所述第t个解码步的输出词;
其中,Pvocab(w)为所述第t个解码步的目标词w存在于所述预定义词表中的概率,Ws为隐藏状态权重,bs、bgen均为偏置常数,st为所述解码器在t时刻的隐藏状态,Pgen为所述第t个解码步的目标词w的确定方式为自动生成的概率,σ为sigmoid非线性函数,Wc为上下文权重,ct为第t个输入词的带注意力的上下文向量,Wx为输入权重,xt为第t个输入词的词向量,Poov(w)为所述第t个解码步的目标词w存在于所述未登录词表中的概率,αti为第i个词的注意力权重,P(w)为所述第t个解码步的目标词w的被选择的概率。
本申请还提供一种文本摘要生成的系统,该系统包括:
词嵌入处理模块,用于对输入的文本序列进行词嵌入处理,得到所述文本序列的词嵌入表示矩阵;
局部注意力处理模块,用于对所述词嵌入表示矩阵进行局部注意力处理,得到具有局部注意力权重的词嵌入表示矩阵;
卷积操作模块,用于利用预设卷积神经网络对所述具有局部注意力权重的词嵌入表示矩阵进行卷积操作,得到所述文本序列的特征表达矩阵;
摘要生成模块,用于将所述文本序列的特征表达矩阵输入至训练完成的摘要生成模型中,得到输出结果,并将所述输出结果作为所述文本序列的摘要。
可选的,所述局部注意力处理模块包括:
第一计算子模块,用于根据公式计算文本序列长度为n的第i个词的加权词向量表示;
第一确定子模块,用于根据各所述加权词向量表示确定为所述具有局部注意力权重的词嵌入表示矩阵;
其中,s(i)为所述文本序列中第i个词的加权注意力分数,xi为所述文本序列中第i个词的词嵌入表示。
可选的,所述卷积操作模块包括:
第二计算子模块,用于根据公式cij=f(xi:i+h-1kj Τ+b)确定根据第j个卷积核计算得到的词xi:i+h-1的向量表示;
第二确定子模块,用于根据各所述向量表示确定Cj=[c1j,c2j,...,cnj]为根据所述第j个卷积核得到的所述文本序列的特征表示;
第三确定子模块,用于根据各所述文本序列的特征表示确定为所述文本序列的特征表达矩阵;
其中,xi:i+h-1为所述加权词向量表示xi,xi+1,...,xh-1的串接,m为所述卷积核的个数,cij为根据第j个卷积核计算得到的词xi:i+h-1的向量表示,kj为所述第j 个卷积核,b为偏置常数,f为激活函数。
可选的,所述摘要生成模块包括:
编码子模块,用于将所述文本序列的特征表达矩阵输入到双向RNN组成的编码器中进行编码,得到所述文本序列的隐藏状态序列;
第三计算子模块,用于将所述文本序列的隐藏状态序列输入至解码器中,并根据公式Pvocab(w)=softmax(Wsst+bs)计算第t个解码步的目标词存在于预定义词表中的概率;
第四计算子模块,用于根据公式Pgen=σ(Wcct+Wsst+Wxxt+bgen)计算所述第t 个解码步的目标词的确定方式为自动生成的概率;
第五计算子模块,用于根据公式计算所述第t个解码步的目标词存在于未登录词表中的概率;
第六计算子模块,用于根据公式P(w)=PgenPvocab(w)+(1-Pgen)Poov(w)计算所述第t个解码步的目标词被选择的概率;
第四确定子模块,用于将所述P(w)最大的目标词作为所述第t个解码步的输出词;
其中,Pvocab(w)为所述第t个解码步的目标词w存在于所述预定义词表中的概率,Ws为隐藏状态权重,bs、bgen均为偏置常数,st为所述解码器在t时刻的隐藏状态,Pgen为所述第t个解码步的目标词w的确定方式为自动生成的概率,σ为sigmoid非线性函数,Wc为上下文权重,ct为第t个输入词的带注意力的上下文向量,Wx为输入权重,xt为第t个输入词的词向量,Poov(w)为所述第t个解码步的目标词w存在于所述未登录词表中的概率,αti为第i个词的注意力权重,P(w)为所述第t个解码步的目标词w的被选择的概率。
本申请还提供一种文本摘要生成设备,该文本摘要生成设备包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上述任一项所述文本摘要生成的方法的步骤。
本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一项所述文本摘要生成的方法的步骤。
本申请所提供文本摘要生成的方法,包括:对输入的文本序列进行词嵌入处理,得到文本序列的词嵌入表示矩阵;对词嵌入表示矩阵进行局部注意力处理,得到具有局部注意力权重的词嵌入表示矩阵;利用预设卷积神经网络对具有局部注意力权重的词嵌入表示矩阵进行卷积操作,得到文本序列的特征表达矩阵;将文本序列的特征表达矩阵输入至训练完成的摘要生成模型中,得到输出结果,并将输出结果作为文本序列的摘要。
本申请所提供的技术方案,通过对输入的文本序列依次进行词嵌入处理、局部注意力处理和卷积操作,使得得到的文本序列的特征表达矩阵能更好的表达输入文本更深层次的隐藏特征,更进一步的提取了输入文本的特征,相对于现有技术本申请着重于之前解码步生成的文本信息,使得最终生成的摘要文本语义连贯,解决了现有技术存在的生成摘要语义无关、语句不通顺的问题。本申请同时还提供了一种文本摘要生成的系统、设备及计算机可读存储介质,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例所提供的一种文本摘要生成的方法的流程图;
图2为本申请实施例所提供的一种预设卷积神经网络的处理过程示意图;
图3为本申请实施例提供的一种隐藏特征提取器的示意图;
图4为图1所提供的一种文本摘要生成的方法中S104的一种实际表现方式的流程图;
图5为本申请实施例提供的一种摘要生成模型整体框架的示意图;
图6为本申请实施例所提供的一种文本摘要生成的系统的结构图;
图7为本申请实施例所提供的另一种文本摘要生成的系统的结构图;
图8为本申请实施例所提供的一种文本摘要生成设备的结构图。
具体实施方式
本申请的核心是提供一种文本摘要生成的方法、系统、设备及计算机可读存储介质,用于避免生成的文本摘要存在语义无关、语句不通顺。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参考图1,图1为本申请实施例所提供的一种文本摘要生成的方法的流程图。
其具体包括如下步骤:
S101:对输入的文本序列进行词嵌入处理,得到文本序列的词嵌入表示矩阵;
基于现有的基于神经网络的文本摘要方法生成的摘要存在语义无关、语句不通顺的问题,本申请提供了一种文本摘要生成的方法,用于解决上述问题;
这里提到的对输入的文本序列进行词嵌入处理的目的在于,令文本序列转换成数字向量以便继续进行运算处理;
可选的,在输入的文本序列进行词嵌入处理处理后,可以得到该文本的词嵌入表示矩阵X={x1,x2,...,xi,...,xn-1,xn},其中,xi为第i个词嵌入表示向量且d为词嵌入的维度。
S102:对词嵌入表示矩阵进行局部注意力处理,得到具有局部注意力权重的词嵌入表示矩阵;
这里提到的对词嵌入表示矩阵进行局部注意力处理的目的在于,确定文本序列中的中心词,进而获取到输入文本更深层次的隐藏特征;
可选的,这里提到的对词嵌入表示矩阵进行局部注意力处理,得到具有局部注意力权重的词嵌入表示矩阵,其具体可以为:
根据公式计算文本序列长度为n的第i个词的加权词向量表示
根据各加权词向量表示确定为具有局部注意力权重的词嵌入表示矩阵Xn
进一步的,为防止文本序列前后信息丢失,还可以在对词嵌入表示矩阵进行局部注意力处理时进行全0填充;
其中,xi为文本序列中第i个词的词嵌入表示,s(i)为文本序列中第i个词的加权注意力分数,具体可以根据公式s(i)=σ(Xl-att,iWl-att+bl-att),i∈[1,n]进行计算;其中,Wl-att为注意力权重且w为局部注意力的窗口大小,bl-att为偏置常数,Xl-att,i为第i个词的局部注意力向量,且可以根据公式
进行计算。
S103:利用预设卷积神经网络对具有局部注意力权重的词嵌入表示矩阵进行卷积操作,得到文本序列的特征表达矩阵;
可选的,这里提到的利用预设卷积神经网络对具有局部注意力权重的词嵌入表示矩阵进行卷积操作,其具体可以为使用多个不同大小的卷积核,获得输入文本更多层次的语言模型特征,最后串接各个特征映射并将其作为输入文本的具有更深层隐藏信息的词嵌入,为了保证输入文本序列词与词间的位置信息保持相对不变,这里的预设卷积神经网络没有使用池化层,卷积神经网络对文本的处理过程如图2所示;
请参考图2,图2为本申请实施例所提供的一种预设卷积神经网络的处理过程示意图,其具体可以包括如下步骤:
根据公式确定根据第j个卷积核计算得到的词xi:i+h-1的向量表示cij
根据各向量表示确定Cj=[c1j,c2j,...,cnj]为根据第j个卷积核得到的文本序列的特征表示Cj
根据各文本序列的特征表示确定为文本序列的特征表达矩阵F;
其中,xi:i+h-1为加权词向量表示xi,xi+1,...,xh-1的串接,m为卷积核的个数,cij为根据第j个卷积核计算得到的词xi:i+h-1的向量表示,kj为第j个卷积核,b为偏置常数,f为激活函数;
可选的,请参考图3,图3为本申请实施例提供的一种隐藏特征提取器的示意图,步骤S101-S103所述的步骤可以以隐藏特征提取器的形式完成对输入文本隐藏特征的提取。
S104:将文本序列的特征表达矩阵输入至训练完成的摘要生成模型中,得到输出结果,并将输出结果作为文本序列的摘要。
基于上述技术方案,本申请所提供的一种文本摘要生成的方法,通过对输入的文本序列依次进行词嵌入处理、局部注意力处理和卷积操作,使得得到的文本序列的特征表达矩阵能更好的表达输入文本更深层次的隐藏特征,更进一步的提取了输入文本的特征,相对于现有技术本申请着重于之前解码步生成的文本信息,使得最终生成的摘要文本语义连贯,解决了现有技术存在的生成摘要语义无关、语句不通顺的问题。
针对于上一实施例的步骤S104,其中所描述的,将文本序列的特征表达矩阵输入至训练完成的摘要生成模型中,得到输出结果,并将输出结果作为文本序列的摘要,其具体也可以为如图4所示的步骤,下面结合图4进行说明。
请参考图4,图4为图1所提供的一种文本摘要生成的方法中S104的一种实际表现方式的流程图。
其具体包括以下步骤:
S401:将文本序列的特征表达矩阵输入到双向RNN组成的编码器中进行编码,得到文本序列的隐藏状态序列;
将文本序列的特征表达矩阵输入到双向RNN组成的编码器中进行编码,每个RNN输出一个隐藏状态h,记输入序列第t个词的隐藏状态为ht,其前向和反向隐藏状态分别用表示,‖表示向量连接运算符,则t时刻隐藏状态为
S402:将文本序列的隐藏状态序列输入至解码器中,并根据公式 Pvocab(w)=softmax(Wsst+bs)计算第t个解码步的目标词存在于预定义词表中的概率;
其中,Pvocab(w)为第t个解码步的目标词w存在于预定义词表中的概率,Ws为隐藏状态权重,bs为偏置常数,st为解码器在t时刻的隐藏状态;
这里提到的预定义词表为预先定义的摘要中能够出现的词,该预定义词表可以由用户自行设定,也可以由业内人士进行编撰,本申请对此不做具体限定。
S403:根据公式Pgen=σ(Wcct+Wsst+Wxxt+bgen)计算第t个解码步的目标词的确定方式为自动生成的概率;
其中,Pgen为第t个解码步的目标词w的确定方式为自动生成的概率,σ为 sigmoid非线性函数,Wc为上下文权重,ct为第t个输入词的带注意力的上下文向量,Wx为输入权重,xt为第t个输入词的词向量,bgen为偏置常数;
基于在现有技术中,受词表大小的限制以及生成式摘要模型可能产生不在文本中的词等原因影响,生成的摘要存在未登录词(out-of-vocabulary,OOV) 问题,使得生成摘要的可读性受到影响,本申请实施例提供了两种目标词的确定方式,分别为pointing确定方式和generate确定方式,用于解决该问题,通过pointing确定方式可以直接从原文本中复制词作为目标词,而通过 generate确定方式可以自动地生成一个词作为目标词;
请参考图5,图5为本申请实施例提供的一种摘要生成模型整体框架的示意图,在解码过程中,摘要生成模型可以根据计算得到的Pgen自动选择使用 pointing确定方式还是generate确定方式,来解决OOV问题;
可选的,针对于现有技术中还存在的文本摘要句内重复问题,本申请实施例所提供的摘要生成模型还可以对重复出现的关注序列中同一位置的情况进行惩罚,从而解决该问题。
S404:根据公式计算第t个解码步的目标词存在于未登录词表中的概率;
其中,Poov(w)为第t个解码步的目标词w存在于未登录词表中的概率,αti为第i个词的注意力权重;
这里提到的未登录词表为预先定义的摘要中不能够出现的词,该未登录词表可以由用户自行设定,也可以为根据相关模型信息进行确定,本申请对此不做具体限定。
S405:根据公式P(w)=PgenPvocab(w)+(1-Pgen)Poov(w)计算第t个解码步的目标词被选择的概率;
其中,P(w)为第t个解码步的目标词w的被选择的概率。
S406:将P(w)最大的目标词作为第t个解码步的输出词。
对于解码时间步t来说,词的生成概率Pgen∈[0,1],是由当前时刻解码器输入xt、隐藏状态st以及上下文向量ct计算得出。在生成目标词概率计算中,假如当前时刻的生成词是一个未登录词,则Pvocab(w)=0;类似的,假如生成词没有在原文本中出现过,且不在词表中则Poov(w)=0,这时,生成词还可以用“[UNK]”表示。
请参考图6,图6为本申请实施例所提供的一种文本摘要生成的系统的结构图。
该系统可以包括:
词嵌入处理模块100,用于对输入的文本序列进行词嵌入处理,得到文本序列的词嵌入表示矩阵;
局部注意力处理模块200,用于对词嵌入表示矩阵进行局部注意力处理,得到具有局部注意力权重的词嵌入表示矩阵;
卷积操作模块300,用于利用预设卷积神经网络对具有局部注意力权重的词嵌入表示矩阵进行卷积操作,得到文本序列的特征表达矩阵;
摘要生成模块400,用于将文本序列的特征表达矩阵输入至训练完成的摘要生成模型中,得到输出结果,并将输出结果作为文本序列的摘要。
请参考图7,图7为本申请实施例所提供的另一种文本摘要生成的系统的结构图。
该局部注意力处理模块200可以包括:
第一计算子模块,用于根据公式计算文本序列长度为n的第i个词的加权词向量表示;
第一确定子模块,用于根据各加权词向量表示确定为具有局部注意力权重的词嵌入表示矩阵;
其中,s(i)为文本序列中第i个词的加权注意力分数,xi为文本序列中第i 个词的词嵌入表示。
该卷积操作模块300可以包括:
第二计算子模块,用于根据公式cij=f(xi:i+h-1kj Τ+b)确定根据第j个卷积核计算得到的词xi:i+h-1的向量表示;
第二确定子模块,用于根据各向量表示确定Cj=[c1j,c2j,...,cnj]为根据第j 个卷积核得到的文本序列的特征表示;
第三确定子模块,用于根据各文本序列的特征表示确定为文本序列的特征表达矩阵;
其中,xi:i+h-1为加权词向量表示xi,xi+1,...,xh-1的串接,m为卷积核的个数,cij为根据第j个卷积核计算得到的词xi:i+h-1的向量表示,kj为第j个卷积核,b为偏置常数,f为激活函数。
该摘要生成模块400可以包括:
编码子模块,用于将文本序列的特征表达矩阵输入到双向RNN组成的编码器中进行编码,得到文本序列的隐藏状态序列;
第三计算子模块,用于将文本序列的隐藏状态序列输入至解码器中,并根据公式Pvocab(w)=softmax(Wsst+bs)计算第t个解码步的目标词存在于预定义词表中的概率;
第四计算子模块,用于根据公式Pgen=σ(Wcct+Wsst+Wxxt+bgen)计算第t个解码步的目标词的确定方式为自动生成的概率;
第五计算子模块,用于根据公式计算第t个解码步的目标词存在于未登录词表中的概率;
第六计算子模块,用于根据公式P(w)=PgenPvocab(w)+(1-Pgen)Poov(w)计算第t 个解码步的目标词被选择的概率;
第四确定子模块,用于将P(w)最大的目标词作为第t个解码步的输出词;
其中,Pvocab(w)为第t个解码步的目标词w存在于预定义词表中的概率,Ws为隐藏状态权重,bs、bgen均为偏置常数,st为解码器在t时刻的隐藏状态,Pgen为第t个解码步的目标词w的确定方式为自动生成的概率,σ为sigmoid非线性函数,Wc为上下文权重,ct为第t个输入词的带注意力的上下文向量,Wx为输入权重,xt为第t个输入词的词向量,Poov(w)为第t个解码步的目标词w存在于未登录词表中的概率,αti为第i个词的注意力权重,P(w)为第t个解码步的目标词w的被选择的概率。
由于系统部分的实施例与方法部分的实施例相互对应,因此系统部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。
请参考图8,图8为本申请实施例所提供的一种文本摘要生成设备的结构图。
该文本摘要生成设备800可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)822(例如,一个或一个以上处理器)和存储器832,一个或一个以上存储应用程序842或数据 844的存储介质830(例如一个或一个以上海量存储设备)。其中,存储器832 和存储介质830可以是短暂存储或持久存储。存储在存储介质830的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对装置中的一系列指令操作。更进一步地,中央处理器822可以设置为与存储介质830通信,在文本摘要生成设备800上执行存储介质830中的一系列指令操作。
文本摘要生成设备800还可以包括一个或一个以上电源828,一个或一个以上有线或无线网络接口850,一个或一个以上输入输出接口858,和/或,一个或一个以上操作系统841,例如Windows ServerTM,Mac OS XTM,UnixTM, LinuxTM,FreeBSDTM等等。
上述图1至图5所描述的文本摘要生成的方法中的步骤由文本摘要生成设备基于该图8所示的结构实现。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置、设备和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,功能调用装置,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上对本申请所提供的一种文本摘要生成的方法、系统、设备及计算机可读存储介质进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (10)

1.一种文本摘要生成的方法,其特征在于,包括:
对输入的文本序列进行词嵌入处理,得到所述文本序列的词嵌入表示矩阵;
对所述词嵌入表示矩阵进行局部注意力处理,得到具有局部注意力权重的词嵌入表示矩阵;
利用预设卷积神经网络对所述具有局部注意力权重的词嵌入表示矩阵进行卷积操作,得到所述文本序列的特征表达矩阵;
将所述文本序列的特征表达矩阵输入至训练完成的摘要生成模型中,得到输出结果,并将所述输出结果作为所述文本序列的摘要。
2.根据权利要求1所述的方法,其特征在于,对所述词嵌入表示矩阵进行局部注意力处理,得到具有局部注意力权重的词嵌入表示矩阵,包括:
根据公式计算文本序列长度为n的第i个词的加权词向量表示;
根据各所述加权词向量表示确定为所述具有局部注意力权重的词嵌入表示矩阵;
其中,s(i)为所述文本序列中第i个词的加权注意力分数,xi为所述文本序列中第i个词的词嵌入表示。
3.根据权利要求1所述的方法,其特征在于,利用预设卷积神经网络对所述具有注意力权重的词嵌入表示矩阵进行卷积操作,得到所述文本序列的特征表达矩阵,包括:
根据公式确定根据第j个卷积核计算得到的词xi:i+h-1的向量表示;
根据各所述向量表示确定Cj=[c1j,c2j,...,cnj]为根据所述第j个卷积核得到的所述文本序列的特征表示;
根据各所述文本序列的特征表示确定为所述文本序列的特征表达矩阵;
其中,xi:i+h-1为所述加权词向量表示xi,xi+1,...,xh-1的串接,m为所述卷积核的个数,cij为根据第j个卷积核计算得到的词xi:i+h-1的向量表示,kj为所述第j个卷积核,b为偏置常数,f为激活函数。
4.根据权利要求1所述的方法,其特征在于,将所述文本序列的特征表达矩阵输入至训练完成的摘要生成模型中,得到输出结果,并将所述输出结果作为所述文本序列的摘要,包括:
将所述文本序列的特征表达矩阵输入到双向RNN组成的编码器中进行编码,得到所述文本序列的隐藏状态序列;
将所述文本序列的隐藏状态序列输入至解码器中,并根据公式Pvocab(w)=softmax(Wsst+bs)计算第t个解码步的目标词存在于预定义词表中的概率;
根据公式Pgen=σ(Wcct+Wsst+Wxxt+bgen)计算所述第t个解码步的目标词的确定方式为自动生成的概率;
根据公式计算所述第t个解码步的目标词存在于未登录词表中的概率;
根据公式P(w)=PgenPvocab(w)+(1-Pgen)Poov(w)计算所述第t个解码步的目标词被选择的概率;
将所述P(w)最大的目标词作为所述第t个解码步的输出词;
其中,Pvocab(w)为所述第t个解码步的目标词w存在于所述预定义词表中的概率,Ws为隐藏状态权重,bs、bgen均为偏置常数,st为所述解码器在t时刻的隐藏状态,Pgen为所述第t个解码步的目标词w的确定方式为自动生成的概率,σ为sigmoid非线性函数,Wc为上下文权重,ct为第t个输入词的带注意力的上下文向量,Wx为输入权重,xt为第t个输入词的词向量,Poov(w)为所述第t个解码步的目标词w存在于所述未登录词表中的概率,αti为第i个词的注意力权重,P(w)为所述第t个解码步的目标词w的被选择的概率。
5.一种文本摘要生成的系统,其特征在于,包括:
词嵌入处理模块,用于对输入的文本序列进行词嵌入处理,得到所述文本序列的词嵌入表示矩阵;
局部注意力处理模块,用于对所述词嵌入表示矩阵进行局部注意力处理,得到具有局部注意力权重的词嵌入表示矩阵;
卷积操作模块,用于利用预设卷积神经网络对所述具有局部注意力权重的词嵌入表示矩阵进行卷积操作,得到所述文本序列的特征表达矩阵;
摘要生成模块,用于将所述文本序列的特征表达矩阵输入至训练完成的摘要生成模型中,得到输出结果,并将所述输出结果作为所述文本序列的摘要。
6.根据权利要求5所述的系统,其特征在于,所述局部注意力处理模块包括:
第一计算子模块,用于根据公式计算文本序列长度为n的第i个词的加权词向量表示;
第一确定子模块,用于根据各所述加权词向量表示确定为所述具有局部注意力权重的词嵌入表示矩阵;
其中,s(i)为所述文本序列中第i个词的加权注意力分数,xi为所述文本序列中第i个词的词嵌入表示。
7.根据权利要求5所述的系统,其特征在于,所述卷积操作模块包括:
第二计算子模块,用于根据公式cij=f(xi:i+h-1kj Τ+b)确定根据第j个卷积核计算得到的词xi:i+h-1的向量表示;
第二确定子模块,用于根据各所述向量表示确定Cj=[c1j,c2j,...,cnj]为根据所述第j个卷积核得到的所述文本序列的特征表示;
第三确定子模块,用于根据各所述文本序列的特征表示确定为所述文本序列的特征表达矩阵;
其中,xi:i+h-1为所述加权词向量表示xi,xi+1,...,xh-1的串接,m为所述卷积核的个数,cij为根据第j个卷积核计算得到的词xi:i+h-1的向量表示,kj为所述第j个卷积核,b为偏置常数,f为激活函数。
8.根据权利要求5所述的系统,其特征在于,所述摘要生成模块包括:
编码子模块,用于将所述文本序列的特征表达矩阵输入到双向RNN组成的编码器中进行编码,得到所述文本序列的隐藏状态序列;
第三计算子模块,用于将所述文本序列的隐藏状态序列输入至解码器中,并根据公式Pvocab(w)=softmax(Wsst+bs)计算第t个解码步的目标词存在于预定义词表中的概率;
第四计算子模块,用于根据公式Pgen=σ(Wcct+Wsst+Wxxt+bgen)计算所述第t个解码步的目标词的确定方式为自动生成的概率;
第五计算子模块,用于根据公式计算所述第t个解码步的目标词存在于未登录词表中的概率;
第六计算子模块,用于根据公式P(w)=PgenPvocab(w)+(1-Pgen)Poov(w)计算所述第t个解码步的目标词被选择的概率;
第四确定子模块,用于将所述P(w)最大的目标词作为所述第t个解码步的输出词;
其中,Pvocab(w)为所述第t个解码步的目标词w存在于所述预定义词表中的概率,Ws为隐藏状态权重,bs、bgen均为偏置常数,st为所述解码器在t时刻的隐藏状态,Pgen为所述第t个解码步的目标词w的确定方式为自动生成的概率,σ为sigmoid非线性函数,Wc为上下文权重,ct为第t个输入词的带注意力的上下文向量,Wx为输入权重,xt为第t个输入词的词向量,Poov(w)为所述第t个解码步的目标词w存在于所述未登录词表中的概率,αti为第i个词的注意力权重,P(w)为所述第t个解码步的目标词w的被选择的概率。
9.一种文本摘要生成设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至4任一项所述文本摘要生成的方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述文本摘要生成的方法的步骤。
CN201910645168.0A 2019-07-17 2019-07-17 一种文本摘要生成的方法、系统、设备及存储介质 Active CN110442706B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910645168.0A CN110442706B (zh) 2019-07-17 2019-07-17 一种文本摘要生成的方法、系统、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910645168.0A CN110442706B (zh) 2019-07-17 2019-07-17 一种文本摘要生成的方法、系统、设备及存储介质

Publications (2)

Publication Number Publication Date
CN110442706A true CN110442706A (zh) 2019-11-12
CN110442706B CN110442706B (zh) 2023-02-03

Family

ID=68430625

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910645168.0A Active CN110442706B (zh) 2019-07-17 2019-07-17 一种文本摘要生成的方法、系统、设备及存储介质

Country Status (1)

Country Link
CN (1) CN110442706B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111159394A (zh) * 2019-12-31 2020-05-15 重庆觉晓教育科技有限公司 一种文本摘要生成方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102063485A (zh) * 2010-12-29 2011-05-18 深圳市永达电子股份有限公司 一种在线分析网络流中短文本信息聚类的方法
WO2018194456A1 (en) * 2017-04-20 2018-10-25 Universiteit Van Amsterdam Optical music recognition omr : converting sheet music to a digital format
CN108763191A (zh) * 2018-04-16 2018-11-06 华南师范大学 一种文本摘要生成方法及系统
CN109214003A (zh) * 2018-08-29 2019-01-15 陕西师范大学 基于多层注意力机制的循环神经网络生成标题的方法
CN109471933A (zh) * 2018-10-11 2019-03-15 平安科技(深圳)有限公司 一种文本摘要的生成方法、存储介质和服务器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102063485A (zh) * 2010-12-29 2011-05-18 深圳市永达电子股份有限公司 一种在线分析网络流中短文本信息聚类的方法
WO2018194456A1 (en) * 2017-04-20 2018-10-25 Universiteit Van Amsterdam Optical music recognition omr : converting sheet music to a digital format
CN108763191A (zh) * 2018-04-16 2018-11-06 华南师范大学 一种文本摘要生成方法及系统
CN109214003A (zh) * 2018-08-29 2019-01-15 陕西师范大学 基于多层注意力机制的循环神经网络生成标题的方法
CN109471933A (zh) * 2018-10-11 2019-03-15 平安科技(深圳)有限公司 一种文本摘要的生成方法、存储介质和服务器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111159394A (zh) * 2019-12-31 2020-05-15 重庆觉晓教育科技有限公司 一种文本摘要生成方法和装置

Also Published As

Publication number Publication date
CN110442706B (zh) 2023-02-03

Similar Documents

Publication Publication Date Title
CN108875807B (zh) 一种基于多注意力多尺度的图像描述方法
CN108446374B (zh) 用户意图预测方法、装置、电子设备、存储介质
WO2018133761A1 (zh) 一种人机对话的方法和装置
CN109710915B (zh) 复述语句生成方法及装置
CN109977416A (zh) 一种多层次自然语言反垃圾文本方法及系统
CN109923558A (zh) 混合专家神经网络
CN108280112A (zh) 摘要生成方法、装置及计算机设备
CN108227565A (zh) 一种信息处理方法、终端及计算机可读介质
CN110134968A (zh) 基于深度学习的诗歌生成方法、装置、设备及存储介质
CN108763191A (zh) 一种文本摘要生成方法及系统
CN111310439A (zh) 一种基于深度特征变维机制的智能语义匹配方法和装置
CN108304387B (zh) 文本中噪音词的识别方法、装置、服务器组及存储介质
CN112115247A (zh) 一种基于长短时记忆信息的个性化对话生成方法和系统
CN108959388B (zh) 信息生成方法及装置
CN110264997A (zh) 语音断句的方法、装置和存储介质
CN111985243B (zh) 情感模型的训练方法、情感分析方法、装置及存储介质
CN110795913A (zh) 一种文本编码方法、装置、存储介质及终端
CN107679225A (zh) 一种基于关键词的回复生成方法
CN107506345A (zh) 语言模型的构建方法和装置
CN110442706A (zh) 一种文本摘要生成的方法、系统、设备及存储介质
CN115906861B (zh) 基于交互方面信息融合的语句情感分析方法以及装置
CN111930941A (zh) 一种辱骂内容识别方法及装置、服务器
CN110516125A (zh) 识别异常字符串的方法、装置、设备及可读存储介质
CN113555027B (zh) 语音情感转换方法、装置、计算机设备及存储介质
CN109241284A (zh) 一种文档分类方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant