CN109523014B - 基于生成式对抗网络模型的新闻评论自动生成方法及系统 - Google Patents
基于生成式对抗网络模型的新闻评论自动生成方法及系统 Download PDFInfo
- Publication number
- CN109523014B CN109523014B CN201811228324.5A CN201811228324A CN109523014B CN 109523014 B CN109523014 B CN 109523014B CN 201811228324 A CN201811228324 A CN 201811228324A CN 109523014 B CN109523014 B CN 109523014B
- Authority
- CN
- China
- Prior art keywords
- network model
- news
- training
- model
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于生成式对抗网络模型的新闻评论自动生成方法及系统,该方法包括:获取多组目标特征新闻标题数据;对新闻标题数据进行预处理来构造训练数据,将训练数据输入长短期记忆网络‑循环神经网络模型进行训练,得到样本数据;将长短期记忆网络‑循环神经网络模型作为生成器,并在模型中加入鉴别器,对生成器与鉴别器进行博弈对抗训练,达到纳什均衡,形成生成式对抗网络模型;通过不断训练样本数据,修正生成式对抗网络模型,将该模型作为预生成新闻评论模型;加载预生成新闻评论模型,并设置输出参数调整预生成新闻评论模型,输出得到新闻评论。本发明节约了人力物力资源,极大地提高了新闻评论与新闻的相关性,具有极大的实用价值。
Description
技术领域
本发明涉及一种新闻评论自动生成方法及系统,尤其是一种基于生成式对抗网络模型的新闻评论自动生成方法及系统,属于新闻评论自动生成技术领域。
背景技术
经典的网络之循环神经网络(Recurrent Neural Network,简称RNN),这一网络也是序列数据的首选网络。当涉及某些顺序机器学习任务时,RNN可以达到很高准确度。RNNs的目的使用来处理序列数据,在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNNs之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。理论上,RNNs能够对任何长度的序列数据进行处理。
生成式对抗网络(Generative Adversarial Networks,简称GAN)是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。GAN是一种框架,通过对抗过程,通过训练生成器G和鉴别器D。两者进行一个极小极大(minmax)的对抗,最终达到纳什均衡,即鉴别器无法区分样本是来自生成器伪造的样本还是真实样本。以往的深度生成模型需要马尔科夫链或近似极大似然估计,产生很多难以计算的概率问题。为避免这些问题而提出了GAN框架,训练过程采用成熟的BP算法即可。
基于长短期记忆网络(Long Short-Term Memory,简称LSTM)的系统可以学习翻译语言、控制机器人、图像分析、文档摘要、语音识别图像识别、手写识别、控制聊天机器人、预测疾病、点击率和股票、合成音乐等等任务。在2015年,谷歌通过基于CTC训练的LSTM程序大幅提升了安卓手机和其他设备中语音识别的能力百度也使用了CTC;苹果的iPhone在QucikType和Siri中使用了LSTM;微软不仅将LSTM用于语音识别,还将这一技术用于虚拟对话形象生成和编写程序代码等等。亚马逊Alexa通过双向LSTM在家中与你交流,而谷歌使用LSTM的范围更加广泛,它可以生成图像字幕,自动回复电子邮件,它包含在新的智能助手Allo中,也显著地提高了谷歌翻译的质量。
发明内容
本发明的第一个目的在于提供一种基于生成式对抗网络模型的新闻评论自动生成方法,该方法对于新闻评论,不必采用人工进行书写,节约了人力物力资源,同时使用生成式对抗网络模型极大地提高了新闻评论与新闻的相关性,具有极大的实用价值。
本发明的第二个目的在于提供一种基于生成式对抗网络模型的新闻评论自动生成系统。
本发明的第三个目的在于提供一种计算机设备。
本发明的第四个目的在于提供一种存储介质。
本发明的第一个目的可以通过采取如下技术方案达到:
基于生成式对抗网络模型的新闻评论自动生成方法,所述方法包括:
获取多组目标特征新闻标题数据;
对所述新闻标题数据进行预处理来构造训练数据,将所述训练数据输入长短期记忆网络-循环神经网络模型进行训练,得到样本数据;
将长短期记忆网络-循环神经网络模型作为生成器,并在长短期记忆网络-循环神经网络模型中加入鉴别器,对生成器与鉴别器进行博弈对抗训练,达到纳什均衡,形成生成式对抗网络模型;
通过不断训练所述样本数据,修正生成式对抗网络模型,将修正后的生成式对抗网络模型作为预生成新闻评论模型;
加载预生成新闻评论模型,并设置输出参数调整预生成新闻评论模型,输出得到新闻评论。
进一步的,所述对所述新闻标题数据进行预处理来构造训练数据,具体为:
在所述新闻标题数据中得到字符与行号对应的索引字典,将字符数据集映射成为索引数据集,在索引数据集中得到字符-数字的映射和数字-字符的映射,建立长短期记忆网络-循环神经网络模型的输入词嵌入向量,将输入词嵌入向量作为训练数据。
进一步的,所述长短期记忆网络-循环神经网络模型包括输入层、隐藏层、输出层和长短期记忆网络层,其中长短期记忆网络层、隐藏层以及隐藏层节点个数均由输入参数决定。
进一步的,所述对生成器与鉴别器进行博弈对抗训练,具体为:对生成器与鉴别器进行一个极小极大的博弈对抗训练。
进一步的,所述鉴别器采用卷积神经网络;所述对生成器与鉴别器进行博弈对抗训练,具体为:
利用策略梯度强化学习对生成器与鉴别器进行博弈对抗训练;其中,在博弈对抗训练开始时,使用极大似然估计法对生成器进行预训练,直到生成器达到收敛为止。
进一步的,所述长短期记忆网络-循环神经网络模型的公式如下:
it=σ((Wxixt+Whiht-1)
ft=σ(Wxfxt+Whfht-1)
ot=σ(Wxtxt+Whoht-1)
gt=tanh(Wxcxt+Whcht-1)
ct=ft⊙ct-1+it⊙gt
ht=ot⊙tanh(ct)
其中,it为输入门,控制有多少信息能够流入记忆单元;ft为遗忘门,控制有多少上一时刻的记忆单元中的信息能够累积到当前时刻的记忆单元中;ot为输出门,控制有多少当前时刻的记忆单元中的信息能够流入当前隐藏状态ht中;ct为单位激活向量;w为权重矩阵,b为偏置矩阵,σ为逻辑sigmoid函数,h为隐藏层单元。
进一步的,所述生成式对抗网络模型的公式如下:
X=[e1,e2,…,em,ey1,…,eyn]
本发明的第二个目的可以通过采取如下技术方案达到:
基于生成式对抗网络模型的新闻评论自动生成系统,所述系统包括:
数据获取模块,用于获取多组目标特征新闻标题数据;
训练模块,用于对所述新闻标题数据进行预处理来构造训练数据,将所述训练数据输入长短期记忆网络-循环神经网络模型进行训练,得到样本数据;
模型形成模块,用于将长短期记忆网络-循环神经网络模型作为生成器,并在长短期记忆网络-循环神经网络模型中加入鉴别器,对生成器与鉴别器进行博弈对抗训练,达到纳什均衡,形成生成式对抗网络模型;
模型修正模块,用于通过不断训练所述样本数据,修正生成式对抗网络模型,将修正后的生成式对抗网络模型作为预生成新闻评论模型;
输出模块,用于加载预生成新闻评论模型,并设置输出参数调整预生成新闻评论模型,输出得到新闻评论。
本发明的第三个目的可以通过采取如下技术方案达到:
计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,所述处理器执行存储器存储的程序时,实现上述的新闻评论自动生成方法。
本发明的第四个目的可以通过采取如下技术方案达到:
存储介质,存储有程序,所述程序被处理器执行时,实现上述的新闻评论自动生成方法。
本发明相对于现有技术具有如下的有益效果:
本发明利用深度学习算法,通过长短期记忆网络-循环神经网络训练得到样本数据,将长短期记忆网络-循环神经网络模型作为生成器,并在长短期记忆网络-循环神经网络模型中加入鉴别器,对生成器与鉴别器进行博弈对抗训练,达到纳什均衡,形成生成式对抗网络模型,使长短期记忆网络-循环神经网络模型与生成式对抗网络模型相结合,此后对生成式对抗网络模型进行修正,将修正后的生成式对抗网络模型作为预生成新闻评论模型,对于新闻评论,不必采用人工进行书写,节约了人力物力资源,同时使用生成式对抗网络模型极大地提高了新闻评论与新闻的相关性,具有极大的实用价值。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例1的基于生成式对抗网络模型的新闻评论自动生成方法流程图。
图2为本发明实施例1的长短期记忆网络-循环神经网络模型基本原理示意图。
图3为本发明实施例1的数据在记忆单元中流动以及记忆单元中的门控制数据流动示意图。
图4为本发明实施例1的长短期记忆网络-循环神经网络模型与生成式对抗网络模型结合的基本原理示意图。
图5为本发明实施例2的基于生成式对抗网络模型的新闻评论自动生成系统结构框图。
图6为本发明实施例3的计算机设备结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
如图1所示,本实施例提供了一种基于生成式对抗网络模型的新闻评论自动生成方法,该方法包括以下步骤:
S101、获取多组目标特征新闻标题数据。
本实施例的多组目标特征新闻标题数据可以通过互联网收集的方式获取,也可以从数据库查找获取,例如预先在数据库内存储多组目标特征新闻标题数据,从数据库中搜索多组目标特征新闻标题数据即可得到。
多组目标特征新闻标题数据中,要求使用编码方式相同,语言一致。
S102、对所述新闻标题数据进行预处理来构造训练数据,将所述训练数据输入长短期记忆网络-循环神经网络模型进行训练,得到样本数据。
具体地,在步骤S101获取的新闻标题数据中得到字符与行号对应的索引字典,将字符数据集映射成为索引数据集,在索引数据集中得到字符-数字的映射和数字-字符的映射,建立长短期记忆网络-循环神经网络模型的输入词嵌入向量,将词嵌入向量作为训练数据,将该训练数据输入长短期记忆网络-循环神经网络模型进行训练,得到样本数据。
所述长短期记忆网络-循环神经网络模型,即LSTM-RNN模型,又称LSTM型RNN模型,其包括输入层、隐藏层、输出层和长短期记忆网络层,其中长短期记忆网络层、隐藏层以及隐藏层节点个数均由输入参数决定;输入层中,具有众多神经元,能够接受大量非线形输入信息,输入的信息称为输入向量;输出层中,信息在神经元链接中传输、分析、权衡,形成输出结果,输出的信息称为输出向量;隐藏层,是输入层和输出层之间众多神经元和链接组成的各个层面;长短期记忆网络层内嵌套有输入层、隐藏层和输出层。
本实施例中,长短期记忆网络-循环神经网络模型的公式如下:
it=σ((Wxixt+Whiht-1)
ft=σ(Wxfxt+Whfht-1)
ot=σ(Wxtxt+Whoht-1)
gt=tanh(Wxcxt+Whcht-1)
ct=ft⊙ct-1+it⊙gt
ht=ot⊙tanh(ct)
其中,it为输入门,控制有多少信息能够流入记忆单元(memory cell);ft为遗忘门,控制有多少上一时刻的记忆单元中的信息能够累积到当前时刻的记忆单元中;ot为输出门,控制有多少当前时刻的记忆单元中的信息能够流入当前隐藏状态ht中;ct为单位激活向量;w为权重矩阵,b为偏置矩阵,σ为逻辑sigmoid函数,h为隐藏层单元
长短期记忆网络-循环神经网络模型的基本原理如图2所示,长短期记忆网络-循环神经网络模型靠三个门(输入门、遗忘门和输出门)将信息的积累建立在线性自连接的记忆单元之上,并靠其作为中间物来计算当前ht,图3示出了数据在记忆单元中流动以及记忆单元中的门控制数据流动。
结合上式,ht=ot⊙tanh(ft⊙ct-1+it⊙tanh(Wxcxt+Whcht-1+bc))。
S103、将长短期记忆网络-循环神经网络模型作为生成器,并在长短期记忆网络-循环神经网络模型中加入鉴别器,对生成器与鉴别器进行博弈对抗训练,达到纳什均衡,形成生成式对抗网络模型。
本实施例中,采用卷积神经网络(Convolutional Neural Network,简称CNN)作为鉴别器;具体地,将长短期记忆网络-循环神经网络模型作为生成器,生成器生成的样本数据用鉴别器判别真伪,利用策略梯度强化学习对生成器与鉴别器进行一个极小极大(minmax)的对抗(又称博弈)训练,在博弈对抗训练开始时,使用极大似然估计(Maximumlikelihood estimation,简称MLE)法对生成器进行预训练,直到生成器达到收敛为止。
对生成器与鉴别器进行博弈对抗训练后,达到纳什均衡,即鉴别器无法区分样本数据是来自生成器伪造的样本数据(伪造评论)还是真实样本数据(真实评论),通过对抗微调训练得到长短期记忆网络-循环神经网络模的参数,从而形成生成式对抗网络模型,长短期记忆网络-循环神经网络模型与生成式对抗网络模型结合的基本原理如图4所示;其中,长短期记忆网络-循环神经网络模的参数包括:梯度爆炸值(gradientsexploding),梯度弥散值(gradients disappearing),通过build_Optimizer函数的gradient clippling的方式来防止梯度爆炸,即通过设置一个阈值,当梯度弥散值超过这个阈值时,就将它重置为阈值大小。
生成器和鉴别器分别用G和D表示,具体说明如下:
1)生成器G:输入“噪声”z(z服从一个人为选取的先验概率分布,如均匀分布、高斯分布等);采用多层感知机(Multi-layer Perceptron,简称MLP)的网络结构,用MLP的参数来表示可导映射G(z:),将输入空间映射到样本空间,G为可微函数。
2)鉴别器D:输入为真实样本数据x和伪造样本数据D(z),并分别带有标签real和fake,鉴别器网络可以用带有参数多层感知机表示D(x;),输出为D(x),表示来自真实样本数据的概率。
本实施例中,生成式对抗网络模型的公式如下:
X=[e1,e2,…,em,ey1,…,eyn]
S104、通过不断训练所述样本数据,修正生成式对抗网络模型,将修正后的生成式对抗网络模型作为预生成新闻评论模型。
本实施例中,通过不断训练所述样本数据,修正生成式对抗网络模型,可以提高生成式对抗网络模型的精度,将该修正后的生成式对抗网络模型作为预生成新闻评论模型。
S105、加载预生成新闻评论模型,并设置输出参数调整预生成新闻评论模型,输出得到新闻评论。
本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤可以通过程序来指令相关的硬件来完成,相应的程序可以存储于计算机可读取存储介质中。
应当注意,尽管在附图中以特定顺序描述了上述实施例的方法操作,但是这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,描绘的步骤可以改变执行顺序。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
实施例2:
如图5所示,本实施例提供了一种基于生成式对抗网络模型的新闻评论自动生成系统,该系统包括数据获取模块501、训练模块502、模型形成模块503、模型修正模块504和输出模块505,各个模块的具体功能如下:
所述数据获取模块501,用于获取多组目标特征新闻标题数据。
所述训练模块502,用于对所述新闻标题数据进行预处理来构造训练数据,将所述训练数据输入长短期记忆网络-循环神经网络模型进行训练,得到样本数据;其中,对所述新闻标题数据进行预处理来构造训练数据,具体为:在所述新闻标题数据中得到字符与行号对应的索引字典,将字符数据集映射成为索引数据集,在索引数据集中得到字符-数字的映射和数字-字符的映射,建立长短期记忆网络-循环神经网络模型的输入词嵌入向量,将输入词嵌入向量作为训练数据。
所述模型形成模块503,用于将长短期记忆网络-循环神经网络模型作为生成器,并在长短期记忆网络-循环神经网络模型中加入鉴别器,对生成器与鉴别器进行博弈对抗训练,达到纳什均衡,形成生成式对抗网络模型。
所述模型修正模块504,用于通过不断训练所述样本数据,修正生成式对抗网络模型,将修正后的生成式对抗网络模型作为预生成新闻评论模型。
所述输出模块505,用于加载预生成新闻评论模型,并设置输出参数调整预生成新闻评论模型,输出得到新闻评论。
本实施例中各个模块的具体实现可以参见上述实施例1,在此不再一一赘述;需要说明的是,本实施例提供的系统仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
实施例3:
如图6所示,本实施例提供了一种计算机设备,包括通过系统总线601连接的处理器602、存储器、输入装置603、显示器604和网络接口605。其中,处理器602用于提供计算和控制能力,存储器包括非易失性存储介质606和内存储器607,该非易失性存储介质606存储有操作系统、计算机程序和数据库,该内存储器607为非易失性存储介质606中的操作系统和计算机程序的运行提供环境,计算机程序被处理器602执行时,实现上述实施例1的新闻评论自动生成方法,如下:
获取多组目标特征新闻标题数据;对所述新闻标题数据进行预处理来构造训练数据,将所述训练数据输入长短期记忆网络-循环神经网络模型进行训练,得到样本数据;将长短期记忆网络-循环神经网络模型作为生成器,并在长短期记忆网络-循环神经网络模型中加入鉴别器,对生成器与鉴别器进行博弈对抗训练,达到纳什均衡,形成生成式对抗网络模型;通过不断训练所述样本数据,修正生成式对抗网络模型,将修正后的生成式对抗网络模型作为预生成新闻评论模型;加载预生成新闻评论模型,并设置输出参数调整预生成新闻评论模型,输出得到新闻评论。
本实施例中的计算机设备可以是服务器、计算机、移动终端(如智能手机、掌上电脑、平板电脑)等。
实施例4:
本实施例提供一种存储介质,该存储介质为计算机可读存储介质,其存储有计算机程序,所述计算机程序被处理器执行时,实现上述实施例1的新闻评论自动生成方法,如下:
获取多组目标特征新闻标题数据;对所述新闻标题数据进行预处理来构造训练数据,将所述训练数据输入长短期记忆网络-循环神经网络模型进行训练,得到样本数据;将长短期记忆网络-循环神经网络模型作为生成器,并在长短期记忆网络-循环神经网络模型中加入鉴别器,对生成器与鉴别器进行博弈对抗训练,达到纳什均衡,形成生成式对抗网络模型;通过不断训练所述样本数据,修正生成式对抗网络模型,将修正后的生成式对抗网络模型作为预生成新闻评论模型;加载预生成新闻评论模型,并设置输出参数调整预生成新闻评论模型,输出得到新闻评论。
本实施例所述的存储介质可以是磁盘、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、U盘、移动硬盘等介质。
综上所述,本发明利用深度学习算法,通过长短期记忆网络-循环神经网络训练得到样本数据,将长短期记忆网络-循环神经网络模型作为生成器,并在长短期记忆网络-循环神经网络模型中加入鉴别器,对生成器与鉴别器进行博弈对抗训练,达到纳什均衡,形成生成式对抗网络模型,使长短期记忆网络-循环神经网络模型与生成式对抗网络模型相结合,此后对生成式对抗网络模型进行修正,将修正后的生成式对抗网络模型作为预生成新闻评论模型,对于新闻评论,不必采用人工进行书写,节约了人力物力资源,同时使用生成式对抗网络模型极大地提高了新闻评论与新闻的相关性,具有极大的实用价值。
以上所述,仅为本发明专利较佳的实施例,但本发明专利的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及其发明构思加以等同替换或改变,都属于本发明专利的保护范围。
Claims (7)
1.基于生成式对抗网络模型的新闻评论自动生成方法,其特征在于,所述方法包括:
获取多组目标特征新闻标题数据;
对所述新闻标题数据进行预处理来构造训练数据,将所述训练数据输入长短期记忆网络-循环神经网络模型进行训练,得到样本数据;
将长短期记忆网络-循环神经网络模型作为生成器,并在长短期记忆网络-循环神经网络模型中加入鉴别器,对生成器与鉴别器进行博弈对抗训练,达到纳什均衡,形成生成式对抗网络模型;
通过不断训练所述样本数据,修正生成式对抗网络模型,将修正后的生成式对抗网络模型作为预生成新闻评论模型;
加载预生成新闻评论模型,并设置输出参数调整预生成新闻评论模型,输出得到新闻评论;
所述鉴别器采用卷积神经网络;所述对生成器与鉴别器进行博弈对抗训练,具体为:利用策略梯度强化学习对生成器与鉴别器进行一个极小极大的博弈对抗训练;其中,在博弈对抗训练开始时,使用极大似然估计法对生成器进行预训练,直到生成器达到收敛为止;
所述生成式对抗网络模型的公式如下:
X=[e1,e2,…,em,ey1,…,eyn]
2.根据权利要求1所述的新闻评论自动生成方法,其特征在于,所述对所述新闻标题数据进行预处理来构造训练数据,具体为:
在所述新闻标题数据中得到字符与行号对应的索引字典,将字符数据集映射成为索引数据集,在索引数据集中得到字符-数字的映射和数字-字符的映射,建立长短期记忆网络-循环神经网络模型的输入词嵌入向量,将输入词嵌入向量作为训练数据。
3.根据权利要求1所述的新闻评论自动生成方法,其特征在于,所述长短期记忆网络-循环神经网络模型包括输入层、隐藏层、输出层和长短期记忆网络层,其中长短期记忆网络层、隐藏层以及隐藏层节点个数均由输入参数决定。
4.根据权利要求1-3任一项所述的新闻评论自动生成方法,其特征在于,所述长短期记忆网络-循环神经网络模型的公式如下:
it=σ((Wxixt+Whiht-1)
ft=σ(Wxfxt+Whfht-1)
ot=σ(Wxtxt+Whoht-1)
gt=tanh(Wxcxt+Whcht-1)
ct=ft⊙ct-1+it⊙gt
ht=ot⊙tanh(ct)
其中,it为输入门,控制有多少信息能够流入记忆单元;ft为遗忘门,控制有多少上一时刻的记忆单元中的信息能够累积到当前时刻的记忆单元中;ot为输出门,控制有多少当前时刻的记忆单元中的信息能够流入当前隐藏状态ht中;ct为单位激活向量;w为权重矩阵,b为偏置矩阵,σ为逻辑sigmoid函数,h为隐藏层单元。
5.基于生成式对抗网络模型的新闻评论自动生成系统,其特征在于,所述系统包括:
数据获取模块,用于获取多组目标特征新闻标题数据;
训练模块,用于对所述新闻标题数据进行预处理来构造训练数据,将所述训练数据输入长短期记忆网络-循环神经网络模型进行训练,得到样本数据;
模型形成模块,用于将长短期记忆网络-循环神经网络模型作为生成器,并在长短期记忆网络-循环神经网络模型中加入鉴别器,对生成器与鉴别器进行博弈对抗训练,达到纳什均衡,形成生成式对抗网络模型;
模型修正模块,用于通过不断训练所述样本数据,修正生成式对抗网络模型,将修正后的生成式对抗网络模型作为预生成新闻评论模型;
输出模块,用于加载预生成新闻评论模型,并设置输出参数调整预生成新闻评论模型,输出得到新闻评论;
所述鉴别器采用卷积神经网络;所述对生成器与鉴别器进行博弈对抗训练,具体为:利用策略梯度强化学习对生成器与鉴别器进行一个极小极大的博弈对抗训练;其中,在博弈对抗训练开始时,使用极大似然估计法对生成器进行预训练,直到生成器达到收敛为止;
所述生成式对抗网络模型的公式如下:
X=[e1,e2,…,em,ey1,…,eyn]
6.计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器存储的程序时,实现权利要求1-4任一项所述的新闻评论自动生成方法。
7.存储介质,存储有程序,其特征在于,所述程序被处理器执行时,实现权利要求1-4任一项所述的新闻评论自动生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811228324.5A CN109523014B (zh) | 2018-10-22 | 2018-10-22 | 基于生成式对抗网络模型的新闻评论自动生成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811228324.5A CN109523014B (zh) | 2018-10-22 | 2018-10-22 | 基于生成式对抗网络模型的新闻评论自动生成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109523014A CN109523014A (zh) | 2019-03-26 |
CN109523014B true CN109523014B (zh) | 2021-02-02 |
Family
ID=65772776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811228324.5A Active CN109523014B (zh) | 2018-10-22 | 2018-10-22 | 基于生成式对抗网络模型的新闻评论自动生成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109523014B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110472280B (zh) * | 2019-07-10 | 2024-01-12 | 广东工业大学 | 一种基于生成对抗神经网络的功率放大器行为建模方法 |
CN110399690B (zh) * | 2019-07-31 | 2020-09-22 | 佳都新太科技股份有限公司 | 地铁车站行人仿真方法、装置、电子设备及存储介质 |
CN110795232B (zh) * | 2019-09-16 | 2023-10-20 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、计算机可读存储介质和计算机设备 |
CN112528006B (zh) * | 2019-09-18 | 2024-03-01 | 阿里巴巴集团控股有限公司 | 一种文本处理方法以及装置 |
CN110727844B (zh) * | 2019-10-21 | 2022-07-01 | 东北林业大学 | 一种基于生成对抗网络的在线评论商品特征观点提取方法 |
CN110929085B (zh) * | 2019-11-14 | 2023-12-19 | 国家电网有限公司 | 基于元语义分解的电力客服留言生成模型样本处理系统及方法 |
CN112884062B (zh) * | 2021-03-11 | 2024-02-13 | 四川省博瑞恩科技有限公司 | 一种基于cnn分类模型和生成对抗网络的运动想象分类方法及系统 |
CN113536080B (zh) * | 2021-07-20 | 2023-06-20 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种数据上传方法、装置及电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334497A (zh) * | 2018-02-06 | 2018-07-27 | 北京航空航天大学 | 自动生成文本的方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464210B (zh) * | 2017-07-06 | 2020-02-21 | 浙江工业大学 | 一种基于生成式对抗网络的图像风格迁移方法 |
CN108268638B (zh) * | 2018-01-18 | 2020-07-17 | 浙江工业大学 | 一种基于Spark框架的生成对抗网络分布式实现方法 |
CN108447049A (zh) * | 2018-02-27 | 2018-08-24 | 中国海洋大学 | 一种基于生成式对抗网络的数字化生理生物体分割方法 |
CN108427665A (zh) * | 2018-03-15 | 2018-08-21 | 广州大学 | 一种基于lstm型rnn模型的文本自动生成方法 |
-
2018
- 2018-10-22 CN CN201811228324.5A patent/CN109523014B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334497A (zh) * | 2018-02-06 | 2018-07-27 | 北京航空航天大学 | 自动生成文本的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109523014A (zh) | 2019-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109523014B (zh) | 基于生成式对抗网络模型的新闻评论自动生成方法及系统 | |
WO2020228376A1 (zh) | 文本处理方法、模型训练方法和装置 | |
CN109871532B (zh) | 文本主题提取方法、装置及存储介质 | |
EP4145308A1 (en) | Search recommendation model training method, and search result sorting method and device | |
CN111368993B (zh) | 一种数据处理方法及相关设备 | |
US20220044767A1 (en) | Compound property analysis method, model training method, apparatuses, and storage medium | |
US11010664B2 (en) | Augmenting neural networks with hierarchical external memory | |
US20240029436A1 (en) | Action classification in video clips using attention-based neural networks | |
WO2020151310A1 (zh) | 文本生成方法、装置、计算机设备及介质 | |
CN109977394B (zh) | 文本模型训练方法、文本分析方法、装置、设备及介质 | |
CN108427665A (zh) | 一种基于lstm型rnn模型的文本自动生成方法 | |
CN110781686B (zh) | 一种语句相似度计算方法、装置及计算机设备 | |
WO2021057884A1 (zh) | 语句复述方法、训练语句复述模型的方法及其装置 | |
CN109857865B (zh) | 一种文本分类方法及系统 | |
CN111858898A (zh) | 基于人工智能的文本处理方法、装置及电子设备 | |
CN110598210A (zh) | 实体识别模型训练、实体识别方法、装置、设备及介质 | |
CN111598213A (zh) | 网络训练方法、数据识别方法、装置、设备和介质 | |
CN113590078A (zh) | 虚拟形象合成方法、装置、计算设备及存储介质 | |
CN113157919A (zh) | 语句文本方面级情感分类方法及系统 | |
CN110955765A (zh) | 智能助理的语料构建方法、装置、计算机设备和存储介质 | |
CN113723108A (zh) | 一种事件提取方法、装置、电子设备及存储介质 | |
CN113496282A (zh) | 一种模型训练方法及装置 | |
CN115879508A (zh) | 一种数据处理方法及相关装置 | |
Nishimoto et al. | Dialogue management with deep reinforcement learning: Balancing exploration and exploitation | |
CN110334359B (zh) | 文本翻译方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |