CN111078866B - 一种基于序列到序列模型的中文文本摘要生成方法 - Google Patents
一种基于序列到序列模型的中文文本摘要生成方法 Download PDFInfo
- Publication number
- CN111078866B CN111078866B CN201911391393.2A CN201911391393A CN111078866B CN 111078866 B CN111078866 B CN 111078866B CN 201911391393 A CN201911391393 A CN 201911391393A CN 111078866 B CN111078866 B CN 111078866B
- Authority
- CN
- China
- Prior art keywords
- word
- text
- vector
- encoder
- abstract
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 239000013598 vector Substances 0.000 claims abstract description 80
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 15
- 230000007246 mechanism Effects 0.000 claims abstract description 15
- 230000011218 segmentation Effects 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 33
- 230000006870 function Effects 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000011478 gradient descent method Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 abstract description 5
- 230000007787 long-term memory Effects 0.000 abstract 1
- 230000006403 short-term memory Effects 0.000 abstract 1
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于序列到序列模型的中文文本摘要生成方法,首先对文本进行按字切分并填充到固定长度,对字向量进行高斯随机初始化;将文本编码后输入双向长短期记忆网络(LSTM),最后的输出状态作为预编码;对字向量按照不同的窗口大小做卷积神经网络(CNN),输出作为窗口词向量;构建编码器,构造一个双向LSTM,预编码作为其初始化参数,上一步的窗口词向量作为输入;构建解码器,使用单向LSTM并结合注意力机制生成文本。本发明改进了传统的序列到序列模型中的编码器,使模型在编码阶段能够获得更多的原文本的信息,最终解码出更好的文本摘要,并使用了更小细粒度的字向量,更适合中文文本。
Description
技术领域
本发明涉及深度学习、自然语言处理的技术领域,尤其是指一种基于序列到序列模型的中文文本摘要生成方法。
背景技术
文本自动生成摘要技术,其任务的主要内容为:对一个较长文本,通过模型最终生成一个较短文本,并能概括源文本的主要内容。
目前主流的文本摘要方式分为两种,抽取式和生成式。抽取式指利用算法从原文中寻找跟主要思想最接近的一条或几条句子,是一种比较成熟的方案,但由于抽取式摘要的所有内容均由原文本中提取拼凑,生成的摘要可读性和流畅性差强人意,距离实际应用还有不小的距离。
生成式的摘要生成模型利用深度学习,通过大规模文本数据的训练,编码获取文本的主要信息,并能解码生成较为流畅的摘要。但在训练中会出现过拟合的情况,对于一些重要的词汇,会在生成的摘要中重复出现,且词汇表是有限的,对于不在词汇表中生僻词汇,只能用“未知”代替,使得摘要的可读性不高。
传统的抽取式摘要方法大致分为贪心算法,基于图的方法,和基于约束优化方法。其中Text rank排序算法以其简洁、高效的特点被工业界广泛运用。大体思想是先去除文章中的一些停用词,之后对句子的相似度进行度量,计算每一句相对另一句的相似度得分,迭代传播,直到误差小于0.0001。再对上述得到的关键语句进行排序,便能得到想要的摘要。抽取式摘要主要考虑单词词频,并没有过多的语义信息,无法建立文本段落中的完整语义信息。
生成式摘要方法则主要依靠深度神经网络结构实现,2014年由GoogleBrain团队提出的序列到序列模型(Sequence-to-Sequence),开启了NLP中端到端网络的火热研究。序列到序列模型已经成功的应用到各种自然语言处理任务中,其主要结构包括编码器和解码器,经典的序列到序列模型中,编码器和解码都是由循环神经网络(RNN)或长短期记忆网络(LSTM)构成,编码器将原文本编码成一个表示向量,提取原文本中的语义信息,解码器负责解码这个向量,生成文本摘要。
但是由于“长距离依赖”问题的存在,RNN到最后一个时间步输入单词的时候,已经丢失了相当一部分的信息。这时候编码生成的语义向量同样也丢失了大量信息,就导致生成的摘要不够准确。这里就引入了注意力机制,其最初应用于图像识别,模仿人看图像时,目光的焦点在不同的物体上移动。当神经网络对图像进行识别时,每次集中于部分特征上,识别更加准确。利用权重去衡量特征的重要性,因此,注意力模型的结果就是在每次识别时,首先计算每个特征的权值,然后对特征进行加权求和,权值越大,该特征对当前识别的贡献就大。
基于深度学习模型的生成式方法在最终生成的摘要上会有更好的表现,但也会存在丢失一些重要信息,语义不连贯等问题,目前大部分的改进方案是从解码器入手,改进解码方式和调整注意力机制,但是作用仍然十分有限,并且训练时间较长。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出一种基于序列到序列模型的中文文本摘要生成方法,基于序列到序列模型的生成式算法,避免了抽取式的拼凑复制型的结果,实现端到端的训练方式,简化了特征工程和模型训练的难度,通过预编码和滑动窗口卷积,强化编码器的作用,可以减少预训练词向量的麻烦,增强文本编码的效果,获得更好的摘要效果。
为实现上述目的,本发明所提供的技术方案为:一种基于序列到序列模型的中文文本摘要生成方法,包括以下步骤:
1)对原始微博数据进行处理生成训练数据和字表,利用字表初始化字向量;
2)将原文本通过字向量转为向量表示,输入基于双向LSTM(长短期记忆网络)的预编码器,输出最后的隐藏向量;
3)构建序列到序列模型的主要结构编码器,将原文本通过字向量转为向量表示,输入基于CNN和双向LSTM的编码器,双向LSTM使用预编码器的隐藏向量进行初始化,然后输出每一步的输出向量和最后的隐藏向量;
4)构建序列到序列模型的主要结构解码器,其基于单向LSTM,对编码器的隐藏向量进行解码,再对编码器的每一步输出利用注意力机制计算,最后输出每一步摘要字符的概率向量;
5)在训练阶段,通过损失函数计算损失并通过深度学习算法优化;
6)在测试阶段,利用解码器输出的概率向量,生成最后的摘要文本。
在步骤1)中,将原始微博数据的原文本和摘要文本分别进行按字切分处理,其中英文单词和数字不做切分,并将其分别填充到固定长度,且使其一一对应作为一个训练样本;从处理后的数据中构造一个字表,利用字表构造字向量,首先确定其维度,然后利用高斯分布随机初始化,并设置为能够训练,对摘要文本按照字表做one-hot向量表示作为标签。
在步骤2)中,将原文本通过字表的字向量转为向量表示,输入基于双向LSTM的预编码器,获取原文本的语义信息,输出网络的隐藏状态。
在步骤3)中,将原文本通过字表的字向量转为向量表示,输入基于CNN和双向LSTM的编码器;其中,编码器的结构首先是一个CNN,会有多个不同大小的卷积核,即滑动窗口卷积;然后将该多个不同卷积核的输出向量拼接起来,输入双向LSTM结构中,这里的双向LSTM的初始隐藏状态使用预编码器最后的隐藏状态作为初始化参数;最后在LSTM网络输出每一步的输出和最后的隐藏状态。
在步骤4)中,将编码器的隐藏状态输入基于单向LSTM的解码器,再利用注意力机制,衡量编码器每一步的输出的重要性,在每一步t,注意力机制的计算公式如下:
at=softmax(et)
式中,vT、Wh、Ws、battn均是要训练的参数,hi是编码器第i步的输出,st是解码器的每一步输出,at是t步的注意力向量,ht *是通过注意力机制生成的上下文向量;
最后将它们通过MLP(多层感知器)映射到目标词汇表空间,得到每一步摘要字符的概率向量,具体计算如下:
P(w)=Pvocab(w)
式中,V'、V、b'、b均是要训练的参数,Pvocab则是所有字符的概率分布,P(w)则是生成字符w的概率。
在步骤5)中,训练阶段将最后输出的概率向量与摘要文本的one-hot向量通过损失函数计算损失,整个训练目标则是尽可能接近真实的文本摘要,若为当前步t的真实摘要单词,则要使得尽量大,即选择生成的概率最大;
对于每一步t的训练目标,使用负对数似然函数作为损失函数,即:
其中,loss是总损失,T是解码的总步数;
同时为了解决关键词重复生成的问题,在损失函数中加了一个惩罚项,对生成过的字降低其重要性,惩罚项及最终损失函数定义如下:
其中,ct是t步的惩罚项,at是t步的注意力向量,i为编码器的每一步,λ为惩罚项的所占比重;
训练方法使用了随机梯度下降法,设置学习率为0.001,训练100代;将训练样本随机打乱,生成批量数据输入,每批量有32个样本,对于每批量数据X,数据放入前面构建的序列到序列模型中,正向计算后通过损失函数计算损失,然后通过对随机梯度下降法反向传播对模型中的参数进行更新,包括字向量,以使得字向量更加适合当前的数据集分布。
在步骤6)中,测试阶段从最后输出的概率向量选取概率最大的5个字符,最后计算总概率最大的为最终摘要结果。
本发明与现有技术相比,具有如下优点与有益效果:
1、基于序列到序列模型的生成式算法,避免了抽取式的拼凑复制型的结果,该模型实现端到端的训练方式,简化了特征工程和模型训练的难度。
2、不用进行词向量或字向量的预训练,通过对文本进行按字划分,利用高斯随机初始化字向量,在模型训练过程中一起训练字向量,利用字向量的好处还有避免词表过大,难以处理出现频率较低的词汇,可以提高模型的准确率,同时加快模型的收敛速度。
3、预编码使得编码器有一个更好的初始化,类似与一个略读功能,先掌握文本的整体大意,再在此基础上精读,能够使编码器获取更精确的的信息。
4、滑动窗口卷积能够获取小范围内的语义信息,能够加强编码器的编码能力,从源文本中获取更多信息,还添加了几种不同的卷积核大小,使得获得的语义信息更丰富。
5、在大规模中文微博数据集上训练,利用基于字的分类模型弥补分词错误给模型造成的影响,对中文数据有更强的适应性。
附图说明
图1为本发明的总体网络结构图。
图2为本发明的编码器结构图。
图3为本发明的解码器结构图。
具体实施方式
下面结合具体实施例对本发明作进一步说明
本实施例所提供的基于序列到序列模型的中文文本摘要生成方法,包括以下步骤:
1)对大规模中文微博数据区分原文本和摘要文本后,将原文本和摘要文本分别进行按字切分,其中英文单词和数字不做切分,并将其分别填充到固定长度,原文本设定为150,摘要文本设定为30,且使其一一对应作为一个训练样本。从上述得到的数据中构造一个字表,对字表的字向量首先确定其维度,本方法设定为256维,然后利用高斯分布随机初始化,并设置为可训练,对摘要文本按照字表做one-hot向量表示作为标签。
2)使用TensorFlow搭建模型,总体网络结构如图1所示。用LSTM分别构建预编码器和编码器,如图2所示,预编码器为双向LSTM,其双向的隐藏状态作为编码器隐藏状态的初始化,并在编码器中添加滑动窗口卷积,滑动窗口大小为3,5,7,即卷积核尺寸分别为3,5,7,将通过不同尺寸的卷积核后的向量拼接起来,再输入双向LSTM。如图3所示,解码器使用单向LSTM,并使用注意力机制评估编码器每一步输出的重要性,再结合前面的输出生成当前概率最大的字。其中,将编码器的隐藏状态输入基于单向LSTM的解码器,再利用注意力机制,衡量编码器每一步的输出的重要性,在每一步t,注意力机制的计算公式如下:
at=softmax(et)
最后将它们通过MLP映射到目标词汇表空间,得到每一步摘要字符的概率向量,具体计算如下:
P(w)=Pvocab(w)
式中,V'、V、b'、b均是要训练的参数,Pvocab则是所有字符的概率分布,P(w)则是生成字符w的概率。
3)损失函数使用负对数似然函数,为了解决关键词重复生成的问题,在损失函数中加了一个惩罚项,对生成过的字降低其重要性,惩罚项和最终使用的损失函数如下:
其中惩罚项所占比重λ设定为0.5。
4)训练方法使用了随机梯度下降法,将训练集输入并随机打乱,生成批量数据,每批量有32个样本,对于每批量数据X,数据放入前面构建的深度学习模型中,正向计算后通过损失函数计算损失,然后通过对随机梯度下降法反向传播对模型中的参数进行更新,包括字向量,以使得字向量更加适合当前的数据集分布。设置学习率为0.001,训练100代。
5)在预测阶段,将待预测的数据按字进行切分后,并按照训练好的字向量,转换为对应的字向量输入模型,模型加载训练好的参数,将输入依次输入预编码器和编码器中,在解码器上每一步输出一个概率分布,映射到构建的字表中。不过与训练过程不同的是,在每一步输出时,取概率最大前5个字符,最后取总概率最大的句子为最终摘要结果。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (1)
1.一种基于序列到序列模型的中文文本摘要生成方法,其特征在于,包括以下步骤:
1)将原始微博数据的原文本和摘要文本分别进行按字切分处理,其中英文单词和数字不做切分,并将其分别填充到固定长度,且使其一一对应作为一个训练样本;从处理后的数据中构造一个字表,利用字表构造字向量,首先确定其维度,然后利用高斯分布随机初始化,并设置为能够训练,对摘要文本按照字表做one-hot向量表示作为标签;
2)将原文本通过字表的字向量转为向量表示,输入基于双向LSTM的预编码器,获取原文本的语义信息,输出网络的隐藏向量;
3)构建序列到序列模型的主要结构编码器,将原文本通过字表的字向量转为向量表示,输入基于CNN和双向LSTM的编码器;其中,编码器的结构首先是一个CNN,会有多个不同大小的卷积核,即滑动窗口卷积;然后将该多个不同卷积核的输出向量拼接起来,输入双向LSTM结构中,这里的双向LSTM的初始隐藏状态使用预编码器最后的隐藏状态作为初始化参数;最后在LSTM网络输出每一步的输出和最后的隐藏状态;
4)构建序列到序列模型的主要结构解码器,其基于单向LSTM,对编码器的隐藏向量进行解码,再对编码器的每一步输出利用注意力机制计算,最后输出每一步摘要字符的概率向量;
将编码器的隐藏状态输入基于单向LSTM的解码器,再利用注意力机制,衡量编码器每一步的输出的重要性,在每一步t,注意力机制的计算公式如下:
最后将它们通过MLP映射到目标词汇表空间,得到每一步摘要字符的概率向量,具体计算如下:
P(w)=Pvocab(w)
式中,V'、V、b'、b均是要训练的参数,Pvocab是所有字符的概率分布,P(w)是生成字符w的概率;
5)在训练阶段,通过损失函数计算损失并通过深度学习算法优化;
对于每一步t的训练目标,使用负对数似然函数作为损失函数,即:
其中,loss是总损失,T是解码的总步数;
同时为了解决关键词重复生成的问题,在损失函数中加了一个惩罚项,对生成过的字降低其重要性,惩罚项及最终损失函数定义如下:
其中,ct是t步的惩罚项,at是t步的注意力向量,i为编码器的每一步,λ为惩罚项的所占比重;
训练方法使用了随机梯度下降法,设置学习率为0.001,训练100代;将训练样本随机打乱,生成批量数据输入,每批量有32个样本,对于每批量数据X,数据放入前面构建的序列到序列模型中,正向计算后通过损失函数计算损失,然后通过对随机梯度下降法反向传播对模型中的参数进行更新,包括字向量,以使得字向量更加适合当前的数据集分布;
6)在测试阶段,利用解码器输出的概率向量选取概率最大的5个字符,最后计算总概率最大的为最终摘要结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911391393.2A CN111078866B (zh) | 2019-12-30 | 2019-12-30 | 一种基于序列到序列模型的中文文本摘要生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911391393.2A CN111078866B (zh) | 2019-12-30 | 2019-12-30 | 一种基于序列到序列模型的中文文本摘要生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111078866A CN111078866A (zh) | 2020-04-28 |
CN111078866B true CN111078866B (zh) | 2023-04-28 |
Family
ID=70319753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911391393.2A Active CN111078866B (zh) | 2019-12-30 | 2019-12-30 | 一种基于序列到序列模型的中文文本摘要生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111078866B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111767718B (zh) * | 2020-07-03 | 2021-12-07 | 北京邮电大学 | 一种基于弱化语法错误特征表示的中文语法错误更正方法 |
CN111813924B (zh) * | 2020-07-09 | 2021-04-09 | 四川大学 | 基于可扩展动态选择与注意力机制的类别检测算法及系统 |
CN112070208B (zh) * | 2020-08-05 | 2022-08-30 | 同济大学 | 基于编码器-解码器阶段注意力机制的刀具磨损预测方法 |
CN112308402B (zh) * | 2020-10-29 | 2022-04-12 | 复旦大学 | 基于长短期记忆网络的电力时间序列数据的异常检测方法 |
CN112395832B (zh) * | 2020-11-17 | 2024-05-21 | 上海金桥信息股份有限公司 | 一种基于序列到序列的文本量化分析与生成方法及系统 |
CN112765959B (zh) * | 2020-12-31 | 2024-05-28 | 康佳集团股份有限公司 | 意图识别方法、装置、设备及计算机可读存储介质 |
CN113762459A (zh) * | 2021-01-26 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 一种模型训练方法、文本生成方法、装置、介质及设备 |
CN113128214B (zh) * | 2021-03-17 | 2022-05-06 | 重庆邮电大学 | 一种基于bert预训练模型的文本摘要生成方法 |
CN115577118B (zh) * | 2022-09-30 | 2023-05-30 | 南京信息工程大学 | 一种基于混合分组排序和动态实体记忆规划的文本生成方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108804495A (zh) * | 2018-04-02 | 2018-11-13 | 华南理工大学 | 一种基于增强语义的自动文本摘要方法 |
CN110209801A (zh) * | 2019-05-15 | 2019-09-06 | 华南理工大学 | 一种基于自注意力网络的文本摘要自动生成方法 |
CN110390103A (zh) * | 2019-07-23 | 2019-10-29 | 中国民航大学 | 基于双编码器的短文本自动摘要方法及系统 |
-
2019
- 2019-12-30 CN CN201911391393.2A patent/CN111078866B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108804495A (zh) * | 2018-04-02 | 2018-11-13 | 华南理工大学 | 一种基于增强语义的自动文本摘要方法 |
CN110209801A (zh) * | 2019-05-15 | 2019-09-06 | 华南理工大学 | 一种基于自注意力网络的文本摘要自动生成方法 |
CN110390103A (zh) * | 2019-07-23 | 2019-10-29 | 中国民航大学 | 基于双编码器的短文本自动摘要方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111078866A (zh) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111078866B (zh) | 一种基于序列到序列模型的中文文本摘要生成方法 | |
CN110717334B (zh) | 基于bert模型和双通道注意力的文本情感分析方法 | |
CN108875807B (zh) | 一种基于多注意力多尺度的图像描述方法 | |
CN109344391B (zh) | 基于神经网络的多特征融合中文新闻文本摘要生成方法 | |
CN107844469B (zh) | 基于词向量查询模型的文本简化方法 | |
CN110309514B (zh) | 一种语义识别方法及装置 | |
CN110069790B (zh) | 一种通过译文回译对照原文的机器翻译系统及方法 | |
CN108984524A (zh) | 一种基于变分神经网络主题模型的标题生成方法 | |
CN108830287A (zh) | 基于残差连接的Inception网络结合多层GRU的中文图像语义描述方法 | |
CN109271643A (zh) | 一种翻译模型的训练方法、翻译方法和装置 | |
US11475225B2 (en) | Method, system, electronic device and storage medium for clarification question generation | |
CN110929030A (zh) | 一种文本摘要和情感分类联合训练方法 | |
CN106650813A (zh) | 一种基于深度残差网络和lstm的图像理解方法 | |
CN111143563A (zh) | 基于bert与lstm及cnn融合的文本分类方法 | |
WO2022217849A1 (en) | Methods and systems for training neural network model for mixed domain and multi-domain tasks | |
CN111414481A (zh) | 基于拼音和bert嵌入的中文语义匹配方法 | |
CN114757182A (zh) | 一种改进训练方式的bert短文本情感分析方法 | |
CN111125333B (zh) | 一种基于表示学习与多层覆盖机制的生成式知识问答方法 | |
CN109062897A (zh) | 基于深度神经网络的句子对齐方法 | |
CN110457661B (zh) | 自然语言生成方法、装置、设备及存储介质 | |
CN110738062A (zh) | 一种gru神经网络蒙汉机器翻译方法 | |
CN110263147B (zh) | 推送信息的生成方法及装置 | |
CN112560456B (zh) | 一种基于改进神经网络的生成式摘要生成方法和系统 | |
CN113609284A (zh) | 一种融合多元语义的文本摘要自动生成方法及装置 | |
CN109145946B (zh) | 一种智能图像识别和描述方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |