CN110782002A - 一种lstm神经网络训练方法及装置 - Google Patents

一种lstm神经网络训练方法及装置 Download PDF

Info

Publication number
CN110782002A
CN110782002A CN201910863211.0A CN201910863211A CN110782002A CN 110782002 A CN110782002 A CN 110782002A CN 201910863211 A CN201910863211 A CN 201910863211A CN 110782002 A CN110782002 A CN 110782002A
Authority
CN
China
Prior art keywords
training
neural network
lstm neural
keywords
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910863211.0A
Other languages
English (en)
Other versions
CN110782002B (zh
Inventor
曾理
王纯斌
蓝科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Sefon Software Co Ltd
Original Assignee
Chengdu Sefon Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Sefon Software Co Ltd filed Critical Chengdu Sefon Software Co Ltd
Priority to CN201910863211.0A priority Critical patent/CN110782002B/zh
Publication of CN110782002A publication Critical patent/CN110782002A/zh
Application granted granted Critical
Publication of CN110782002B publication Critical patent/CN110782002B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种LSTM神经网络训练方法及装置,本发明的目的在于提供一种基于文本感知聚焦机制的长短时记忆网络训练方法。该发明将人类感知事物时对关键信息形成聚焦,给予更多注意力权重的机理用于神经网络模型训练;将词向量模式应用于文本中实体关系、事件等关键信息,计算实体向量和事件向量,对训练数据进行实体增强、关系增强和事件增强,在不改变网络结构的前提下,增加训练数据中关键信息的比重,从而获得更加适用于训练数据的网络参数,提升LSTM神经网络性能。

Description

一种LSTM神经网络训练方法及装置
技术领域
本发明涉及自然语言处理和人工智能领域,特别涉及一种LSTM神经网络训练方法及装置。
背景技术
深度学习技术作为人工智能“连接主义”学派的代表,近年来在语音、视觉、自然语言处理等领域取得了令人瞩目的成就,并已在互联网、安防、教育、医疗、工业制造等行业实现了落地。
人类产生的数据中包含大量时间序列,如语音信号、音频信号、文本、金融数据、设备日志等,这些数据存在时间维度上的前后关系。卷积神经网络RNN(Recurrent NeuralNetwork)因此被发明,通过将每时刻的隐藏状态传递给下一时刻来“记忆”之前的信息,进而获得对时序数据进行学习的能力。目前,基于RNN神经网络已出现了语音识别、机器翻译、乐曲生成、文本生成、情感分析、DNA序列分析、视频行为识别、命名实体识别、文本分类等多个应用。然而,对于较长的时序数据,逐层的记忆传递会因为参数矩阵的谱范数以及激活函数导数的累乘而出现疾速下降,出现“梯度消失”,最终无法保留长时间的信息。
在RNN网络的基础上,Hochreater和Schmidhuber等学者提出了长短时记忆网络LSTM(Long Short Time Memory),通过精心设计和训练的门函数来控制每个时刻的记忆进入后续单元的比例来保证长期记忆的不丢失。定量分析可以认为,LSTM将反向传播的梯度计算由联乘变为了求和,从而降低了传播误差大幅下降的概率,有效解决了“梯度消失”问题。由于LSTM包含遗忘门、输入门和输出门,每个门都需要对相应的参数矩阵进行训练,导致计算开销过大,Cho等提出了门控单元网络GRU,将三个门减少至两个,在保持网络性能的前提下降低了网络训练的计算量。进一步地,研究发现数据的输入顺序可能导致网络训练结果的改变。在此基础上又提出了双向长短时记忆网络Bi-LSTM。因此,当前所指采用循环神经网络实现的应用一般指基于LSTM网络及其变体。
近两年的研究进一步发现,人类对于信息的获取并非按照顺序或者反序依次处理的方式,而会对部分重要信息产生更高级别的关注,最终获得对全部信息的理解。Google在2017年提出了注意力(Attention)机制,将上述生理规律转换为编码器和解码器之间映射的权重表示,取得了较好的效果。然而基于注意力机制的Transformer模型结构复杂,训练计算开销极大。
发明内容
本发明的目的在于:提供了一种LSTM神经网络训练方法及装置,解决了在自然语言处理中,基于注意力机制的Transformer模型结构复杂,训练计算开销极大的问题。
本发明采用的技术方案如下:
一种LSTM神经网络训练方法,包括由无标注文本生成的训练数据,将无标注文本中的关键词处理后根据关键词对训练数据进行加权,提升训练数据对特征信息的携带能力,将加权后的训练数据用于LSTM神经网络训练。本发明借鉴人类在获取信息时对关键位置或者词语形成注意力聚焦的生理学基础,结合长短时记忆网络LSTM,提出了一种不改变模型结构的模型训练方法,通过改变训练数据中关键信息的权重,获得性能更好的模型训练结果。
进一步的,所述由无标注文本生成的训练数据,将无标注文本中的关键词处理后根据关键词对训练数据进行加权,提升训练数据对特征信息的携带能力,将加权后的训练数据用于LSTM神经网络训练的方法包括以下步骤:
S1、将无标注文本作为训练文本,对训练文本进行预处理;
S2、对预处理后的训练文本进行识别,生成训练文本的关键词;
S3、对训练文本中的词语进行编码,得到高维空间连续词向量,对关键词进行同样的编码得到关键词向量;
S4、将关键词向量添加至对应的词向量对词向量进行加权得到最终的训练数据;
S5、将最终的训练数据输入LSTM神经网络进行训练。
进一步的,所述步骤S1中对训练文本进行预处理的方法包括清洗、分词、去停用词中的至少一种。
进一步的,所述步骤S2中的关键词包括实体关键词、关系关键词和事件关键词。对预处理后的训练文本进行命名实体识别,获得常见的如姓名、地址、组织机构、时间、货币、数量等命名实体,建立实体关键词。然后对预处理训练文本进行实体关系抽取,如实体间存在关系,判断实体关系是否属于常见的组件与整体、工具的使用、成员集合、因果、实体目的地、内容与容器、信息与主题、生产与被生产和实体与原产地等类型,并形成关系关键词。对预处理训练文本进行事件抽取,如句子中存在事件,判断是否属于生活、移动、事务、商业、冲突、交流、个人、司法等类型,并形成事件关键词。
进一步的,所述步骤S3中的关键词线路包括分别与实体关键词、关系关键词和事件关键词对应的实体向量、关系向量和事件向量。
所述步骤S4中将关键词向量添加至对应的词向量对词向量进行加权包括实体增强加权、关系增强加权和事件增强加权。
实体增强加权:将实体向量添加至网络输入相同位置的词向量,即对属于实体的词的位置对应的词向量进行加权。
关系增强加权:若文本实体存在关系,则将对应关系向量添加至网络输入每个位置的词向量,即将实体关系对应词的词向量加入训练数据。
事件增强加权:若文本中存在事件,则将对应事件向量添加至网络输入每个位置的词向量,即将事件对应词的词向量加入训练数据。
进一步的,所述步骤S3中对训练文本中的词语进行编码和对关键词进行同样的编码的编码方法为先进行one-hot编码再进行word2vector词向量转化。
进一步的,所述LSTM神经网络进行训练的方法包括前向传播和沿时反向传播算法。
进一步的,所述步骤S5中将最终的训练数据分批逐次输入LSTM神经网络进行训练直到满足训练停止条件。
一种LSTM神经网络训练方法及装置,包括:
存储器,用于存储可执行指令;
多核处理器,用于执行所述存储器中存储的可执行指令,实现如上述的LSTM神经网络训练方法。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1.本发明一种LSTM神经网络训练方法及装置,模拟注意力机制,通过训练调整训练数据实现网络参数优化。本方法在构建训练数据集阶段,借鉴人类感知过程中对关键信息形成聚焦的思想,将文本中关键信息如实体、关系、事件转换为嵌入式表达,并在原仅由词向量形成训练向量的基础上,添加了关键信息的向量,使得文本中的关键信息得到强化,改变了原训练数据关键信息和非关键信息权重相同的现状,使得网络训练更易捕捉特征、得到性能更优的网络;
2.本发明一种LSTM神经网络训练方法及装置,引入关系向量和事件向量,提升不同文本特征属性。本方法将词嵌入思想拓展到文本其余重要特征,如实体关系、事件等,对特征进行嵌入处理并以一定的权重添加入训练向量,提升文本训练数据对特征信息的携带能力。因此,能够更好地提升数据质量;
3.本发明一种LSTM神经网络训练方法及装置,训练数据维数不变,不增加计算量。深度学习主要计算量包含在训练神经网络的前向传播和反向传播的矩阵相乘中。对于序列到序列模型,需训练编码器对应的网络和解码器对应的网络,共包含两个完整的深度神经网络。本方法仍采用单个神经网络模型,这样能有效减少计算量和计算所需的存储空间;
4.本发明一种LSTM神经网络训练方法及装置,未改变网络结构,易于在现有应用基础上在线修正。本方法在现有LSTM结构基础上,仅改变训练数据重要信息特征比例,训练获得最新网络参数。由于网络结构未发生变化,在获得新的训练文本时,可以通过在线方式对网络迭代训练,得到最新参数而无需重新配置模型资源。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,其中:
图1是本发明的流程示意图;
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合图1对本发明作进一步地详细描述,所描述的实施例不应视为对本发明的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本发明实施例的目的,不是旨在限制本发明。
对本发明实施例进行进一步详细说明之前,对本发明实施例中涉及的名词和术语进行说明,本发明实施例中涉及的名词和术语适用于如下的解释。
one-hot编码:将每个词编码为向量,其长度为词典总单词数。记录该单词对应在词典中的索引,将向量中该索引位置元素记为1,其余位置元素为0,则为单词对应的one-hot编码向量。
word2vector词向量转化:由于one-hot编码的稀疏性,使得有相近含义的单词不具备相关性,因此通过训练将每个词映射成为一个固定长度的稠密向量,该稠密向量即为单词对应的词向量。
实施例1
一种LSTM神经网络训练方法,包括由无标注文本生成的训练数据,将无标注文本中的关键词处理后根据关键词对训练数据进行加权,提升训练数据对特征信息的携带能力,将加权后的训练数据用于LSTM神经网络训练。本发明借鉴人类在获取信息时对关键位置或者词语形成注意力聚焦的生理学基础,结合长短时记忆网络LSTM,提出了一种不改变模型结构的模型训练方法,通过改变训练数据中关键信息的权重,获得性能更好的模型训练结果。
实施例2
本实施例与实施例1的区别在于,所述由无标注文本生成的训练数据,将无标注文本中的关键词处理后根据关键词对训练数据进行加权,提升训练数据对特征信息的携带能力,将加权后的训练数据用于LSTM神经网络训练的方法包括以下步骤:
S1、将无标注文本作为训练文本,对训练文本进行预处理;
S2、对预处理后的训练文本进行识别,生成训练文本的关键词;
S3、对训练文本中的词语进行编码,得到高维空间连续词向量,对关键词进行同样的编码得到关键词向量;
S4、将关键词向量添加至对应的词向量对词向量进行加权得到最终的训练数据;
S5、将最终的训练数据输入LSTM神经网络进行训练。
实施例3
本实施例与实施例2的区别在于,所述步骤S1中对训练文本进行预处理的方法包括清洗、分词、去停用词中的至少一种。
进一步的,所述步骤S2中的关键词包括实体关键词、关系关键词和事件关键词。对预处理后的训练文本进行命名实体识别,获得常见的如姓名、地址、组织机构、时间、货币、数量等命名实体,建立实体关键词。然后对预处理训练文本进行实体关系抽取,如实体间存在关系,判断实体关系是否属于常见的组件与整体、工具的使用、成员集合、因果、实体目的地、内容与容器、信息与主题、生产与被生产和实体与原产地等类型,并形成关系关键词。对预处理训练文本进行事件抽取,如句子中存在事件,判断是否属于生活、移动、事务、商业、冲突、交流、个人、司法等类型,并形成事件关键词。
进一步的,所述步骤S3中的关键词线路包括分别与实体关键词、关系关键词和事件关键词对应的实体向量、关系向量和事件向量。
所述步骤S4中将关键词向量添加至对应的词向量对词向量进行加权包括实体增强加权、关系增强加权和事件增强加权。
实体增强加权:将实体向量添加至网络输入相同位置的词向量,即对属于实体的词的位置对应的词向量进行加权。
关系增强加权:若文本实体存在关系,则将对应关系向量添加至网络输入每个位置的词向量,即将实体关系对应词的词向量加入训练数据。
事件增强加权:若文本中存在事件,则将对应事件向量添加至网络输入每个位置的词向量,即将事件对应词的词向量加入训练数据。
实施例4
本实施例与实施例2的区别在于,所述步骤S3中对训练文本中的词语进行编码和对关键词进行同样的编码的编码方法为先进行one-hot编码再进行word2vector词向量转化。
进一步的,所述LSTM神经网络进行训练的方法包括前向传播和沿时反向传播算法。
进一步的,所述步骤S5中将最终的训练数据分批逐次输入LSTM神经网络进行训练直到满足训练停止条件。
实施例5
一种LSTM神经网络训练方法及装置,包括:
存储器,用于存储可执行指令;
多核处理器,用于执行所述存储器中存储的可执行指令,实现如上述的LSTM神经网络训练方法。
实施例6
如图1所示,本方案一种具体在执行步骤:
S01,准备大规模的无标注文本作为训练文本,对文本进行清洗、分词、去停用词等预处理。
S02,对预处理训练文本进行命名实体识别,获得常见的如姓名、地址、组织机构、时间、货币、数量等命名实体,建立实体关键词。
S03,对训练文本进行实体关系抽取,如实体间存在关系,判断实体关系是否属于常见的组件与整体、工具的使用、成员集合、因果、实体目的地、内容与容器、信息与主题、生产与被生产和实体与原产地等类型,并形成关系关键词。
S04,对训练文本进行事件抽取,如句子中存在事件,判断是否属于生活、移动、事务、商业、冲突、交流、个人、司法等类型,并形成事件关键词。
S05,将词语进行one-hot编码,再进行词向量转化word2vector,得到高维空间连续词向量。
S06,基于S5词向量结果,获取文本中实体、关系词、事件词对应的词向量,形成实体向量、关系向量和事件向量。
S07,实体增强:将实体向量添加至网络输入相同位置的词向量,即对属于实体的词位置对应的词向量进行加权。
S08,关系增强:如文本实体存在关系,则将对应关系向量添加至网络输入每个位置的词向量,即将实体关系对应词的词向量加入训练数据。
S09,事件增强:如文本中存在事件,则将对应事件向量添加至网络输入每个位置的词向量,即将事件对应词的词向量加入训练数据。
S010,将经过实体增强、关系增强和事件增强的数据作为新训练数据,进行分批,作为神经网络输入。
S011,将分批数据逐次输入初始生成的LSTM神经网络,并通过前向传播和沿时反向传播算法训练网络。
S012,判断是否满足训练停止条件,如未满足,则重复步骤S11,如满足,则进入步骤13。
S013,得到训练好的长短时记忆神经网络模型。
S014,算法结束。
实施例7
本实施例为实体关键词、关系关键词和事件关键词的抽取举例:
在前不久A市召开的科创板后备企业座谈会上,成都XXXX股份有限公司与其他20家科创板后备企业相关负责人齐齐亮相。只是素来低调的XXXX的知名度似乎并没有其他企业那么高,但“干货”却是满满的:国内领先的大数据平台及人工智能服务提供商;业务涉及全球七十多个国家和地区;估值已接近10亿元人民币。因此,公司被B省证监局列为“科创板上市辅导重点企业”。
对预处理训练文本进行命名实体识别,获得常见的如姓名、地址、组织机构、时间、货币、数量等命名实体,建立实体关键词:A市、成都XXXX股份有限公司、XXXX、B省证监局、20家、七十多个、10亿元。
对训练文本进行实体关系抽取,如实体间存在关系,判断实体关系是否属于常见的组件与整体、工具的使用、成员集合、因果、实体目的地、内容与容器、信息与主题、生产与被生产和实体与原产地等类型,并形成关系关键词:成都XXXX股份有限公司-科创板后备企业、A市-B省证监局、成都XXXX股份有限公司-大数据平台及人工智能服务提供商等。
对训练文本进行事件抽取,如句子中存在事件,判断是否属于生活、移动、事务、商业、冲突、交流、个人、司法等类型,并形成事件关键词:科创板上市、企业座谈会等。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种LSTM神经网络训练方法,包括由无标注文本生成的训练数据,其特征在于:将无标注文本中的关键词处理后根据关键词对训练数据进行加权,提升训练数据对特征信息的携带能力,将加权后的训练数据用于LSTM神经网络训练。
2.根据权利要求1所述的一种LSTM神经网络训练方法,其特征在于:所述由无标注文本生成的训练数据,将无标注文本中的关键词处理后根据关键词对训练数据进行加权,提升训练数据对特征信息的携带能力,将加权后的训练数据用于LSTM神经网络训练的方法包括以下步骤:
S1、将无标注文本作为训练文本,对训练文本进行预处理;
S2、对预处理后的训练文本进行识别,生成训练文本的关键词;
S3、对训练文本中的词语进行编码,得到高维空间连续词向量,对关键词进行同样的编码得到关键词向量;
S4、将关键词向量添加至对应的词向量对词向量进行加权得到最终的训练数据;
S5、将最终的训练数据输入LSTM神经网络进行训练。
3.根据权利要求2所述的一种LSTM神经网络训练方法,其特征在于:所述步骤S1中对训练文本进行预处理的方法包括清洗、分词、去停用词中的至少一种。
4.根据权利要求2所述的一种LSTM神经网络训练方法,其特征在于:所述步骤S2中的关键词包括实体关键词、关系关键词和事件关键词。
5.根据权利要求4所述的一种LSTM神经网络训练方法,其特征在于:所述步骤S3中的关键词线路包括分别与实体关键词、关系关键词和事件关键词对应的实体向量、关系向量和事件向量。
6.根据权利要求5所述的一种LSTM神经网络训练方法,其特征在于:所述步骤S4中将关键词向量添加至对应的词向量对词向量进行加权包括实体增强加权、关系增强加权和事件增强加权。
7.根据权利要求2所述的一种LSTM神经网络训练方法,其特征在于:所述步骤S3中对训练文本中的词语进行编码和对关键词进行同样的编码的编码方法为先进行one-hot编码再进行word2vector词向量转化。
8.根据权利要求2所述的一种LSTM神经网络训练方法,其特征在于:所述LSTM神经网络进行训练的方法包括前向传播和沿时反向传播算法。
9.根据权利要求8所述的一种LSTM神经网络训练方法,其特征在于:所述步骤S5中将最终的训练数据分批逐次输入LSTM神经网络进行训练直到满足训练停止条件。
10.一种LSTM神经网络训练方法及装置,其特征在于:包括:
存储器,用于存储可执行指令;
多核处理器,用于执行所述存储器中存储的可执行指令,实现如权利要求1所述的LSTM神经网络训练方法。
CN201910863211.0A 2019-09-12 2019-09-12 一种lstm神经网络训练方法及装置 Active CN110782002B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910863211.0A CN110782002B (zh) 2019-09-12 2019-09-12 一种lstm神经网络训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910863211.0A CN110782002B (zh) 2019-09-12 2019-09-12 一种lstm神经网络训练方法及装置

Publications (2)

Publication Number Publication Date
CN110782002A true CN110782002A (zh) 2020-02-11
CN110782002B CN110782002B (zh) 2022-04-05

Family

ID=69383430

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910863211.0A Active CN110782002B (zh) 2019-09-12 2019-09-12 一种lstm神经网络训练方法及装置

Country Status (1)

Country Link
CN (1) CN110782002B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339763A (zh) * 2020-02-26 2020-06-26 四川大学 一种基于多层级神经网络的英文邮件主题生成方法
CN111488740A (zh) * 2020-03-27 2020-08-04 北京百度网讯科技有限公司 一种因果关系的判别方法、装置、电子设备及存储介质
CN113160805A (zh) * 2021-04-27 2021-07-23 中国建设银行股份有限公司深圳市分行 一种消息识别方法、装置、电子设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107797987A (zh) * 2017-10-12 2018-03-13 北京知道未来信息技术有限公司 一种基于Bi‑LSTM‑CNN的混合语料命名实体识别方法
CN108536679A (zh) * 2018-04-13 2018-09-14 腾讯科技(成都)有限公司 命名实体识别方法、装置、设备及计算机可读存储介质
CN108717439A (zh) * 2018-05-16 2018-10-30 哈尔滨理工大学 一种基于注意力机制和特征强化融合的中文文本分类方法
CN108897989A (zh) * 2018-06-06 2018-11-27 大连理工大学 一种基于候选事件元素注意力机制的生物事件抽取方法
CN109165384A (zh) * 2018-08-23 2019-01-08 成都四方伟业软件股份有限公司 一种命名实体识别方法及装置
CN109376240A (zh) * 2018-10-11 2019-02-22 平安科技(深圳)有限公司 一种文本分析方法及终端
CN109992646A (zh) * 2019-03-29 2019-07-09 腾讯科技(深圳)有限公司 文本标签的提取方法和装置
US10402723B1 (en) * 2018-09-11 2019-09-03 Cerebri AI Inc. Multi-stage machine-learning models to control path-dependent processes
CN110222707A (zh) * 2019-04-28 2019-09-10 平安科技(深圳)有限公司 一种文本数据增强方法及装置、电子设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107797987A (zh) * 2017-10-12 2018-03-13 北京知道未来信息技术有限公司 一种基于Bi‑LSTM‑CNN的混合语料命名实体识别方法
CN108536679A (zh) * 2018-04-13 2018-09-14 腾讯科技(成都)有限公司 命名实体识别方法、装置、设备及计算机可读存储介质
CN108717439A (zh) * 2018-05-16 2018-10-30 哈尔滨理工大学 一种基于注意力机制和特征强化融合的中文文本分类方法
CN108897989A (zh) * 2018-06-06 2018-11-27 大连理工大学 一种基于候选事件元素注意力机制的生物事件抽取方法
CN109165384A (zh) * 2018-08-23 2019-01-08 成都四方伟业软件股份有限公司 一种命名实体识别方法及装置
US10402723B1 (en) * 2018-09-11 2019-09-03 Cerebri AI Inc. Multi-stage machine-learning models to control path-dependent processes
CN109376240A (zh) * 2018-10-11 2019-02-22 平安科技(深圳)有限公司 一种文本分析方法及终端
CN109992646A (zh) * 2019-03-29 2019-07-09 腾讯科技(深圳)有限公司 文本标签的提取方法和装置
CN110222707A (zh) * 2019-04-28 2019-09-10 平安科技(深圳)有限公司 一种文本数据增强方法及装置、电子设备

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DUYU TANG 等: "Effective LSTMs for Target-Dependent Sentiment Classification", 《ARXIV》 *
GUIGUANG DING 等: "Neural Image Caption Generation with Weighted Training and Reference", 《COGNITIVE COMPUTATION》 *
GUOQIANG ZHONG 等: "Long Short-Term Attention", 《ARXIV》 *
王伟 等: "基于BiGRU-attention神经网络的文本情感分类模型", 《计算机应用研究》 *
马远浩 等: "基于加权词向量和 LSTM-CNN 的微博文本分类研究", 《现代计算机(专业版)》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339763A (zh) * 2020-02-26 2020-06-26 四川大学 一种基于多层级神经网络的英文邮件主题生成方法
CN111339763B (zh) * 2020-02-26 2022-06-28 四川大学 一种基于多层级神经网络的英文邮件主题生成方法
CN111488740A (zh) * 2020-03-27 2020-08-04 北京百度网讯科技有限公司 一种因果关系的判别方法、装置、电子设备及存储介质
CN111488740B (zh) * 2020-03-27 2023-12-22 北京百度网讯科技有限公司 一种因果关系的判别方法、装置、电子设备及存储介质
CN113160805A (zh) * 2021-04-27 2021-07-23 中国建设银行股份有限公司深圳市分行 一种消息识别方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN110782002B (zh) 2022-04-05

Similar Documents

Publication Publication Date Title
CN106919646B (zh) 中文文本摘要生成系统及方法
CN110427461B (zh) 智能问答信息处理方法、电子设备及计算机可读存储介质
US20190079999A1 (en) Electronic message classification and delivery using a neural network architecture
CN110782002B (zh) 一种lstm神经网络训练方法及装置
CN109614487B (zh) 一种基于张量融合方式的情感分类的方法
CN113127624B (zh) 问答模型的训练方法及装置
CN108170848B (zh) 一种面向中国移动智能客服的对话场景分类方法
CN111492388A (zh) 用于确定可动作意图的ai系统
US20230169271A1 (en) System and methods for neural topic modeling using topic attention networks
CN111666400A (zh) 消息获取方法、装置、计算机设备及存储介质
Dwivedi et al. Modelling and analysis of artificial intelligence approaches in enhancing the speech recognition for effective multi-functional machine learning platform–A multi regression modelling approach
Mathur et al. A scaled‐down neural conversational model for chatbots
US11875128B2 (en) Method and system for generating an intent classifier
Mohawesh et al. Fake or genuine? contextualised text representation for fake review detection
Dasari et al. A stacking ensemble approach for identification of informative tweets on twitter data
CN113627550A (zh) 一种基于多模态融合的图文情感分析方法
CN116662522B (zh) 问题答案推荐方法、存储介质和电子设备
CN114372454A (zh) 文本信息抽取方法、模型训练方法、装置及存储介质
Barse et al. Cyber-Trolling Detection System
Jasim et al. Analyzing Social Media Sentiment: Twitter as a Case Study
Amrutha et al. Effortless and beneficial processing of natural languages using transformers
Tracey et al. Applying NLP to build a cold reading chatbot
CN114330701A (zh) 模型训练方法、装置、计算机设备、存储介质及程序产品
Alibadi et al. To Read or To Do? That's The Task: Using Transfer Learning to Detect the Intent of an Email
Kaur et al. Conversational natural language processing for automated customer support services

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant