CN110472726A - 基于输出变化微分的灵敏长短期记忆方法 - Google Patents

基于输出变化微分的灵敏长短期记忆方法 Download PDF

Info

Publication number
CN110472726A
CN110472726A CN201910676248.2A CN201910676248A CN110472726A CN 110472726 A CN110472726 A CN 110472726A CN 201910676248 A CN201910676248 A CN 201910676248A CN 110472726 A CN110472726 A CN 110472726A
Authority
CN
China
Prior art keywords
input
information
tanh
function
location mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910676248.2A
Other languages
English (en)
Other versions
CN110472726B (zh
Inventor
胡凯
郑翡
张彦雯
卢飞宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN201910676248.2A priority Critical patent/CN110472726B/zh
Publication of CN110472726A publication Critical patent/CN110472726A/zh
Application granted granted Critical
Publication of CN110472726B publication Critical patent/CN110472726B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于输出变化微分的灵敏长短期记忆方法,为了提高传统的LSTM神经网络对短时间信息的反应能力,增加了增加了信息敏感能力的长短期记忆网络的一个神经单元,能够很好的增加其对于短时间信息的反应能力,提高其应用的实时性,进而能够进行更完善的实时分析,进一步分析微动作等内容,提高了应用价值。

Description

基于输出变化微分的灵敏长短期记忆方法
技术领域
本发明涉及长短期记忆网络领域,尤其涉及一种基于输出变化微分的灵敏长短期记忆方法。
背景技术
人工智能是21世纪三大重要学科之一,是国家科学、经济、民生的重要支撑。其中,长短期记忆网络(LSTM)是基于记忆的识别的重要算法,已经在很多方面包括有语义、动作、文本等多方面得到了识别,具有很好的价值。
现有的长短期记忆网络,依然存在着一个主要的问题,就是它采用长短期记忆的方式,提高了在整个视频的长时间序列中的信息的分析能力,但是彻底没有对于短时间信息的反应能力,这使得现有的长短期记忆网络只能用于事后分析,无法做到很好的实时性,以及对微动作等内容的识别。
如果能够对长短期记忆网络的结构调整,增加其对于短时间信息的反应能力,提高其应用的实时性,那么就可以很好的实时分析,更加能够分析微动作等内容,进一步提高其应用价值。
发明内容
本发明所要解决的技术问题是针对背景技术中所涉及到的缺陷,提供一种基于输出变化微分的灵敏长短期记忆方法。
本发明为解决上述技术问题采用以下技术方案:
基于输出变化微分的灵敏长短期记忆方法,包含以下具体步骤:
步骤1),建立LSTM神经网络的神经单元,其包含三个结构:输入门it,遗忘门ft和输出门ot,每个步长t与其对应的输入序列为X={x1,x2,…,xt};
步骤2),通过遗忘门决定从神经单元状态中需要丢弃的信息:
令上一时刻的输出值为ht-1、当前时刻的输入值xt,将ht-1和xt输入到Sigmoid函数中,得到0和1之间的输出到单元状态的值,0表示全部遗忘,1表示保留全部信息,该值与单元状态相乘之后来确定舍弃信息;遗忘门的输出值ft的计算公式为:
ft=σ(wf*[ht-1,xt]+bf)
其中,wf、bf分别为遗忘门Sigmoid函数中的权重矩阵、偏置向量,σ为Sigmoid激活函数;
步骤3),通过输入门决定向神经单元状态中的保存信息:
将ht-1和xt输入到Sigmoid函数,得到输出值it;将ht-1和xt输入到tanh函数,得到输出值kt;it、kt的计算公式为:
it=σ(wi*[ht-1,xt]+bi)
kt=tanh(wk*[ht-1,xt]+bk)
其中,wi、wk分别为输入门Sigmoid函数、tanh函数中的权重矩阵,bi、bk分别为输入门Sigmoid函数、tanh函数中偏置向量;
步骤4),为了增加对于短时间信息的反应能力,对单元状态增加新输入即上一时刻的输出与上上一时刻的输出的差,将xt输入至Sigmoid函数得到输出值jt、将xt输入至tanh函数得到输出值pt,将jt、pt相乘之后加入到单元状态中,这能够增加网络对短时信息的反应能力,增加实时性;jt、pt的计算公式如下:
jt=σ(wj*[ht-1-ht-2,xt]+bj)
pt=tanh(wp*[ht-1-ht-2,xt]+bp)
其中,wj、wp分别为对单元状态增加新输入时Sigmoid函数、tanh函数中的权重矩阵,bj、bp分别为对单元状态增加新输入时Sigmoid函数、tanh函数中偏置向量;
由此,得到下一时刻的单元状态为:
Ct=ft*Ct-1+it*kt+jt*pt
步骤5),通过输出门决定从神经单元状态中的输出信息:
将ht-1和xt输入到Sigmoid函数,得到输出值Ot,然后,对单元状态Ct用tanh函数处理处理后乘以输出值Ot,得到传递给下一时刻的输出值ht;Ot、ht的计算公式为:
Ot=σ(wO*[ht-1,xt]+bO)
ht=Ot*tanh(Ct)
其中,wO、bO分别为输出门Sigmoid函数中的权重矩阵、偏置向量;
步骤6),采用LSTM算法中的学习算法进行学习,完成灵敏长短期记忆。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
与原有的经典LSTM方法相比,本发明增加了增加了信息敏感能力的长短期记忆网络的一个神经单元,能够很好的增加其对于短时间信息的反应能力,提高其应用的实时性,进而能够进行更完善的实时分析,进一步分析微动作等内容,提高了应用价值。
附图说明
图1是发明实施例的结构说明图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明的原理是:LSTM神经网络的核心是加入了记忆模块,对当前信息学习并提取数据中间相关联的信息和规律,以此进行信息传递。LSTM神经网络的一个神经单元包含三个结构:输入门it,遗忘门ft和输出门ot,每个步长t与其对应的输入序列为X={x1,x2,…,xt}。为了提高其对短时间信息的反应能力,本发明增加了一个类似输出微分效果的输入微分序列
本发明是增加了信息敏感能力的长短期记忆网络的一个神经单元。上一节点的状态信息从输入端ct-1输入,每当数据进入神经单元时,会通过相应的操作来决定哪些信息需要保留。该网络的关键就是单元状态,即图中单元最上方的水平线,它将信息从上一个单元传递到下一个单元。
本发明有两条随时间传递的状态链,分别是状态h和单元状态c,ht-1是上一时刻传入当前时刻的值,xt为当前时刻输入值,ct-1是上一时刻记忆单元状态值,ct是当前时刻记忆单元状态值。
本发明公开了一种基于输出变化微分的灵敏长短期记忆方法,包含以下具体步骤:
步骤1),建立LSTM神经网络的神经单元,其包含三个结构:输入门it,遗忘门ft和输出门ot,每个步长t与其对应的输入序列为X={x1,x2,…,xt};
步骤2),通过遗忘门决定从神经单元状态中需要丢弃的信息:
令上一时刻的输出值为ht-1、当前时刻的输入值xt,将ht-1和xt输入到Sigmoid函数中,得到0和1之间的输出到单元状态的值,0表示全部遗忘,1表示保留全部信息,该值与单元状态相乘之后来确定舍弃信息;遗忘门的输出值ft的计算公式为:
ft=σ(wf*[ht-1,xt]+bf)
其中,wf、bf分别为遗忘门Sigmoid函数中的权重矩阵、偏置向量,σ为Sigmoid激活函数;
步骤3),通过输入门决定向神经单元状态中的保存信息:
将ht-1和xt输入到Sigmoid函数,得到输出值it;将ht-1和xt输入到tanh函数,得到输出值kt;it、kt的计算公式为:
it=σ(wi*[ht-1,xt]+bi)
kt=tanh(wk*[ht-1,xt]+bk)
其中,wi、wk分别为输入门Sigmoid函数、tanh函数中的权重矩阵,bi、bk分别为输入门Sigmoid函数、tanh函数中偏置向量;
步骤4),为了增加对于短时间信息的反应能力,对单元状态增加新输入即上一时刻的输出与上上一时刻的输出的差,将xt输入至Sigmoid函数得到输出值jt、将xt输入至tanh函数得到输出值pt,将jt、pt相乘之后加入到单元状态中,这能够增加网络对短时信息的反应能力,增加实时性;jt、pt的计算公式如下:
jt=σ(wj*[ht-1-ht-2,xt]+bj)
pt=tanh(wp*[ht-1-ht-2,xt]+bp)
其中,wj、wp分别为对单元状态增加新输入时Sigmoid函数、tanh函数中的权重矩阵,bj、bp分别为对单元状态增加新输入时Sigmoid函数、tanh函数中偏置向量;
由此,得到下一时刻的单元状态为:
Ct=ft*Ct-1+it*kt+jt*pt
步骤5),通过输出门决定从神经单元状态中的输出信息:
将ht-1和xt输入到Sigmoid函数,得到输出值Ot,然后,对单元状态Ct用tanh函数处理处理后乘以输出值Ot,得到传递给下一时刻的输出值ht;Ot、ht的计算公式为:
Ot=σ(wO*[ht-1,xt]+bO)
ht=Ot*tanh(Ct)
其中,wO、bO分别为输出门Sigmoid函数中的权重矩阵、偏置向量;
步骤6),采用LSTM算法中的学习算法进行学习,完成灵敏长短期记忆。
下面以把本发明应用在识别一段举起手臂的视频的识别上,来进行解释本发明的具体实施例。
如图1所示的是增加了信息敏感能力的长短期记忆网络的一个单元j和p。上一节点的状态信息从输入端ct-1输入,每当数据进入神经单元时,会通过相应的操作来决定哪些信息需要保留。该网络的关键就是单元状态,即图中单元最上方的水平线,它将信息从上一个单元传递到下一个单元。
本实施例中,所谓的状态信息ct-1就是整个神经网络的各个神经单元的在t-1时刻的状态,主要为它们的权重矩阵和偏置向量,具体来讲,就是对举起手臂的视频第t-1帧图片,识别出举起手臂这个动作时刻的整个神经网络的权重矩阵和偏置向量。
本发明有两条随时间传递的状态链,分别是状态h和单元状态c,ht-1是上一时刻传入当前时刻的值,xt为当前时刻输入值,ct-1是上一时刻记忆单元状态值,ct是当前时刻记忆单元状态值。
本实施例中,所谓ht-1代表的是,对举起手臂的视频第t-1帧图片,识别出举起手臂这个动作结果的本身。xt就是举起手臂的视频第t帧的图片。
与原有的经典LSTM方法相比,本发明增加了增加了信息敏感能力的长短期记忆网络的一个神经单元,能够很好的增加其对于短时间信息的反应能力,提高其应用的实时性,进而能够进行更完善的实时分析,进一步分析微动作等内容,提高了其应用价值。
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.基于输出变化微分的灵敏长短期记忆方法,其特征在于,包含以下具体步骤:
步骤1),建立LSTM神经网络的神经单元,其包含三个结构:输入门it,遗忘门ft和输出门ot,每个步长t与其对应的输入序列为X={x1,x2,…,xt};
步骤2),通过遗忘门决定从神经单元状态中需要丢弃的信息:
令上一时刻的输出值为ht-1、当前时刻的输入值xt,将ht-1和xt输入到Sigmoid函数中,得到0和1之间的输出到单元状态的值,0表示全部遗忘,1表示保留全部信息,该值与单元状态相乘之后来确定舍弃信息;遗忘门的输出值ft的计算公式为:
ft=σ(wf*[ht-1,xt]+bf)
其中,wf、bf分别为遗忘门Sigmoid函数中的权重矩阵、偏置向量,σ为Sigmoid激活函数;
步骤3),通过输入门决定向神经单元状态中的保存信息:
将ht-1和xt输入到Sigmoid函数,得到输出值it;将ht-1和xt输入到tanh函数,得到输出值kt;it、kt的计算公式为:
it=σ(wi*[ht-1,xt]+bi)
kt=tanh(wk*[ht-1,xt]+bk)
其中,wi、wk分别为输入门Sigmoid函数、tanh函数中的权重矩阵,bi、bk分别为输入门Sigmoid函数、tanh函数中偏置向量;
步骤4),为了增加对于短时间信息的反应能力,对单元状态增加新输入即上一时刻的输出与上上一时刻的输出的差,将xt输入至Sigmoid函数得到输出值jt、将xt输入至tanh函数得到输出值pt,将jt、pt相乘之后加入到单元状态中,这能够增加网络对短时信息的反应能力,增加实时性;jt、pt的计算公式如下:
jt=σ(wj*[ht-1-ht-2,xt]+bj)
pt=tanh(wp*[ht-1-ht-2,xt]+bp)
其中,wj、wp分别为对单元状态增加新输入时Sigmoid函数、tanh函数中的权重矩阵,bj、bp分别为对单元状态增加新输入时Sigmoid函数、tanh函数中偏置向量;
由此,得到下一时刻的单元状态为:
Ct=ft*Ct-1+it*kt+jt*pt
步骤5),通过输出门决定从神经单元状态中的输出信息:
将ht-1和xt输入到Sigmoid函数,得到输出值Ot,然后,对单元状态Ct用tanh函数处理处理后乘以输出值Ot,得到传递给下一时刻的输出值ht;Ot、ht的计算公式为:
Ot=σ(wO*[ht-1,xt]+bO)
ht=Ot*tanh(Ct)
其中,wO、bO分别为输出门Sigmoid函数中的权重矩阵、偏置向量;
步骤6),采用LSTM算法中的学习算法进行学习,完成灵敏长短期记忆。
CN201910676248.2A 2019-07-25 2019-07-25 基于输出变化微分的灵敏长短期记忆方法 Active CN110472726B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910676248.2A CN110472726B (zh) 2019-07-25 2019-07-25 基于输出变化微分的灵敏长短期记忆方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910676248.2A CN110472726B (zh) 2019-07-25 2019-07-25 基于输出变化微分的灵敏长短期记忆方法

Publications (2)

Publication Number Publication Date
CN110472726A true CN110472726A (zh) 2019-11-19
CN110472726B CN110472726B (zh) 2022-08-02

Family

ID=68508939

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910676248.2A Active CN110472726B (zh) 2019-07-25 2019-07-25 基于输出变化微分的灵敏长短期记忆方法

Country Status (1)

Country Link
CN (1) CN110472726B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107045649A (zh) * 2014-07-21 2017-08-15 徐志强 具有短期记忆和长期记忆的模拟神经网络
CN107273800A (zh) * 2017-05-17 2017-10-20 大连理工大学 一种基于注意机制的卷积递归神经网络的动作识别方法
CN107293288A (zh) * 2017-06-09 2017-10-24 清华大学 一种残差长短期记忆循环神经网络的声学模型建模方法
US20180157902A1 (en) * 2016-12-06 2018-06-07 General Electric Company Techniques for assessing group level cognitive states
CN108171198A (zh) * 2018-01-11 2018-06-15 合肥工业大学 基于非对称多层lstm的连续手语视频自动翻译方法
CN108682418A (zh) * 2018-06-26 2018-10-19 北京理工大学 一种基于预训练和双向lstm的语音识别方法
CN108805015A (zh) * 2018-04-26 2018-11-13 常州大学 加权卷积自编码长短期记忆网络人群异常检测方法
CN108960530A (zh) * 2018-07-26 2018-12-07 江南大学 基于长短时记忆网络的大田植被覆盖率指标的预测方法
US20190092318A1 (en) * 2017-09-22 2019-03-28 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for rear signal identification using machine learning
CN109583571A (zh) * 2018-12-05 2019-04-05 南京工业大学 一种基于lstm网络的移动机器人软地面通过性预测方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107045649A (zh) * 2014-07-21 2017-08-15 徐志强 具有短期记忆和长期记忆的模拟神经网络
US20180157902A1 (en) * 2016-12-06 2018-06-07 General Electric Company Techniques for assessing group level cognitive states
CN107273800A (zh) * 2017-05-17 2017-10-20 大连理工大学 一种基于注意机制的卷积递归神经网络的动作识别方法
CN107293288A (zh) * 2017-06-09 2017-10-24 清华大学 一种残差长短期记忆循环神经网络的声学模型建模方法
US20190092318A1 (en) * 2017-09-22 2019-03-28 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for rear signal identification using machine learning
CN108171198A (zh) * 2018-01-11 2018-06-15 合肥工业大学 基于非对称多层lstm的连续手语视频自动翻译方法
CN108805015A (zh) * 2018-04-26 2018-11-13 常州大学 加权卷积自编码长短期记忆网络人群异常检测方法
CN108682418A (zh) * 2018-06-26 2018-10-19 北京理工大学 一种基于预训练和双向lstm的语音识别方法
CN108960530A (zh) * 2018-07-26 2018-12-07 江南大学 基于长短时记忆网络的大田植被覆盖率指标的预测方法
CN109583571A (zh) * 2018-12-05 2019-04-05 南京工业大学 一种基于lstm网络的移动机器人软地面通过性预测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
V. VEERIAH ET AL.: "Differential Recurrent Neural Networks for Action Recognition", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *

Also Published As

Publication number Publication date
CN110472726B (zh) 2022-08-02

Similar Documents

Publication Publication Date Title
CN109816095B (zh) 基于改进门控循环神经网络的网络流量预测方法
CN107679526B (zh) 一种人脸微表情识别方法
CN110084610B (zh) 一种基于孪生神经网络的网络交易欺诈检测系统
Sahin et al. Nonuniformly sampled data processing using LSTM networks
CN111310672A (zh) 基于时序多模型融合建模的视频情感识别方法、装置及介质
CN109977428A (zh) 一种答案获取的方法及装置
WO2020244174A1 (zh) 人脸识别方法、装置、设备及计算机可读存储介质
CN109460553A (zh) 一种基于门限卷积神经网络的机器阅读理解方法
CN112115352A (zh) 基于用户兴趣的会话推荐方法及系统
CN112906019B (zh) 基于改进dcgan模型的流量数据生成方法、装置及系统
CN109359608A (zh) 一种基于深度学习模型的人脸识别方法
CN112084891B (zh) 基于多模态特征与对抗学习的跨域人体动作识别方法
CN112605973A (zh) 一种机器人运动技能学习方法及系统
CN108153912A (zh) 一种基于知识表示学习的协同矩阵分解方法
Pu et al. Stein variational autoencoder
CN110263236A (zh) 基于动态多视图学习模型的社交网络用户多标签分类方法
CN107563305A (zh) 基于多样本扩充协同表示分类的人脸识别方法
CN114077659A (zh) 一种基于邻居交互网络的知识图谱问答方法及系统
CN111950373B (zh) 一种基于光流输入的迁移学习用于微表情识别的方法
CN108764233A (zh) 一种基于连续卷积激活的场景字符识别方法
CN110472726A (zh) 基于输出变化微分的灵敏长短期记忆方法
CN110490299A (zh) 基于状态变化微分的灵敏长短期记忆方法
CN110390386A (zh) 基于输入变化微分的灵敏长短期记忆方法
CN114863167B (zh) 一种图像识别分类的方法、系统、设备以及介质
He Research on the key technology of network security based on machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant