CN115130771A - 一种基于长短期记忆网络lstm的液力缓速器的转矩预测方法 - Google Patents

一种基于长短期记忆网络lstm的液力缓速器的转矩预测方法 Download PDF

Info

Publication number
CN115130771A
CN115130771A CN202210806738.1A CN202210806738A CN115130771A CN 115130771 A CN115130771 A CN 115130771A CN 202210806738 A CN202210806738 A CN 202210806738A CN 115130771 A CN115130771 A CN 115130771A
Authority
CN
China
Prior art keywords
lstm
layer
output
training
gate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210806738.1A
Other languages
English (en)
Inventor
宋健
张国军
卢正弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202210806738.1A priority Critical patent/CN115130771A/zh
Publication of CN115130771A publication Critical patent/CN115130771A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Evolutionary Computation (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Artificial Intelligence (AREA)
  • Tourism & Hospitality (AREA)
  • Operations Research (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)

Abstract

本发明提供一种基于长短期记忆网络LSTM的液力缓速器的转矩预测方法,包括如下步骤:构建层数为至少一层的长短期记忆网络LSTM,生成训练数据集,训练长短期记忆网络LSTM,测试长短期记忆网络LSTM。采用上述训练方法,首先通过构建长短期记忆网络LSTM,设置合适的网络的层数、隐含单元数量、批量数量等参数,再利用预先获得的测试数据训练数据集和测试数据集,利用训练数据集进行第一轮训练和模型更新,再利用测试数据集进行第二轮测试和模型更新,从而保证液力缓速器的测试数据的准确性。

Description

一种基于长短期记忆网络LSTM的液力缓速器的转矩预测方法
技术领域
本发明涉及自动化控制领域,尤其涉及一种基于长短期记忆网络LSTM的液力缓速器的转矩预测方法。
背景技术
传统的液力缓速器的控制,根据液力缓速器传感器测得的输入转速、控制压力、油温、水温输入到控制器中,然后调节控制压力,对液力缓速器进行控制,但是对液力缓速器的转矩预测,专利CN202110258527通过汽车减速和整车质量来推算液力缓速器的制动扭矩,该方法整车质量和减速度都会有较大误差。专利CN201810645790,以转速和气压为输入数据,液力缓速器的制动转矩为输出,通过MATLAB\Simulink拟合得到最佳曲线后,推测制动转矩,但是该方法曲线拟合会忽略一些动态细节,比如液力缓速器的工作腔内的充液率会发生波动,而传感器难以检测,最终使转矩预测不准。
有鉴于此,亟待针对上述技术问题,本发明设计一种液力缓速器的制动转矩预测方法,利用长短期记忆网络LSTM并用数据训练,以解决现有技术中控制制动转矩不准确的问题。
发明内容
本发明的目的为提供一种液力缓速器的转矩预测方法,通过长短期记忆网络LSTM的算法,提高预测转矩的准确性。
为解决上述技术问题,本发明提供一种基于长短期记忆网络LSTM的液力缓速器的转矩预测方法,包括如下步骤:
构建长短期记忆网络LSTM,所述长短期记忆网络LSTM的层数为至少一层;
生成训练数据集,
训练长短期记忆网络LSTM,
测试长短期记忆网络LSTM。
优选地,所述构建长短期记忆网络LSTM的步骤具体包括:
建立双层LSTM网络,其中,第一层LSTM以传感器采集的数据向量为输入,第二层LSTM以第一层LSTM的输出的特征为输入。
优选地,所述生成训练数据集的步骤具体包括:
21)对原始测试数据进行归一化处理,得到归一化测试数据;
22)根据归一化训练数据获取至少2个输入数据和1个输出数据,其中,所述输入数据至少包括转速x1、控制压力x2,1个输出数据为实测的制动转矩,至少2个输入数据和1个输出数据形成测试数据[x1 x2 y]。
优选地,所述步骤22)具体包括:
将所述多条归一化后的测试数据[x1 x2 y]组成一条批量测试数据、定义为一个状态序列,随机取出所述状态序列中的具有第一条数的测试数据组成训练网络的训练标签集,输入给长短期记忆网络LSTM进行训练;取出所述状态序列中剩余条数的测试数据组成测试网络的测试标签集。
优选地,所述训练长短期记忆网络LSTM的步骤具体包括:
31)初始化长短期记忆网络LSTM权值和偏置参数;
32)将步骤22)的一组状态序列的所述训练标签集输入至前述步骤已构建的长短期记忆网络LSTM中;
33)根据每组状态序列中的训练标签集、所述权值和偏置参数,利用LSTM中的遗忘门、输入门、输出门函数公式,得出第一层LSTM的训练输出数据,并将第一层LSTM的训练输出数据输入第二层LSTM,再利用第二层LSTM的遗忘门、输入门、记忆门、输出门函数公式,得出第二层LSTM的训练输出数据;
34)根据第二层LSTM的训练输出数据,经过全连接层,以及Softmax函数计算输出所述液力缓速器的预测的训练制动转矩。
优选地,所述利用遗忘门、输入门、记忆门和输出门函数公式计算得出输出数据的步骤具体包括:
遗忘门参数公式
ft=σ(Wf·[ht+1,xt]+bf)
输入门参数公式
it=σ(Wi·[ht+1,xt]+bi)
通过对细胞状态C采取tanh激活函数,描述当前输入的单元状态公式
Figure BDA0003738079570000031
随后当前时刻的单元状态
Figure BDA0003738079570000032
符号
Figure BDA0003738079570000033
表示按元素乘
输出门,它控制了长期记忆对当前输出的影响
ot=σ(Wo·[ht+1,xt]+bo)
LSTM最终的输出,是由输出门和单元状态共同确定的。
Figure BDA0003738079570000034
其中,ft表示单个LSTM层中遗忘门在t时刻的输出,Wf表示单个LSTM层中遗忘门的运算系数,ht+1表示单个LSTM层中t+1时刻单元模块的输出,bf为单个LSTM层中遗忘门的偏置参数,it表示单个LSTM层中输入门的更新层的值,Wi表示单个LSTM层的输入门中更新层的权重,bi表示单个LSTM层的输入门中更新层的偏置参数,
Figure BDA0003738079570000035
表示单个LSTM层中的输入门的状态层的新的候选向量,ct表示单个LSTM层中的输入门的状态层的值;ot表示单个LSTM层的输出门中更新层的值,ht表示单个LSTM层的输出门中状态层的值。
优选地,所述训练长短期记忆网络LSTM的步骤中,再输出所述液力缓速器的训练制动转矩之后,训练过程中还包括比较环节:
35)应用损失函数求解预测的训练制动动转矩和测试数据集中的制动转矩的误差值,判断是否达到设定要求,若是,则训练结束;若否,则反向传播更改所述LSTM模型的输入门、遗忘门、输出门的权重和/或偏置的值,返回步骤31)进行重新训练,直至达到设定要求,并保存最新训练好的长短期记忆网络LSTM。
优选地,所述测试长短期记忆网络LSTM的步骤具体包括:
41)将具有预设组数的测试标签集输入到步骤35)中训练好的长短期记忆网络LSTM中;
42)根据每组状态序列中的测试标签集、所述权值和偏置参数,利用LSTM中的遗忘门、输入门、输出门函数公式,得出第一层LSTM的测试输出数据,并将第一层LSTM的测试输出数据输入第二层LSTM,再利用第二层LSTM的遗忘门、输入门、记忆门、输出门函数公式,得出第二层LSTM的测试输出数据;
43)根据所述LSTM的测试输出数据,经过全连接层,以及Softmax函数计算输出所述液力缓速器的预测的测试制动转矩;
44)应用损失函数求解预测的测试制动转矩和测试数据集中的制动转矩的误差值,判断是否达到设定要求,若是,则训练结束;若否,更改所述LSTM模型的层数、隐含层单元数、批量大小,返回步骤31)进行重新训练,直至达到设定要求,并保存最新训练好的长短期记忆网络LSTM。
优选地,所述长短期记忆网络LSTM的模型损失函数采用均方误差损失函数MSELoss(),具体表达式为:
Figure BDA0003738079570000041
Jtest(Θ)是测试数据集得出的误差函数,n是测试数据的批量个数,
Figure BDA0003738079570000042
的是测试数据经过训练完成的LSTM输出结果,
Figure BDA0003738079570000043
是测试数据集的输出值。
优选地,训练和测试的原始测试数据通过以下两种方法获得:
一种是通过实验方法,提前对输出制动转矩进行标定,从而使缓速器输出的转矩制动转矩抖动最小;
一种方法就是通过仿真通过将缓速器的输出制动转矩进行仿真,从而缓速器的输出制动转矩达到目标。
采用上述训练方法,首先通过构建长短期记忆网络LSTM,设置合适的网络的层数、隐含单元数量、批量数量等参数,再利用预先获得的测试数据训练数据集和测试数据集,利用训练数据集进行第一轮训练和模型更新,再利用测试数据集进行第二轮测试和模型更新,从而保证液力缓速器的测试数据的准确性。
附图说明
图1为本发明所提供的基于长短期记忆网络LSTM的液力缓速器的转矩预测方法的一种具体实施方式的流程框图;
图2为本发明所提供的单层长短期记忆网络LSTM测试集误差示意图;
图3为本发明所提供的双层长短期记忆网络LSTM测试集误差示意图;
图4为本发明所提供的基于长短期记忆网络LSTM的液力缓速器的转矩预测方法中步骤3的具体流程框图;
图5为本发明所提供的基于长短期记忆网络LSTM的液力缓速器的转矩预测方法中步骤4的具体流程框图。
具体实施方式
本发明的核心为提供一种液力缓速器的转矩预测方法,通过长短期记忆网络LSTM的算法,提高预测转矩的准确性。
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施例对本发明作进一步的详细说明。
请参考图1,图1为本发明所提供的基于长短期记忆网络LSTM的液力缓速器的转矩预测方法的一种具体实施方式的流程框图。
在一种具体实施方式中,本发明提供一种基于长短期记忆网络LSTM的液力缓速器的转矩预测方法,包括如下步骤:
S1:构建长短期记忆网络LSTM,所述长短期记忆网络LSTM的层数为至少一层;
S2:生成训练数据集,
S3:训练长短期记忆网络LSTM,
S4:测试长短期记忆网络LSTM。
采用上述训练方法,首先通过构建长短期记忆网络LSTM,设置合适的网络的层数、隐含单元数量、批量数量等参数,再利用预先获得的测试数据训练数据集和测试数据集,利用训练数据集进行第一轮训练和模型更新,再利用测试数据集进行第二轮测试和模型更新,从而保证液力缓速器的转矩预测的准确性。
具体的方案中,上述S1构建的长短期记忆网络LSTM可以为单层网络,构建长短期记忆网络LSTM的层数layer_size为1或2,输入大小input_size最少为2,输出output_size为1。
如图2所示,图2为本发明所提供的单层长短期记忆网络LSTM测试集误差示意图,单层LSTM隐藏层的单元个数为范围2~512,优先取256。当隐藏层的单元个数超过256之后,测试集的误差就不再下降,因此没有必要再增加单元个数。此时批量大小不超过100,批量越小误差越小。
进一步地,如图3所示,图3为本发明所提供的双层长短期记忆网络LSTM测试集误差示意图;上述长短期记忆网络LSTM还可以为双层LSTM网络,其中,第一层LSTM以传感器采集的数据向量为输入,第二层LSTM以第一层LSTM的输出的特征为输入。
双层LSTM隐藏层的单元个数为范围2~512,优先取32。当隐藏层的单元个数小于16时,测试集误差在0.15以上,而在隐藏层的单元个数为16、32时达到较优效果,大于16之后测试误差下降不明显。
表1
序号 隐含单元个数 隐含层数 批量 测试集误差
1 1 1 100 4.172286987
2 2 1 100 0.970966816
3 4 1 100 1.307316184
4 8 1 100 0.377883554
5 16 1 100 0.226441428
6 32 1 100 0.157151565
7 64 1 100 0.083242722
8 128 1 100 0.102506958
9 256 1 100 0.070624374
10 512 1 100 0.114938781
11 1 2 100 0.722777307
12 2 2 100 0.722777307
13 4 2 100 0.722777307
14 8 2 100 0.469487488
15 16 2 100 0.104600623
16 32 2 100 0.057431251
17 64 2 100 0.125586316
18 128 2 100 0.112815335
19 256 2 100 0.07496493
20 512 2 100 0.06888856
具体如表1所示,表1为根据试验数据长短期记忆网络LSTM所做的测试结果,从图中可以看出,单层最优方案为隐含层个数为256,双层最优方案为隐含层个数为32。
需要说明的是,上述长短期记忆网络LSTM的层数也并不仅限1层或2层,还可以为3层、4层甚至更多。对于3层及以上的长短期记忆网络LSTM,每一层的输出测试数据均可作为下一层级的输入数据。
另一种具体实施方式中,上述生成训练数据集的步骤具体包括:
S21:对原始测试数据进行归一化处理,得到归一化测试数据;
原始测试数据用于后续的训练和测试,具体通过以下两种方法获得:一种是通过实验方法,提前对输出制动转矩进行标定,从而使缓速器输出的转矩制动转矩抖动最小;一种方法就是通过仿真通过将缓速器的输出制动转矩进行仿真,从而缓速器的输出制动转矩达到目标。
S22:根据归一化训练数据获取至少2个输入数据和1个输出数据,其中,所述输入数据至少包括转速x1、控制压力x2,1个输出数据为实测的制动转矩,至少2个输入数据和1个输出数据形成测试数据[x1 x2 y]。
上述传感器输入的数据,还可以包括油温、水温,这样输入的数据,为[x1 x2 x3 x4y],其中4个输入数据为转速x1、控制压力x2、油温x3、水温x4,1个输出数据为实测的制动转矩。相比较而言,输入数据越多,则最终得到的测试数据也越准确。
另一种具体方案中,上述步骤S22可以具体包括:
将所述多条归一化后的测试数据[x1 x2...y]组成一条批量测试数据、定义为一个状态序列,随机取出所述状态序列中的具有第一条数的测试数据组成训练网络的训练标签集,输入给长短期记忆网络LSTM进行训练;取出所述状态序列中剩余条数的测试数据组成测试网络的测试标签集。
另一具体方案中,如图4所示,上述训练长短期记忆网络LSTM的步骤S3具体包括:
S31:初始化长短期记忆网络LSTM权值和偏置参数;
S32:将步骤S22的一组状态序列的所述训练标签集输入至前述步骤已构建的长短期记忆网络LSTM中;
S33:根据每组状态序列中的训练标签集、所述权值和偏置参数,利用LSTM中的遗忘门、输入门、输出门函数公式,得出LSTM的训练输出数据;
S34:根据第二层LSTM的训练输出数据,经过全连接层,以及Softmax函数计算输出所述液力缓速器的预测的训练制动转矩。
上述步骤S2中将数据分为训练标签集体和测试标签集,训练标签集用于训练优化记忆网络、测试标签集用于对训练好的网络模型进行测试,以便验证测试结果的准确度。
具体的方案中,利用遗忘门、输入门、记忆门和输出门函数公式计算得出输出数据的步骤具体包括:
遗忘门参数公式
ft=σ(Wf·[ht+1,xt]+bf)
输入门参数公式
it=σ(Wi·[ht+1,xt]+bi)
通过对细胞状态C采取tanh激活函数,描述当前输入的单元状态公式
Figure BDA0003738079570000081
随后当前时刻的单元状态
Figure BDA0003738079570000082
符号
Figure BDA0003738079570000083
表示按元素乘
输出门,它控制了长期记忆对当前输出的影响
ot=σ(Wo·[ht+1,xt]+bo)
LSTM最终的输出,是由输出门和单元状态共同确定的。
Figure BDA0003738079570000084
其中,ft表示单个LSTM层中遗忘门在t时刻的输出,Wf表示单个LSTM层中遗忘门的运算系数,ht+1表示单个LSTM层中t+1时刻单元模块的输出,bf为单个LSTM层中遗忘门的偏置参数,it表示单个LSTM层中输入门的更新层的值,Wi表示单个LSTM层的输入门中更新层的权重,bi表示单个LSTM层的输入门中更新层的偏置参数,
Figure BDA0003738079570000085
表示单个LSTM层中的输入门的状态层的新的候选向量,ct表示单个LSTM层中的输入门的状态层的值;ot表示单个LSTM层的输出门中更新层的值,ht表示单个LSTM层的输出门中状态层的值。
所述训练长短期记忆网络LSTM的步骤中,再输出所述液力缓速器的训练制动转矩之后,训练过程中还包括比较环节:
S35:应用损失函数求解预测的训练制动动转矩和测试数据集中的制动转矩的误差值,判断是否达到设定要求,若是,则训练结束;若否,则反向传播更改所述LSTM模型的输入门、遗忘门、输出门的权重和/或偏置的值,返回步骤S31进行重新训练,直至达到设定要求,并保存最新训练好的长短期记忆网络LSTM。
这样,在将训练标签集作为输入进行两层计算之后,进一步通过转矩对比能验证当前网络模型的准确度,通过调整各模型内权重和偏置的值进一步训练当前模型,以使其具有更高的准确度。
另一种具体实施方式中,如图5所示,上述测试长短期记忆网络LSTM的步骤具体包括:
S41:将具有预设组数的测试标签集输入到步骤S35中训练好的长短期记忆网络LSTM中;
S42:根据每组状态序列中的测试标签集、所述权值和偏置参数,利用LSTM中的遗忘门、输入门、输出门函数公式,得出LSTM的测试输出数据;
S423:根据所述LSTM的测试输出数据,经过全连接层,以及Softmax函数计算输出所述液力缓速器的预测的测试制动转矩;
S44:应用损失函数求解预测的测试制动转矩和测试数据集中的制动转矩的误差值,判断是否达到设定要求,若是,则训练结束;若否,更改所述LSTM模型的层数、隐含层单元数、批量大小,返回步骤31)进行重新训练,直至达到设定要求,并保存最新训练好的长短期记忆网络LSTM。
该步骤中将测试标签集作为更新模型之后的二次输入值,再次对更新的模型进行测试、校验,从而更新模型的层数、隐含层单元数、批量大小等参数,进一步增强测试结果的准确性。
具体的计算过程中,上述所述长短期记忆网络LSTM的模型损失函数采用均方误差损失函数MSELoss(),具体表达式为:
Figure BDA0003738079570000091
Jtest(Θ)是测试数据集得出的误差函数,n是测试数据的批量个数,
Figure BDA0003738079570000092
的是测试数据经过训练完成的LSTM输出结果,
Figure BDA0003738079570000093
是测试数据集的输出值。
以上对本发明所提供的一种基于长短期记忆网络LSTM的液力缓速器的转矩预测方法进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.一种基于长短期记忆网络LSTM的液力缓速器的转矩预测方法,其特征在于,包括如下步骤:
构建长短期记忆网络LSTM,所述长短期记忆网络LSTM的层数为至少一层;
生成训练数据集,
训练长短期记忆网络LSTM,
测试长短期记忆网络LSTM。
2.如权利要求1所述的液力缓速器的转矩预测方法,其特征在于,所述构建长短期记忆网络LSTM的步骤具体包括:
建立双层LSTM网络,其中,第一层LSTM以传感器采集的数据向量为输入,第二层LSTM以第一层LSTM的输出的特征为输入。
3.如权利要求2所述的液力缓速器的转矩预测方法,其特征在于,所述生成训练数据集的步骤具体包括:
21)对原始测试数据进行归一化处理,得到归一化测试数据;
22)根据归一化训练数据获取至少2个输入数据和1个输出数据,其中,所述至少2个输入数据至少包括转速x1、控制压力x2,1个输出数据为实测的制动转矩,至少2个输入数据和1个输出数据形成测试数据[x1 x2 ... y]。
4.如权利要求3所述的液力缓速器的转矩预测方法,其特征在于,所述步骤22)具体包括:
将所述多条归一化后的测试数据[x1 x2 ... y]组成一条批量测试数据、定义为一个状态序列,随机取出所述状态序列中的具有第一条数的测试数据组成训练网络的训练标签集,输入给长短期记忆网络LSTM进行训练;取出所述状态序列中剩余条数的测试数据组成测试网络的测试标签集。
5.如权利要求4所述的液力缓速器的转矩预测方法,其特征在于,所述训练长短期记忆网络LSTM的步骤具体包括:
31)初始化长短期记忆网络LSTM权值和偏置参数;
32)将步骤22)的一组状态序列的所述训练标签集输入至前述步骤已构建的长短期记忆网络LSTM中;
33)根据每组状态序列中的训练标签集、所述权值和偏置参数,利用LSTM中的遗忘门、输入门、输出门函数公式,得出第一层LSTM的训练输出数据,并将第一层LSTM的训练输出数据输入第二层LSTM,再利用第二层LSTM的遗忘门、输入门、记忆门、输出门函数公式,得出第二层LSTM的训练输出数据;
34)根据第二层LSTM的训练输出数据,经过全连接层,以及Softmax函数计算输出所述液力缓速器的预测的训练制动转矩。
6.如权利要求5所述的液力缓速器的转矩预测方法,其特征在于,所述利用遗忘门、输入门、记忆门和输出门函数公式计算得出输出数据的步骤具体包括:
遗忘门参数公式
ft=σ(Wf·[ht+1,xt]+bf)
输入门参数公式
it=σ(Wi·[ht+1,xt]+bi)
通过对细胞状态C采取tanh激活函数,描述当前输入的单元状态公式
Figure FDA0003738079560000021
随后当前时刻的单元状态
Figure FDA0003738079560000022
符号
Figure FDA0003738079560000023
表示按元素乘
输出门,它控制了长期记忆对当前输出的影响
ot=σ(Wo·[ht+1,xt]+bo)
LSTM最终的输出,是由输出门和单元状态共同确定的。
Figure FDA0003738079560000031
其中,ft表示单个LSTM层中遗忘门在t时刻的输出,Wf表示单个LSTM层中遗忘门的运算系数,ht+1表示单个LSTM层中t+1时刻单元模块的输出,bf为单个LSTM层中遗忘门的偏置参数,it表示单个LSTM层中输入门的更新层的值,Wi表示单个LSTM层的输入门中更新层的权重,bi表示单个LSTM层的输入门中更新层的偏置参数,
Figure FDA0003738079560000032
表示单个LSTM层中的输入门的状态层的新的候选向量,ct表示单个LSTM层中的输入门的状态层的值;ot表示单个LSTM层的输出门中更新层的值,ht表示单个LSTM层的输出门中状态层的值。
7.如权利要求5所述的液力缓速器的转矩预测方法,其特征在于,所述训练长短期记忆网络LSTM的步骤中,在输出所述液力缓速器的训练制动转矩之后,训练过程中还包括比较环节:
35)应用损失函数求解预测的训练制动动转矩和测试数据集中的制动转矩的误差值,判断是否达到设定要求,若是,则训练结束;若否,则反向传播更改所述LSTM模型的输入门、遗忘门、输出门的权重和/或偏置的值,返回步骤31)进行重新训练,直至达到设定要求,并保存最新训练好的长短期记忆网络LSTM。
8.如权利要求7所述的液力缓速器的转矩预测方法,其特征在于,所述测试长短期记忆网络LSTM的步骤具体包括:
41)将具有预设组数的测试标签集输入到步骤35)中训练好的长短期记忆网络LSTM中;
42)根据每组状态序列中的测试标签集、所述权值和偏置参数,利用LSTM中的遗忘门、输入门、输出门函数公式,得出第一层LSTM的测试输出数据,并将第一层LSTM的测试输出数据输入第二层LSTM,再利用第二层LSTM的遗忘门、输入门、记忆门、输出门函数公式,得出第二层LSTM的测试输出数据;
43)根据所述LSTM的测试输出数据,经过全连接层,以及Softmax函数计算输出所述液力缓速器的预测的测试制动转矩;
44)应用损失函数求解预测的测试制动转矩和测试数据集中的制动转矩的误差值,判断是否达到设定要求,若是,则训练结束;若否,更改所述LSTM模型的层数、隐含层单元数、批量大小,返回步骤31)进行重新训练,直至达到设定要求,并保存最新训练好的长短期记忆网络LSTM。
9.如权利要求1-8任一项所述的液力缓速器的转矩预测方法,其特征在于,
所述长短期记忆网络LSTM的模型损失函数采用均方误差损失函数MSELoss(),具体表达式为:
Figure FDA0003738079560000041
Jtest(Θ)是测试数据集得出的误差函数,n是测试数据的批量个数,
Figure FDA0003738079560000042
的是测试数据经过训练完成的LSTM输出结果,
Figure FDA0003738079560000043
是测试数据集的输出值。
10.如权利要求1-8任一项所述的液力缓速器的转矩预测方法,其特征在于,训练和测试的原始测试数据通过以下两种方法获得:
一种是通过实验方法,提前对输出制动转矩进行标定,从而使缓速器输出的转矩制动转矩抖动最小;
一种方法就是通过仿真通过将缓速器的输出制动转矩进行仿真,从而缓速器的输出制动转矩达到目标。
CN202210806738.1A 2022-07-08 2022-07-08 一种基于长短期记忆网络lstm的液力缓速器的转矩预测方法 Pending CN115130771A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210806738.1A CN115130771A (zh) 2022-07-08 2022-07-08 一种基于长短期记忆网络lstm的液力缓速器的转矩预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210806738.1A CN115130771A (zh) 2022-07-08 2022-07-08 一种基于长短期记忆网络lstm的液力缓速器的转矩预测方法

Publications (1)

Publication Number Publication Date
CN115130771A true CN115130771A (zh) 2022-09-30

Family

ID=83382938

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210806738.1A Pending CN115130771A (zh) 2022-07-08 2022-07-08 一种基于长短期记忆网络lstm的液力缓速器的转矩预测方法

Country Status (1)

Country Link
CN (1) CN115130771A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116620247A (zh) * 2023-07-19 2023-08-22 清华大学 基于双压力传感器的液力缓速器制动力矩预测方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116620247A (zh) * 2023-07-19 2023-08-22 清华大学 基于双压力传感器的液力缓速器制动力矩预测方法及装置
CN116620247B (zh) * 2023-07-19 2023-09-26 清华大学 基于双压力传感器的液力缓速器制动力矩预测方法及装置

Similar Documents

Publication Publication Date Title
CN107725283B (zh) 一种基于深度信念网络模型的风机故障检测方法
WO2022083009A1 (zh) 一种基于异源数据差补融合的定制产品性能预测方法
CN110852420B (zh) 一种基于人工智能的垃圾分类方法
CN109343505A (zh) 基于长短期记忆网络的齿轮剩余寿命预测方法
CN108764540B (zh) 基于并行lstm串联dnn的供水管网压力预测方法
CN111651312A (zh) 一种基于边缘计算的设备故障三级双向预警方法及系统
CN112819240B (zh) 基于物理约束的lstm模型预测页岩油产量的方法
CN109409614A (zh) 一种基于贝叶斯正则化神经网络的电力负荷预测方法
CN107944648A (zh) 一种大型船舶航速油耗率精准预测方法
CN109800517B (zh) 一种改进的磁流变阻尼器逆向建模方法
CN111547039B (zh) 基于深度强化学习的混合动力车辆油门控制方法及系统
CN112686481A (zh) 一种径流量预报方法、处理器
CN115130771A (zh) 一种基于长短期记忆网络lstm的液力缓速器的转矩预测方法
CN115688288B (zh) 飞行器气动参数辨识方法、装置、计算机设备及存储介质
CN108460462A (zh) 一种基于区间参数优化的区间神经网络学习方法
CN115935834A (zh) 一种基于深度自回归网络和持续学习策略的历史拟合方法
CN116303786B (zh) 一种基于多维数据融合算法的区块链金融大数据管理系统
CN106568647A (zh) 一种基于神经网络的混凝土强度预测方法
CN112116069A (zh) 一种基于Attention-LSTM的强化学习Agent知识推理方法
CN114861519B (zh) 复杂地质条件下初始地应力场加速优化反演方法
CN114330067A (zh) 一种软基水闸有限元模型修正方法
CN115742855A (zh) 电动汽车剩余里程预测方法、装置、电动汽车及介质
CN114509951B (zh) 一种基于神经网络的加氢自适应控制方法及装置
CN114912364A (zh) 天然气井流量预测方法、装置、设备及计算机可读介质
CN110223342B (zh) 一种基于深度神经网络的空间目标尺寸估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination