CN110045356B - 一种双向长短时记忆神经网络水面目标识别方法 - Google Patents

一种双向长短时记忆神经网络水面目标识别方法 Download PDF

Info

Publication number
CN110045356B
CN110045356B CN201910194814.6A CN201910194814A CN110045356B CN 110045356 B CN110045356 B CN 110045356B CN 201910194814 A CN201910194814 A CN 201910194814A CN 110045356 B CN110045356 B CN 110045356B
Authority
CN
China
Prior art keywords
time
output
input
network
gate unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910194814.6A
Other languages
English (en)
Other versions
CN110045356A (zh
Inventor
李思纯
杨书钰
杨德森
梁静涵
时胜国
方尔正
洪连进
莫世奇
张揽月
胡博
时洁
朱中锐
柳艾飞
李松
张昊阳
田迎泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201910194814.6A priority Critical patent/CN110045356B/zh
Publication of CN110045356A publication Critical patent/CN110045356A/zh
Application granted granted Critical
Publication of CN110045356B publication Critical patent/CN110045356B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/006Theoretical aspects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供的是一种双向长短时记忆神经网络水面目标识别方法。1:将矢量声纳接收到的矢量信号进行预处理;2:将预处理后的训练样本集输入双向长短时记忆神经网络中,进行网络预训练;3:将预训练的输出结果与输入样本的实际输出进行比较,通过自适应的方法对网络参数进行微调;4:将经过同样预处理后的测试样本集输入参数自适应调整后的双向长短时记忆网络中,对网络进行评估;5:将经过同样预处理后的待分类样本集输入参数最优化的双向长短时记忆网络中,得到分类结果。本发明克服了由于人工提取特征导致信息丢失的问题,避免了人工提取特征步骤的繁琐复杂,也减少了人工提取特征所需的时间。通过多隐层的神经网络可以提高样本正确识别率。

Description

一种双向长短时记忆神经网络水面目标识别方法
技术领域
本发明涉及的是一种水面目标识别方法,具体地说是一种基于矢量声纳的双向长短时记忆神经网络水面目标识别方法。
背景技术
水面目标识别技术有着举足轻重的作用,它是指人或机器,通过对接收到的各类水面目标的辐射噪声信息进行分类识别的技术。现阶段,如何更快更准确的识别出水面目标仍是目标识别技术存在的难点。
目标识别的基本流程是将接收到的数据进行预处理,再将预处理后的数据进行特征提取和选择,最后再经过学习算法和分类器,从而得到目标的识别结果。而人工的提取特征通常会不可避免的丢失一部分关键的信息,如果可以使用原始接收到的信息进行识别,则可以在一定程度上避免由于人工提取特征而造成的信息丢失。
基于深度学习的目标识别方法已然成为现阶段的研究热点,它可以直接将接收到的大量原始数据输入深度神经网络中进行学习和训练,在一定程度上避免由于人工提取特征而造成的信息丢失,从而实现目标的分类和识别。
发明内容
本发明的目的在于提供一种能够克服由于人工提取特征导致信息丢失的问题,避免人工提取特征步骤的繁琐复杂,也减少人工提取特征所需的时间,提高样本正确识别率的双向长短时记忆神经网络水面目标识别方法。
本发明的目的是这样实现的:
步骤1:将矢量声纳接收到的矢量信号进行预处理;
步骤2:将预处理后的训练样本集输入双向长短时记忆神经网络中,进行网络预训练;
步骤3:将预训练的输出结果与输入样本的实际输出进行比较,通过自适应的方法对网络参数进行微调;
步骤4:将经过同样预处理后的测试样本集输入参数自适应调整后的双向长短时记忆网络中,对网络进行评估;
步骤5:将经过同样预处理后的待分类样本集输入参数最优化的双向长短时记忆网络中,得到分类结果。
本发明还可以包括:
1.所述的预处理的步骤为:
步骤1.1:将矢量声纳接收到的矢量信号按照7:3的比例划分为训练集和测试集;
步骤1.2:将训练集的样本按照所需分析的频带进行滤波,再将数据通过降采样函数进行降采样;
步骤1.3:将训练样本集的数据按照公式(1)的形式构造输入特征,
I(t)=p(t)v(t) (1)
其中,p(t)为矢量声纳接收到的声压值,v(t)为矢量声纳接收到的各方向振速经合成后得到的合成值;
步骤4:按照步骤1.2和步骤1.3的方法处理测试集样本,并构造测试集输入样本;
步骤5:将训练集和测试集的样本进行打标签。
2.所述的网络预训练的步骤为:
步骤2.1:将双向长短时记忆神经网络参数初始化;
步骤2.2:将预处理后的训练集样本输入参数初始化的双向长短时记忆神经网络中,进行预训练。
所述的预训练的具体方法为:
双向长短时记忆网络分为前向网络和后向网络,
(1)在前向网络中,t时刻的第i个输入为
Figure BDA0001995504440000021
t-1时刻的第j个记忆块输出为
Figure BDA0001995504440000022
样本个数为T,每个样本的特征个数为M,隐层神经元个数为H,输出神经元个数为N;
将t时刻的输入
Figure BDA0001995504440000023
与t-1时刻的记忆块输出
Figure BDA0001995504440000024
经过加权求和后,按双曲正切函数进行非线性变换,得到输入挤压单元
Figure BDA0001995504440000025
表达式如下:
Figure BDA0001995504440000026
其中,
Figure BDA0001995504440000027
为t时刻的输入
Figure BDA0001995504440000028
与输入挤压单元
Figure BDA0001995504440000029
之间的权向量,
Figure BDA00019955044400000210
为t-1时刻的记忆块输出
Figure BDA00019955044400000211
与输入挤压单元
Figure BDA00019955044400000212
之间的权向量,
Figure BDA00019955044400000213
为记忆块的偏置;
输入门单元
Figure BDA00019955044400000214
是将
Figure BDA00019955044400000215
Figure BDA00019955044400000216
的加权和按照激活函数激活,并在激活值为0时,切断来自另一个节点的信息流;在激活值为1时,让信息流通过,表达式如下:
Figure BDA00019955044400000217
其中,
Figure BDA00019955044400000218
为t时刻的输入
Figure BDA00019955044400000219
与输入门单元
Figure BDA00019955044400000220
之间的权向量,
Figure BDA00019955044400000221
为t-1时刻的记忆块输出
Figure BDA00019955044400000222
与输入门单元
Figure BDA00019955044400000223
之间的权向量,
Figure BDA00019955044400000224
为输入门单元的偏置;
输入门控单元为输入门单元
Figure BDA00019955044400000225
Figure BDA00019955044400000226
做阿达马积,表达式为
Figure BDA00019955044400000227
遗忘门单元
Figure BDA00019955044400000228
是将
Figure BDA00019955044400000229
Figure BDA00019955044400000230
的加权和按照激活函数激活,表达式如下:
Figure BDA0001995504440000031
其中,
Figure BDA0001995504440000032
为t时刻的输入
Figure BDA0001995504440000033
与遗忘门单元
Figure BDA0001995504440000034
之间的权向量,
Figure BDA0001995504440000035
为t-1时刻的记忆块输出
Figure BDA0001995504440000036
与遗忘门单元
Figure BDA0001995504440000037
之间的权向量,
Figure BDA0001995504440000038
为遗忘门单元的偏置;
记忆细胞内部状态
Figure BDA0001995504440000039
的更新是通过遗忘门单元
Figure BDA00019955044400000310
与前一时刻的记忆细胞内部状态
Figure BDA00019955044400000311
做阿达马积,再加上输入门控单元,表达式如下:
Figure BDA00019955044400000312
输出门单元
Figure BDA00019955044400000313
是将
Figure BDA00019955044400000314
Figure BDA00019955044400000315
的加权和按照激活函数激活,表达式如下:
Figure BDA00019955044400000316
其中,
Figure BDA00019955044400000317
为t时刻的输入
Figure BDA00019955044400000318
与输出门单元
Figure BDA00019955044400000319
之间的权向量,
Figure BDA00019955044400000320
为t-1时刻的记忆块输出
Figure BDA00019955044400000321
与输出门单元
Figure BDA00019955044400000322
之间的权向量,
Figure BDA00019955044400000323
为输出门单元的偏置;
输出门控单元
Figure BDA00019955044400000324
是输出门单元
Figure BDA00019955044400000325
与经过激活函数的记忆细胞内部状态做阿达马积,表达式如下:
Figure BDA00019955044400000326
此时得到的
Figure BDA00019955044400000327
为前向网络的记忆块输出,而双向长短时记忆网络的每一时刻的输出不仅与之前时刻有关,还会与之后时刻有关,因此隐层的输出不仅包含了前向网络的记忆块输出,还包括了反向网络的记忆块输出;
(2)在反向网络中,t时刻的第i个输入为
Figure BDA00019955044400000328
t+1时刻的第j个记忆块输出为
Figure BDA00019955044400000329
样本个数为T,每个样本的特征个数为M,隐层神经元个数为H,输出神经元个数为N;
将t时刻的输入
Figure BDA00019955044400000330
与t+1时刻的记忆块输出
Figure BDA00019955044400000331
经过加权求和后,按双曲正切函数进行非线性变换,得到输入挤压单元
Figure BDA00019955044400000332
表达式如下:
Figure BDA00019955044400000333
其中,
Figure BDA00019955044400000334
为t时刻的输入
Figure BDA00019955044400000335
与输入挤压单元
Figure BDA00019955044400000336
之间的权向量,
Figure BDA00019955044400000337
为t+1时刻的记忆块输出
Figure BDA00019955044400000338
与输入挤压单元
Figure BDA00019955044400000339
之间的权向量,
Figure BDA00019955044400000340
为记忆块的偏置;
输入门单元
Figure BDA00019955044400000341
是将
Figure BDA00019955044400000342
Figure BDA00019955044400000343
的加权和按照激活函数激活,表达式如下:
Figure BDA00019955044400000344
其中,
Figure BDA0001995504440000041
为t时刻的输入
Figure BDA0001995504440000042
与输入门单元
Figure BDA0001995504440000043
之间的权向量,
Figure BDA0001995504440000044
为t+1时刻的记忆块输出
Figure BDA0001995504440000045
与输入门单元
Figure BDA0001995504440000046
之间的权向量,
Figure BDA0001995504440000047
为输入门单元的偏置;
输入门控单元为输入门单元
Figure BDA0001995504440000048
Figure BDA0001995504440000049
做阿达马积,表达式为
Figure BDA00019955044400000410
遗忘门单元
Figure BDA00019955044400000411
是将
Figure BDA00019955044400000412
Figure BDA00019955044400000413
的加权和按照激活函数激活,表达式如下:
Figure BDA00019955044400000414
其中,
Figure BDA00019955044400000415
为t时刻的输入
Figure BDA00019955044400000416
与遗忘门单元
Figure BDA00019955044400000417
之间的权向量,
Figure BDA00019955044400000418
为t+1时刻的记忆块输出
Figure BDA00019955044400000419
与遗忘门单元
Figure BDA00019955044400000420
之间的权向量,
Figure BDA00019955044400000421
为遗忘门单元的偏置;
记忆细胞内部状态
Figure BDA00019955044400000422
的更新是通过遗忘门单元
Figure BDA00019955044400000423
与前一时刻的记忆细胞内部状态
Figure BDA00019955044400000424
做阿达马积,再加上输入门控单元,表达式如下:
Figure BDA00019955044400000425
输出门单元
Figure BDA00019955044400000426
是将
Figure BDA00019955044400000427
Figure BDA00019955044400000428
的加权和按照激活函数激活,表达式如下:
Figure BDA00019955044400000429
其中,
Figure BDA00019955044400000430
为t时刻的输入
Figure BDA00019955044400000431
与输出门单元
Figure BDA00019955044400000432
之间的权向量,
Figure BDA00019955044400000433
为t+1时刻的记忆块输出
Figure BDA00019955044400000434
与输出门单元
Figure BDA00019955044400000435
之间的权向量,
Figure BDA00019955044400000436
为输出门单元的偏置;
输出门控单元
Figure BDA00019955044400000437
是输出门单元
Figure BDA00019955044400000438
与经过激活函数的记忆细胞内部状态做阿达马积,表达式如下:
Figure BDA00019955044400000439
此时得到的
Figure BDA00019955044400000440
为反向网络的记忆块输出;
以上即为bi-LSTM层的具体过程,将bi-LSTM层的两个输出
Figure BDA00019955044400000441
Figure BDA00019955044400000442
输入全连接层中,将学习到的特征映射到样本标记空间,将全连接层的输出值经过softmax层进行归一化,输出结果为
Figure BDA00019955044400000443
其中,
Figure BDA00019955044400000444
为前向网络中隐层到输出层的权向量,
Figure BDA00019955044400000445
为反向网络中隐层到输出层的权向量,bp为前向网络和后向网络中隐层到输出层的偏置之和;
最后将输出结果经过分类层为输入数据打标签,完成整个预训练的过程。
3.所述的微调的步骤为:
步骤3.1:将网络输出结果与输入数据的实际输出进行比较,得到损失函数和训练样本集的正确识别率;
步骤3.2:判断损失函数和训练样本集的正确识别率是否在预期范围内,若是,则保存该网络参数;否则,进行自适应参数调整;重复步骤3.1、步骤3.2,直至损失函数和训练样本集的正确识别率在预期范围内。
自适应参数调整的步骤为:
损失函数Lt的表达式为
Figure BDA0001995504440000051
其中,dt为输入样本xt的期望输出,
接下来计算参数的变化量,在反向网络中,各参数变化量表达式如下:
隐层到输出层的权值wb和偏置bb变化量表达式为:
Figure BDA0001995504440000052
Figure BDA0001995504440000053
输出门单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000054
Figure BDA0001995504440000055
Figure BDA0001995504440000056
遗忘门单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000057
Figure BDA0001995504440000058
Figure BDA0001995504440000061
输入门单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000062
Figure BDA0001995504440000063
Figure BDA0001995504440000064
输入挤压单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000065
Figure BDA0001995504440000066
Figure BDA0001995504440000067
在前向网络中,各参数变化量表达式如下:
隐层到输出层的权值wf和偏置b变化量表达式为:
Figure BDA0001995504440000068
Figure BDA0001995504440000069
输出门单元的权值和偏置变化量表达式为:
Figure BDA00019955044400000610
Figure BDA00019955044400000611
Figure BDA0001995504440000071
遗忘门单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000072
Figure BDA0001995504440000073
Figure BDA0001995504440000074
输入门单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000075
Figure BDA0001995504440000076
Figure BDA0001995504440000077
输入挤压单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000078
Figure BDA0001995504440000079
Figure BDA00019955044400000710
通过权值和偏置的变化量,对各个权值和偏置进行更新,将所有的权值表示为w,所有的偏置表示为b,更新后的权值和偏置表达式如下:
Figure BDA00019955044400000711
Figure BDA0001995504440000081
其中,η为步长,默认值为0.01;β1和β2为矩估计的指数衰减速率,β1为0.9,β2为0.999;δ为一极小值,用于稳定数值,常用值为10-8;s和r为初始化一阶和二阶矩变量,初始值设为0。
4.所述的评估的步骤为:
步骤4.1:将预处理后的测试集样本输入参数自适应调整后的双向长短时记忆神经网络中;
步骤4.2:将输出结果与标签进行对比,得到网络的正确识别率,并对网络进行评估;
步骤4.3:判断网络是否符合鲁棒性,若是,则保存网络参数;否则,增加训练样本,对网络进行重新训练。
5.所述的得到分类结构的步骤为:
步骤5.1:将矢量声纳接收到的数据进行预处理;
步骤5.2:将预处理后的待分类样本集输入参数最优化的双向长短时记忆神经网络中,得到分类结果。
本发明中提及的双向长短时记忆神经网络(bi-directional Long Short-TermMemory,bi-LSTM)是一种反馈型神经网络,通过反馈连接的神经网络,能够产生对数据的记忆状态,建立数据间的映射关系,分析信号的时间依赖关系,可以用于对序列数据的处理,还利用记忆模块代替普通的隐层节点,确保梯度在传递跨越很长时间之后仍不会消失或者爆炸。双向长短时记忆神经网络提供给输出层每一个点完整的过去和未来的信息,即此时的预测可能由前面的若干输入和后面的若干输入共同决定,从而提高了目标的识别率。
本发明采用了具有双向记忆特性的双向长短时记忆(bi-LSTM)神经网络,将矢量声纳接收到的矢量信号经过预处理后输入双向长短时记忆神经网络中,通过bi-LSTM层进行特征提取,通过全连接层将学习到的特征映射到样本标记空间,通过softmax层进行归一化,通过分类层为输入数据打标签,从而完成对输入的矢量信号的分类识别。本发明通过双向长短时记忆神经网络可以自主的进行特征提取,克服了由于人工提取特征导致信息丢失的问题,避免了人工提取特征步骤的繁琐复杂,也减少了人工提取特征所需的时间。同时,通过多隐层的神经网络可以提高样本正确识别率。
与现有技术相比,本发明方法具有以下的优点:
(1)本发明采用的信号是矢量声纳接收到的矢量信号,不仅包括声压信号,还包括x、y、z方向的振速;
(2)本发明采用的深度学习方法,可以有效地避免由于人工提取特征步骤的繁琐复杂,以及带来的信息丢失的问题,减少了人工提取特征所需的时间。同时,通过多隐层的神经网络可以提高样本正确识别率;
(3)本发明采用的深度学习模型为双向长短时记忆神经网络。该网络通过输入门、遗忘门、输出门这三个门来控制记忆细胞以及每个隐层的输出,实现了其特殊的记忆功能。同时,双向的网络使得每一时刻的信息预测不仅与之前时刻的信息有关,还会与后面的信息有关。因此,双向长短时记忆神经网络通过记忆块可以记忆数据的长期依赖关系,更适合学习具有前后关联和连续性的数据的特征。矢量信号作为连续的波形数据,与前后相邻一段时间内的数据都有着相关性,因此选用双向长短时记忆神经网络来进行学习具有明显的优势。
附图说明
图1是基于矢量声纳的双向长短时记忆神经网络水面目标识别方法的流程图。
图2是矢量信号特征提取网络中bi-LSTM层的结构示意图。
图3是bi-LSTM层记忆块的结构示意图。
具体实施方式
下面举例对本发明做更详细的描述。
如图1所示为本实施例一种基于矢量声纳的双向长短时记忆神经网络水面目标识别方法的流程图。如图2所示为矢量信号特征提取网络结构示意图中bi-LSTM层的结构示意图,如图3所示为bi-LSTM层记忆块的结构示意图,通过图2和图3的结构实现从输入到输出的计算过程。
一种基于矢量声纳的双向长短时记忆神经网络水面目标识别方法具体步骤如下:
(1)建立输入数据集:选择两类水面目标(不局限于只有两类目标),通过矢量声纳接受到两类目标的矢量信号,构造输入数据集。每个样本的特征表达式为
I(t)=p(t)v(t) (1)
其中,p(t)为矢量声纳接收到的声压值,v(t)为矢量声纳接收到的各方向振速经合成后得到的合成值。
(2)对输入数据进行预处理:将矢量声纳接收到的矢量信号按照所需分析的频带进行滤波,再将数据通过降采样函数进行降采样,按照7:3的比例划分为训练集和测试集,并将训练集和测试集的样本进行打标签。
(3)预训练网络:将双向长短时记忆神经网络参数初始化,将预处理后的训练集样本输入参数初始化的双向长短时记忆神经网络中,具体步骤如下:
双向长短时记忆网络可以分为前向网络和后向网络。
1)在前向网络中,t时刻的第i个输入为
Figure BDA0001995504440000101
t-1时刻的第j个记忆块输出为
Figure BDA0001995504440000102
样本个数为T,每个样本的特征个数为M,隐层神经元个数为H,输出神经元个数为N。
将t时刻的输入
Figure BDA0001995504440000103
与t-1时刻的记忆块输出
Figure BDA0001995504440000104
经过加权求和后,按双曲正切函数进行非线性变换,得到输入挤压单元
Figure BDA0001995504440000105
表达式如下:
Figure BDA0001995504440000106
其中,
Figure BDA0001995504440000107
为t时刻的输入
Figure BDA0001995504440000108
与输入挤压单元
Figure BDA0001995504440000109
之间的权向量,
Figure BDA00019955044400001010
为t-1时刻的记忆块输出
Figure BDA00019955044400001011
与输入挤压单元
Figure BDA00019955044400001012
之间的权向量,
Figure BDA00019955044400001013
为记忆块的偏置。
输入门单元
Figure BDA00019955044400001014
是将
Figure BDA00019955044400001015
Figure BDA00019955044400001016
的加权和按照激活函数激活,并在激活值为0时,切断来自另一个节点的信息流;在激活值为1时,让信息流通过,表达式如下:
Figure BDA00019955044400001017
其中,
Figure BDA00019955044400001018
为t时刻的输入
Figure BDA00019955044400001019
与输入门单元
Figure BDA00019955044400001020
之间的权向量,
Figure BDA00019955044400001021
为t-1时刻的记忆块输出
Figure BDA00019955044400001022
与输入门单元
Figure BDA00019955044400001023
之间的权向量,
Figure BDA00019955044400001024
为输入门单元的偏置。
输入门控单元为输入门单元
Figure BDA00019955044400001025
Figure BDA00019955044400001026
做阿达马积,表达式为
Figure BDA00019955044400001027
遗忘门单元
Figure BDA00019955044400001028
是将
Figure BDA00019955044400001029
Figure BDA00019955044400001030
的加权和按照激活函数激活,表达式如下:
Figure BDA00019955044400001031
其中,
Figure BDA00019955044400001032
为t时刻的输入
Figure BDA00019955044400001033
与遗忘门单元
Figure BDA00019955044400001034
之间的权向量,
Figure BDA00019955044400001035
为t-1时刻的记忆块输出
Figure BDA00019955044400001036
与遗忘门单元
Figure BDA00019955044400001037
之间的权向量,
Figure BDA00019955044400001038
为遗忘门单元的偏置。
记忆细胞内部状态
Figure BDA00019955044400001039
的更新是通过遗忘门单元
Figure BDA00019955044400001040
与前一时刻的记忆细胞内部状态
Figure BDA00019955044400001041
做阿达马积,再加上输入门控单元,表达式如下:
Figure BDA00019955044400001042
输出门单元
Figure BDA00019955044400001043
是将
Figure BDA00019955044400001044
Figure BDA00019955044400001045
的加权和按照激活函数激活,表达式如下:
Figure BDA00019955044400001046
其中,
Figure BDA00019955044400001047
为t时刻的输入
Figure BDA00019955044400001048
与输出门单元
Figure BDA00019955044400001049
之间的权向量,
Figure BDA00019955044400001050
为t-1时刻的记忆块输出
Figure BDA00019955044400001051
与输出门单元
Figure BDA00019955044400001052
之间的权向量,
Figure BDA00019955044400001053
为输出门单元的偏置。
输出门控单元
Figure BDA00019955044400001054
是输出门单元
Figure BDA00019955044400001055
与经过激活函数的记忆细胞内部状态做阿达马积,表达式如下:
Figure BDA0001995504440000111
此时得到的
Figure BDA0001995504440000112
为前向网络的记忆块输出。而双向长短时记忆网络的每一时刻的输出不仅与之前时刻有关,还会与之后时刻有关,因此隐层的输出不仅包含了前向网络的记忆块输出,还包括了反向网络的记忆块输出。
2)在反向网络中,t时刻的第i个输入为
Figure BDA0001995504440000113
t+1时刻的第j个记忆块输出为
Figure BDA0001995504440000114
样本个数为T,每个样本的特征个数为M,隐层神经元个数为H,输出神经元个数为N。
将t时刻的输入
Figure BDA0001995504440000115
与t+1时刻的记忆块输出
Figure BDA0001995504440000116
经过加权求和后,按双曲正切函数进行非线性变换,得到输入挤压单元
Figure BDA0001995504440000117
表达式如下:
Figure BDA0001995504440000118
其中,
Figure BDA0001995504440000119
为t时刻的输入
Figure BDA00019955044400001110
与输入挤压单元
Figure BDA00019955044400001111
之间的权向量,
Figure BDA00019955044400001112
为t+1时刻的记忆块输出
Figure BDA00019955044400001113
与输入挤压单元
Figure BDA00019955044400001114
之间的权向量,
Figure BDA00019955044400001115
为记忆块的偏置。
输入门单元
Figure BDA00019955044400001116
是将
Figure BDA00019955044400001117
Figure BDA00019955044400001118
的加权和按照激活函数激活,表达式如下:
Figure BDA00019955044400001119
其中,
Figure BDA00019955044400001120
为t时刻的输入
Figure BDA00019955044400001121
与输入门单元
Figure BDA00019955044400001122
之间的权向量,
Figure BDA00019955044400001123
为t+1时刻的记忆块输出
Figure BDA00019955044400001124
与输入门单元
Figure BDA00019955044400001125
之间的权向量,
Figure BDA00019955044400001126
为输入门单元的偏置。
输入门控单元为输入门单元
Figure BDA00019955044400001127
Figure BDA00019955044400001128
做阿达马积,表达式为
Figure BDA00019955044400001129
遗忘门单元
Figure BDA00019955044400001130
是将
Figure BDA00019955044400001131
Figure BDA00019955044400001132
的加权和按照激活函数激活,表达式如下:
Figure BDA00019955044400001133
其中,
Figure BDA00019955044400001134
为t时刻的输入
Figure BDA00019955044400001135
与遗忘门单元
Figure BDA00019955044400001136
之间的权向量,
Figure BDA00019955044400001137
为t+1时刻的记忆块输出
Figure BDA00019955044400001138
与遗忘门单元
Figure BDA00019955044400001139
之间的权向量,
Figure BDA00019955044400001140
为遗忘门单元的偏置。
记忆细胞内部状态
Figure BDA00019955044400001141
的更新是通过遗忘门单元
Figure BDA00019955044400001142
与前一时刻的记忆细胞内部状态
Figure BDA00019955044400001143
做阿达马积,再加上输入门控单元,表达式如下:
Figure BDA00019955044400001144
输出门单元
Figure BDA00019955044400001145
是将
Figure BDA00019955044400001146
Figure BDA00019955044400001147
的加权和按照激活函数激活,表达式如下:
Figure BDA00019955044400001148
其中,
Figure BDA0001995504440000121
为t时刻的输入
Figure BDA0001995504440000122
与输出门单元
Figure BDA0001995504440000123
之间的权向量,
Figure BDA0001995504440000124
为t+1时刻的记忆块输出
Figure BDA0001995504440000125
与输出门单元
Figure BDA0001995504440000126
之间的权向量,
Figure BDA0001995504440000127
为输出门单元的偏置。
输出门控单元
Figure BDA0001995504440000128
是输出门单元
Figure BDA0001995504440000129
与过激活函数的记忆细胞内部状态做阿达马积,表达式如下:
Figure BDA00019955044400001210
此时得到的
Figure BDA00019955044400001211
为反向网络的记忆块输出。
以上即为bi-LSTM层的具体过程。将bi-LSTM层的两个输出
Figure BDA00019955044400001212
Figure BDA00019955044400001213
输入全连接层中,将学习到的特征映射到样本标记空间,将全连接层的输出值经过softmax层进行归一化,输出结果为
Figure BDA00019955044400001214
其中,
Figure BDA00019955044400001215
为前向网络中隐层到输出层的权向量,
Figure BDA00019955044400001216
为反向网络中隐层到输出层的权向量,bp为前向网络和后向网络中隐层到输出层的偏置之和。
最后将输出结果经过分类层为输入数据打标签,完成整个预训练的过程。
(4)网络参数微调:将步骤(3)的输出结果与输入样本的实际输出作比较得到训练样本正确识别率和损失函数,判断损失函数和训练样本集的正确识别率是否在预期范围内,若是,则保存该网络参数;否则,进行自适应参数调整,直至训练样本集的正确识别率和损失函数在预期范围内。参数自适应调整的步骤为:
损失函数Lt的表达式为
Figure BDA00019955044400001217
其中,dt为输入样本xt的期望输出。
接下来计算参数的变化量。在反向网络中,各参数变化量表达式如下:
隐层到输出层的权值wb和偏置bb变化量表达式为:
Figure BDA00019955044400001218
Figure BDA00019955044400001219
输出门单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000131
Figure BDA0001995504440000132
Figure BDA0001995504440000133
遗忘门单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000134
Figure BDA0001995504440000135
Figure BDA0001995504440000136
输入门单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000137
Figure BDA0001995504440000138
Figure BDA0001995504440000139
输入挤压单元的权值和偏置变化量表达式为:
Figure BDA00019955044400001310
Figure BDA00019955044400001311
Figure BDA0001995504440000141
在前向网络中,各参数变化量表达式如下:
隐层到输出层的权值wf和偏置b变化量表达式为:
Figure BDA0001995504440000142
Figure BDA0001995504440000143
输出门单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000144
Figure BDA0001995504440000145
Figure BDA0001995504440000146
遗忘门单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000147
Figure BDA0001995504440000148
Figure BDA0001995504440000149
输入门单元的权值和偏置变化量表达式为:
Figure BDA00019955044400001410
Figure BDA00019955044400001411
Figure BDA0001995504440000151
输入挤压单元的权值和偏置变化量表达式为:
Figure BDA0001995504440000152
Figure BDA0001995504440000153
Figure BDA0001995504440000154
通过权值和偏置的变化量,对各个权值和偏置进行更新。在这里将所有的权值表示为w,所有的偏置表示为b,更新后的权值和偏置表达式如下:
Figure BDA0001995504440000155
Figure BDA0001995504440000156
其中,η为步长,默认值为0.01;β1和β2为矩估计的指数衰减速率,通常β1为0.9,β2为0.999;δ为一极小值,用于稳定数值,常用值为10-8;s和r为初始化一阶和二阶矩变量,初始值设为0。
(5)测试样本集测试:将经过预处理的测试集数据输入参数自适应调整后的bi-LSTM网络中,将输出结果与标签进行对比得出样本正确识别率,并对网络做出评估。若网络满足鲁棒性,则将网络的参数保存;若网络不满足鲁棒性,则证明网络未训练好,增加训练样本,重复步骤(3)和步骤(4),直至网络满足鲁棒性,得到参数最优化的bi-LSTM网络。
(6)实际应用:将矢量声纳接收到的待分类样本数据经过同样的预处理,将预处理后的数据输入参数最优化的bi-LSTM网络中,得到待分类样本的输出分类结果。
本发明提出了一种基于矢量声纳的双向长短时记忆神经网络水面目标识别方法,采用了具有双向记忆特性的双向长短时记忆(bi-LSTM)神经网络,将矢量声纳接收到的矢量信号经过预处理后输入双向长短时记忆神经网络中,通过bi-LSTM层进行特征提取,通过全连接层将学习到的特征映射到样本标记空间,通过softmax层进行归一化,通过分类层为输入数据打标签,从而完成对输入的矢量信号的分类识别。本发明通过双向长短时记忆神经网络可以自主的进行特征提取,克服了由于人工提取特征导致信息丢失的问题,避免了人工提取特征步骤的繁琐复杂,也减少了人工提取特征所需的时间。同时,通过多隐层的神经网络可以提高样本正确识别率。

Claims (6)

1.一种双向长短时记忆神经网络水面目标识别方法,其特征是:
步骤1:将矢量声纳接收到的矢量信号进行预处理;
步骤2:将预处理后的训练样本集输入双向长短时记忆神经网络中,进行网络预训练;
步骤2.1:将双向长短时记忆神经网络参数初始化;
步骤2.2:将预处理后的训练集样本输入参数初始化的双向长短时记忆神经网络中,进行预训练;
所述的预训练的具体方法为:
双向长短时记忆网络分为前向网络和后向网络,
(1)在前向网络中,t时刻的第i个输入为
Figure FDA0003628912170000011
t-1时刻的第j个记忆块输出为
Figure FDA0003628912170000012
样本个数为T,每个样本的特征个数为M,隐层神经元个数为H,输出神经元个数为N;
将t时刻的输入
Figure FDA0003628912170000013
与t-1时刻的记忆块输出
Figure FDA0003628912170000014
经过加权求和后,按双曲正切函数进行非线性变换,得到输入挤压单元
Figure FDA0003628912170000015
表达式如下:
Figure FDA0003628912170000016
其中,
Figure FDA0003628912170000017
为t时刻的输入
Figure FDA0003628912170000018
与输入挤压单元
Figure FDA0003628912170000019
之间的权向量,
Figure FDA00036289121700000110
为t-1时刻的记忆块输出
Figure FDA00036289121700000111
与输入挤压单元
Figure FDA00036289121700000112
之间的权向量,
Figure FDA00036289121700000113
为记忆块的偏置;
输入门单元
Figure FDA00036289121700000114
是将
Figure FDA00036289121700000115
Figure FDA00036289121700000116
的加权和按照激活函数激活,并在激活值为0时,切断来自另一个节点的信息流;在激活值为1时,让信息流通过,表达式如下:
Figure FDA00036289121700000117
其中,
Figure FDA00036289121700000118
为t时刻的输入
Figure FDA00036289121700000119
与输入门单元
Figure FDA00036289121700000120
之间的权向量,
Figure FDA00036289121700000121
为t-1时刻的记忆块输出
Figure FDA00036289121700000122
与输入门单元
Figure FDA00036289121700000123
之间的权向量,
Figure FDA00036289121700000124
为输入门单元的偏置;
输入门控单元为输入门单元
Figure FDA00036289121700000125
Figure FDA00036289121700000126
做阿达马积,表达式为
Figure FDA00036289121700000127
遗忘门单元
Figure FDA00036289121700000128
是将
Figure FDA00036289121700000129
Figure FDA00036289121700000130
的加权和按照激活函数激活,表达式如下:
Figure FDA00036289121700000131
其中,
Figure FDA00036289121700000132
为t时刻的输入
Figure FDA00036289121700000133
与遗忘门单元
Figure FDA00036289121700000134
之间的权向量,
Figure FDA00036289121700000135
为t-1时刻的记忆块输出
Figure FDA00036289121700000136
与遗忘门单元
Figure FDA00036289121700000137
之间的权向量,
Figure FDA00036289121700000138
为遗忘门单元的偏置;
记忆细胞内部状态
Figure FDA00036289121700000139
的更新是通过遗忘门单元
Figure FDA00036289121700000140
与前一时刻的记忆细胞内部状态
Figure FDA00036289121700000141
做阿达马积,再加上输入门控单元,表达式如下:
Figure FDA0003628912170000021
输出门单元
Figure FDA0003628912170000022
是将
Figure FDA0003628912170000023
Figure FDA0003628912170000024
的加权和按照激活函数激活,表达式如下:
Figure FDA0003628912170000025
其中,
Figure FDA0003628912170000026
为t时刻的输入
Figure FDA0003628912170000027
与输出门单元
Figure FDA0003628912170000028
之间的权向量,
Figure FDA0003628912170000029
为t-1时刻的记忆块输出
Figure FDA00036289121700000210
与输出门单元
Figure FDA00036289121700000211
之间的权向量,
Figure FDA00036289121700000212
为输出门单元的偏置;
输出门控单元
Figure FDA00036289121700000213
是输出门单元
Figure FDA00036289121700000214
与经过激活函数的记忆细胞内部状态做阿达马积,表达式如下:
Figure FDA00036289121700000215
此时得到的
Figure FDA00036289121700000216
为前向网络的记忆块输出,而双向长短时记忆网络的每一时刻的输出不仅与之前时刻有关,还会与之后时刻有关,因此隐层的输出不仅包含了前向网络的记忆块输出,还包括了反向网络的记忆块输出;
(2)在反向网络中,t时刻的第i个输入为
Figure FDA00036289121700000217
t+1时刻的第j个记忆块输出为
Figure FDA00036289121700000218
样本个数为T,每个样本的特征个数为M,隐层神经元个数为H,输出神经元个数为N;
将t时刻的输入
Figure FDA00036289121700000219
与t+1时刻的记忆块输出
Figure FDA00036289121700000220
经过加权求和后,按双曲正切函数进行非线性变换,得到输入挤压单元
Figure FDA00036289121700000221
表达式如下:
Figure FDA00036289121700000222
其中,
Figure FDA00036289121700000223
为t时刻的输入
Figure FDA00036289121700000224
与输入挤压单元
Figure FDA00036289121700000225
之间的权向量,
Figure FDA00036289121700000226
为t+1时刻的记忆块输出
Figure FDA00036289121700000227
与输入挤压单元
Figure FDA00036289121700000228
之间的权向量,
Figure FDA00036289121700000229
为记忆块的偏置;
输入门单元
Figure FDA00036289121700000230
是将
Figure FDA00036289121700000231
Figure FDA00036289121700000232
的加权和按照激活函数激活,表达式如下:
Figure FDA00036289121700000233
其中,
Figure FDA00036289121700000234
为t时刻的输入
Figure FDA00036289121700000235
与输入门单元
Figure FDA00036289121700000236
之间的权向量,
Figure FDA00036289121700000237
为t+1时刻的记忆块输出
Figure FDA00036289121700000238
与输入门单元
Figure FDA00036289121700000239
之间的权向量,
Figure FDA00036289121700000240
为输入门单元的偏置;
输入门控单元为输入门单元
Figure FDA00036289121700000241
Figure FDA00036289121700000242
做阿达马积,表达式为
Figure FDA00036289121700000243
遗忘门单元
Figure FDA00036289121700000244
是将
Figure FDA00036289121700000245
Figure FDA00036289121700000246
的加权和按照激活函数激活,表达式如下:
Figure FDA00036289121700000247
其中,
Figure FDA0003628912170000031
为t时刻的输入
Figure FDA0003628912170000032
与遗忘门单元
Figure FDA0003628912170000033
之间的权向量,
Figure FDA0003628912170000034
为t+1时刻的记忆块输出
Figure FDA0003628912170000035
与遗忘门单元
Figure FDA0003628912170000036
之间的权向量,
Figure FDA0003628912170000037
为遗忘门单元的偏置;
记忆细胞内部状态
Figure FDA0003628912170000038
的更新是通过遗忘门单元
Figure FDA0003628912170000039
与前一时刻的记忆细胞内部状态
Figure FDA00036289121700000310
做阿达马积,再加上输入门控单元,表达式如下:
Figure FDA00036289121700000311
输出门单元
Figure FDA00036289121700000312
是将
Figure FDA00036289121700000313
Figure FDA00036289121700000314
的加权和按照激活函数激活,表达式如下:
Figure FDA00036289121700000315
其中,
Figure FDA00036289121700000316
为t时刻的输入
Figure FDA00036289121700000317
与输出门单元
Figure FDA00036289121700000318
之间的权向量,
Figure FDA00036289121700000319
为t+1时刻的记忆块输出
Figure FDA00036289121700000320
与输出门单元
Figure FDA00036289121700000321
之间的权向量,
Figure FDA00036289121700000322
为输出门单元的偏置;
输出门控单元
Figure FDA00036289121700000323
是输出门单元
Figure FDA00036289121700000324
与经过激活函数的记忆细胞内部状态做阿达马积,表达式如下:
Figure FDA00036289121700000325
此时得到的
Figure FDA00036289121700000326
为反向网络的记忆块输出;
以上即为bi-LSTM层的具体过程,将bi-LSTM层的两个输出
Figure FDA00036289121700000327
Figure FDA00036289121700000328
输入全连接层中,将学习到的特征映射到样本标记空间,将全连接层的输出值经过softmax层进行归一化,输出结果为
Figure FDA00036289121700000329
其中,
Figure FDA00036289121700000330
为前向网络中隐层到输出层的权向量,
Figure FDA00036289121700000331
为反向网络中隐层到输出层的权向量,bp为前向网络和后向网络中隐层到输出层的偏置之和;
最后将输出结果经过分类层为输入数据打标签,完成整个预训练的过程;
步骤3:将预训练的输出结果与输入样本的实际输出进行比较,通过自适应的方法对网络参数进行微调;
步骤4:将经过同样预处理后的测试样本集输入参数自适应调整后的双向长短时记忆网络中,对网络进行评估;
步骤5:将经过同样预处理后的待分类样本集输入参数最优化的双向长短时记忆网络中,得到分类结果。
2.根据权利要求1所述的双向长短时记忆神经网络水面目标识别方法,其特征是所述的预处理的步骤为:
步骤1.1:将矢量声纳接收到的矢量信号按照7:3的比例划分为训练集和测试集;
步骤1.2:将训练集的样本按照所需分析的频带进行滤波,再将数据通过降采样函数进行降采样;
步骤1.3:将训练样本集的数据按照公式(1)的形式构造输入特征,
I(t)=p(t)v(t) (1)
其中,p(t)为矢量声纳接收到的声压值,v(t)为矢量声纳接收到的各方向振速经合成后得到的合成值;
步骤4:按照步骤1.2和步骤1.3的方法处理测试集样本,并构造测试集输入样本;
步骤5:将训练集和测试集的样本进行打标签。
3.根据权利要求1所述的双向长短时记忆神经网络水面目标识别方法,其特征是所述的微调的步骤为:
步骤3.1:将网络输出结果与输入数据的实际输出进行比较,得到损失函数和训练样本集的正确识别率;
步骤3.2:判断损失函数和训练样本集的正确识别率是否在预期范围内,若是,则保存该网络参数;否则,进行自适应参数调整;重复步骤3.1、步骤3.2,直至损失函数和训练样本集的正确识别率在预期范围内。
4.根据权利要求3所述的双向长短时记忆神经网络水面目标识别方法,其特征是自适应参数调整的步骤为:
损失函数Lt的表达式为
Figure FDA0003628912170000041
其中,dt为输入样本xt的期望输出,
接下来计算参数的变化量,在反向网络中,各参数变化量表达式如下:
隐层到输出层的权值wb和偏置bb变化量表达式为:
Figure FDA0003628912170000042
Figure FDA0003628912170000043
输出门单元的权值和偏置变化量表达式为:
Figure FDA0003628912170000044
Figure FDA0003628912170000051
Figure FDA0003628912170000052
遗忘门单元的权值和偏置变化量表达式为:
Figure FDA0003628912170000053
Figure FDA0003628912170000054
Figure FDA0003628912170000055
输入门单元的权值和偏置变化量表达式为:
Figure FDA0003628912170000056
Figure FDA0003628912170000057
Figure FDA0003628912170000058
输入挤压单元的权值和偏置变化量表达式为:
Figure FDA0003628912170000059
Figure FDA00036289121700000510
Figure FDA00036289121700000511
在前向网络中,各参数变化量表达式如下:
隐层到输出层的权值wf和偏置b变化量表达式为:
Figure FDA0003628912170000061
Figure FDA0003628912170000062
输出门单元的权值和偏置变化量表达式为:
Figure FDA0003628912170000063
Figure FDA0003628912170000064
Figure FDA0003628912170000065
遗忘门单元的权值和偏置变化量表达式为:
Figure FDA0003628912170000066
Figure FDA0003628912170000067
Figure FDA0003628912170000068
输入门单元的权值和偏置变化量表达式为:
Figure FDA0003628912170000069
Figure FDA00036289121700000610
Figure FDA00036289121700000611
输入挤压单元的权值和偏置变化量表达式为:
Figure FDA0003628912170000071
Figure FDA0003628912170000072
Figure FDA0003628912170000073
通过权值和偏置的变化量,对各个权值和偏置进行更新,将所有的权值表示为w,所有的偏置表示为b,更新后的权值和偏置表达式如下:
Figure FDA0003628912170000074
Figure FDA0003628912170000075
其中,η为步长,默认值为0.01;β1和β2为矩估计的指数衰减速率,β1为0.9,β2为0.999;δ为一极小值,用于稳定数值,常用值为10-8;s和r为初始化一阶和二阶矩变量,初始值设为0。
5.根据权利要求1所述的双向长短时记忆神经网络水面目标识别方法,其特征是所述的评估的步骤为:
步骤4.1:将预处理后的测试集样本输入参数自适应调整后的双向长短时记忆神经网络中;
步骤4.2:将输出结果与标签进行对比,得到网络的正确识别率,并对网络进行评估;
步骤4.3:判断网络是否符合鲁棒性,若是,则保存网络参数;否则,增加训练样本,对网络进行重新训练。
6.根据权利要求1所述的双向长短时记忆神经网络水面目标识别方法,其特征是所述的得到分类结果的步骤为:
步骤5.1:将矢量声纳接收到的数据进行预处理;
步骤5.2:将预处理后的待分类样本集输入参数最优化的双向长短时记忆神经网络中,得到分类结果。
CN201910194814.6A 2019-03-14 2019-03-14 一种双向长短时记忆神经网络水面目标识别方法 Active CN110045356B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910194814.6A CN110045356B (zh) 2019-03-14 2019-03-14 一种双向长短时记忆神经网络水面目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910194814.6A CN110045356B (zh) 2019-03-14 2019-03-14 一种双向长短时记忆神经网络水面目标识别方法

Publications (2)

Publication Number Publication Date
CN110045356A CN110045356A (zh) 2019-07-23
CN110045356B true CN110045356B (zh) 2022-07-15

Family

ID=67274822

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910194814.6A Active CN110045356B (zh) 2019-03-14 2019-03-14 一种双向长短时记忆神经网络水面目标识别方法

Country Status (1)

Country Link
CN (1) CN110045356B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490299B (zh) * 2019-07-25 2022-07-29 南京信息工程大学 基于状态变化微分的灵敏长短期记忆方法
CN111295017B (zh) * 2020-02-21 2022-03-08 成都世纪光合作用科技有限公司 一种灯光控制方法、控制系统和设备
CN113627607A (zh) * 2020-05-07 2021-11-09 中国石油化工股份有限公司 碳酸盐岩储层沉积相识别方法、装置、电子设备及介质
CN112418014B (zh) * 2020-11-09 2023-11-17 南京信息工程大学滨江学院 基于小波变换和卷积长短期记忆神经网络的调制信号识别方法
CN112887245B (zh) * 2021-01-08 2022-10-11 鹏城实验室 高动态信道的符号检测方法、装置、设备及存储介质
CN113466839B (zh) * 2021-09-03 2021-12-07 北京星天科技有限公司 侧扫声呐海底线检测方法和装置
CN115642972B (zh) * 2022-12-23 2023-03-21 鹏城实验室 动态信道通信检测方法、装置、设备及可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180018031A (ko) * 2016-08-12 2018-02-21 한국전자통신연구원 주의집중 기반 문맥 종속 음향 모델을 이용한 음성 인식 장치 및 방법
CN108417224A (zh) * 2018-01-19 2018-08-17 苏州思必驰信息科技有限公司 双向神经网络模型的训练和识别方法及系统
CN108469599A (zh) * 2018-02-28 2018-08-31 哈尔滨工程大学 一种声矢量传感器幅度加权music测向方法
CN108596030A (zh) * 2018-03-20 2018-09-28 杭州电子科技大学 基于Faster R-CNN的声呐目标检测方法
RU2681252C1 (ru) * 2018-04-16 2019-03-05 Федеральное Государственное Казенное Военное Образовательное Учреждение Высшего Образования "Тихоокеанское Высшее Военно-Морское Училище Имени С.О. Макарова" Министерства Обороны Российской Федерации (Г. Владивосток) Система обнаружения гидроакустических сигналов и их нейросетевой классификации
CN109446902A (zh) * 2018-09-22 2019-03-08 天津大学 一种基于无人平台的海洋环境与目标综合感知方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10809376B2 (en) * 2017-01-06 2020-10-20 Massachusetts Institute Of Technology Systems and methods for detecting objects in underwater environments

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180018031A (ko) * 2016-08-12 2018-02-21 한국전자통신연구원 주의집중 기반 문맥 종속 음향 모델을 이용한 음성 인식 장치 및 방법
CN108417224A (zh) * 2018-01-19 2018-08-17 苏州思必驰信息科技有限公司 双向神经网络模型的训练和识别方法及系统
CN108469599A (zh) * 2018-02-28 2018-08-31 哈尔滨工程大学 一种声矢量传感器幅度加权music测向方法
CN108596030A (zh) * 2018-03-20 2018-09-28 杭州电子科技大学 基于Faster R-CNN的声呐目标检测方法
RU2681252C1 (ru) * 2018-04-16 2019-03-05 Федеральное Государственное Казенное Военное Образовательное Учреждение Высшего Образования "Тихоокеанское Высшее Военно-Морское Училище Имени С.О. Макарова" Министерства Обороны Российской Федерации (Г. Владивосток) Система обнаружения гидроакустических сигналов и их нейросетевой классификации
CN109446902A (zh) * 2018-09-22 2019-03-08 天津大学 一种基于无人平台的海洋环境与目标综合感知方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
" 基于水上水下一体化探测系统的目标分类关键技术研究";王家为;《万方学位论文库》;20180530;全文 *
"Towards end-to-end speech recognition with recurrent neural networks";A Graves等;《Proceedings of Machine Learning Research》;20141231;全文 *
"基于反向卷积的Bi-LSTM语音识别";居治平等;《软件导刊》;20180731;第17卷(第7期);全文 *

Also Published As

Publication number Publication date
CN110045356A (zh) 2019-07-23

Similar Documents

Publication Publication Date Title
CN110045356B (zh) 一种双向长短时记忆神经网络水面目标识别方法
CN112364779B (zh) 信号处理与深-浅网络多模型融合的水声目标识别方法
CN112581979B (zh) 一种基于语谱图的语音情绪识别方法
CN110491416B (zh) 一种基于lstm和sae的电话语音情感分析与识别方法
CN110245608B (zh) 一种基于半张量积神经网络的水下目标识别方法
CN108922513B (zh) 语音区分方法、装置、计算机设备及存储介质
US5566270A (en) Speaker independent isolated word recognition system using neural networks
CN107885853A (zh) 一种基于深度学习的组合式文本分类方法
CN111709315A (zh) 一种基于领域适配的水声目标辐射噪声识别方法
CN113571067B (zh) 一种基于边界攻击的声纹识别对抗样本生成方法
CN102034472A (zh) 一种基于嵌入时延神经网络的高斯混合模型的说话人识别方法
CN110751044A (zh) 基于深度网络迁移特征与增广自编码的城市噪声识别方法
CN113780242A (zh) 一种基于模型迁移学习的跨场景水声目标分类方法
CN113591728A (zh) 基于集成深度学习的电能质量扰动分类方法
CN112053694A (zh) 一种基于cnn与gru网络融合的声纹识别方法
CN114203184A (zh) 一种多状态声纹特征识别方法及装置
CN111899766B (zh) 基于深度特征与声学特征寻优融合的语音情感识别方法
CN111968666A (zh) 基于深度域自适应网络的助听器语音增强方法
CN115659254A (zh) 一种双模态特征融合的配电网电能质量扰动分析方法
CN113221758B (zh) 一种基于gru-nin模型的水声目标识别方法
CN111081273A (zh) 一种基于声门波信号特征提取的语音情感识别方法
CN111354373A (zh) 一种基于神经网络中间层特征滤波的音频信号分类方法
CN113239809A (zh) 基于多尺度稀疏sru分类模型的水声目标识别方法
Li et al. Voice activity detection using a local-global attention model
CN110415685A (zh) 一种语音识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant