CN113392884A - 基于lstm网络和注意力机制的坐标融合方法 - Google Patents

基于lstm网络和注意力机制的坐标融合方法 Download PDF

Info

Publication number
CN113392884A
CN113392884A CN202110590494.3A CN202110590494A CN113392884A CN 113392884 A CN113392884 A CN 113392884A CN 202110590494 A CN202110590494 A CN 202110590494A CN 113392884 A CN113392884 A CN 113392884A
Authority
CN
China
Prior art keywords
output
ship
coordinate
data
unmanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110590494.3A
Other languages
English (en)
Other versions
CN113392884B (zh
Inventor
金建国
潘勉
吕帅帅
江晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202110590494.3A priority Critical patent/CN113392884B/zh
Publication of CN113392884A publication Critical patent/CN113392884A/zh
Application granted granted Critical
Publication of CN113392884B publication Critical patent/CN113392884B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种基于LSTM网络和注意力机制的坐标融合方法,该方法首先将各项传感器的原始数据进行处理和统一,将极坐标数据和GPS数据转化为直角坐标,组合成多维的向量作为输入;然后将向量通过LSTM神经网络计算每个时刻的输出;最后通过注意力机制加权滤波每一输出得到最终的输出结果。

Description

基于LSTM网络和注意力机制的坐标融合方法
技术领域
本发明属于数据融合技术领域,具体涉及一种基于LSTM(LongShort-TermMemory,长短期记忆)网络和注意力机制的坐标融合方法。
背景技术
海上搜救常常由于定位不足,导致救援难度一直很大。如何进行准确快速搜救一直是国内外救援事业所遇到的难题。由于海上环境恶劣,定位传感器的准确性比较低,导致定位更加困难。多传感器融合定位由此应运而生,将集成各种定位设备协同进行海上搜救。
多传感器信息融合,是利用计算机技术将来自多传感器或多源的信息和数据,在一定的准则下加以自动分析和综合,以完成所需要的决策和估计而进行的信息处理过程。传统的融合方式基于同类多传感器数据融合跟踪系统,这往往具有精度不高、误差较大的缺点,目前还没有一套完整有效的系统能够精确融合实现准确定位,这是海上救援急需解决的问题。如何进行数据融合,准确估计出真实状态成为当下研究的热门话题。
发明内容
鉴于以上存在的技术问题,本发明用于提供一种基于LSTM网络和注意力机制的数据融合方法,能够实现准确融合传感器数据,达到定位跟踪的目的。
为解决上述技术问题,本发明采用如下的技术方案:
一种基于LSTM网络和注意力机制的坐标融合方法,包括以下步骤:
S1,原始数据采集,海事雷达、红外光电立体相机、无人艇RTK(Real-timekinematic,实时动态载波相位差分技术)、母船RTK、船坞RTK、AIS(AutomaticidentificationSystem,船舶自动识别系统)示位标、UWB(UltraWideBand,超宽频技术)传感器上传跟踪到的位置信息,上位机读取并记录数据;
S2,数据预处理,将海上救援的各项设备雷达、双目视觉摄像头、差分GPS、AIS信标中的原始位置数据进行预处理,把格式不同的数据统一为坐标;
S3,将预处理后的数据输入含注意力机制的LSTM网络进行训练;
S4,将训练得到含注意力机制的LSTM网络用于实际测试,无人艇融合后的坐标为(XW,YW),失事目标融合后的坐标为(XT,YT)。
优选地,S2中包括雷达数据处理,雷达原始数据处理要处理的是雷达返回的极坐标数据,无人艇相对母船的极坐标为(LRb,ARb),lRb表示的是无人艇到母船的距离、ARb表示的是无人艇与母船的相对角度;跟踪目标相对母船的极坐标为(LRt,ARt),LRt表示的是无人艇到母船的距离、ARt表示的是无人艇与母船的相对角度,
根据极坐标转直角坐标计算公式可得,无人艇的直角坐标
Figure BDA0003089316820000021
表示为:
Figure BDA0003089316820000022
Figure BDA0003089316820000023
跟踪目标直角坐标
Figure BDA0003089316820000024
表示为:
Figure BDA0003089316820000025
Figure BDA0003089316820000026
优选地,S2中包括双目视觉摄像头数据处理,双目视觉摄像头数据处理的是摄像头返回的极坐标数据,无人艇相对母船的极坐标为(LCb,ACb),LCb表示的是无人艇到母船的距离、ACb表示的是无人艇与母船的相对角度;跟踪目标相对母船的极坐标为(LCt,ACt),LCt表示的是无人艇到母船的距离、ACt表示的是无人艇与母船的相对角度,
无人艇相对母船的坐标
Figure BDA0003089316820000027
计算公式为:
Figure BDA0003089316820000028
Figure BDA0003089316820000029
跟踪目标相对母船的坐标
Figure BDA0003089316820000031
计算公式为:
Figure BDA0003089316820000032
Figure BDA0003089316820000033
优选地,S2中包括差分GPS数据处理,差分GPS数据处理需要处理无人艇GPS坐标和母船GPS坐标,无人艇的GPS坐标(Blon,Blat),母船的GPS坐标(Slon,Slat),无人艇相对母船的经度差Δlon表示为:
Δlon=Blon-Slon
纬度差Δlat表示为:
Δlat=Blat-Slat
设地球的平均半径为R,地球的南北极周长C可近似计算为:C=2πR
设无人艇与母船的平均纬度lat为:
Figure BDA0003089316820000034
同一经度差下的长度与当前纬度无人艇相对母船的X轴坐标
Figure BDA00030893168200000311
表示为:
Figure BDA0003089316820000035
无人艇相对母船的Y轴坐标
Figure BDA0003089316820000036
表示为:
Figure BDA0003089316820000037
优选地,S2中包括AIS信标数据处理,AIS信标数据需处理跟踪目标的GPS坐标(Tlon,Tlat),其转换需同母船GPS坐标(Slon,Slat)计算,其坐标
Figure BDA0003089316820000038
计算公式为:
ΔTlon=Tlon-Slon
ΔTlat=Tlat-Slat
Figure BDA0003089316820000039
Figure BDA00030893168200000310
优选地,S3进一步包括:
S301,搭建LSTM网络,A为网络相连的神经元,用t表示当前时刻,每个神经元的输入为xt,为6维向量,输出为yt,为2维向量[X,Y],每个单元的状态为Ct,遗忘门决定上一时刻的单元状态Ct-1有多少保留到当前时刻Ct,输入门决定当前时刻网络输入xt有多少保存到单元状态Ct,输出门用来控制单元状态Ct,有多少输出到LSTM的当前输出值ht
S302,前向计算每个神经元的输出值,遗忘门的输出ft由下式计算得到:
ft=σ(Wf·[ht-1,xt]+bf)
输入门的输出it、输入状态输出zt、当前状态Ct由下式计算得到:
it=σ(Wi·[ht-1,xt]+bi)
zt=tanh(Wz·[ht-1,xt]+bc)
Figure BDA0003089316820000041
输出门的输出为ot,神经元的输出为yt,ot、ht、yt及节点mt由下式计算得到:
ot=σ(Wo·[ht-1,xt]+bo)
mt=tanh(Ct)
ht=ot*mt
yt=Wyhht+by
其中,σ(·)为sigmoid函数,W为权重矩阵,b为偏置项。
S303,反向传播计算。整个序列上的损失函数J:
Figure BDA0003089316820000042
其中N为序列长度,ht为t时刻输出,
Figure BDA0003089316820000043
为ht的均值。
用梯度下降法更新参数,计算某个节点梯度时,首先找到该节点的输出节点,然后分别计算所有输出节点的梯度乘以输出节点对该节点的梯度,最后相加即可得到该节点的梯度,计算
Figure BDA0003089316820000044
时,找到ht节点的所有输出节点yt,ft+1,it+1,zt+1,ot+1,然后分别计算输出节点的梯度与输出节点对ht的梯度的乘积,最后相加得到节点ht的梯度
Figure BDA0003089316820000045
Figure BDA0003089316820000046
同理可得t时刻其他节点的梯度:
Figure BDA0003089316820000051
Figure BDA0003089316820000052
Figure BDA0003089316820000053
Figure BDA0003089316820000054
Figure BDA0003089316820000055
Figure BDA0003089316820000056
Figure BDA0003089316820000057
更新参数,由下式计算得到:
Figure BDA0003089316820000058
Figure BDA0003089316820000059
S304,注意力机制融合输出结果,注意力机制的核心目标是从众多输出中选择出对当前任务占比更大关键的信息,当前时刻的输出与过去太久时刻的数据影响不大,通过注意力机制模型的数据只选取t到t-4时刻的数据,输出通过加权均值后的滤波结果为Ot,其计算公式为:
Figure BDA00030893168200000510
其中ak为权重系数,由下式计算得到:
ak=softmax(tanh(Wy·[Ck,yk]))。
采用本发明具有如下的有益效果:
(1)通过将多种传感器的数据同步、融合,有效避免了单传感器数据丢失、延迟高、误差大等问题。
(2)本融合方法融合的定位数据考虑了之前时刻的位置信息,进一步提高了准确性和精度。
附图说明
图1为本发明实施例的基于LSTM网络和注意力机制的坐标融合方法的步骤流程图;
图2为LSTM网络模型的结构示意图;
图3为单个LSTM单元架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,为本发明实施例的一种基于LSTM网络和注意力机制的坐标融合方法的步骤流程图,具体实施步骤如下:
S1,原始数据采集。海事雷达、红外光电立体相机、无人艇RTK、母船RTK、船坞RTK、AIS示位标、UWB传感器会不断上传跟踪到的位置信息,上位机能够不断读取并记录数据。
S2,处理S1中记录的原始数据,具体操作步骤如下:
S201,雷达数据处理。处理雷达原始数据:无人艇的极坐标(LRb,ARb)和跟踪目标的极坐标(LRt,ARt)。无人艇的直角坐标
Figure BDA0003089316820000061
可表示为:
Figure BDA0003089316820000062
Figure BDA0003089316820000063
跟踪目标直角坐标
Figure BDA0003089316820000064
可表示为:
Figure BDA0003089316820000071
Figure BDA0003089316820000072
S202,双目视觉摄像头数据处理。处理双目视觉摄像头原始数据:无人艇的极坐标(LCb,ACb)和跟踪目标的极坐标为(LCt,ACt)。无人艇的直角坐标
Figure BDA0003089316820000073
可表示为:
Figure BDA0003089316820000074
Figure BDA0003089316820000075
跟踪目标的直角坐标
Figure BDA0003089316820000076
可表示为:
Figure BDA0003089316820000077
Figure BDA0003089316820000078
S203,差分GPS数据处理。处理差分GPS原始数据:无人艇的GPS坐标(Blon,Blat)和母船的GPS坐标(Slon,Slat)。设地球的平均半径为R,无人艇相对母船的X轴坐标
Figure BDA0003089316820000079
可表示为:
Figure BDA00030893168200000710
无人艇相对母船的Y轴坐标
Figure BDA00030893168200000711
可表示为:
Figure BDA00030893168200000712
S204,AIS信标数据处理。AIS信标数据需处理跟踪目标的GPS坐标(Tlon,Tlat)。其转换需同母船GPS坐标(Slon,Slat)计算。其坐标
Figure BDA00030893168200000713
计算公式为:
Figure BDA00030893168200000714
Figure BDA00030893168200000715
S205,经过S201,S202,S203,S204步骤处理完成后整理得到的数据:雷达无人艇坐标
Figure BDA00030893168200000716
摄像头无人艇坐标
Figure BDA00030893168200000717
差分GPS无人艇坐标
Figure BDA00030893168200000718
雷达跟踪目标坐标
Figure BDA00030893168200000719
摄像头跟踪目标坐标
Figure BDA00030893168200000720
和AIS信标跟踪目标
Figure BDA00030893168200000721
组成6维向量。
无人艇:
Figure BDA00030893168200000722
跟踪目标:
Figure BDA0003089316820000081
S3,将S2预处理后的数据输入含注意力机制的LSTM网络进行训练。由于RNN模型实现长期记忆需要将当前的隐含态的计算与之前数次计算相关,会导致模型训练的时间很长,而LSTM网络能解决长期依赖的问题,它还具有时间循环结构,可以很好地刻画具有时空关联的序列数据,对噪声神经有较强的鲁棒性和容错能力,能充分逼近复杂的非线性关系,可以避免RNN梯度消失和爆发的问题,因此本发明选用LSTM网络来进行融合。训练过程首先将数据分成训练集和测试集,训练集数据通过LSTM网络调整网络参数,再将输出结果输入注意力模型,使用加权滤波法对数据进行滤波融合,最后再用测试集测试训练效果。
具体步骤如下:
S301,搭建LSTM网络。LSTM神经网络模型流程可用图2说明。A为网络相连的神经元。用t表示当前时刻,每个神经元的输入为xt,为6维向量,输出为yt,为2维向量[X,Y],每个单元的状态为Ct。每个单元的结构可用图3来说明。遗忘门决定上一时刻的单元状态Ct-1有多少保留到当前时刻Ct,输入门决定当前时刻网络输入xt有多少保存到单元状态Ct,输出门用来控制单元状态Ct,有多少输出到LSTM的当前输出值ht
S302,前向计算每个神经元的输出值。遗忘门输出ft、输入门输出it、输入状态输出zt、当前状态Ct,输出门输出ot,神经元输出yt,输出状态ht及节点mt计算为:
ft=σ(Wf·[ht-1,xt]+bf)
it=σ(Wi·[ht-1,xt]+bi)
zt=tanh(Wz·[ht-1,xt]+bc)
Figure BDA0003089316820000082
ot=σ(Wo·[ht-1,xt]+bo)
mt=tanh(Ct)
ht=ot*mt
yt=Wyhht+by
其中,σ(·)为sigmoid函数,W为权重矩阵,b为偏置项。
S303,反向传播计算。定义整个序列上的损失函数J:
Figure BDA0003089316820000091
其中N为序列长度,ht为t时刻输出,
Figure BDA0003089316820000092
为ht的均值。
用梯度下降法更新参数。计算各个节点的梯度:
Figure BDA0003089316820000093
Figure BDA0003089316820000094
Figure BDA0003089316820000095
Figure BDA0003089316820000096
Figure BDA0003089316820000097
Figure BDA0003089316820000098
Figure BDA0003089316820000099
更新参数,可由下式计算得到:
Figure BDA00030893168200000910
Figure BDA00030893168200000911
S304,注意力机制和分类器。输入经过三层神经网络后对最后得到的结果yt到yt-4通过加权均值后的输出结果为Ot,其计算公式为:
Figure BDA0003089316820000101
其中ak为权重系数,由下式计算得到:
ak=softmax(tanh(Wy·[Ck,yk]))
S4,将S3训练得到含注意力机制的LSTM网络用于实际测试,无人艇融合后的坐标为(XW,YW),失事目标融合后的坐标为(XT,YT)。
经过上述4个步骤,即可得到本发明所提出的一种于LSTM网络和注意力机制的坐标融合方法。
该方法首先将各项传感器的原始数据进行处理和统一,将极坐标数据和GPS数据转化为直角坐标,组合成多维的向量作为输入;然后将向量通过LSTM神经网络计算每个时刻的输出;最后通过注意力机制加权滤波每一输出得到最终的输出结果。
应当理解,本文所述的示例性实施例是说明性的而非限制性的。尽管结合附图描述了本发明的一个或多个实施例,本领域普通技术人员应当理解,在不脱离通过所附权利要求所限定的本发明的精神和范围的情况下,可以做出各种形式和细节的改变。

Claims (6)

1.一种基于LSTM网络和注意力机制的坐标融合方法,其特征在于,包括以下步骤:
S1,原始数据采集,海事雷达、红外光电立体相机、无人艇RTK、母船RTK、船坞RTK、AIS示位标、UWB传感器上传跟踪到的位置信息,上位机读取并记录数据;
S2,数据预处理,将海上救援的各项设备雷达、双目视觉摄像头、差分GPS、AIS信标中的原始位置数据进行预处理,把格式不同的数据统一为坐标;
S3,将预处理后的数据输入含注意力机制的LSTM网络进行训练;
S4,将训练得到含注意力机制的LSTM网络用于实际测试,无人艇融合后的坐标为(XW,YW),失事目标融合后的坐标为(XT,YT)。
2.如权利要求1所述的基于LSTM网络和注意力机制的坐标融合方法,其特征在于,S2中包括雷达数据处理,雷达原始数据处理要处理的是雷达返回的极坐标数据,无人艇相对母船的极坐标为(LRb,ARb),LRb表示的是无人艇到母船的距离、ARb表示的是无人艇与母船的相对角度;跟踪目标相对母船的极坐标为(LRt,ARt),LRt表示的是无人艇到母船的距离、ARt表示的是无人艇与母船的相对角度,
根据极坐标转直角坐标计算公式可得,无人艇的直角坐标
Figure FDA0003089316810000011
表示为:
Figure FDA0003089316810000012
Figure FDA0003089316810000013
跟踪目标直角坐标
Figure FDA0003089316810000014
表示为:
Figure FDA0003089316810000015
Figure FDA0003089316810000016
3.如权利要求1所述的基于LSTM网络和注意力机制的坐标融合方法,其特征在于,S2中包括双目视觉摄像头数据处理,双目视觉摄像头数据处理的是摄像头返回的极坐标数据,无人艇相对母船的极坐标为(LCb,ACb),LCb表示的是无人艇到母船的距离、ACb表示的是无人艇与母船的相对角度;跟踪目标相对母船的极坐标为(LCt,ACt),LCt表示的是无人艇到母船的距离、ACt表示的是无人艇与母船的相对角度,
无人艇相对母船的坐标
Figure FDA0003089316810000021
计算公式为:
Figure FDA0003089316810000022
Figure FDA0003089316810000023
跟踪目标相对母船的坐标
Figure FDA0003089316810000024
计算公式为:
Figure FDA0003089316810000025
Figure FDA0003089316810000026
4.如权利要求1所述的基于LSTM网络和注意力机制的坐标融合方法,其特征在于,S2中包括差分GPS数据处理,差分GPS数据处理需要处理无人艇GPS坐标和母船GPS坐标,无人艇的GPS坐标(Blon,Blat),母船的GPS坐标(Slon,Slat),无人艇相对母船的经度差Δlon表示为:
Δlon=Blon-Slon
纬度差Δlat表示为:
Δlat=Blat-Slat
设地球的平均半径为R,地球的南北极周长C可近似计算为:C=2πR
设无人艇与母船的平均纬度lat为:
Figure FDA0003089316810000027
同一经度差下的长度与当前纬度无人艇相对母船的X轴坐标
Figure FDA0003089316810000028
表示为:
Figure FDA0003089316810000029
无人艇相对母船的Y轴坐标
Figure FDA00030893168100000210
表示为:
Figure FDA00030893168100000211
Figure FDA00030893168100000212
5.如权利要求1所述的基于LSTM网络和注意力机制的坐标融合方法,其特征在于,S2中包括AIS信标数据处理,AIS信标数据需处理跟踪目标的GPS坐标(Tlon,Tlat),其转换需同母船GPS坐标(Slon,Slat)计算,其坐标
Figure FDA0003089316810000031
计算公式为:
ΔTlon=Tlon-Slon
ΔTlat=Tlat-Slat
Figure FDA0003089316810000032
Figure FDA0003089316810000033
6.如权利要求1至5任一所述的基于LSTM网络和注意力机制的坐标融合方法,其特征在于,S3进一步包括:
S301,搭建LSTM网络,A为网络相连的神经元,用t表示当前时刻,每个神经元的输入为xt,为6维向量,输出为yt,为2维向量[X,Y],每个单元的状态为Ct,遗忘门决定上一时刻的单元状态Ct-1有多少保留到当前时刻Ct,输入门决定当前时刻网络输入xt有多少保存到单元状态Ct,输出门用来控制单元状态Ct,有多少输出到LSTM的当前输出值ht
S302,前向计算每个神经元的输出值,遗忘门的输出ft由下式计算得到:
ft=σ(Wf·[ht-1,xt]+bf)
输入门的输出it、输入状态输出zt、当前状态Ct由下式计算得到:
it=σ(Wi·[ht-1,xt]+bi)
zt=tanh(Wz·[ht-1,xt]+bc)
Figure FDA0003089316810000034
输出门的输出为ot,神经元的输出为yt,ot、ht、yt及节点mt由下式计算得到:
ot=σ(Wo·[ht-1,xt]+bo)
mt=tanh(Ct)
ht=ot*mt
yt=Wyhht+by
其中,σ(·)为sigmoid函数,W为权重矩阵,b为偏置项。
S303,反向传播计算。整个序列上的损失函数J:
Figure FDA0003089316810000041
其中N为序列长度,ht为t时刻输出,
Figure FDA0003089316810000042
为ht的均值。
用梯度下降法更新参数,计算某个节点梯度时,首先找到该节点的输出节点,然后分别计算所有输出节点的梯度乘以输出节点对该节点的梯度,最后相加即可得到该节点的梯度,计算
Figure FDA00030893168100000413
时,找到ht节点的所有输出节点yt,ft+1,it+1,zt+1,ot+1,然后分别计算输出节点的梯度与输出节点对ht的梯度的乘积,最后相加得到节点ht的梯度
Figure FDA0003089316810000043
Figure FDA0003089316810000044
同理可得t时刻其他节点的梯度:
Figure FDA0003089316810000045
Figure FDA0003089316810000046
Figure FDA0003089316810000047
Figure FDA0003089316810000048
Figure FDA0003089316810000049
Figure FDA00030893168100000410
Figure FDA00030893168100000411
更新参数,由下式计算得到:
Figure FDA00030893168100000412
Figure FDA0003089316810000051
S304,注意力机制融合输出结果,注意力机制的核心目标是从众多输出中选择出对当前任务占比更大关键的信息,当前时刻的输出与过去太久时刻的数据影响不大,通过注意力机制模型的数据只选取t到t-4时刻的数据,输出通过加权均值后的滤波结果为Ot,其计算公式为:
Figure FDA0003089316810000052
其中ak为权重系数,由下式计算得到:
ak=softmax(tanh(Wy·[Ck,yk]))。
CN202110590494.3A 2021-05-28 2021-05-28 基于lstm网络和注意力机制的坐标融合方法 Active CN113392884B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110590494.3A CN113392884B (zh) 2021-05-28 2021-05-28 基于lstm网络和注意力机制的坐标融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110590494.3A CN113392884B (zh) 2021-05-28 2021-05-28 基于lstm网络和注意力机制的坐标融合方法

Publications (2)

Publication Number Publication Date
CN113392884A true CN113392884A (zh) 2021-09-14
CN113392884B CN113392884B (zh) 2024-02-27

Family

ID=77619390

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110590494.3A Active CN113392884B (zh) 2021-05-28 2021-05-28 基于lstm网络和注意力机制的坐标融合方法

Country Status (1)

Country Link
CN (1) CN113392884B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115346399A (zh) * 2022-07-23 2022-11-15 交通运输部规划研究院 基于相控阵雷达、ais和lstm网络的大桥防船撞预警系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102270394A (zh) * 2011-07-07 2011-12-07 王迅 基于激光传感器的船舶交通量监测方法
CN105572664A (zh) * 2015-12-31 2016-05-11 上海广电通信技术有限公司 基于数据融合的组网导航雷达目标跟踪系统
CN108550281A (zh) * 2018-04-13 2018-09-18 武汉理工大学 一种基于视觉ar的船舶辅助驾驶系统与方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102270394A (zh) * 2011-07-07 2011-12-07 王迅 基于激光传感器的船舶交通量监测方法
CN105572664A (zh) * 2015-12-31 2016-05-11 上海广电通信技术有限公司 基于数据融合的组网导航雷达目标跟踪系统
CN108550281A (zh) * 2018-04-13 2018-09-18 武汉理工大学 一种基于视觉ar的船舶辅助驾驶系统与方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
徐国庆 等: "基于Attenton-LSTM 神经网络的船舶航行预测", 舰船科学技术, vol. 41, no. 12, 31 December 2019 (2019-12-31) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115346399A (zh) * 2022-07-23 2022-11-15 交通运输部规划研究院 基于相控阵雷达、ais和lstm网络的大桥防船撞预警系统
CN115346399B (zh) * 2022-07-23 2024-01-19 交通运输部规划研究院 基于相控阵雷达、ais和lstm网络的大桥防船撞预警系统

Also Published As

Publication number Publication date
CN113392884B (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
CA3067573A1 (en) Target tracking systems and methods for uuv
Liu et al. Detection and pose estimation for short-range vision-based underwater docking
CN111813113B (zh) 仿生视觉自运动感知地图绘制方法、存储介质及设备
CN113252033B (zh) 基于多传感器融合的定位方法、定位系统及机器人
CN112651437B (zh) 一种基于深度学习的空间非合作目标位姿估计方法
CN112556719B (zh) 一种基于cnn-ekf的视觉惯性里程计实现方法
CN113739795B (zh) 一种基于偏振光/惯性/视觉组合导航的水下同步定位与建图方法
CN114719848B (zh) 基于视觉与惯性导航信息融合神经网络的无人机高度估算方法
CN111968046A (zh) 一种基于拓扑结构的雷达光电传感器目标关联融合方法
CN113686299B (zh) 一种海上动态目标定位与移速预测方法
CN111812978B (zh) 一种多无人机协作slam方法与系统
CN113392884B (zh) 基于lstm网络和注意力机制的坐标融合方法
CN111090283A (zh) 一种无人艇组合定位定向方法和系统
CN114217303A (zh) 目标定位跟踪方法及装置、水下机器人和存储介质
CN112669452B (zh) 一种基于卷积神经网络多分支结构的物体定位方法
Xu et al. Dual Free-Size LS-SVM Assisted Maximum Correntropy Kalman Filtering for Seamless INS-Based Integrated Drone Localization
CN113465596A (zh) 一种基于多传感器融合的四旋翼无人机定位方法
Yang et al. Ultrasonic and IMU based high precision UAV localisation for the low cost autonomous inspection in oil and gas pressure vessels
CN112268564A (zh) 一种无人机降落空间位置和姿态端到端估计方法
CN104318072A (zh) 基于qkf-mmf的多传感器量化融合方法
Guerrero-Font et al. Sparse Gaussian process for online seagrass semantic mapping
CN114459474B (zh) 一种基于因子图的惯性/偏振/雷达/光流紧组合导航的方法
Wang et al. Unsupervised Learning of Depth and Pose Based on Monocular Camera and Inertial Measurement Unit (IMU)
CN113686336A (zh) 基于格网拓扑结构迭代最佳环域点提高水下导航精度方法
CN113392883B (zh) 一种基于深度神经网络和注意力机制的坐标融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant