CN113392884A - 基于lstm网络和注意力机制的坐标融合方法 - Google Patents
基于lstm网络和注意力机制的坐标融合方法 Download PDFInfo
- Publication number
- CN113392884A CN113392884A CN202110590494.3A CN202110590494A CN113392884A CN 113392884 A CN113392884 A CN 113392884A CN 202110590494 A CN202110590494 A CN 202110590494A CN 113392884 A CN113392884 A CN 113392884A
- Authority
- CN
- China
- Prior art keywords
- output
- ship
- coordinate
- data
- unmanned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000001914 filtration Methods 0.000 claims abstract description 5
- 101150080778 INPP5D gene Proteins 0.000 claims description 56
- 238000004364 calculation method Methods 0.000 claims description 20
- 230000004927 fusion Effects 0.000 claims description 15
- 210000004027 cell Anatomy 0.000 claims description 12
- 238000000034 method Methods 0.000 claims description 11
- 210000002569 neuron Anatomy 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 11
- 238000012360 testing method Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 239000003550 marker Substances 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000005622 photoelectricity Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种基于LSTM网络和注意力机制的坐标融合方法,该方法首先将各项传感器的原始数据进行处理和统一,将极坐标数据和GPS数据转化为直角坐标,组合成多维的向量作为输入;然后将向量通过LSTM神经网络计算每个时刻的输出;最后通过注意力机制加权滤波每一输出得到最终的输出结果。
Description
技术领域
本发明属于数据融合技术领域,具体涉及一种基于LSTM(LongShort-TermMemory,长短期记忆)网络和注意力机制的坐标融合方法。
背景技术
海上搜救常常由于定位不足,导致救援难度一直很大。如何进行准确快速搜救一直是国内外救援事业所遇到的难题。由于海上环境恶劣,定位传感器的准确性比较低,导致定位更加困难。多传感器融合定位由此应运而生,将集成各种定位设备协同进行海上搜救。
多传感器信息融合,是利用计算机技术将来自多传感器或多源的信息和数据,在一定的准则下加以自动分析和综合,以完成所需要的决策和估计而进行的信息处理过程。传统的融合方式基于同类多传感器数据融合跟踪系统,这往往具有精度不高、误差较大的缺点,目前还没有一套完整有效的系统能够精确融合实现准确定位,这是海上救援急需解决的问题。如何进行数据融合,准确估计出真实状态成为当下研究的热门话题。
发明内容
鉴于以上存在的技术问题,本发明用于提供一种基于LSTM网络和注意力机制的数据融合方法,能够实现准确融合传感器数据,达到定位跟踪的目的。
为解决上述技术问题,本发明采用如下的技术方案:
一种基于LSTM网络和注意力机制的坐标融合方法,包括以下步骤:
S1,原始数据采集,海事雷达、红外光电立体相机、无人艇RTK(Real-timekinematic,实时动态载波相位差分技术)、母船RTK、船坞RTK、AIS(AutomaticidentificationSystem,船舶自动识别系统)示位标、UWB(UltraWideBand,超宽频技术)传感器上传跟踪到的位置信息,上位机读取并记录数据;
S2,数据预处理,将海上救援的各项设备雷达、双目视觉摄像头、差分GPS、AIS信标中的原始位置数据进行预处理,把格式不同的数据统一为坐标;
S3,将预处理后的数据输入含注意力机制的LSTM网络进行训练;
S4,将训练得到含注意力机制的LSTM网络用于实际测试,无人艇融合后的坐标为(XW,YW),失事目标融合后的坐标为(XT,YT)。
优选地,S2中包括雷达数据处理,雷达原始数据处理要处理的是雷达返回的极坐标数据,无人艇相对母船的极坐标为(LRb,ARb),lRb表示的是无人艇到母船的距离、ARb表示的是无人艇与母船的相对角度;跟踪目标相对母船的极坐标为(LRt,ARt),LRt表示的是无人艇到母船的距离、ARt表示的是无人艇与母船的相对角度,
优选地,S2中包括双目视觉摄像头数据处理,双目视觉摄像头数据处理的是摄像头返回的极坐标数据,无人艇相对母船的极坐标为(LCb,ACb),LCb表示的是无人艇到母船的距离、ACb表示的是无人艇与母船的相对角度;跟踪目标相对母船的极坐标为(LCt,ACt),LCt表示的是无人艇到母船的距离、ACt表示的是无人艇与母船的相对角度,
优选地,S2中包括差分GPS数据处理,差分GPS数据处理需要处理无人艇GPS坐标和母船GPS坐标,无人艇的GPS坐标(Blon,Blat),母船的GPS坐标(Slon,Slat),无人艇相对母船的经度差Δlon表示为:
Δlon=Blon-Slon
纬度差Δlat表示为:
Δlat=Blat-Slat
设地球的平均半径为R,地球的南北极周长C可近似计算为:C=2πR
设无人艇与母船的平均纬度lat为:
ΔTlon=Tlon-Slon
ΔTlat=Tlat-Slat
优选地,S3进一步包括:
S301,搭建LSTM网络,A为网络相连的神经元,用t表示当前时刻,每个神经元的输入为xt,为6维向量,输出为yt,为2维向量[X,Y],每个单元的状态为Ct,遗忘门决定上一时刻的单元状态Ct-1有多少保留到当前时刻Ct,输入门决定当前时刻网络输入xt有多少保存到单元状态Ct,输出门用来控制单元状态Ct,有多少输出到LSTM的当前输出值ht;
S302,前向计算每个神经元的输出值,遗忘门的输出ft由下式计算得到:
ft=σ(Wf·[ht-1,xt]+bf)
输入门的输出it、输入状态输出zt、当前状态Ct由下式计算得到:
it=σ(Wi·[ht-1,xt]+bi)
zt=tanh(Wz·[ht-1,xt]+bc)
输出门的输出为ot,神经元的输出为yt,ot、ht、yt及节点mt由下式计算得到:
ot=σ(Wo·[ht-1,xt]+bo)
mt=tanh(Ct)
ht=ot*mt
yt=Wyhht+by
其中,σ(·)为sigmoid函数,W为权重矩阵,b为偏置项。
S303,反向传播计算。整个序列上的损失函数J:
用梯度下降法更新参数,计算某个节点梯度时,首先找到该节点的输出节点,然后分别计算所有输出节点的梯度乘以输出节点对该节点的梯度,最后相加即可得到该节点的梯度,计算时,找到ht节点的所有输出节点yt,ft+1,it+1,zt+1,ot+1,然后分别计算输出节点的梯度与输出节点对ht的梯度的乘积,最后相加得到节点ht的梯度
同理可得t时刻其他节点的梯度:
更新参数,由下式计算得到:
S304,注意力机制融合输出结果,注意力机制的核心目标是从众多输出中选择出对当前任务占比更大关键的信息,当前时刻的输出与过去太久时刻的数据影响不大,通过注意力机制模型的数据只选取t到t-4时刻的数据,输出通过加权均值后的滤波结果为Ot,其计算公式为:
其中ak为权重系数,由下式计算得到:
ak=softmax(tanh(Wy·[Ck,yk]))。
采用本发明具有如下的有益效果:
(1)通过将多种传感器的数据同步、融合,有效避免了单传感器数据丢失、延迟高、误差大等问题。
(2)本融合方法融合的定位数据考虑了之前时刻的位置信息,进一步提高了准确性和精度。
附图说明
图1为本发明实施例的基于LSTM网络和注意力机制的坐标融合方法的步骤流程图;
图2为LSTM网络模型的结构示意图;
图3为单个LSTM单元架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,为本发明实施例的一种基于LSTM网络和注意力机制的坐标融合方法的步骤流程图,具体实施步骤如下:
S1,原始数据采集。海事雷达、红外光电立体相机、无人艇RTK、母船RTK、船坞RTK、AIS示位标、UWB传感器会不断上传跟踪到的位置信息,上位机能够不断读取并记录数据。
S2,处理S1中记录的原始数据,具体操作步骤如下:
S205,经过S201,S202,S203,S204步骤处理完成后整理得到的数据:雷达无人艇坐标摄像头无人艇坐标差分GPS无人艇坐标雷达跟踪目标坐标摄像头跟踪目标坐标和AIS信标跟踪目标组成6维向量。
S3,将S2预处理后的数据输入含注意力机制的LSTM网络进行训练。由于RNN模型实现长期记忆需要将当前的隐含态的计算与之前数次计算相关,会导致模型训练的时间很长,而LSTM网络能解决长期依赖的问题,它还具有时间循环结构,可以很好地刻画具有时空关联的序列数据,对噪声神经有较强的鲁棒性和容错能力,能充分逼近复杂的非线性关系,可以避免RNN梯度消失和爆发的问题,因此本发明选用LSTM网络来进行融合。训练过程首先将数据分成训练集和测试集,训练集数据通过LSTM网络调整网络参数,再将输出结果输入注意力模型,使用加权滤波法对数据进行滤波融合,最后再用测试集测试训练效果。
具体步骤如下:
S301,搭建LSTM网络。LSTM神经网络模型流程可用图2说明。A为网络相连的神经元。用t表示当前时刻,每个神经元的输入为xt,为6维向量,输出为yt,为2维向量[X,Y],每个单元的状态为Ct。每个单元的结构可用图3来说明。遗忘门决定上一时刻的单元状态Ct-1有多少保留到当前时刻Ct,输入门决定当前时刻网络输入xt有多少保存到单元状态Ct,输出门用来控制单元状态Ct,有多少输出到LSTM的当前输出值ht。
S302,前向计算每个神经元的输出值。遗忘门输出ft、输入门输出it、输入状态输出zt、当前状态Ct,输出门输出ot,神经元输出yt,输出状态ht及节点mt计算为:
ft=σ(Wf·[ht-1,xt]+bf)
it=σ(Wi·[ht-1,xt]+bi)
zt=tanh(Wz·[ht-1,xt]+bc)
ot=σ(Wo·[ht-1,xt]+bo)
mt=tanh(Ct)
ht=ot*mt
yt=Wyhht+by
其中,σ(·)为sigmoid函数,W为权重矩阵,b为偏置项。
S303,反向传播计算。定义整个序列上的损失函数J:
用梯度下降法更新参数。计算各个节点的梯度:
更新参数,可由下式计算得到:
S304,注意力机制和分类器。输入经过三层神经网络后对最后得到的结果yt到yt-4通过加权均值后的输出结果为Ot,其计算公式为:
其中ak为权重系数,由下式计算得到:
ak=softmax(tanh(Wy·[Ck,yk]))
S4,将S3训练得到含注意力机制的LSTM网络用于实际测试,无人艇融合后的坐标为(XW,YW),失事目标融合后的坐标为(XT,YT)。
经过上述4个步骤,即可得到本发明所提出的一种于LSTM网络和注意力机制的坐标融合方法。
该方法首先将各项传感器的原始数据进行处理和统一,将极坐标数据和GPS数据转化为直角坐标,组合成多维的向量作为输入;然后将向量通过LSTM神经网络计算每个时刻的输出;最后通过注意力机制加权滤波每一输出得到最终的输出结果。
应当理解,本文所述的示例性实施例是说明性的而非限制性的。尽管结合附图描述了本发明的一个或多个实施例,本领域普通技术人员应当理解,在不脱离通过所附权利要求所限定的本发明的精神和范围的情况下,可以做出各种形式和细节的改变。
Claims (6)
1.一种基于LSTM网络和注意力机制的坐标融合方法,其特征在于,包括以下步骤:
S1,原始数据采集,海事雷达、红外光电立体相机、无人艇RTK、母船RTK、船坞RTK、AIS示位标、UWB传感器上传跟踪到的位置信息,上位机读取并记录数据;
S2,数据预处理,将海上救援的各项设备雷达、双目视觉摄像头、差分GPS、AIS信标中的原始位置数据进行预处理,把格式不同的数据统一为坐标;
S3,将预处理后的数据输入含注意力机制的LSTM网络进行训练;
S4,将训练得到含注意力机制的LSTM网络用于实际测试,无人艇融合后的坐标为(XW,YW),失事目标融合后的坐标为(XT,YT)。
6.如权利要求1至5任一所述的基于LSTM网络和注意力机制的坐标融合方法,其特征在于,S3进一步包括:
S301,搭建LSTM网络,A为网络相连的神经元,用t表示当前时刻,每个神经元的输入为xt,为6维向量,输出为yt,为2维向量[X,Y],每个单元的状态为Ct,遗忘门决定上一时刻的单元状态Ct-1有多少保留到当前时刻Ct,输入门决定当前时刻网络输入xt有多少保存到单元状态Ct,输出门用来控制单元状态Ct,有多少输出到LSTM的当前输出值ht;
S302,前向计算每个神经元的输出值,遗忘门的输出ft由下式计算得到:
ft=σ(Wf·[ht-1,xt]+bf)
输入门的输出it、输入状态输出zt、当前状态Ct由下式计算得到:
it=σ(Wi·[ht-1,xt]+bi)
zt=tanh(Wz·[ht-1,xt]+bc)
输出门的输出为ot,神经元的输出为yt,ot、ht、yt及节点mt由下式计算得到:
ot=σ(Wo·[ht-1,xt]+bo)
mt=tanh(Ct)
ht=ot*mt
yt=Wyhht+by
其中,σ(·)为sigmoid函数,W为权重矩阵,b为偏置项。
S303,反向传播计算。整个序列上的损失函数J:
用梯度下降法更新参数,计算某个节点梯度时,首先找到该节点的输出节点,然后分别计算所有输出节点的梯度乘以输出节点对该节点的梯度,最后相加即可得到该节点的梯度,计算时,找到ht节点的所有输出节点yt,ft+1,it+1,zt+1,ot+1,然后分别计算输出节点的梯度与输出节点对ht的梯度的乘积,最后相加得到节点ht的梯度
同理可得t时刻其他节点的梯度:
更新参数,由下式计算得到:
S304,注意力机制融合输出结果,注意力机制的核心目标是从众多输出中选择出对当前任务占比更大关键的信息,当前时刻的输出与过去太久时刻的数据影响不大,通过注意力机制模型的数据只选取t到t-4时刻的数据,输出通过加权均值后的滤波结果为Ot,其计算公式为:
其中ak为权重系数,由下式计算得到:
ak=softmax(tanh(Wy·[Ck,yk]))。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110590494.3A CN113392884B (zh) | 2021-05-28 | 2021-05-28 | 基于lstm网络和注意力机制的坐标融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110590494.3A CN113392884B (zh) | 2021-05-28 | 2021-05-28 | 基于lstm网络和注意力机制的坐标融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113392884A true CN113392884A (zh) | 2021-09-14 |
CN113392884B CN113392884B (zh) | 2024-02-27 |
Family
ID=77619390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110590494.3A Active CN113392884B (zh) | 2021-05-28 | 2021-05-28 | 基于lstm网络和注意力机制的坐标融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113392884B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115346399A (zh) * | 2022-07-23 | 2022-11-15 | 交通运输部规划研究院 | 基于相控阵雷达、ais和lstm网络的大桥防船撞预警系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102270394A (zh) * | 2011-07-07 | 2011-12-07 | 王迅 | 基于激光传感器的船舶交通量监测方法 |
CN105572664A (zh) * | 2015-12-31 | 2016-05-11 | 上海广电通信技术有限公司 | 基于数据融合的组网导航雷达目标跟踪系统 |
CN108550281A (zh) * | 2018-04-13 | 2018-09-18 | 武汉理工大学 | 一种基于视觉ar的船舶辅助驾驶系统与方法 |
-
2021
- 2021-05-28 CN CN202110590494.3A patent/CN113392884B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102270394A (zh) * | 2011-07-07 | 2011-12-07 | 王迅 | 基于激光传感器的船舶交通量监测方法 |
CN105572664A (zh) * | 2015-12-31 | 2016-05-11 | 上海广电通信技术有限公司 | 基于数据融合的组网导航雷达目标跟踪系统 |
CN108550281A (zh) * | 2018-04-13 | 2018-09-18 | 武汉理工大学 | 一种基于视觉ar的船舶辅助驾驶系统与方法 |
Non-Patent Citations (1)
Title |
---|
徐国庆 等: "基于Attenton-LSTM 神经网络的船舶航行预测", 舰船科学技术, vol. 41, no. 12, 31 December 2019 (2019-12-31) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115346399A (zh) * | 2022-07-23 | 2022-11-15 | 交通运输部规划研究院 | 基于相控阵雷达、ais和lstm网络的大桥防船撞预警系统 |
CN115346399B (zh) * | 2022-07-23 | 2024-01-19 | 交通运输部规划研究院 | 基于相控阵雷达、ais和lstm网络的大桥防船撞预警系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113392884B (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA3067573A1 (en) | Target tracking systems and methods for uuv | |
Liu et al. | Detection and pose estimation for short-range vision-based underwater docking | |
CN111813113B (zh) | 仿生视觉自运动感知地图绘制方法、存储介质及设备 | |
CN113252033B (zh) | 基于多传感器融合的定位方法、定位系统及机器人 | |
CN112651437B (zh) | 一种基于深度学习的空间非合作目标位姿估计方法 | |
CN112556719B (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
CN113739795B (zh) | 一种基于偏振光/惯性/视觉组合导航的水下同步定位与建图方法 | |
CN114719848B (zh) | 基于视觉与惯性导航信息融合神经网络的无人机高度估算方法 | |
CN111968046A (zh) | 一种基于拓扑结构的雷达光电传感器目标关联融合方法 | |
CN113686299B (zh) | 一种海上动态目标定位与移速预测方法 | |
CN111812978B (zh) | 一种多无人机协作slam方法与系统 | |
CN113392884B (zh) | 基于lstm网络和注意力机制的坐标融合方法 | |
CN111090283A (zh) | 一种无人艇组合定位定向方法和系统 | |
CN114217303A (zh) | 目标定位跟踪方法及装置、水下机器人和存储介质 | |
CN112669452B (zh) | 一种基于卷积神经网络多分支结构的物体定位方法 | |
Xu et al. | Dual Free-Size LS-SVM Assisted Maximum Correntropy Kalman Filtering for Seamless INS-Based Integrated Drone Localization | |
CN113465596A (zh) | 一种基于多传感器融合的四旋翼无人机定位方法 | |
Yang et al. | Ultrasonic and IMU based high precision UAV localisation for the low cost autonomous inspection in oil and gas pressure vessels | |
CN112268564A (zh) | 一种无人机降落空间位置和姿态端到端估计方法 | |
CN104318072A (zh) | 基于qkf-mmf的多传感器量化融合方法 | |
Guerrero-Font et al. | Sparse Gaussian process for online seagrass semantic mapping | |
CN114459474B (zh) | 一种基于因子图的惯性/偏振/雷达/光流紧组合导航的方法 | |
Wang et al. | Unsupervised Learning of Depth and Pose Based on Monocular Camera and Inertial Measurement Unit (IMU) | |
CN113686336A (zh) | 基于格网拓扑结构迭代最佳环域点提高水下导航精度方法 | |
CN113392883B (zh) | 一种基于深度神经网络和注意力机制的坐标融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |