CN116628421A - 基于自监督学习神经网络模型的imu原始数据去噪方法 - Google Patents
基于自监督学习神经网络模型的imu原始数据去噪方法 Download PDFInfo
- Publication number
- CN116628421A CN116628421A CN202310566641.2A CN202310566641A CN116628421A CN 116628421 A CN116628421 A CN 116628421A CN 202310566641 A CN202310566641 A CN 202310566641A CN 116628421 A CN116628421 A CN 116628421A
- Authority
- CN
- China
- Prior art keywords
- model
- training
- data
- neural network
- imu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003062 neural network model Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000005259 measurement Methods 0.000 title description 4
- 238000012549 training Methods 0.000 claims abstract description 137
- 238000012545 processing Methods 0.000 claims abstract description 27
- 239000011159 matrix material Substances 0.000 claims description 52
- 230000006870 function Effects 0.000 claims description 38
- 238000010606 normalization Methods 0.000 claims description 37
- 238000013528 artificial neural network Methods 0.000 claims description 22
- 239000013598 vector Substances 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及一种基于自监督学习神经网络模型的IMU原始数据去噪方法,包括:对IMU原始数据集进行划分并进行数据标准化处理后得到训练集;对于神经网络模型建立自监督训练任务,利用训练集进行模型训练;所述神经网络模型包括第一模型、第二模型和第三模型;第一模型和第二模型的模型参数相同,在模型训练中,对第一模型进行掩码语言学习任务训练,对第二模型进行去噪任务训练,对第三模型进行自监督重建任务训练;根据三个模型每次学习后的总损失进行反向传播更新神经网络模型参数;利用训练好的神经网络模型中的第二模型对输入的IMU原始数据进行去噪处理。本发明实现了对IMU原始数据的去噪处理。
Description
技术领域
本发明涉及惯性导航技术领域,尤其涉及一种基于自监督学习神经网络模型的IMU原始数据去噪方法。
背景技术
现代惯性测量单元(IMU)由测量角速度的三轴陀螺仪和产生重力补偿线性加速度的三轴加速度计组成。与其他设备,如全球定位系统(GPS)、摄像头或光探测和测距传感器组合在一起,可以较为精确地进行导航。然而,在实际应用中,IMU数据噪声可能来自制造过程和实际环境,这在很大程度上降低了惯性辅助导航的性能。因此,高效的IMU数据去噪非常重要。
传统的去噪方法有低通/高通(LPF/HPF)滤波、基于小波的去噪和S-G(Savitzky-Golay)滤波等。传统的低通/高通滤波是IMU去噪的一种直接方法,可以用适当的阈值对某些频率进行去噪。由于真实IMU数据是时变的,为了减少可能的信号失真并解决时间和频率分辨率之间的权衡问题,提出了基于小波的去噪技术,该技术可以处理多尺度的频率范围。虽然基于小波的去噪已经被广泛采用,但Karaim等人认为它可能不适合实时实现,并探索使用S-G滤波器来实现更快的速度和更好的精度。
上述传统的去噪方法都是基于传感器或噪声建模,在一定程度上缺乏泛化的能力。
传统的去噪方法之外,还有采用了有监督的深度学习进行IMU自动特征提取来实现较好的去噪效果。但是在实践中,监督学习的真实值数据可能很昂贵或者难以获取,这限制了这些监督学习方法的广泛应用。
因此,需要探索无监督或自监督的IMU去噪方法,进一步将深度学习应用于实践。
发明内容
鉴于上述的分析,本发明旨在公开了一种基于自监督学习神经网络模型的IMU原始数据去噪方法;用于解决对IMU原始数据去噪问题,
本发明公开了一种基于自监督学习神经网络模型的IMU原始数据去噪方法,包括以下步骤:
对IMU原始数据集进行划分并进行数据标准化处理后得到训练集;
对于神经网络模型建立自监督训练任务,利用训练集进行模型训练;
所述神经网络模型包括第一模型、第二模型和第三模型;第一模型和第二模型的模型参数相同,在模型训练中,对第一模型进行掩码语言学习任务训练,对第二模型进行去噪任务训练,对第三模型进行自监督重建任务训练;根据三个模型每次学习后的总损失进行反相传播更新神经网络模型参数;
利用训练好的神经网络模型中的第二模型对输入的IMU原始数据进行去噪处理。
进一步地,每一时刻的IMU原始数据为由IMU输出的三维角速度和三维比力数据构成的数据向量;n个连续时刻的原始IMU输出数据序列构成/>数据矩阵作为一个训练样本;m个训练样本构成一组批处理样本数据,所有原始IMU输出数据序列分成若干组批处理样本数据构成训练集。
进一步地,对第一模型进行掩码语言学习任务训练中,每次输入第一模型的训练样本为被随机掩盖掉L行数据的训练样本,L小于n;第一模型的输出为预测出的被掩盖掉的L行数据;
第一模型的损失函数中,通过计算第一模型预测出的L行数据与真实的L行数据的均方误差来得到第一损失值。
进一步地,对第二模型进行去噪任务训练中,每次输入第二模型的训练样本为完整的一个训练样本,第二模型的输出为与训练样本维度相同的输出数据矩阵;在输出数据矩阵中的其中一行被设定为,输出的对于一个设定时刻的IMU数据向量的去噪处理结果;
第二模型的损失函数中,通过计算去噪处理结果与输入训练样本中对应时刻的IMU数据向量的均方误差来得到第二损失值。
进一步地,对第三模型进行自监督重建任务训练中,包括:
第一步训练;在第一步训练中,每次输入第三模型的训练样本为完整的一个训练样本,第三模型的输出为与训练样本维度相同的输出数据矩阵;第三模型第一步训练的损失函数中,通过计算输出数据矩阵与训练样本方误差来得到第一步损失值;
第二步训练;在第二步训练中,每次输入第三模型的训练样本为第二模型输出的包括一行数据为去噪处理结果的数据矩阵,第三模型的输出为与输入矩阵维度相同的输出数据矩阵;第三模型的第二步训练的损失函数中,通过计算第二步训练的输出数据矩阵与第一步训练的输出数据矩阵的均方误差来得到第二步损失值;
将第一步训练和第二步训练的损失函数相加作为第三模型的损失函数。
进一步地,三个模型每次学习后的总损失函数为第一、第二和第三模型的损失函数的加权和,将所述总损失函数反相传播更新第一、第二和第三模型的网络模型参数。
进一步地,所述第一、第二和第三模型的神经网络模型均为基于Transformer模型的神经网络结构。
进一步地,所述第一、第二和第三模型的神经网络模型包括多头注意力机制层、第一全连接层、第一归一化层、前馈神经网络层、第二归一化层、第二全连接层、第三归一化层、第三全连接层;
其中,多头注意力机制层的输入端接入输入数据,输出端分别与第一全连接层和第一归一化层的输入端连接;第一全连接层的输出端与第一归一化层的输入端连接;
第一归一化层的输出端分别与第二全连接层和前馈神经网络层的输入端连接;前馈神经网络层的输出端与第二归一化层的输入端连接;
第二归一化层与第二全连接层、第三归一化层和第三全连接层顺序连接后,由第三全连接层的输出端作为输出数据端。
进一步地,前馈神经网络层是由两个全连接层组成,第一个全连接层采用RELU激活函数实现非线性变换,第二个全连接层不使用激活函数;
各归一化层的归一化方式为:(输入数据-输入数据均值)/输入数据标准差。
进一步地,训练好的第二模型中的输出数据矩阵中最后一行数据为去噪后的数据;
在对于包含的IMU原始数据的去噪处理过程中,p大于n;采用滑动窗口的方式进行去噪处理,滑动窗口的大小为/>,窗口的滑动步长为1;将/>的滑动窗口套在/>的IMU原始数据上,逐步滑动进行去噪处理,实现p-n+1行的IMU原始数据的去噪输出。
本发明可实现以下有益效果之一:
本发明的基于自监督学习神经网络模型的IMU原始数据去噪方法,将深度学习应用于实践IMU原始数据去噪中,实现了对IMU原始数据的去噪。
本发明所使用的自监督深度学习去噪方法免去了获取IMU数据真值的步骤,通常其真值的获取是昂贵和复杂的。
本发明的基于深度学习的去噪方法具有较强的泛化能力,不需要基于噪声建模,不仅局限于高斯白噪声,对于非高斯噪声也有效。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件;
图1为本发明实施例中的基于自监督学习神经网络模型的IMU原始数据去噪方法流程图;
图2为本发明实施例中的神经网络模型的结构示意图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理。
本发明的一个实施例公开了一种基于自监督学习神经网络模型的IMU原始数据去噪方法,如图1所示,包括以下步骤:
步骤S1、对IMU原始数据集进行划分并进行数据标准化处理后得到训练集;
步骤S2、对于神经网络模型建立自监督训练任务,利用训练集进行模型训练;
所述神经网络模型包括第一模型、第二模型和第三模型;第一模型和第二模型的模型参数相同,在模型训练中,对第一模型进行掩码语言学习任务训练,对第二模型进行去噪任务训练,对第三模型进行自监督重建任务训练;根据三个模型每次学习后的总损失进行反相传播更新神经网络模型参数;
步骤S3、利用训练好的神经网络模型中的第二模型对输入的IMU原始数据进行去噪处理。
具体的,在步骤S1中,
每一时刻的IMU原始数据为由IMU输出的三维角速度和三维比力数据构成的数据向量;即,
;
为IMU输出的三维比力数据;/>为IMU输出的三维角速度。
n个连续时刻的原始IMU输出数据序列构成数据矩阵作为一个训练样本;
m个训练样本构成一组批处理样本数据batch,所有原始IMU输出数据序列分成若干组批处理样本数据batch构成训练集;
一组批处理样本数据batch的大小为矩阵。
这样划分后,网络每一次训练时的输入是batch;在实际训练中将batch中的每一个样本作为输入网络层的最小单元,即训练时计算损失函数的单元为样本;网络层对每一个样本进行操作的最小单元为一个时刻的IMU向量。
对IMU数据进行标准化处理,从而消除角速度、比力具有不同量级的影响,一般来说,对模型训练影响大的是量级较大的特征,输入数据量级的较大差异将导致网络在训练时损失函数的收敛速度变慢。由于IMU数据的最大、最小值未知,并且可能有超出取值范围的离群数值,因此使用标准差标准化(StandardScaler)加快网络的权重参数的收敛。标准化过程如式所示:
新数据=(原数据-均值)/标准差;
其中均值和标准差都是在样本集上定义的,而不是在单个样本上定义的。标准化是针对每个属性的,需要用到所有样本在各个属性上的值。
具体的,在步骤S2中,对于神经网络模型的自监督训练任务设计中,包括了三个子任务,掩码语言模型(Masked Language Model, MLM)训练、去噪模型训练和自监督重建模型训练,对应于第一、第二和第三模型的训练。首先进行自监督任务的顶层设计,然后细化三个子任务,最后根据三个子任务的关系完成自监督任务的预测部分。
更为具体的,对于第一模型进行掩码语言学习任务训练。
对第一模型进行掩码语言学习任务训练中,每次输入第一模型的训练样本为被随机掩盖掉L行数据的训练样本,L小于n;第一模型的输出为预测出的被掩盖掉的L行数据;
其中,将被掩盖掉的L行数据均置零,实现输入第一模型的训练样本的生成。
第一模型的损失函数中,通过计算第一模型预测出的L行数据与真实的L行数据的均方误差来得到第一损失值。
具体的,第一模型训练结束时,网络学习到的理想的参数:
;
其中,为第一模型的神经网络/>的参数,/>为训练结束时神经网络/>学习到的理想的参数,/>为第一模型训练的损失函数,其中,/>表示为计算/>之间损失值,/>为第一模型的输入数据,/>为被随机掩盖掉的真实的L行数据。
更为具体的,对于第二模型进行去噪任务训练;所述第二模型与第一模型为模型参数共用的相同神经网络模型,区别在于第一模型的输出数据为矩阵,第二模型的输出数据为/>矩阵。
对第二模型进行去噪任务训练中,每次输入第二模型的训练样本为完整的一个训练样本,即矩阵;第二模型的输出为与训练样本维度相同的输出数据矩阵,/>矩阵;在输出数据矩阵中的其中一行被设定为,输出的对于一个设定时刻的IMU数据向量的去噪处理结果;
优选的,将出数据矩阵中的最后一行定为IMU数据向量的去噪处理结果。
第二模型的损失函数中,通过计算去噪处理结果与输入训练样本中对应时刻的IMU数据向量的均方误差来得到第二损失值。
具体的,第二模型训练结束时,网络学习到的理想的参数:
;
其中,为第二模型的神经网络/>的参数,/>为训练结束时神经网络/>学习到的理想的参数,/>为第二模型训练的损失函数,其中,/>表示为计算/>之间损失值,/>为第二模型输入的训练样本数据,/>为输入的/>矩阵最后一行数据。
更为具体的,对于第三模型进行自监督重建任务训练中,包括:
第一步训练;在第一步训练中,每次输入第三模型的训练样本为完整的一个训练样本,第三模型的输出为与训练样本维度相同的输出数据矩阵;第三模型第一步训练的损失函数中,通过计算输出数据矩阵与训练样本方误差来得到第一步损失值;
第二步训练;在第二步训练中,每次输入第三模型的训练样本为第二模型输出的包括一行数据为去噪处理结果的数据矩阵,第三模型的输出为与输入矩阵维度相同的输出数据矩阵;第三模型第二步训练的损失函数中,通过计算第二步训练的输出数据矩阵与第一步训练的输出数据矩阵的均方误差来得到第二步损失值;
将第一步训练和第二步训练的损失函数相加作为第三模型的损失函数。
第三模型训练结束时,网络学习到的理想的参数:
;
其中,为第二模型的神经网络/>的参数,/>为第三模型输入的训练样本数据,/>为第三模型训练的损失函数;/>为第一步训练的输出数据矩阵,为第二模型训练的输出数据矩阵,/>为训练结束时网络学习到的第三模型理想的参数,/>为训练结束时网络学习到的第二模型理想的参数。
所述步骤S2中,整个自监督训练任务的总损失函数为第一、第二和第三模型的损失函数的加权和,即,
;
其中,为各个损失的权重;
并将所述总损失函数反相传播更新第一、第二和第三模型的网络模型参数。
更为具体的,所述第一、第二和第三模型的神经网络模型均为基于Transformer模型的神经网络结构。
如图2所示,所述第一、第二和第三模型的神经网络模型包括多头注意力机制层、第一全连接层、第一归一化层、前馈神经网络层、第二归一化层、第二全连接层、第三归一化层、第三全连接层;
其中,多头注意力机制层的输入端接入输入数据,输出端分别与第一全连接层和第一归一化层的输入端连接;第一全连接层的输出端与第一归一化层的输入端连接;
第一归一化层的输出端分别与第二全连接层和前馈神经网络层的输入端连接;前馈神经网络层的输出端与第二归一化层的输入端连接;
第二归一化层与第二全连接层、第三归一化层和第三全连接层顺序连接后,由第三全连接层的输出端作为输出数据端。
具体的,多头注意力机制层中,对于输入的数据(设为矩阵)通过三个结构相同的全连接层(进行了线性变换)得到三个/>矩阵:Q(查询)、K(键值)和V(值)。计算矩阵Q和K每一行向量的内积,得到新的/>矩阵,这个新的矩阵的含义是输入多头注意力机制层的数据每一行相互之间的权重(因为两个向量映射到多维空间,向量越接近的话内积的值越大)。将这个权重矩阵与V做矩阵乘法,就将输入多头注意力机制层的数据用V进行了表示,最终目的是让网络学习一个样本中不同行IMU数据之间的关系。
具体的,各归一化层的归一化方式为:(输入数据-输入数据均值)/输入数据标准差。通过归一化操作并没有抹除数据的特征,并且加快了网络收敛。
具体的,前馈神经网络层是由两个全连接层组成,第一个全连接层采用RELU激活函数实现非线性变换,第二个全连接层不使用激活函数。前馈神经网络层目的是经过第一个全连接层先将数据映射到高纬度的空间,再通过第二个全连接层映射回低纬度的空间,提取了更深层次的特征。
具体的,全连接层进行计算时的单位是输入全连接层的每一行特征,数据经过全连接层后只改变每一行特征的特征数,矩阵其余维度保持不变。
具体的,步骤S2中还包括模型的封装与保存;神经网络包含一些随机性的操作(例如网络初始化权重的随机化等),网络在具有灵活性的同时模型也不太稳定,即相同数据训练相同模型也可能会产生不同的结果,因此有必要将预测效果较好的模型保存下来,这样做同时也避免了每次预测时需要重新训练模型从而节省时间成本,
在使用深度学习框架Pytorch和Pytorch-Lightning的基础上,将训练好的模型的参数权重权重(Weights)、模型配置(Architecture)和优化器配置(OptimizerConfiguration)保存至.pth文件中。
具体的,步骤S3中,利用训练好的第二模型中的网络进行去噪预测,训练好的第二模型中,输出数据矩阵中最后一行数据作为去噪后的数据;在将一个/>矩阵的IMU原始数据输入到网络/>输入端后,网络/>输出数据的/>矩阵的最后一行数据作为IMU原始数据/>矩阵最后一行对应时刻的去噪后的IMU数据。
去噪过程可用下式进行表示:
;
取的最后一行/>作为去噪后的数据,即输入/>的一个IMU原始数据,输出样本最后一行被去噪后的IMU数据(/>向量)。
更为具体的,在对于包含的IMU原始数据的去噪处理过程中,p大于n;采用滑动窗口的方式进行去噪处理,滑动窗口的大小为/>,窗口的滑动步长为1;将/>的滑动窗口套在/>的IMU原始数据上,逐步滑动进行去噪处理,实现p-n+1行的IMU原始数据的去噪输出。
综上所述,本发明实施例于自监督学习神经网络模型的IMU原始数据去噪方法,将深度学习应用于实践IMU原始数据去噪中,实现了对IMU原始数据的去噪;该方法免去了获取IMU数据真值的步骤,通常其真值的获取是昂贵和复杂的;该方法具有较强的泛化能力,不需要基于噪声建模,不仅局限于高斯白噪声,对于非高斯噪声也有效。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种基于自监督学习神经网络模型的IMU原始数据去噪方法,其特征在于,包括以下步骤:
对IMU原始数据集进行划分并进行数据标准化处理后得到训练集;
对于神经网络模型建立自监督训练任务,利用训练集进行模型训练;
所述神经网络模型包括第一模型、第二模型和第三模型;第一模型和第二模型的模型参数相同,在模型训练中,对第一模型进行掩码语言学习任务训练,对第二模型进行去噪任务训练,对第三模型进行自监督重建任务训练;根据三个模型每次学习后的总损失进行反相传播更新神经网络模型参数;
利用训练好的神经网络模型中的第二模型对输入的IMU原始数据进行去噪处理。
2.根据权利要求1所述的基于自监督学习神经网络模型的IMU原始数据去噪方法,其特征在于,
每一时刻的IMU原始数据为由IMU输出的三维角速度和三维比力数据构成的数据向量;n个连续时刻的原始IMU输出数据序列构成/>数据矩阵作为一个训练样本;m个训练样本构成一组批处理样本数据,所有原始IMU输出数据序列分成若干组批处理样本数据构成训练集。
3.根据权利要求2所述的基于自监督学习神经网络模型的IMU原始数据去噪方法,其特征在于,
对第一模型进行掩码语言学习任务训练中,每次输入第一模型的训练样本为被随机掩盖掉L行数据的训练样本,L小于n;第一模型的输出为预测出的被掩盖掉的L行数据;
第一模型的损失函数中,通过计算第一模型预测出的L行数据与真实的L行数据的均方误差来得到第一损失值。
4.根据权利要求3所述的基于自监督学习神经网络模型的IMU原始数据去噪方法,其特征在于,
对第二模型进行去噪任务训练中,每次输入第二模型的训练样本为完整的一个训练样本,第二模型的输出为与训练样本维度相同的输出数据矩阵;在输出数据矩阵中的其中一行被设定为,输出的对于一个设定时刻的IMU数据向量的去噪处理结果;
第二模型的损失函数中,通过计算去噪处理结果与输入训练样本中对应时刻的IMU数据向量的均方误差来得到第二损失值。
5.根据权利要求4所述的基于自监督学习神经网络模型的IMU原始数据去噪方法,其特征在于,
对第三模型进行自监督重建任务训练中,包括:
第一步训练;在第一步训练中,每次输入第三模型的训练样本为完整的一个训练样本,第三模型的输出为与训练样本维度相同的输出数据矩阵;第三模型第一步训练的损失函数中,通过计算输出数据矩阵与训练样本方误差来得到第一步损失值;
第二步训练;在第二步训练中,每次输入第三模型的训练样本为第二模型输出的包括一行数据为去噪处理结果的数据矩阵,第三模型的输出为与输入矩阵维度相同的输出数据矩阵;第三模型的第二步训练的损失函数中,通过计算第二步训练的输出数据矩阵与第一步训练的输出数据矩阵的均方误差来得到第二步损失值;
将第一步训练和第二步训练的损失函数相加作为第三模型的损失函数。
6.根据权利要求1所述的基于自监督学习神经网络模型的IMU原始数据去噪方法,其特征在于,
三个模型每次学习后的总损失函数为第一、第二和第三模型的损失函数的加权和,将所述总损失函数反相传播更新第一、第二和第三模型的网络模型参数。
7.根据权利要求1-6任一项所述的基于自监督学习神经网络模型的IMU原始数据去噪方法,其特征在于,
所述第一、第二和第三模型的神经网络模型均为基于Transformer模型的神经网络结构。
8.根据权利要求7所述的基于自监督学习神经网络模型的IMU原始数据去噪方法,其特征在于,
所述第一、第二和第三模型的神经网络模型包括多头注意力机制层、第一全连接层、第一归一化层、前馈神经网络层、第二归一化层、第二全连接层、第三归一化层、第三全连接层;
其中,多头注意力机制层的输入端接入输入数据,输出端分别与第一全连接层和第一归一化层的输入端连接;第一全连接层的输出端与第一归一化层的输入端连接;
第一归一化层的输出端分别与第二全连接层和前馈神经网络层的输入端连接;前馈神经网络层的输出端与第二归一化层的输入端连接;
第二归一化层与第二全连接层、第三归一化层和第三全连接层顺序连接后,由第三全连接层的输出端作为输出数据端。
9.根据权利要求8所述的基于自监督学习神经网络模型的IMU原始数据去噪方法,其特征在于,
前馈神经网络层是由两个全连接层组成,第一个全连接层采用RELU激活函数实现非线性变换,第二个全连接层不使用激活函数;
各归一化层的归一化方式为:(输入数据-输入数据均值)/输入数据标准差。
10.根据权利要求7所述的基于自监督学习神经网络模型的IMU原始数据去噪方法,其特征在于,
训练好的第二模型中的输出数据矩阵中最后一行数据为去噪后的数据;
在对于包含的IMU原始数据的去噪处理过程中,p大于n;采用滑动窗口的方式进行去噪处理,滑动窗口的大小为/>,窗口的滑动步长为1;将/>的滑动窗口套在/>的IMU原始数据上,逐步滑动进行去噪处理,实现p-n+1行的IMU原始数据的去噪输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310566641.2A CN116628421B (zh) | 2023-05-19 | 2023-05-19 | 基于自监督学习神经网络模型的imu原始数据去噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310566641.2A CN116628421B (zh) | 2023-05-19 | 2023-05-19 | 基于自监督学习神经网络模型的imu原始数据去噪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116628421A true CN116628421A (zh) | 2023-08-22 |
CN116628421B CN116628421B (zh) | 2024-01-30 |
Family
ID=87637575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310566641.2A Active CN116628421B (zh) | 2023-05-19 | 2023-05-19 | 基于自监督学习神经网络模型的imu原始数据去噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116628421B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117541501A (zh) * | 2024-01-09 | 2024-02-09 | 清华大学 | 扫描光场自监督网络去噪方法、装置、电子设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110728357A (zh) * | 2019-09-19 | 2020-01-24 | 东南大学 | 一种基于循环神经网络的imu数据去噪方法 |
CN115238783A (zh) * | 2022-07-18 | 2022-10-25 | 东南大学 | 一种基于自监督学习的水声目标定位方法 |
-
2023
- 2023-05-19 CN CN202310566641.2A patent/CN116628421B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110728357A (zh) * | 2019-09-19 | 2020-01-24 | 东南大学 | 一种基于循环神经网络的imu数据去噪方法 |
CN115238783A (zh) * | 2022-07-18 | 2022-10-25 | 东南大学 | 一种基于自监督学习的水声目标定位方法 |
Non-Patent Citations (2)
Title |
---|
HUATAO XU等: "LIMU-BERT: Unleashing the Potential of Unlabeled Data for IMU Sensing Applications", 《ACM》, pages 1 - 14 * |
KAIWEN YUAN等: "A Simple Self-Supervised IMU Denoising Method for Inertial Aided Navigation", 《IEEE》, pages 944 - 950 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117541501A (zh) * | 2024-01-09 | 2024-02-09 | 清华大学 | 扫描光场自监督网络去噪方法、装置、电子设备及介质 |
CN117541501B (zh) * | 2024-01-09 | 2024-05-31 | 清华大学 | 扫描光场自监督网络去噪方法、装置、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116628421B (zh) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110120020A (zh) | 一种基于多尺度空洞残差注意力网络的sar图像去噪方法 | |
CN108334936B (zh) | 基于迁移卷积神经网络的故障预测方法 | |
CN105701508B (zh) | 基于多级卷积神经网络的全局‑局部优化模型及显著性检测算法 | |
CN116628421B (zh) | 基于自监督学习神经网络模型的imu原始数据去噪方法 | |
CN109558937A (zh) | 神经网络系统和神经网络系统的操作方法 | |
CN107679462A (zh) | 一种基于小波的深度多特征融合分类方法 | |
CN110968734B (zh) | 一种基于深度度量学习的行人重识别方法及装置 | |
CN105943012B (zh) | 一种去除光电容积脉搏波信号中运动噪声的心率测量方法 | |
CN103426179A (zh) | 一种基于均值偏移多特征融合的目标跟踪方法及装置 | |
CN114155397B (zh) | 一种小样本图像分类方法及系统 | |
CN113627093A (zh) | 一种基于改进Unet网络的水下机构跨尺度流场特征预测方法 | |
CN114863572B (zh) | 一种多通道异构传感器的肌电手势识别方法 | |
CN114882524A (zh) | 一种基于全卷积神经网络的单目三维手势估计方法 | |
Lin et al. | A wavelet broad learning adaptive filter for forecasting and cancelling the physiological tremor in teleoperation | |
CN113988357A (zh) | 基于深度学习的高层建筑风致响应预测方法及装置 | |
CN112241001A (zh) | 雷达人体动作识别方法、装置、电子设备和存储介质 | |
Yuan et al. | A simple self-supervised imu denoising method for inertial aided navigation | |
CN113920255B (zh) | 基于点云数据的高效测绘系统 | |
CN113076988B (zh) | 基于神经网络的移动机器人视觉slam关键帧自适应筛选方法 | |
CN110288026A (zh) | 一种基于度量关系图学习的图像分割方法及装置 | |
CN117710841A (zh) | 一种无人机航拍图像的小目标检测方法、装置 | |
CN116486285B (zh) | 一种基于类别掩码蒸馏的航拍图像目标检测方法 | |
CN117115252A (zh) | 一种基于视觉的仿生扑翼无人机空间位姿估计方法 | |
CN114485417B (zh) | 一种结构振动位移识别方法及系统 | |
CN103426178A (zh) | 一种基于均值偏移的复杂场景下目标跟踪方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |