CN113159191A - 基于深度学习的高精度底跟踪方法 - Google Patents
基于深度学习的高精度底跟踪方法 Download PDFInfo
- Publication number
- CN113159191A CN113159191A CN202110449813.9A CN202110449813A CN113159191A CN 113159191 A CN113159191 A CN 113159191A CN 202110449813 A CN202110449813 A CN 202110449813A CN 113159191 A CN113159191 A CN 113159191A
- Authority
- CN
- China
- Prior art keywords
- bottom tracking
- semantic segmentation
- model
- deep learning
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013135 deep learning Methods 0.000 title claims abstract description 19
- 230000011218 segmentation Effects 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 41
- 230000009466 transformation Effects 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 4
- 230000000694 effects Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000011800 void material Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的高精度底跟踪方法,涉及声呐信号处理技术领域,具体步骤包括如下:构建训练数据集;对所述训练数据集进行几何变换增强,得到最终训练数据集;将一维残差卷积模块结合现有图像语义分割模型,构建语义分割底跟踪模型;将所述最终训练数据集输入所述语义分割底跟踪模型中进行训练,得到训练完成的语义分割底跟踪模型;将实测数据输入所述训练完成的语义分割底跟踪模型中,输出语义标签进而确定海底点。本发明创新性的将底跟踪转换为基于一维数据的二分类语义分割任务,使得底跟踪结果更精确且具有良好的抗噪性能。
Description
技术领域
本发明涉及声呐信号处理技术领域,更具体的说是涉及一种基于深度学习的高精度底跟踪方法。
背景技术
侧扫声呐底跟踪作为侧扫声呐数据处理中的关键步骤,其对于最终处理数据质量的好坏具有重要的意义,因此实现高精度的侧扫声呐底跟踪算法具有重要的应用价值。在现有技术中,基于阈值法和边缘检测法的底跟踪算法,虽然可以在一定程度上实现底跟踪,但是其精度不足且对阈值设置非常敏感,当水柱区中存在噪声干扰时其会产生明显偏差。经分析认为这是由于现有的底跟踪算法有限的感受野导致其对局部特征敏感而无法获取全局特征信息,使得水柱区中由于异物或船舶尾浪等引起的噪声被这些算法探测到并将其误认为是海底点;而固定阈值设定使得算法的泛化能力减弱,导致预测海底线与真实海底线存在偏差。然而近年来深度学习在计算机视觉领域快速崛起并大幅超越传统算法,其在图像语义分割领域取得了令人瞩目的突破。所以,如何结合深度学习中图像语义分割进行高精度底跟踪,对本领域技术人员来说是亟待解决的问题。
发明内容
有鉴于此,本发明提供了一种基于深度学习的高精度底跟踪方法,创新性的将底跟踪转换为基于一维数据的二分类语义分割任务,使得底跟踪结果更精确且具有良好的抗噪性能。
为了实现上述目的,本发明采用如下技术方案:一种基于深度学习的高精度底跟踪方法,具体步骤包括如下:
构建训练数据集;
对所述训练数据集进行几何变换增强,得到最终训练数据集;
将一维残差卷积模块结合现有图像语义分割模型,构建语义分割底跟踪模型;
将所述最终训练数据集输入所述语义分割底跟踪模型中进行训练,得到训练完成的语义分割底跟踪模型;
将实测数据输入所述训练完成的语义分割底跟踪模型中,输出语义标签进而确定海底点。
通过采用上述技术方案,具有以下有益的技术效果:以现有图像语义分割模型为模板构建语义分割底跟踪算法模型部署在一维侧扫声呐数据上实现底跟踪,使得底跟踪结果更精确。
优选的,所述语义分割底跟踪模型至少为SegNet-1D或U-Net-1D或Deeplabv3plus-1D。
通过采用上述技术方案,具有以下有益的技术效果:语义分割底跟踪模型并不局限于上述三种模型,现有的语义分割模型经过修改均可用于一维侧扫声呐数据底跟踪任务。
优选的,所述几何变换增强包括数据翻转和单边翻转拼接。
通过采用上述技术方案,具有以下有益的技术效果:借鉴计算机视觉领域中图像数据几何变换增强的方法来对训练数据集进行增强,从而扩充训练数据集规模丰富训练集特征。在本发明中提出了两种比较简单的一维侧扫声呐观测数据增强方法,分别是数据翻转和单边翻转拼接。
优选的,所述U-Net-1D模型中编码器和解码器设置为6层,池化步长设置为4。
通过采用上述技术方案,具有以下有益的技术效果:将U-Net-1D模型中编码器和解码器设置为诶6层,池化步长设置为4,可以尽可能获取更大感受野,捕获全局特征。
优选的,训练所述语义分割底跟踪模型的具体方法为:利用Adam优化器,根据二类交叉熵损失函数对输入数据及其对应真实标签计算误差,并根据误差反向传播算法来训练所述语义分割底跟踪模型。
优选的,所述二类交叉熵损失函数的计算公式为:
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种基于深度学习的高精度底跟踪方法,创新性的将底跟踪任务转换为基于一维数据的二分类语义分割任务,提出并实现了一种应用于一维侧扫声呐观测数据的深度学习高精度侧扫声呐底跟踪算法,深度学习模型多层卷积叠加以及多尺度特征提取带来更大的感受野以及相较于现有算法更可能捕获全局特征,使其具有更好的抗噪声干扰能力以及海底线探测精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明的方法流程示意图;
图2为本发明的SegNet-1D模型结构示意图;
图3为本发明的U-Net-1D模型结构示意图;
图4为本发明的Deeplab v3plus-1D模型结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例1公开了一种基于深度学习的高精度底跟踪方法,具体步骤包括如下:
步骤一:构建训练数据集。
需要说明的是,训练数据集特征必须足够丰富,在构建训练数据集时应尽可能的涵盖不同情况,包括受噪音干扰和未受噪音干扰情况的侧扫声呐观测数据。在本实施例1中构建的训练数据集一共包含了3440个ping数据,其每 ping的采样点数据为17360。
步骤二:对训练数据集进行几何变换增强,得到最终训练数据集。
数据增强是通过各类算法对数据进行处理从而提高原始数据的特征表达丰富度,并优化模型的泛化能力。将原始数据进行例如旋转、镜像翻转、裁剪等来丰富数据,这样的处理方式虽然很简单但在大多数的分类任务中却行之有效,这样的几何变换数据增强在计算机视觉任务中已经有着广泛的应用。
足够的训练数据集可以保证模型训练效果的质量,数据过少则易导致模型陷入过拟合影响其泛化能力,因此有必要对训练集进行数据增强。本实施例1中借鉴了计算机视觉领域图像数据几何变换增强的方法来对训练数据进行增强,分别是数据翻转和单边翻转拼接。从而扩充训练集规模丰富训练集特征。
步骤三:将一维残差卷积模块结合现有图像语义分割模型,构建语义分割底跟踪模型。
步骤四:将最终训练数据集输入语义分割底跟踪模型中进行训练,得到训练完成的语义分割底跟踪模型;
具体的,在本实施例1中以一维残差卷积模块为基础对SegNet模型进行一维化修改构建了语义分割底跟踪模型为SegNet-1D,SegNet-1D模型结构如图2 所示。
SegNet图像语义分割模型的特点在于其U型结构,以及中间编码器和解码器之间对应的上池化索引传递连接,其相对参数量较小且计算较为迅速。由于输入数据尺寸过大,为了实现大感受野需要将特征图压缩至较小尺寸,因此SegNet-1D模型中下采样池化步长设置为4且编码器和解码器被加深至5层,编码器输出的多通道特征图通过一个1×1卷积核映射至单通道格式,并使用 Sigmoid激活函数输出最终结果。SegNet-1D模型中各卷积模块参数细节如表1 所示:
表1
训练SegNet-1D语义分割底跟踪模型的具体方法为:利用Adam优化器,根据二类交叉熵损失函数对输入数据及其对应真实标签计算误差,并根据误差反向传播算法来训练语义分割底跟踪模型。
进一步的,二类交叉熵损失函数的计算公式为:
步骤五:将实测数据输入训练完成的语义分割底跟踪模型中,输出语义标签进而确定海底点。
实施例2
实施例2与实施例1仅存在以下不同之处,其余部分均相同,相同部分参见实施例1:
在实施例2中基于一维残差卷积模块对U-Net模型进行了一维化修改构建了U-Net-1D语义分割底跟踪模型,模型结构如图3所示。
为了尽可能获取更大感受野捕获全局特征,编码器和解码器设置为6层,与SegNet-1D模型一样经过5次下采样,池化步长设置为4,解码器输出连接1 ×1卷积将多通道特征图映射至单通道,并通过Sigmoid函数激活得到的最终语义标签,相比于SegNet-1D模型,在最底层加入一维残杀卷积模块用于实现向更高纬度特征空间的映射,此外连接编码器与解码器的跳接连接用于融合浅层特征和深层抽象特征。U-Net-1D语义分割底跟踪模型各卷积模块参数细节如表2所示:
表2
实施例3
实施例3与实施例1仅存在以下不同之处,其余部分均相同,相同部分参见实施例1:
在实施例3中基于一维残差卷积模块对Deeplab v3+模型进行了一维化修改构建了Deeplab v3plus-1D语义分割底跟踪模型,模型结构如图4所示。
Deeplab v3+是融合空洞空间卷积池化金字塔(ASPP)与编码器-解码器结构的特点的一类图像语义分割模型。因此在本发明实施例3中以一维残差卷积模块为基础构建了Deeplab v3plus-1D语义分割底跟踪模型实现深层特征的提取,而后传入一维空洞空间卷积池化金字塔(1D-ASPP)获取多尺度特征信息;而解码器中则采用两段上采样并在中间通过解码器融合编码器中传入的浅层特征信息用以获取更高精度的语义分割精度。具体的Deeplab v3plus-1D语义分割底跟踪模型各卷积模块参数细节如表3所示:
表3
将本发明中的基于深度学习的高精度底跟踪方法部署在2016年中国台湾浅滩区域实测数据上进行分析,用以验证该算法的有效性和可行性。
为了量化算法的表现,因此在预先构建的测试集上通过计算模型输出语义标签与真实标签之间的平均绝对值误差系数(MEA)、Dice系数以及重叠度系数(IoU)用以评价算法效果,将其与Discover侧扫声呐控制软件(EdgeTech. Inc.)中的内置自动底跟踪器结果进行对比。实验中还测试了不同模型在不同深度下的表现,每个模型的下角标为深度参数,其含义是每个一维残差卷积模块中1D-bottleneckblock的数量。
为了保证实验结果的公正,测试集与模型训练数据集保持隔离,并且其尽量包含了多种情况下的观测数据,例如噪声干扰严重或噪声干扰较轻等情况。在预先构建的测试集中对内置自动底跟踪器以及不同深度参数下的语义分割底跟踪模型进行分析,同时为了增强结果可信度并未对输出做任何后处理而是直接将语义分割底跟踪算法输出结果与真实标签进行计算。本发明方法与现有技术中底跟踪方法的对比如表4所示:
表4
通过观察表4可以看出,本发明方法在各项指标上均显著超过内置自动跟踪器。本发明采用的三种模型中,即使是表现最差的SegNet-1D其表现仍要明显优于内置自动底跟踪器,而其中的U-Net-1D6的MAE系数仅为内置自动底跟踪器的1/3左右,这意味着其精度有大幅度的提高。使用本发明方法进行底跟踪,其结果更精确且具有良好的抗噪性能。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (6)
1.一种基于深度学习的高精度底跟踪方法,其特征在于,具体步骤包括如下:
构建训练数据集;
对所述训练数据集进行几何变换增强,得到最终训练数据集;
将一维残差卷积模块结合现有图像语义分割模型,构建语义分割底跟踪模型;
将所述最终训练数据集输入所述语义分割底跟踪模型中进行训练,得到训练完成的语义分割底跟踪模型;
将实测数据输入所述训练完成的语义分割底跟踪模型中,输出语义标签进而确定海底点。
2.根据权利要求1所述的一种基于深度学习的高精度底跟踪方法,其特征在于,所述语义分割底跟踪模型至少为SegNet-1D或U-Net-1D或Deeplab v3plus-1D。
3.根据权利要求1所述的一种基于深度学习的高精度底跟踪方法,其特征在于,所述几何变换增强包括数据翻转和单边翻转拼接。
4.根据权利要求2所述的一种基于深度学习的高精度底跟踪方法,其特征在于,所述U-Net-1D模型中编码器和解码器设置为6层,池化步长设置为4。
5.根据权利要求1所述的一种基于深度学习的高精度底跟踪方法,其特征在于,训练所述语义分割底跟踪模型的具体方法为:利用Adam优化器,根据二类交叉熵损失函数对输入数据及其对应真实标签计算误差,并根据误差反向传播算法来训练所述语义分割底跟踪模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110449813.9A CN113159191A (zh) | 2021-04-25 | 2021-04-25 | 基于深度学习的高精度底跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110449813.9A CN113159191A (zh) | 2021-04-25 | 2021-04-25 | 基于深度学习的高精度底跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113159191A true CN113159191A (zh) | 2021-07-23 |
Family
ID=76870630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110449813.9A Pending CN113159191A (zh) | 2021-04-25 | 2021-04-25 | 基于深度学习的高精度底跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113159191A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113466839A (zh) * | 2021-09-03 | 2021-10-01 | 北京星天科技有限公司 | 侧扫声呐海底线检测方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670529A (zh) * | 2018-11-14 | 2019-04-23 | 天津大学 | 一种用于快速语义分割的可分离分解残差模块设计方法 |
CN110796673A (zh) * | 2019-10-31 | 2020-02-14 | Oppo广东移动通信有限公司 | 图像分割方法及相关产品 |
CN111028154A (zh) * | 2019-11-18 | 2020-04-17 | 哈尔滨工程大学 | 一种地形崎岖不平海底的侧扫声呐图像匹配拼接方法 |
CN111210435A (zh) * | 2019-12-24 | 2020-05-29 | 重庆邮电大学 | 一种基于局部和全局特征增强模块的图像语义分割方法 |
WO2021077127A1 (en) * | 2019-10-14 | 2021-04-22 | Schlumberger Technology Corporation | Feature detection in seismic data |
-
2021
- 2021-04-25 CN CN202110449813.9A patent/CN113159191A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670529A (zh) * | 2018-11-14 | 2019-04-23 | 天津大学 | 一种用于快速语义分割的可分离分解残差模块设计方法 |
WO2021077127A1 (en) * | 2019-10-14 | 2021-04-22 | Schlumberger Technology Corporation | Feature detection in seismic data |
CN110796673A (zh) * | 2019-10-31 | 2020-02-14 | Oppo广东移动通信有限公司 | 图像分割方法及相关产品 |
CN111028154A (zh) * | 2019-11-18 | 2020-04-17 | 哈尔滨工程大学 | 一种地形崎岖不平海底的侧扫声呐图像匹配拼接方法 |
CN111210435A (zh) * | 2019-12-24 | 2020-05-29 | 重庆邮电大学 | 一种基于局部和全局特征增强模块的图像语义分割方法 |
Non-Patent Citations (3)
Title |
---|
刘忠雨: "《深入浅出图神经网络 GNN原理解析》", 1 March 2020, 机械工业出版社 * |
席一帆等: "基于改进Deeplab V3+网络的语义分割", 《计算机系统应用》 * |
陈浩: "测深侧扫声呐图像目标识别方法研究", 《万方》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113466839A (zh) * | 2021-09-03 | 2021-10-01 | 北京星天科技有限公司 | 侧扫声呐海底线检测方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11715190B2 (en) | Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device | |
CN109191472A (zh) | 基于改进U-Net网络的胸腺细胞图像分割方法 | |
CN111508480B (zh) | 音频识别模型的训练方法、音频识别方法、装置及设备 | |
CN112446378A (zh) | 目标检测方法及装置、存储介质、终端 | |
CN115641340A (zh) | 基于多尺度注意力门控网络的视网膜血管图像分割方法 | |
CN112597918B (zh) | 文本检测方法及装置、电子设备、存储介质 | |
CN113221718B (zh) | 公式识别方法、装置、存储介质和电子设备 | |
CN113920538B (zh) | 目标检测方法、装置、设备、存储介质及计算机程序产品 | |
CN112614101A (zh) | 基于多层特征提取的抛光砖瑕疵检测方法及相关设备 | |
CN116304307A (zh) | 一种图文跨模态检索网络训练方法、应用方法及电子设备 | |
CN113487600B (zh) | 一种特征增强尺度自适应感知船舶检测方法 | |
CN113159191A (zh) | 基于深度学习的高精度底跟踪方法 | |
CN116485649A (zh) | 一种端到端的图像拼接定位方法和系统 | |
Yang et al. | Surface defect detection of heat sink based on lightweight fully convolutional network | |
US20110200229A1 (en) | Object Detecting with 1D Range Sensors | |
CN113466839B (zh) | 侧扫声呐海底线检测方法和装置 | |
CN110889290B (zh) | 文本编码方法和设备、文本编码有效性检验方法和设备 | |
CN117711442A (zh) | 一种基于cnn-gru融合模型的婴儿哭声分类方法 | |
CN112926606B (zh) | 一种基于深度学习的异构融合气泡羽流特征提取方法 | |
CN114052675B (zh) | 一种基于融合注意力机制的脉搏异常判别方法及系统 | |
CN114782407A (zh) | 基于卷积神经网络的胎儿超声关键切面识别方法及装置 | |
Nguyen et al. | Vietnamese sign language reader using Intel Creative Senz3D | |
CN110852102B (zh) | 一种中文的词性标注方法、装置、存储介质及电子设备 | |
CN110517239A (zh) | 一种医学影像检测方法及装置 | |
CN116993698A (zh) | 织物瑕疵检测方法、装置、终端设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210723 |
|
RJ01 | Rejection of invention patent application after publication |