CN110163207A - 一种基于Mask-RCNN船舶目标定位方法及存储设备 - Google Patents
一种基于Mask-RCNN船舶目标定位方法及存储设备 Download PDFInfo
- Publication number
- CN110163207A CN110163207A CN201910419035.1A CN201910419035A CN110163207A CN 110163207 A CN110163207 A CN 110163207A CN 201910419035 A CN201910419035 A CN 201910419035A CN 110163207 A CN110163207 A CN 110163207A
- Authority
- CN
- China
- Prior art keywords
- roi
- ship
- characteristic area
- way
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及船舶图像识别技术领域,特别涉及一种基于Mask‑RCNN船舶目标定位方法及存储设备。所述一种基于Mask‑RCNN船舶目标定位方法,包括如下步骤:获取船舶图片数据集;提取所述船舶图片数据集中的特征区域;采用RPN对所述特征区域进行处理;对经过RPN处理后的特征区域采用ROI_Align进一步处理;将经过ROI_Align进一步处理后的特征区域作为ROI输入,并通过双路上采样的方法构建掩膜生成网络。双路采样的使用,使得在通道数保持不变的前提下,图像的特征信息量增多了,描述图像的维度没有增加,只是每一维的信息量增加,提升了掩膜生成的准确性。
Description
技术领域
本发明涉及船舶图像识别技术领域,特别涉及一种基于Mask-RCNN船舶目标定位方法及存储设备。
背景技术
随着社会经济的发展,海洋经济发展空间进一步扩展,对海洋船舶开展监测与识别的任务愈发重要。针对我国海域面积广阔、船舶停泊分散、监管执法难度较大的问题,提高船舶监测的信息化与智能化水平更有着重要的意义,近年来,在模式识别这个研究领域中,船舶图像识别一直是研究人员关注的重点之一,但同时由于船舶图像的复杂、多变、动态,也是该领域的难点之一。
G.K.Yüksel等(2016)利用分割(Segmentation)方法和人工神经网络(ArtificialNeural Network),提供了一种从三维船模轮廓图像中提取船舶特征和识别船舶的解决方案;K.Rainey等(2016)提出采用卷积神经网络(CNN)进行船舶识别任务,对卫星船舶图像的实验表明其识别结果较好;王文秀等(2018)运用深度CNN网络(改进的AlexNet)对较为模糊的红外船舶图像进行特征提取和检测,取得了较好的检测性能。Ma,Xiaofeng等提出了基于注意力机制,通过添加一个fcn分支到检测网络去提取环境特征;Yu Zhang等提出了调整建议区域网络(rpn)锚的大小和nms的阈值等参数的方法,使得在多目标场景下图像掩膜提取确信度有一定的提高。
然而,这些模型在应用于真实复杂情境中的船舶图像识别时,仍然存在精度、质量与准确率上的问题,与实际应用的较理想化要求存在差距。故如何更准确地识别船舶图像,定位船舶目标成了亟需解决的问题。
发明内容
为此,需要提供一种基于Mask-RCNN船舶目标定位方法,用以解决现有技术中船舶图像识别准确度低的问题。具体技术方案如下:
一种基于Mask-RCNN船舶目标定位方法,包括如下步骤:获取船舶图片数据集;提取所述船舶图片数据集中的特征区域;采用RPN对所述特征区域进行处理;对经过RPN处理后的特征区域采用ROI_Align进一步处理;将经过ROI_Align进一步处理后的特征区域作为ROI输入,并通过双路上采样的方法构建掩膜生成网络。
进一步的,所述“提取所述船舶图片数据集中的特征区域”,还包括步骤:采用Resnet50/101主干网络对所述船舶图片数据集进行分类提取多个特征区域。
进一步的,所述“采用RPN对所述特征区域进行处理”,还包括步骤:根据L1和L2范数相结合的损失函数及softnms的锚框选择机制计算船舶图片数据集特征区域所在位置。
进一步的,所述“并通过双路上采样的方法构建掩膜生成网络”,还包括步骤:对每个ROI区域,经过三次卷积和池化,并构成双路上采样;把双路激活合并成一路,并乘上一个共享权重,构建掩膜生成网络。
为解决上述技术问题,还提供了一种存储设备,具体技术方案如下:
一种存储设备,其中存储有指令集,所述指令集用于执行:获取船舶图片数据集;提取所述船舶图片数据集中的特征区域;采用RPN对所述特征区域进行处理;对经过RPN处理后的特征区域采用ROI_Align进一步处理;将经过ROI_Align进一步处理后的特征区域作为ROI输入,并通过双路上采样的方法构建掩膜生成网络。
进一步的,所述“提取所述船舶图片数据集中的特征区域”,还包括步骤:采用Resnet50/101主干网络对所述船舶图片数据集进行分类提取多个特征区域。
进一步的,所述指令集还用于执行:所述“采用RPN对所述特征区域进行处理”,还包括步骤:根据L1和L2范数相结合的损失函数及softnms的锚框选择机制计算船舶图片数据集特征区域所在位置。
进一步的,所述指令集还用于执行:所述“并通过双路上采样的方法构建掩膜生成网络”,还包括步骤:对每个ROI区域,经过三次卷积和池化,并构成双路上采样;把双路激活合并成一路,并乘上一个共享权重,构建掩膜生成网络。
本发明的有益效果是:通过采用RPN对所述特征区域进行处理;对经过RPN处理后的特征区域采用ROI_Align进一步处理;将经过ROI_Align进一步处理后的特征区域作为ROI输入,并通过双路上采样的方法构建掩膜生成网络。双路采样的使用,使得在通道数保持不变的前提下,图像的特征信息量增多了,描述图像的维度没有增加,只是每一维的信息量增加,提升了掩膜生成的准确性。
附图说明
图1为具体实施方式所述一种基于Mask-RCNN船舶目标定位方法的流程图;
图2为具体实施方式所述基于Mask-RCNN船舶目标定位方法的示意图;
图3为具体实施方式所述RPN结构示意图;
图4为具体实施方式所述九个锚点示意图;
图5为具体实施方式所述生成的顶层锚;
图6为具体实施方式所述生成的ROI;
图7为具体实施方式所述掩膜生成结构示意图;
图8为具体实施方式所述掩膜生成过程示意图;
图9为具体实施方式所述共享权重生成示意图;
图10为具体实施方式所述远洋货轮检测示意图;
图11为具体实施方式所述近岸渔船检测示意图;
图12为具体实施方式所述大型军舰检测示意图;
图13为具体实施方式所述存储设备的模块示意图。
附图标记说明:
1300、存储设备。
具体实施方式
为详细说明技术方案的技术内容、构造特征、所实现目的及效果,以下结合具体实施例并配合附图详予说明。
首先对本实施方式中的一些名词做以下解释说明:
ROI(region of interest):感兴趣区域。
图像掩膜:用选定的图像、图形或物体,对处理的图像(全部或局部)进行遮挡,来控制图像处理的区域或处理过程。用于覆盖的特定图像或物体称为掩模或模板。光学图像处理中,掩模可以是胶片、滤光片等。数字图像处理中,掩模为二维矩阵数组,有时也用多值图像。数字图像处理中,图像掩模主要用于:①提取感兴趣区,用预先制作的感兴趣区掩模与待处理图像相乘,得到感兴趣区图像,感兴趣区内图像值保持不变,而区外图像值都为0。②屏蔽作用,用掩模对图像上某些区域作屏蔽,使其不参加处理或不参加处理参数的计算,或仅对屏蔽区作处理或统计。③结构特征提取,用相似性变量或图像匹配方法检测和提取图像中与掩模相似的结构特征。④特殊形状图像的制作。
锚框:目标检测算法通常会在输入图像中采样大量的区域,然后判断这些区域中是否包含我们感兴趣的目标,并调整区域边缘从而更准确地预测目标的真实边界框(ground-truth bounding box)。不同的模型使用的区域采样方法可能不同。这里我们介绍其中的一种方法:它以每个像素为中心生成多个大小和宽高比(aspect ratio)不同的边界框。这些边界框被称为锚框(anchor box)。
RPN(Region-Proposal Network):Mask-RCNN的一个核心网络。
请参阅图1至图12,在本实施方式中,一种基于Mask-RCNN船舶目标定位方法的具体实施如下:
步骤S101:获取船舶图片数据集。
步骤S102:提取所述船舶图片数据集中的特征区域。
步骤S103:采用RPN对所述特征区域进行处理。
步骤S104:对经过RPN处理后的特征区域采用ROI_Align进一步处理。
步骤S105:将经过ROI_Align进一步处理后的特征区域作为ROI输入,并通过双路上采样的方法构建掩膜生成网络。
请参阅图2,步骤S101具体可采用如下方式:对采集的船舶图片数据集统一生成512*512大小,调用labme对图像中的船舶目标所在的区域进行标注。
标注好后,执行步骤S102,其中步骤S102具体可采用如下方式:运用Resnet50/101主干网络对数据集图片进行分类提取多个特征区域。
提取好特征区域后,执行步骤S103,其中步骤S102具体可采用如下方式:根据L1和L2范数相结合的损失函数及softnms的锚框选择机制计算船舶图片数据集特征区域所在位置。具体可如下:将所述特征区域与RPN网络对接,在RPN网络中实现锚框的生成,以及采用了softnms对锚框的筛选,剔除负样本,留下正样本区域(即ROI)。
对经过步骤S103中RPN处理后的特征区域再进一步采用ROI_Align进行处理,为生成掩膜提供所需的ROI输入。
经过PRN和ROI_Align双重处理后,通过双路上采样的方法构建掩膜生成网络。具体可如下:对每个ROI区域,经过三次卷积和池化,并构成双路上采样;把双路激活合并成一路,并乘上一个共享权重,构建掩膜生成网络。
通过采用RPN对所述特征区域进行处理;对经过RPN处理后的特征区域采用ROI_Align进一步处理;将经过ROI_Align进一步处理后的特征区域作为ROI输入,并通过双路上采样的方法构建掩膜生成网络。双路采样的使用,使得在通道数保持不变的前提下,图像的特征信息量增多了,描述图像的维度没有增加,只是每一维的信息量增加,提升了掩膜生成的准确性。
以下对上述涉及到的技术要点具体展开说明:
请参阅图3,本实方式中,所采用的RPN(Region-Proposal Network)是Mask-RCNN的一个核心网络,它是实现FPN特征层选择,实现ROI_Align的重要前导步骤。RPN网络是全卷积网络(FCN,fully-convolutional network),可以针对生成检测建议框的任务进行端到端地训练,这样能够同时预测出目标的边界和分数,只需在卷积层上额外再增加了2个卷积层(全卷积层cls-Layer和reg-Layer),reg-Layer用于预测特征区域的中心锚点对应的特征区域的坐标x,y和宽高w,h,cls-Layer用于判定该特征区域是前景还是背景,采用滑窗的处理方式可以保证reg-layer和cls-layer关联了全部特征空间。
在RPN网络输入端加了一个3*3*512*512的卷积层,这样就会得到11*11*512的输出,11*11的表示为特征区域大小,在原图中设定若干个11*11大黑框,每个大黑框里面设置了9个小颜色框,每个位置都有3*3=9个锚,锚点位于3*3的滑窗的中心处,对于一个滑窗我们可以同时预测多个特征区域,假定有k个特征区域(即k个引用框),每一个引用框可以通过尺寸、比例及滑窗中的锚点的唯一性确定,锚点可以理解为一个锚框或一个引用框。假设定义k=9,即(1282,2562,5122)3种尺度和(1:1,1:2,2:1)3种比例,确定出当前滑窗位置对应的9个引用框。对于一幅W*H的特征图,对应W*H*k个锚点,所有的锚点都具有尺度不变性,如图4所示。这样就会产生11*11*9个不同位置的尺度比例的框,足以定位出所有目标物体。假设原图中有一个目标物体,通过平移黑框,就能定位目标物体到框中,并与目标的形状尺度较为接近。
在本实施方式中,设定计算Loss规则如下:
(1)计算Loss前必须先设置Anchors的正、负样本标定规则,假设Anchor对应的预测框(reference box)与GT(ground truth)的重叠度(IoU)>0.7,则标记为正样本;假设Anchor对应的预测框(reference box)与GT(ground truth)的重叠度(IoU)<0.3,则标记为负样本;余下的样本既不属于正样本也属于负样本,则不参与最终训练。
(2)训练RPN的损失函数包含计算回归损失和分类损失(即使用softmax loss)。
本实施方式中采用L1范数与L2范数相结合的梯度方式,主要是针对当预测框与ground truth差别过大时,梯度值不至于过大;当预测框与ground truth差别很小时,梯度值也能够足够小。当输入x小于1的部分使用L1范数(公式1),使梯度更平滑且求导方便,当输入x大于1的部分使用L2范数(公式2),有效的避免梯度爆炸,同时减少离群值的出现。
将检测框定位的损失函数设定为Lloc,预测平移缩放参数设定为tu,真实平移缩放参数设定为v,通过比较两个参数的差别来评估检测框定位的损失率。如公式3:
通过公式1,2,3得出RPN的损失率(公式4),其中pi是预测的第i个锚是一个目标物体的概率,发现目标时pi为1,否则pi为0。ti是预测RPN的包围框(tx,ty,tw,th)4个坐标参数,ti是对应于正锚点的GT(Ground Truth)坐标。Lcls是二分类(目标/非目标)的损失函数,Lreg是预测边界框和GT(Ground Truth)框的损失函数。在这里Lreg即是Lcls,RPN的总损失率归一化由Ncls、Nreg和λ(平衡权重)合并得到,本发明将λ被设置为10,Ncls设为512,Nreg设为2500,这样设置可以使RPN的两部分loss值保持平衡,最后RPN通过训练获得一系列特征区域。
经过RPN处理所得到特征区域再由ROI_Align处理,为生成掩膜提供所需的ROI输入。ROI_Align由FastRcnn的ROI_Pooling改进而来,ROI_Align取消了量化操作,对于量化中产生的坐标为浮点数的像素,利用双线性插值计算其像素值,这样做的解决了由于使用池化后丢失一些特征点信息的问题。此外,我们通过实验发现,ROI_Align对拥有大量大目标的数据集中的提升效果比较明显。但是,在远距离小目标数量更多的数据集中表现并不理想,主要由于远距离小目标受非线性问题的影响更大(比如,同样是0.1个像素点的偏差,对于较大的目标而言显得微不足道,但是对于小目标,误差的影响就要高很多)。由于上述原因,在图5所示生成的顶层锚中,锚点无法定位远景中的小船目标。
为了解决上述定位小目标的问题,我们使RPN共生成261888个锚点,设定特征图像尺度为(32,64,128,256,512),比例为[0.5,1,2],MaskR-CNN中主干网络resnet生成的五个不同尺度的特征图输入到RPN网络,分别生成RoI。RPN网络通过五个不同尺度的特征图生成若干个Anchor-boxes,生成锚点数请见表1。
表1五种尺度特征图生成锚点数
Anchors in Level | Anchor-boxes | Shape of feature-maps |
Level 1 | 196608 | [256,256] |
Level 2 | 49152 | [128,128] |
Level 3 | 12288 | [64,64] |
Level 4 | 3072 | [32,32] |
Level 5 | 768 | [16,16] |
在本实施方式中,通过软非最大值抑制(soft-NMS)操作后保留将近共1000个ROI(1000为可更改参数),由于步长(stride)的不同,分开分别对[Level 1,Level 2,Level 3,Level 4,Level 5]五个不同尺度的Feature-map对应的stride进行ROI_Align操作,经过此操作后产生的ROI,通过上述下采样结合soft-NMS的方式生成的ROI,解决了ROI_Align中对无法定位小目标的问题,通过以上方法,即生成的ROI包含了图中所有目标船支(如图6),为后续的mask的生成提供了准确的输入源。
在本实施方式中,在训练过程中,我们将真实的掩膜缩小为14x14来计算损失函数,在推断过程中,我们将预测的掩膜放大为ROI边框的尺寸以给出最终的掩码结果,每个目标有一个掩膜。掩膜生成过程如图7。
掩膜的生成主要是在ROI_Align之后加入一系列的卷积操作,作用是将ROI_Align的输出维度扩大,这样在预测掩膜时会更加精确,运行参数请见表1。这个过程是通过ROI_Align生成的众多大小相同的输入ROI Feature-Map,每个融合特征层的输出通道都是256,用14*14大小的划分得到14*14*256的输出,图4中单向掩膜生成的输出是通过四层卷积操作,每一层由一个卷积层、归一化层,激活函数组成,最后接连接一个反卷积层得到掩膜。
在原始模型中生成的掩膜不能根据目标窗口动态给定,在进行小型船体检测时,掩膜生成分支进行实例分割时存在分割不精准或者将微小干扰物也掩膜出来等问题,针对这些问题,我们提出了改进的掩膜生成结构。
本实施方式中对原有掩膜分支进行了改进。对于每个ROI区域x,经过三次卷积和池化,此时有
其中为权重向量,b1j,b2j,b3j为偏置量。本发明采用随机梯度下降算法来最小化期望风险。其成本函数如下
因此SGD的参数更新的规则为此时再对输出结果x′,x″进行上采样还原得到新的x′,x″,即
x′=upsampling(x′),x″=upsampling(x″) (7)
其中upsampling()为上采样函数。再经过一次卷积和池化过程后,通过激活函数线性整流(relu)函数得到输出结果f1(x),f2(x),具体如下
其中为第三次卷积的权重,bj为偏置量,relu为激活函数。最后对f1(x)和f2(x)进行合并后乘上由TimeDistributed层操作得到的共享权重λ,最终得出分割结果f(x),即
f(x)=mask(f1(1)+f2(2))·λ (9)
如图8所示,改进的掩膜生成过程主要是为了让每个ROI的掩膜分割的效果更好,池化层1和3相连,池化层3由池化层1卷积得来,且连接池化层2,池化层1和3分别连着上采样层,这样就构成了双路上采样,最后把双路激活并合并成为一路后乘上一个共享权重λ,从而生成掩膜。双路采样的使用,在通道数保持不变的前提下,图像的特征信息量增多了,描述图像的维度没有增加,只是每一维的信息量增加,这显然是对最终的掩膜生成是有益的。
在本实施方式中的共享权重λ是ongoing通过TimeDistributed层操作得到,将TimeDistributed层把掩膜生成的分支处理,应用到一个具体的向量上,并对每一个向量进行了一个操作且不增加最终的输出向量。TimeDistributed层在每个时间片上分别进行上采样、卷积、归一化、池化等操作,通过一系列操作,最后得到一个结果即为共享权重。共享权重生成如图9所示。
改进掩膜生成过程中,通过TimeDistributed_Layer1、TimeDistributed_Layer2、TimeDistributed_Layer3,三层通过不同时间片的操作分别定义为f1(x),f2(x),f3(x)分别生成输出权重为P1、P2、P3,输出权重值分别为其对应输入权重的两倍,如公式8。
公式7中所需的共享权重λ,具体表示为logPt(ft(x))如公式9所示。
logPt(ft(x))=∑logPt(ft(x)|f1(x),f2(x),f3(x),...,fn(x)) (9)
请参阅图10至图12,在本实施方式中分别对三种不同船型进行检测,分别使用远洋货轮、近岸渔船、大型军舰进行检测。其中图a为大小为512×512的原始图像,图b为9种由深到浅不同颜色的锚框设置,图c为提取最顶层的锚框,图d为对图像边缘进行剪切后余下的锚框,图e为提取的ROI,图f为对目标图像生成的掩膜(mask)。图a至f效果图反映出本发明网络模型中rpn-box的设置、提取roi及生成mask的过程效果。
在原有模型中生成的掩膜不能根据目标窗口动态给定,在进行远距离船体检测时,掩膜生成分支进行实例分割时存在分割不精准或者将微小干扰物也掩膜出来等问题。而在本实施方式中,对于每个ROI区域x,经过三次卷积和池化,并构成了双路上采样,最后把双路激活合并成为一路后再乘上一个共享权重λ,从而生成掩膜。双路采样的使用,在通道数保持不变的前提下,图像的特征信息量增多了,描述图像的维度没有增加,只是每一维的信息量增加,提升了掩膜生成的准确性。
进一步的,现有技术中对远距离小目标数量更多的数据集的目标定位框的生成处理表现并不理想,主要由于远距离小目标受非线性问题的影响更大(比如,同样是0.1个像素点的偏差,对于较大的目标而言显得微不足道,但是对于小目标,误差的影响就要高很多)。
本实施方式采用L1范数与L2范数相结合的梯度方式,主要是针对当预测框与ground truth差别过大时,梯度值不至于过大;当预测框与ground truth差别很小时,梯度值也能够足够小。当输入x小于1的部分使用L1范数,使梯度更平滑且求导方便,当输入x大于1的部分使用L2范数,有效的避免梯度爆炸,同时减少离群值的出现。采用L1和L2范数相结合的损失函数及softnms的锚框选择机制,准确计算特征区域所在位置,精确定位出船舶目标位置
进一步的,经过RPN处理所得到特征区域再由ROI_Align处理,为生成掩膜提供所需的ROI输入。ROI_Align由FastRcnn的ROI_Pooling改进而来,原有使用ROI_Pooling使得图像边缘像素丢失。改进使用ROI_Align,取消了量化操作,对于量化中产生的坐标为浮点数的像素,利用双线性插值计算其像素值,这样做的解决了由于使用池化后丢失一些特征点信息的问题。
请参阅图13,在本实施方式中,一种存储设备1300的具体实施方式如下:
一种存储设备1300,其中存储有指令集,所述指令集用于执行:获取船舶图片数据集;提取所述船舶图片数据集中的特征区域;采用RPN对所述特征区域进行处理;对经过RPN处理后的特征区域采用ROI_Align进一步处理;将经过ROI_Align进一步处理后的特征区域作为ROI输入,并通过双路上采样的方法构建掩膜生成网络。
进一步的,所述“提取所述船舶图片数据集中的特征区域”,还包括步骤:采用Resnet50/101主干网络对所述船舶图片数据集进行分类提取多个特征区域。
进一步的,所述指令集还用于执行:所述“采用RPN对所述特征区域进行处理”,还包括步骤:根据L1和L2范数相结合的损失函数及softnms的锚框选择机制计算船舶图片数据集特征区域所在位置。
进一步的,所述指令集还用于执行:所述“并通过双路上采样的方法构建掩膜生成网络”,还包括步骤:对每个ROI区域,经过三次卷积和池化,并构成双路上采样;把双路激活合并成一路,并乘上一个共享权重,构建掩膜生成网络。
通过执行存储设备1300上的指令集执行如下指令:采用RPN对所述特征区域进行处理;对经过RPN处理后的特征区域采用ROI_Align进一步处理;将经过ROI_Align进一步处理后的特征区域作为ROI输入,并通过双路上采样的方法构建掩膜生成网络。双路采样的使用,使得在通道数保持不变的前提下,图像的特征信息量增多了,描述图像的维度没有增加,只是每一维的信息量增加,提升了掩膜生成的准确性。
需要说明的是,尽管在本文中已经对上述各实施例进行了描述,但并非因此限制本发明的专利保护范围。因此,基于本发明的创新理念,对本文所述实施例进行的变更和修改,或利用本发明说明书及附图内容所作的等效结构或等效流程变换,直接或间接地将以上技术方案运用在其他相关的技术领域,均包括在本发明的专利保护范围之内。
Claims (8)
1.一种基于Mask-RCNN船舶目标定位方法,其特征在于,包括如下步骤:
获取船舶图片数据集;
提取所述船舶图片数据集中的特征区域;
采用RPN对所述特征区域进行处理;
对经过RPN处理后的特征区域采用ROI_Align进一步处理;
将经过ROI_Align进一步处理后的特征区域作为ROI输入,并通过双路上采样的方法构建掩膜生成网络。
2.根据权利要求1所述的一种基于Mask-RCNN船舶目标定位方法,其特征在于,所述“提取所述船舶图片数据集中的特征区域”,还包括步骤:
采用Resnet50/101主干网络对所述船舶图片数据集进行分类提取多个特征区域。
3.根据权利要求1所述的一种基于Mask-RCNN船舶目标定位方法,其特征在于,所述“采用RPN对所述特征区域进行处理”,还包括步骤:
根据L1和L2范数相结合的损失函数及softnms的锚框选择机制计算船舶图片数据集特征区域所在位置。
4.根据权利要求1所述的一种基于Mask-RCNN船舶目标定位方法,其特征在于,所述“并通过双路上采样的方法构建掩膜生成网络”,还包括步骤:
对每个ROI区域,经过三次卷积和池化,并构成双路上采样;
把双路激活合并成一路,并乘上一个共享权重,构建掩膜生成网络。
5.一种存储设备,其中存储有指令集,其特征在于,所述指令集用于执行:
获取船舶图片数据集;
提取所述船舶图片数据集中的特征区域;
采用RPN对所述特征区域进行处理;
对经过RPN处理后的特征区域采用ROI_Align进一步处理;
将经过ROI_Align进一步处理后的特征区域作为ROI输入,并通过双路上采样的方法构建掩膜生成网络。
6.根据权利要求5所述的一种存储设备,其特征在于,所述指令集还用于执行:所述“提取所述船舶图片数据集中的特征区域”,还包括步骤:
采用Resnet50/101主干网络对所述船舶图片数据集进行分类提取多个特征区域。
7.根据权利要求5所述的一种存储设备,其特征在于,所述指令集还用于执行:所述“采用RPN对所述特征区域进行处理”,还包括步骤:
根据L1和L2范数相结合的损失函数及softnms的锚框选择机制计算船舶图片数据集特征区域所在位置。
8.根据权利要求5所述的一种存储设备,其特征在于,所述指令集还用于执行:所述“并通过双路上采样的方法构建掩膜生成网络”,还包括步骤:
对每个ROI区域,经过三次卷积和池化,并构成双路上采样;
把双路激活合并成一路,并乘上一个共享权重,构建掩膜生成网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910419035.1A CN110163207B (zh) | 2019-05-20 | 2019-05-20 | 一种基于Mask-RCNN船舶目标定位方法及存储设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910419035.1A CN110163207B (zh) | 2019-05-20 | 2019-05-20 | 一种基于Mask-RCNN船舶目标定位方法及存储设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110163207A true CN110163207A (zh) | 2019-08-23 |
CN110163207B CN110163207B (zh) | 2022-03-11 |
Family
ID=67631442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910419035.1A Active CN110163207B (zh) | 2019-05-20 | 2019-05-20 | 一种基于Mask-RCNN船舶目标定位方法及存储设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163207B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111369540A (zh) * | 2020-03-06 | 2020-07-03 | 西安电子科技大学 | 基于掩码卷积神经网络的植物叶片病害识别方法 |
CN112069995A (zh) * | 2020-09-04 | 2020-12-11 | 西安西图之光智能科技有限公司 | 一种深度域人脸稠密特征提取方法、系统和存储介质 |
CN112257667A (zh) * | 2020-11-12 | 2021-01-22 | 珠海大横琴科技发展有限公司 | 一种小型船只检测方法、装置、电子设备及存储介质 |
CN112560671A (zh) * | 2020-12-15 | 2021-03-26 | 哈尔滨工程大学 | 基于旋转卷积神经网络的船舶检测方法 |
CN112949635A (zh) * | 2021-03-12 | 2021-06-11 | 北京理工大学 | 一种基于特征增强和IoU感知的目标检测方法 |
CN113256623A (zh) * | 2021-06-29 | 2021-08-13 | 南昌工程学院 | 一种基于改进mask rcnn的fpc缺陷检测方法 |
WO2022152110A1 (zh) * | 2021-01-18 | 2022-07-21 | 阿里巴巴集团控股有限公司 | 对象追踪、地物追踪方法、设备、系统及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764039A (zh) * | 2018-04-24 | 2018-11-06 | 中国科学院遥感与数字地球研究所 | 神经网络、遥感影像的建筑物提取方法、介质及计算设备 |
CN109584248A (zh) * | 2018-11-20 | 2019-04-05 | 西安电子科技大学 | 基于特征融合和稠密连接网络的红外面目标实例分割方法 |
-
2019
- 2019-05-20 CN CN201910419035.1A patent/CN110163207B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764039A (zh) * | 2018-04-24 | 2018-11-06 | 中国科学院遥感与数字地球研究所 | 神经网络、遥感影像的建筑物提取方法、介质及计算设备 |
CN109584248A (zh) * | 2018-11-20 | 2019-04-05 | 西安电子科技大学 | 基于特征融合和稠密连接网络的红外面目标实例分割方法 |
Non-Patent Citations (2)
Title |
---|
KAIMING HE ET AL.: "Mask R-CNN", 《ARXIV》 * |
YU ZHANG ET AL.: "Accurate detection of berthing ship target based on mask R-CNN", 《2018 INTERNATIONAL CONFERENCE ON IMAGE, VIDEO PROCESSING AND ARTIFICIAL INTELLIGENCE》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111369540A (zh) * | 2020-03-06 | 2020-07-03 | 西安电子科技大学 | 基于掩码卷积神经网络的植物叶片病害识别方法 |
CN111369540B (zh) * | 2020-03-06 | 2023-06-02 | 西安电子科技大学 | 基于掩码卷积神经网络的植物叶片病害识别方法 |
CN112069995A (zh) * | 2020-09-04 | 2020-12-11 | 西安西图之光智能科技有限公司 | 一种深度域人脸稠密特征提取方法、系统和存储介质 |
CN112069995B (zh) * | 2020-09-04 | 2024-02-27 | 西安西图之光智能科技有限公司 | 一种深度域人脸稠密特征提取方法、系统和存储介质 |
CN112257667A (zh) * | 2020-11-12 | 2021-01-22 | 珠海大横琴科技发展有限公司 | 一种小型船只检测方法、装置、电子设备及存储介质 |
CN112560671A (zh) * | 2020-12-15 | 2021-03-26 | 哈尔滨工程大学 | 基于旋转卷积神经网络的船舶检测方法 |
WO2022152110A1 (zh) * | 2021-01-18 | 2022-07-21 | 阿里巴巴集团控股有限公司 | 对象追踪、地物追踪方法、设备、系统及存储介质 |
CN112949635A (zh) * | 2021-03-12 | 2021-06-11 | 北京理工大学 | 一种基于特征增强和IoU感知的目标检测方法 |
CN112949635B (zh) * | 2021-03-12 | 2022-09-16 | 北京理工大学 | 一种基于特征增强和IoU感知的目标检测方法 |
CN113256623A (zh) * | 2021-06-29 | 2021-08-13 | 南昌工程学院 | 一种基于改进mask rcnn的fpc缺陷检测方法 |
CN113256623B (zh) * | 2021-06-29 | 2021-10-26 | 南昌工程学院 | 一种基于改进mask rcnn的fpc缺陷检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110163207B (zh) | 2022-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163207A (zh) | 一种基于Mask-RCNN船舶目标定位方法及存储设备 | |
CN110084234B (zh) | 一种基于实例分割的声呐图像目标识别方法 | |
CN111079739B (zh) | 一种多尺度注意力特征检测方法 | |
CN110796009A (zh) | 基于多尺度卷积神经网络模型的海上船只检测方法及系统 | |
CN112800964A (zh) | 基于多模块融合的遥感影像目标检测方法及系统 | |
CN117253154B (zh) | 一种基于深度学习的集装箱弱小序列号目标检测识别方法 | |
CN114627052A (zh) | 一种基于深度学习的红外图像漏气漏液检测方法及系统 | |
CN116188999B (zh) | 一种基于可见光和红外图像数据融合的小目标检测方法 | |
Xia et al. | PANDA: Parallel asymmetric network with double attention for cloud and its shadow detection | |
CN112800955A (zh) | 基于加权双向特征金字塔的遥感影像旋转目标检测方法及系统 | |
Shaodan et al. | A ship target location and mask generation algorithms base on Mask RCNN | |
CN116645592B (zh) | 一种基于图像处理的裂缝检测方法和存储介质 | |
WO2023284255A1 (en) | Systems and methods for processing images | |
CN109977963A (zh) | 图像处理方法、设备、装置以及计算机可读介质 | |
CN112800932B (zh) | 海上背景下显著船舶目标的检测方法及电子设备 | |
CN113723371A (zh) | 无人船清洁路线规划方法、装置、计算机设备及存储介质 | |
Li et al. | UStark: underwater image domain-adaptive tracker based on Stark | |
Jiang et al. | Semantic segmentation network combined with edge detection for building extraction in remote sensing images | |
Sulaiman et al. | Building Precision: Efficient Encoder-Decoder Networks for Remote Sensing based on Aerial RGB and LiDAR data | |
CN115761552B (zh) | 面向无人机机载平台的目标检测方法、设备及介质 | |
Ke et al. | Scale-aware dimension-wise attention network for small ship instance segmentation in synthetic aperture radar images | |
CN115661657A (zh) | 一种轻量化的无人艇目标检测方法 | |
CN115205624A (zh) | 一种跨维度注意力聚合的云雪辩识方法、设备及存储介质 | |
Wang et al. | Fine-grained ship image classification and detection based on a vision transformer and multi-grain feature vector FPN model | |
Lee et al. | Boundary-aware camouflaged object detection via deformable point sampling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |