CN108121991A - 一种基于边缘候选区域提取的深度学习舰船目标检测方法 - Google Patents
一种基于边缘候选区域提取的深度学习舰船目标检测方法 Download PDFInfo
- Publication number
- CN108121991A CN108121991A CN201810012688.3A CN201810012688A CN108121991A CN 108121991 A CN108121991 A CN 108121991A CN 201810012688 A CN201810012688 A CN 201810012688A CN 108121991 A CN108121991 A CN 108121991A
- Authority
- CN
- China
- Prior art keywords
- edge
- mrow
- image
- remote sensing
- gray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Abstract
本发明提供了一种基于边缘候选区域提取的深度学习舰船目标检测方法,利用基于结构化随机森林模型对不同条件下的遥感图像进行边缘检测,得到有目的性的边缘检测结果,抑制海况和光照等情况对边缘结果的影响;利用基于边缘检测结果的候选区域提取算法,在大幅宽的遥感图像中提取可能存在目标的候选区域,将挑选结果作为深度学习网络的输入,从而提升网络处理的效率,加快检测速度。
Description
技术领域
本发明涉及数字图像处理技术领域,更具体的说是涉及一种基于边缘候选区域提取的深度学习舰船目标检测方法。
背景技术
目标检测技术是计算机视觉领域的核心问题之一。我国领海范围广阔、海岸线绵长、海洋资源丰富,为有效管理我国海洋资源、保障海洋权益、维护领海安全,对海面船只的管理和监控意义重大,即遥感图像中的舰船目标检测研究具有重要的应用价值。近年来,随着图形处理器(GPU)等硬件的快速发展,计算机的计算性能大幅提升,为大规模深度学习模型的训练提供了重要基础。遥感图像与通用图像在训练数据、图像尺度、信息密集性、目标尺度、与目标形态等方面存在较大差异,目前还没有一个完备的基于遥感图像目标检测的深度学习框架。将作为先进的研究方法和研究工具应用于国防和民用的实际问题中,可推动促进我国在该领域的技术水平发展,意义重大。
但是,在不同季节、不同拍摄时间、不同天气情况影响下,遥感图像中海况、云况、光照等存在较大差异,并对目标检测的准确性造成很大影响。同时,随着遥感图像分辨率增加,数据量增大,给数据处理带来困难,部分算法以增加计算的复杂度为代价实现好的检测效果。
目前现有的遥感图像舰船目标检测方法大多分为两个主要步骤:1)首先对原始遥感图像进行候选区域提取操作,常用方法有滑窗法、显著性法、阈值分割等;2)再利用特征或分类器对提取到的候选区域进行分类识别,得到最终的检测结果。
目前,影响可见光遥感图像舰船目标检测的主要因素及本发明中对应技术手段为:
(1)在不同季节、不同拍摄时间、不同天气情况影响下,造成海况、云况、光照等存在较大差异,并对目标造成很大影响;
(2)随着遥感图像分辨率增加,数据量增大,给数据处理带来困难,算法难以实现快速检测,部分算法以增加计算的复杂度为代价实现好的检测效果。
因此,如何提供一种检测速度快,且适用于不同条件下遥感图像边缘候选区域提取的深度学习舰船目标检测方法是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种基于边缘候选区域提取的深度学习舰船目标检测方法,本发明利用基于结构化随机森林模型对不同条件下的遥感图像进行边缘检测,得到有目的性的边缘检测结果,抑制海况和光照等情况对边缘结果的影响;利用基于边缘检测结果的候选区域提取算法,在大幅宽的遥感图像中提取可能存在目标的候选区域,将挑选结果作为深度学习网络的输入,从而提升网络处理的效率,加快检测速度。
为了达到上述目的,本发明采用如下技术方案:
一种基于边缘候选区域提取的深度学习舰船目标检测方法,所述方法包括以下步骤:
步骤一,利用光学遥感图像生成对应的边缘真值、目标真值;
步骤二,利用所述光学遥感图像和对应的边缘真值,训练得到结构化随机森林边缘检测模型,并使用所述结构化随机森林边缘检测模型对所述训练数据集图像进行边缘提取,获得边缘检测结果图像;
步骤三,根据所述光学遥感图像和边缘检测结果图像生成灰度边缘融合图,利用所述灰度边缘融合图训练得到深度卷积神经网络模型;
步骤四,基于所述深度卷积神经网络模型对光学遥感测试图像进行舰船目标检测。
优选的,在上述一种基于边缘候选区域提取的深度学习舰船目标检测方法中,所述步骤一具体包括:
(1)对所述光学遥感图像进行二值化的真值标注,得到二值化遥感图像真值图;
(2)根据标注好的二值化遥感图像真值图生成边缘真值和目标真值,并建立训练数据集。
优选的,在上述一种基于边缘候选区域提取的深度学习舰船目标检测方法中,所述步骤三具体包括:
(1)由所述光学遥感图像和所述边缘检测结果图像生成灰度边缘融合图,形成深度卷积神经网络模型的训练数据集;灰度边缘融合图Igec为三通道图像,三个通道分别为光学遥感图Igray、边缘检测图Iedge及叠加图像Icom,公式为:
Igec={Igray,Iedge,Icom}
其中,叠加图像Icom由光学遥感图Igray、边缘检测图Iedge叠加生成,公式为:
Icom=min(Igray+re*Iedge,255)
其中,255为灰度图像中灰度值的上限;re为边缘检测图的叠加系数,本发明中该叠加系数的值为2;
(2)使用所述灰度边缘融合图及对应的所述目标真值,训练得到所述深度卷积神经网络模型。
优选的,在上述一种基于边缘候选区域提取的深度学习舰船目标检测方法中,所述步骤四具体包括:
(1)将光学遥感测试图像输入训练好的结构化随机森林边缘检测模型中进行边缘检测,得到边缘图检测图Ie;
(2)对所述边缘检测图Ie进行形态学处理,得到形态学处理结果图Im;
(3)对所述形态学处理结果图Im进行连通区域检测,得到每个连通区域的左上点坐标、宽、高、面积信息[x,y,w,h,Area],得到连通区域检测结果CR;
(4)根据所述连通区域检测结果CR的分布,提取候选区域;
(5)对所述光学遥感测试图像及所述边缘检测图Ie在候选区域范围进行截取并进行融合,得到候选区域的灰度边缘融合图,将所述候选区域的灰度边缘融合图输入所述深度卷积神经网络进行检测识别,得到每个候选区域中的目标检测结果;
(6)将多个候选区域中的所述目标检测结果合并,返回输入的光学遥感测试图像中,进行非极大值抑制操作,得到整幅光学遥感测试图像的舰船目标检测结果。
优选的,在上述一种基于边缘候选区域提取的深度学习舰船目标检测方法中,所述步骤(2)具体包括:
1)对边缘检测图Ie进行反色处理,得到反色图像Ier,公式为:
Ier(x,y)=255-Ie(x,y)
2)对所述反色图像Ier进行类阈值分割操作,得到类阈值分割结果图像Iet,公式为:
其中,T为灰度阈值;
3)对所述类阈值分割结果图像Iet进行腐蚀操作,得到腐蚀操作结果图像Ierode,达到去除边缘毛刺及孤立像素的目的,公式为:
Ierode(x,y)=erode[Iet(x,y),Be]
其中,Be为腐蚀操作的结构元素;
5)对所述腐蚀操作结果图像Ierode进行膨胀操作,得到膨胀操作结果图像Idilate,达到对边缘图像中孔洞进行填充的目的,公式为:
Idilate(x,y)=dilate[Ierode(x,y),Bd]
其中,Bd为膨胀操作的结构元素;所述膨胀结果图像Idilate即为所述形态学处理结果图Im。
(x,y)表示图像中的像素点坐标,I(x,y)表示图像中像素点的像素值。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种基于边缘候选区域提取的深度学习舰船目标检测方法,本发明具有以下优越性:
通过结构化随机森林边缘检测模型,可得到有针对性的边缘检测结果,以应对不同环境影响和光照条件下的干扰,为候选区域的获取提供特征基础。结构化随机森林边缘检测模型相较通用边缘检测算法能够有效地将舰船目标从海洋背景和云背景中提取出来;
针对边缘检测结果所进行的一系列形态学处理,可以在边缘检测的基础上抑制虚景、进一步获得更加准确的目标候选区域;
利用基于卷积神经网络的目标识别算法,在候选区域提取的基础上,可获得更为精确的目标检测定位结果;
在卷积神经网络的训练和测试过程中,使用灰度边缘融合策略将边缘信息融合到灰度图像中,为目标检测增加了边缘特征,可获得优于原始遥感灰度图的检测结果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1附图为本发明一种基于边缘候选区域提取的深度学习舰船目标检测方法的流程示意图;
图2附图为本发明一种基于边缘候选区域提取的深度学习舰船目标检测方法的原理图;
图3附图为本发明结构化随机森林边缘检测模型与通用边缘检测算法的效果对比图;
图4附图为本发明一种基于边缘候选区域提取的深度学习舰船目标检测方法的舰船目标检测结果对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
光学遥感图像由于幅宽较大,其在计算机存储中所占空间也较大,然而由于显存与内存等计算机内部存储设备的容量限制,难以直接将一副完整的光学遥感图像作为训练数据用于模型优化或直接进行模型测试。传统方法多采用滑窗的策略解决此类问题,但滑窗效率较低、成本较高。本发明对全幅面光学遥感图像数据进行了候选区域提取,在1024*1024幅宽候选区域的基础上进行基于深度卷积神经网络的模型训练和测试识别,请参阅图1,图1为本发明一种基于边缘候选区域提取的深度学习舰船目标检测方法的流程示意图。主要包含以下4个步骤:
1、利用光学遥感图像和对应的边缘真值、目标真值,建立训练数据集图像。
数据集是模型训练和测试的基础。建立训练数据集主要包含以下两个步骤:
a、对光学遥感图像进行二值化的真值标注。利用图像编辑软件对原图像进行逐像素的标注,舰船目标区域标注为白色,其他区域标注为黑色,得到二值化遥感图像真值图。
b、根据标注好的二值化遥感图像真值图进行边缘真值和目标真值的生成。二值化遥感图像真值图中的舰船目标被逐像素标注,直接使用Canny算子对该二值图进行边缘检测,得到图像边缘真值图;对二值化遥感图像真值图进行连通区域检测,得到所有舰船目标的外接正矩形框,分别记录其左上点坐标及其宽高,每个矩形框得到一个四维数组(x,y,w,h),每幅包含n个目标的遥感图像的目标真值为一个n×4矩阵。
2、训练结构化随机森林边缘检测模型。
利用光学遥感图像和其对应的边缘真值图,训练得到结构化随机森林边缘检测模型,并使用该模型对训练数据集图像进行边缘提取。具体包括以下步骤:
a.生成训练集特征:首先对原始输入图像进行包括灰度特征和梯度特征在内的特征提取操作,其中,灰度特征为单通道或多通道的图像灰度,梯度特征包括原图像在四个方向(水平方向、垂直方向、左上-右下方向、右上-左下方向)上的梯度和总梯度;然后对提取到的特征进行降维,然后两两进行差异计算,得到差异特征。
b.利用提取到的特征信息及其对应的边缘真值对单个决策树分类器进行依次训练。
c.根据多个决策树分类器得到随机森林模型。本发明中的随机森林模型由8个决策树分类器组成。
d.利用训练得到的结构化随机森林边缘检测模型对训练集中的光学遥感图像进行边缘提取,得到边缘检测结果图像。
3、利用灰度边缘融合图训练深度卷积神经网络模型。
a.由光学遥感图像和边缘检测结果图像生成灰度边缘融合图,形成深度卷积神经网络模型的训练数据集。
灰度边缘融合图Igec为三通道图像,三个通道分别为光学遥感图Igray、边缘检测图Iedge及叠加图像Icom,公式为:
Igec={Igray,Iedge,Icom}
其中,叠加图像Icom由光学遥感图Igray、边缘检测图Iedge叠加生成,公式为:
Icom=min(Igray+re*Iedge,255)
其中,255为灰度图像中灰度值的上限;re为边缘检测图的叠加系数,本发明中该叠加系数的值为2。
b.使用灰度边缘融合图及其对应的目标真值,训练得到深度卷积神经网络模型。
4、基于边缘候选区域提取的深度学习舰船目标检测方法
基于上述训练好的结构化随机森林边缘检测模型和分类识别模型,对光学遥感测试图像进行舰船目标检测。具体包括以下步骤:
a.将光学遥感测试图像输入训练好的结构化随机森林边缘检测模型中进行边缘检测,得到边缘图检测图Ie;
b.对边缘检测图Ie进行一系列的形态学处理,得到形态学处理结果图Im。其中,(x,y)表示图像中的像素点坐标,相应地,I(x,y)表示图像中像素点的像素值,I所表示的图像可替换为下述任一步骤的中间图像。具体步骤包括:
(b1)对边缘检测图Ie进行反色处理,得到反色图像Ier,公式为:
Ier(x,y)=255-Ie(x,y)
(b2)对反色图像Ier进行类阈值分割操作,得到类阈值分割结果图像Iet,公式为:
其中,T为灰度阈值。
(b3)对类阈值分割结果图像Iet进行腐蚀操作,得到腐蚀操作结果图像Ierode,公式为:
Ierode(x,y)=erode[Iet(x,y),Be]
其中,Be为腐蚀操作的结构元素。
(b4)对腐蚀操作结果图像Ierode进行膨胀操作,得到膨胀操作结果图像Idilate,公式为:
Idilate(x,y)=dilate[Ierode(x,y),Bd]。
(b5)膨胀结果图像Idilate即为形态学处理结果图Im,公式为:
Im=Idilate
c.对形态学处理结果图Im进行连通区域检测,得到每个连通区域的左上点坐标、宽、高、面积信息[x,y,w,h,Area],连通区域个数为m,因此本步骤中连通区域检测结果CR的规模为m×5;
d.根据连通区域检测结果CR的分布,提取候选区域。具体方法为:
(d1)根据面积对每幅图像中的所有连通区域检测结果CR进行降序排序;
(d2)取面积最大的连通区域,以其为中心,在光学遥感测试图像上提取宽高分别为Wpps和Hpps的候选区域ppsR,得到其左上点坐标与宽高信息,并对剩余连通区域进行检测,将候选区域覆盖的所有连通区域从CR中删除;
(d3)判断此时是否有剩余的连通区域,即判断CR是否为空:若CR非空,返回并重复步骤(d2)~(d4);若CR为空,则完成候选区域提取,停止并跳出此步骤。
e.对光学遥感测试图像及其边缘检测图在候选区域ppsR范围进行截取,并按照步骤三(1)中的方法对图像进行处理和融合,得到候选区域的灰度边缘融合图,将其输入深度卷积神经网络进行检测识别,得到每个候选区域中的目标检测结果;
f.将多个候选区域中的目标检测结果合并,返回原始输入的光学遥感测试图像中,进行非极大值抑制操作,得到整幅光学遥感测试图像的舰船目标检测结果。
图3附图为本发明结构化随机森林边缘检测模型与通用边缘检测算法的效果对比图,图(a)为Canny边缘检测算法获取的边缘效果图,图(b)为Sobel边缘检测算法获取的边缘效果图,图(d)为本发明结构化随机森林边缘检测模型获取的边缘效果图,图(e)为原始光学遥感测试图像;可以看出,结构森林边缘检测算法能够有效地将舰船目标从海洋背景和云背景中提取出来,边缘检测效果明显,有效抑制海况和光照等情况对边缘结果的影响。图4附图为本发明一种基于边缘候选区域提取的深度学习舰船目标检测方法的舰船目标检测结果对比图,可以看出,本发明对于舰船目标检测的效果和准确度明显优于光学遥感灰度图的检测结果。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (5)
1.一种基于边缘候选区域提取的深度学习舰船目标检测方法,其特征在于,所述方法包括以下步骤:
步骤一,利用光学遥感图像生成对应的边缘真值、目标真值;
步骤二,利用所述光学遥感图像和对应的边缘真值,训练得到结构化随机森林边缘检测模型,并使用所述结构化随机森林边缘检测模型对所述训练数据集图像进行边缘提取,获得边缘检测结果图像;
步骤三,根据所述光学遥感图像和边缘检测结果图像生成灰度边缘融合图,利用所述灰度边缘融合图训练得到深度卷积神经网络模型;
步骤四,基于所述深度卷积神经网络模型对光学遥感测试图像进行舰船目标检测。
2.根据权利要求1所述的一种基于边缘候选区域提取的深度学习舰船目标检测方法,其特征在于,所述步骤一具体包括:
(1)对所述光学遥感图像进行二值化的真值标注,得到二值化遥感图像真值图;
(2)根据标注好的二值化遥感图像真值图生成边缘真值和目标真值,并建立训练数据集。
3.根据权利要求1所述的一种基于边缘候选区域提取的深度学习舰船目标检测方法,其特征在于,所述步骤三具体包括:
(1)由所述光学遥感图像和所述边缘检测结果图像生成灰度边缘融合图,形成深度卷积神经网络模型的训练数据集;灰度边缘融合图Igec为三通道图像,三个通道分别为光学遥感图Igray、边缘检测图Iedge及叠加图像Icom,公式为:
Igec={Igray,Iedge,Icom}
其中,叠加图像Icom由光学遥感图Igray、边缘检测图Iedge叠加生成,公式为:
Icom=min(Igray+re*Iedge,255)
其中,255为灰度图像中灰度值的上限;re为边缘检测图的叠加系数,本发明中该叠加系数的值为2;
(2)使用所述灰度边缘融合图及对应的所述目标真值,训练得到所述深度卷积神经网络模型。
4.根据权利要求1所述的一种基于边缘候选区域提取的深度学习舰船目标检测方法,其特征在于,所述步骤四具体包括:
(1)将光学遥感测试图像输入训练好的结构化随机森林边缘检测模型中进行边缘检测,得到边缘图检测图Ie;
(2)对所述边缘检测图Ie进行形态学处理,得到形态学处理结果图Im;
(3)对所述形态学处理结果图Im进行连通区域检测,得到每个连通区域的左上点坐标、宽、高、面积信息[x,y,w,h,Area],得到连通区域检测结果CR;
(4)根据所述连通区域检测结果CR的分布,提取候选区域;
(5)对所述光学遥感测试图像及所述边缘检测图Ie在候选区域范围进行截取并进行融合,得到候选区域的灰度边缘融合图,将所述候选区域的灰度边缘融合图输入所述深度卷积神经网络进行检测识别,得到每个候选区域中的目标检测结果;
(6)将多个候选区域中的所述目标检测结果合并,返回输入的光学遥感测试图像中,进行非极大值抑制操作,得到整幅光学遥感测试图像的舰船目标检测结果。
5.根据权利要求4所述的一种基于边缘候选区域提取的深度学习舰船目标检测方法,其特征在于,所述步骤(2)具体包括:
1)对边缘检测图Ie进行反色处理,得到反色图像Ier,公式为:
Ier(x,y)=255-Ie(x,y)
2)对所述反色图像Ier进行类阈值分割操作,得到类阈值分割结果图像Iet,公式为:
<mrow>
<msub>
<mi>I</mi>
<mrow>
<mi>e</mi>
<mi>t</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>0</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>I</mi>
<mrow>
<mi>e</mi>
<mi>r</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>&le;</mo>
<mi>T</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>I</mi>
<mrow>
<mi>e</mi>
<mi>r</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>I</mi>
<mrow>
<mi>e</mi>
<mi>r</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>></mo>
<mi>T</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,T为灰度阈值;
3)对所述类阈值分割结果图像Iet进行腐蚀操作,得到腐蚀操作结果图像Ierode,公式为:
Ierode(x,y)=erode[Iet(x,y),Be]
其中,Be为腐蚀操作的结构元素;
4)对所述腐蚀操作结果图像Ierode进行膨胀操作,得到膨胀操作结果图像Idilate,公式为:
Idilate(x,y)=dilate[Ierode(x,y),Bd]
其中,Bd为膨胀操作的结构元素;所述膨胀结果图像Idilate即为所述形态学处理结果图Im;
(x,y)表示图像中的像素点坐标,I(x,y)表示图像中像素点的像素值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810012688.3A CN108121991B (zh) | 2018-01-06 | 2018-01-06 | 一种基于边缘候选区域提取的深度学习舰船目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810012688.3A CN108121991B (zh) | 2018-01-06 | 2018-01-06 | 一种基于边缘候选区域提取的深度学习舰船目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108121991A true CN108121991A (zh) | 2018-06-05 |
CN108121991B CN108121991B (zh) | 2022-11-15 |
Family
ID=62232765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810012688.3A Active CN108121991B (zh) | 2018-01-06 | 2018-01-06 | 一种基于边缘候选区域提取的深度学习舰船目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108121991B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960135A (zh) * | 2018-07-03 | 2018-12-07 | 西北工业大学 | 基于高分辨遥感图像的密集舰船目标精确检测方法 |
CN109118503A (zh) * | 2018-07-19 | 2019-01-01 | 黄淮学院 | 高分辨遥感影像特定目标快速检测方法 |
CN109190636A (zh) * | 2018-07-30 | 2019-01-11 | 北京航空航天大学 | 一种遥感图像舰船目标信息提取方法 |
CN109344717A (zh) * | 2018-09-01 | 2019-02-15 | 哈尔滨工程大学 | 一种多阈值动态统计的深海目标在线检测识别方法 |
CN109359557A (zh) * | 2018-09-25 | 2019-02-19 | 东北大学 | 一种基于迁移学习的sar遥感图像舰船检测方法 |
CN109803090A (zh) * | 2019-01-25 | 2019-05-24 | 睿魔智能科技(深圳)有限公司 | 无人拍摄自动变焦方法及系统、无人摄像机及存储介质 |
CN109800736A (zh) * | 2019-02-01 | 2019-05-24 | 东北大学 | 一种基于遥感影像和深度学习的道路提取方法 |
CN110472638A (zh) * | 2019-07-30 | 2019-11-19 | 精硕科技(北京)股份有限公司 | 一种目标检测方法、装置及设备、存储介质 |
CN110705427A (zh) * | 2019-09-25 | 2020-01-17 | 中国人民解放军61646部队 | 一种遥感图像目标区域的提取处理方法及装置 |
CN110752015A (zh) * | 2018-07-24 | 2020-02-04 | 由昉信息科技(上海)有限公司 | 一种运用于医学领域的智能分类与标记系统及方法 |
CN111178203A (zh) * | 2019-12-20 | 2020-05-19 | 江苏常熟农村商业银行股份有限公司 | 签名审核方法、装置、计算机设备和存储介质 |
CN112052907A (zh) * | 2020-09-15 | 2020-12-08 | 浙江智慧视频安防创新中心有限公司 | 基于图像边缘信息的目标检测方法、装置及存储介质 |
GB2585487A (en) * | 2019-05-21 | 2021-01-13 | Headlight Ai Ltd | Identifying at least one object within an image |
CN116452667A (zh) * | 2023-06-16 | 2023-07-18 | 成都实时技术股份有限公司 | 一种基于图像处理的目标识别与定位方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103544491A (zh) * | 2013-11-08 | 2014-01-29 | 广州广电运通金融电子股份有限公司 | 一种面向复杂背景的光学字符识别方法及装置 |
CN105022990A (zh) * | 2015-06-29 | 2015-11-04 | 华中科技大学 | 一种基于无人艇应用的水面目标快速检测方法 |
CN107220664A (zh) * | 2017-05-18 | 2017-09-29 | 南京大学 | 一种基于结构化随机森林的油瓶装箱清点方法 |
US20170350974A1 (en) * | 2016-04-29 | 2017-12-07 | The Boeing Company | Methods and systems for model based automatic target recognition in sar data |
-
2018
- 2018-01-06 CN CN201810012688.3A patent/CN108121991B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103544491A (zh) * | 2013-11-08 | 2014-01-29 | 广州广电运通金融电子股份有限公司 | 一种面向复杂背景的光学字符识别方法及装置 |
CN105022990A (zh) * | 2015-06-29 | 2015-11-04 | 华中科技大学 | 一种基于无人艇应用的水面目标快速检测方法 |
US20170350974A1 (en) * | 2016-04-29 | 2017-12-07 | The Boeing Company | Methods and systems for model based automatic target recognition in sar data |
CN107220664A (zh) * | 2017-05-18 | 2017-09-29 | 南京大学 | 一种基于结构化随机森林的油瓶装箱清点方法 |
Non-Patent Citations (4)
Title |
---|
HENG ZHANG 等: "Edge Detection from RGB-D Image Based on Structured Forests", 《JOURNAL OF SENSORS》 * |
杨孝翠等: "基于对比度增强和形态学的遥感影像道路提取", 《测绘通报》 * |
雷琴 等: "可见光海面目标检测的结构随机森林方法", 《光电工程》 * |
黄洁等: "基于卷积神经网络的遥感图像舰船目标检测", 《北京航空航天大学学报》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960135B (zh) * | 2018-07-03 | 2021-10-12 | 西北工业大学 | 基于高分辨遥感图像的密集舰船目标精确检测方法 |
CN108960135A (zh) * | 2018-07-03 | 2018-12-07 | 西北工业大学 | 基于高分辨遥感图像的密集舰船目标精确检测方法 |
CN109118503A (zh) * | 2018-07-19 | 2019-01-01 | 黄淮学院 | 高分辨遥感影像特定目标快速检测方法 |
CN109118503B (zh) * | 2018-07-19 | 2022-02-11 | 黄淮学院 | 高分辨遥感影像特定目标快速检测方法 |
CN110752015A (zh) * | 2018-07-24 | 2020-02-04 | 由昉信息科技(上海)有限公司 | 一种运用于医学领域的智能分类与标记系统及方法 |
CN109190636A (zh) * | 2018-07-30 | 2019-01-11 | 北京航空航天大学 | 一种遥感图像舰船目标信息提取方法 |
CN109344717A (zh) * | 2018-09-01 | 2019-02-15 | 哈尔滨工程大学 | 一种多阈值动态统计的深海目标在线检测识别方法 |
CN109344717B (zh) * | 2018-09-01 | 2021-10-19 | 哈尔滨工程大学 | 一种多阈值动态统计的深海目标在线检测识别方法 |
CN109359557A (zh) * | 2018-09-25 | 2019-02-19 | 东北大学 | 一种基于迁移学习的sar遥感图像舰船检测方法 |
CN109359557B (zh) * | 2018-09-25 | 2021-11-09 | 东北大学 | 一种基于迁移学习的sar遥感图像舰船检测方法 |
CN109803090A (zh) * | 2019-01-25 | 2019-05-24 | 睿魔智能科技(深圳)有限公司 | 无人拍摄自动变焦方法及系统、无人摄像机及存储介质 |
CN109800736A (zh) * | 2019-02-01 | 2019-05-24 | 东北大学 | 一种基于遥感影像和深度学习的道路提取方法 |
CN109800736B (zh) * | 2019-02-01 | 2023-07-21 | 东北大学 | 一种基于遥感影像和深度学习的道路提取方法 |
GB2585487A (en) * | 2019-05-21 | 2021-01-13 | Headlight Ai Ltd | Identifying at least one object within an image |
CN110472638A (zh) * | 2019-07-30 | 2019-11-19 | 精硕科技(北京)股份有限公司 | 一种目标检测方法、装置及设备、存储介质 |
CN110705427A (zh) * | 2019-09-25 | 2020-01-17 | 中国人民解放军61646部队 | 一种遥感图像目标区域的提取处理方法及装置 |
CN111178203A (zh) * | 2019-12-20 | 2020-05-19 | 江苏常熟农村商业银行股份有限公司 | 签名审核方法、装置、计算机设备和存储介质 |
CN112052907A (zh) * | 2020-09-15 | 2020-12-08 | 浙江智慧视频安防创新中心有限公司 | 基于图像边缘信息的目标检测方法、装置及存储介质 |
CN116452667A (zh) * | 2023-06-16 | 2023-07-18 | 成都实时技术股份有限公司 | 一种基于图像处理的目标识别与定位方法 |
CN116452667B (zh) * | 2023-06-16 | 2023-08-22 | 成都实时技术股份有限公司 | 一种基于图像处理的目标识别与定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108121991B (zh) | 2022-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108121991A (zh) | 一种基于边缘候选区域提取的深度学习舰船目标检测方法 | |
CN109711295B (zh) | 一种光学遥感图像近岸舰船检测方法 | |
CN107622231B (zh) | 一种水天一体智能漂浮物收集系统及其收集方法 | |
CN109934200B (zh) | 一种基于改进M-Net的RGB彩色遥感图像云检测方法及系统 | |
CN105022990B (zh) | 一种基于无人艇应用的水面目标快速检测方法 | |
CN103745203B (zh) | 基于视觉注意和均值漂移的目标检测与跟踪方法 | |
CN109740460B (zh) | 基于深度残差密集网络的光学遥感图像舰船检测方法 | |
CN110188705A (zh) | 一种适用于车载系统的远距离交通标志检测识别方法 | |
CN109460764B (zh) | 一种结合亮度特征与改进帧间差分法的卫星视频船舶监测方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
CN104077605A (zh) | 一种基于颜色拓扑结构的行人搜索识别方法 | |
US9256619B2 (en) | Method for detecting and recognizing boats | |
CN108090911A (zh) | 一种光学遥感图像的近岸舰船分割方法 | |
CN112417931B (zh) | 一种基于视觉显著性的水面物体检测和分类的方法 | |
CN101814144A (zh) | 遥感图像中无水桥梁目标识别方法 | |
CN111582218A (zh) | 一种基于深度学习的遥感影像岛礁提取方法 | |
CN114612769B (zh) | 一种融入局部结构信息的集成感知红外成像舰船检测方法 | |
CN107092871A (zh) | 基于多尺度多特征融合的遥感影像建筑物检测方法 | |
CN110210428B (zh) | 一种基于mser的远距离复杂环境下的烟雾根节点检测方法 | |
CN107704865A (zh) | 基于结构森林边缘候选区域提取的舰船目标检测算法 | |
CN111753677A (zh) | 基于特征金字塔结构的多角度遥感船舶图像目标检测方法 | |
CN106446925A (zh) | 一种基于图像处理的海豚身份识别的方法 | |
CN107992856A (zh) | 城市场景下的高分遥感建筑物阴影检测方法 | |
Zhang et al. | Nearshore vessel detection based on Scene-mask R-CNN in remote sensing image | |
CN108446721A (zh) | 一种基于多分支网络的水面环境解析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |