CN113516053A - 一种具有旋转不变性的舰船目标精细化检测方法 - Google Patents

一种具有旋转不变性的舰船目标精细化检测方法 Download PDF

Info

Publication number
CN113516053A
CN113516053A CN202110593236.0A CN202110593236A CN113516053A CN 113516053 A CN113516053 A CN 113516053A CN 202110593236 A CN202110593236 A CN 202110593236A CN 113516053 A CN113516053 A CN 113516053A
Authority
CN
China
Prior art keywords
target
convolution
layer
remote sensing
sensing image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110593236.0A
Other languages
English (en)
Other versions
CN113516053B (zh
Inventor
呼延烺
周诠
李琪
钱涛
魏佳圆
刘娟妮
张怡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Institute of Space Radio Technology
Original Assignee
Xian Institute of Space Radio Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Institute of Space Radio Technology filed Critical Xian Institute of Space Radio Technology
Priority to CN202110593236.0A priority Critical patent/CN113516053B/zh
Priority claimed from CN202110593236.0A external-priority patent/CN113516053B/zh
Publication of CN113516053A publication Critical patent/CN113516053A/zh
Application granted granted Critical
Publication of CN113516053B publication Critical patent/CN113516053B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了一种具有旋转不变性的舰船目标精细化检测方法,包括:采用三点式标注法,对样本遥感图像进行标注;计算得到样本遥感图像中的目标的位置信息、类别信息和置信度;构建得到神经网络模型;通过神经网络模型对样本遥感图像进行特征提取和识别;通过梯度下降算法对神经网络模型中的参数进行更新;对神经网络模型进行多次训练后,得到目标精细化检测模型;将待识别遥感图像作为目标精细化检测模型的输入,输出待识别遥感图像中的目标的位置信息、类别信息和置信度。本发明具有学习目标几何姿态信息的能力,并将目标的朝向隐含在三角形边框中,可以有效预测目标方向及位置信息,从而实现了多类军用舰船和民用舰船目标类别和方向的判定。

Description

一种具有旋转不变性的舰船目标精细化检测方法
技术领域
本发明属于遥感图像处理技术领域,尤其涉及一种具有旋转不变性的舰船目标精细化检测方法。
背景技术
遥感图像目标检测是卫星图像处理的基本任务之一,其基本目的是从遥感图像中提取感兴趣目标的类别和位置信息。该任务在众多领域具有广泛的应用,从遥感图像中检测舰船是一项重要任务,也是遥感图像分析、图像内容理解以及场景理解等高层次应用的基础。
由于遥感图像是从上往下获取的,舰船目标外观受视角的影响较大,舰船的方向可以是0-360度任意方向,如何保证舰船在任意方向下均能够正确检测到舰船目标并且给出其精细化位置信息是遥感图像舰船目标检测面临的一个难题。
遥感图像精细化舰船目标检测是指在不仅能够在遥感图像中检测出的舰船目标,而且需要给出舰船目标精细化位置信息。遥感图像中的舰船目标往往是以倾斜视角出现,在该视角下采用现有深度学习目标检测方法直接进行目标检测得到的矩形框中包含了大量的背景冗余信息和重叠区域,无法满足对目标的精确定位和细粒度的检测需求。
发明内容
本发明的技术解决问题:克服现有技术的不足,提供一种具有旋转不变性的舰船目标精细化检测方法,具有学习目标几何姿态信息的能力,并将目标的朝向隐含在三角形边框中,可以有效预测目标方向及位置信息,从而实现了多类军用舰船和民用舰船目标类别和方向的判定,解决了舰船目标检测时目标倾斜视角带来的检测精度问题。
为了解决上述技术问题,本发明公开了一种具有旋转不变性的舰船目标精细化检测方法,包括:
步骤1:采用三点式标注法,对样本遥感图像进行标注,得到样本遥感图像中的目标检测框;
步骤2:根据标注得到的目标检测框,计算得到样本遥感图像中的目标的位置信息、类别信息和置信度;
步骤3:构建得到神经网络模型;将样本遥感图像输入至神经网络模型,通过神经网络模型对样本遥感图像进行特征提取和识别,输出目标的位置信息、类别信息和置信度;
步骤4:根据步骤2计算得到的目标的位置信息、类别信息和置信度,以及步骤3由神经网络模型输出的目标的位置信息、类别信息和置信度,通过梯度下降算法对神经网络模型中的参数进行更新;
步骤5:重复步骤4的操作过程,对神经网络模型进行多次训练后,得到目标精细化检测模型;
步骤6:将待识别遥感图像作为目标精细化检测模型的输入,通过所述目标精细化检测模型对待识别遥感图像进行特征提取和识别,输出待识别遥感图像中的目标的位置信息、类别信息和置信度。
在上述具有旋转不变性的舰船目标精细化检测方法中,采用三点式标注法,对样本遥感图像进行标注,得到样本遥感图像中的目标检测框,包括:
子步骤11,确定样本遥感图像中的样本目标;
子步骤12,标注样本目标所在区域的三个点:A点、B点和C点;其中,A点为样本目标所在区域的左上角,B点为样本目标所在区域的右上角,C点为样本目标所在区域的左下角与右下角连线的中心点;
子步骤13,根据A点、B点和C点,确定三角形标注区域,得到样本遥感图像中的目标检测框;其中,三角形标注区域覆盖样本目标。
在上述具有旋转不变性的舰船目标精细化检测方法中,根据步骤2计算得到的目标的位置信息、类别信息和置信度,以及步骤3由神经网络模型输出的目标的位置信息、类别信息和置信度,通过梯度下降算法对神经网络模型中的参数进行更新,包括:
子步骤41:从样本遥感图像数据集中随机选取一幅样本遥感图像Pi
子步骤42:通过步骤1~2,计算得到样本遥感图像Pi中的目标的位置信息、类别信息和置信度;
子步骤43:将样本遥感图像Pi作为步骤3构建得到的神经网络模型的输入,通过神经网络模型输出得到样本遥感图像Pi中的目标的位置信息、类别信息和置信度;
子步骤44:根据子步骤42计算得到的目标的位置信息、类别信息和置信度,以及子步骤43由神经网络模型输出的目标的位置信息、类别信息和置信度,计算得到损失函数;其中,损失函数包括:坐标位置的损失,置信度的损失和类别的损失;
子步骤45:通过梯度下降算法对神经网络模型中的参数进行更新。
在上述具有旋转不变性的舰船目标精细化检测方法中,重复步骤4的操作过程,对神经网络模型进行多次训练后,得到目标精细化检测模型,包括:
重复子步骤41~45,对整个神经网络模型进行迭代训练,直至训练次数达到预先设定的次数阈值或者损失函数对应的损失值小于预先设定的损失阈值,得到目标精细化检测模型。
在上述具有旋转不变性的舰船目标精细化检测方法中,将待识别遥感图像作为目标精细化检测模型的输入,通过所述目标精细化检测模型对待识别遥感图像进行特征提取和识别,输出待识别遥感图像中的目标的位置信息、类别信息和置信度,包括:
子步骤61,将待识别遥感图像作为目标精细化检测模型的输入,通过所述目标精细化检测模型对待识别遥感图像进行特征提取,得到待识别遥感图像中的目标的位置特征图、类别特征图和置信度特征图;
子步骤62,根据得到的待识别遥感图像中的目标的位置特征图、类别特征图和置信度特征图,确定得到待识别遥感图像中的目标检测框;其中,若待识别遥感图像中的目标的置信度特征图上的某一点Qi的值大于设定的置信度阈值,则根据待识别遥感图像中的目标的置信度特征图所对应的待识别遥感图像中的目标的位置特征图、类别特征图,确定待识别遥感图像中的目标的类别和待识别遥感图像中的目标检测框;
子步骤63,按照子步骤62完成待识别遥感图像中的目标的置信度特征图上所有点的预测之后,通过非极大值抑制得到待识别遥感图像中的目标的位置信息、类别信息和置信度。
在上述具有旋转不变性的舰船目标精细化检测方法中,神经网络模型采用了全卷积网络,舍弃了池化层,采用步长为2的卷积实现了下采样的功能。
在上述具有旋转不变性的舰船目标精细化检测方法中,神经网络模型,包括:
22层基础网络层:两个卷积模块、两个2分组卷积模块、两个8分组卷积模块、一个1*1*128卷积层和4个残差模块依次级联构成基础网络层;其中,卷积模块由一个2维卷积层,一个批归一化层和一个非线性激活层依次级联组成;残差模块由一个1*1卷积层和一个3*3卷积层级联组成;其中,1*1卷积层的输入与3*3卷积层的输出合并作为残差模块的输出;一个残差模块由两个卷积层组成;2分组卷积模块,用于将输入的特征图经过一个1*1*64、步长为2的卷积层之后,将输出一分为二分别输入至两个残差模块进行卷积运算,两个残差模块的输出合并之后作为2分组卷积模块的输出,一个2分组卷积模块由3层卷积层组成;8分组卷积模块,用于将输入特征图经过一个1*1*128、步长为2之后,将输出一分为八分别输入至8个残差模块进行卷积运算,8个残差模块的输出合并之后作为8分组卷积模块的输出,一个8分组卷积模块由3层卷积层组成;
7层分类网络层:一个卷积集、一个3*3卷积层和一个1*1卷积层依次级联构成分类网络层;其中,卷积集由3个1*1卷积层和2个3*3卷积层交替连接构成。
在上述具有旋转不变性的舰船目标精细化检测方法中,神经网络模型在三个尺度上进行目标检测,分别将三个尺度称为尺度1、尺度2和尺度3,每个尺度具有不同的分类网络层,但是共享基础网络层,每一个尺度的网络深度为29层;其中,尺度1的特征图由基础网络层与分类网络层直接级联获得;尺度1中卷积集的输出经过一个1*1的卷积层并上采样之后与基础网络层中第二个8分组卷积的输出合并,合并之后与分类网络层级联获得尺度2的特征图;尺度2中卷积集的输出经过一个1*1的卷积层并上采样之后与基础网络层中第一个8分组卷积的输出合并,合并之后与分类网络级联获得尺度3的特征图;每个尺度上输出的特征图包含位置特征图、类别特征图和置信度特征图。
在上述具有旋转不变性的舰船目标精细化检测方法中,对于基础网络层,有:
第一层卷积核尺寸为3*3*32,其中卷积核的宽和高均为3,通道数为32,步长为1;
第二层卷积核尺寸为1*1*64,其中卷积核的宽和高均为1,通道数为64,步长为2;
第三层卷积核尺寸为1*1*32,其中卷积核的宽和高均为1,通道数为32,步长为1;
第四层卷积核尺寸为3*3*64,其中卷积核的宽和高均为3,通道数为64,步长为1;
第五层卷积核尺寸为1*1*128,其中卷积核的宽和高均为1,通道数为128,步长为1;
第六层卷积核尺寸为1*1*64,其中卷积核的宽和高均为1,通道数为64,步长为1;
第七层卷积核尺寸为3*3*128,其中卷积核的宽和高均为3,通道数为128,步长为1;
第八层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1;
第九层卷积核尺寸为1*1*128,其中卷积核的宽和高均为1,通道数为128,步长为1;
第十层卷积核尺寸为3*3*256,其中卷积核的宽和高均为3,通道数为256,步长为1;
第十一层卷积核尺寸为1*1*512,其中卷积核的宽和高均为1,通道数为512,步长为1;
第十二层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1;
第十三层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1;
第十四层卷积核尺寸为1*1*512,其中卷积核的宽和高均为1,通道数为512,步长为2;
第十五层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为2;
第十六层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1;
第十七层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1;
第十八层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1;
第十九层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1;
第二十层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1;
第二十一层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1;
第二十二层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1。
在上述具有旋转不变性的舰船目标精细化检测方法中,损失函数的表达式如下:
Figure BDA0003090314920000071
损失函数分为5项,包括:
Figure BDA0003090314920000072
为第一项,表示负责预测物体的锚点的坐标损失;
Figure BDA0003090314920000073
为第二项,表示不负责预测物体的锚点的坐标损失;
Figure BDA0003090314920000074
为第三项,表示不负责预测物体的锚点的置信度的损失;
Figure BDA0003090314920000075
为第四项,表示不负责预测物体的锚点的置信度损失;
Figure BDA0003090314920000076
为第五项,表示负责预测物体锚点的类别损失;
其中,x和y分别表示标注目标的三个点在图像中的横坐标和纵坐标,k表示标注目标的点的数目,i表示锚点数目,j表示每个锚点上所取边框的数目,
Figure BDA0003090314920000081
表示预测到的横坐标,
Figure BDA0003090314920000082
表示标注的横坐标,
Figure BDA0003090314920000083
表示预测到的纵坐标,
Figure BDA0003090314920000084
表示标注的纵坐标,
Figure BDA0003090314920000085
表示用来调节第一项损失和第三项损失在总损失中所占比重,
Figure BDA0003090314920000086
表示锚点的中心横坐标,
Figure BDA0003090314920000087
表示锚点的中心纵坐标,
Figure BDA0003090314920000088
表示用来调节第二项损失和第四项损失在总损失中所占比重,
Figure BDA0003090314920000089
表示预测得到的置信度,
Figure BDA00030903149200000810
表示预测到的边框,
Figure BDA00030903149200000811
表示真实边框,
Figure BDA00030903149200000812
表示
Figure BDA00030903149200000813
Figure BDA00030903149200000814
的交并比,
Figure BDA00030903149200000815
表示预测得到的目标类别概率,
Figure BDA00030903149200000816
表示目标类别概率的真值,B表示每个锚点内设置的边框数目,s表示特征图的边长,
Figure BDA00030903149200000817
表示负责预测目标的锚点的概率,
Figure BDA00030903149200000818
表示不负责预测目标的锚点的概率。
本发明具有以下优点:
本发明公开了一种具有旋转不变性的舰船目标精细化检测方法,在训练阶段的目标标注过程中不再使用现有深度学习采用的矩形边框来标注目标位置信息,取而代之的是采用三角形边框来标注目标位置信息。组成三角形的三个点的为位置分别为目标左上角、右上角及左下角与右下角连线的中点。考虑到工程应用中实时应用需求,基础网络层采用单阶段轻量化网络结构提取多尺度目标特征,在不同尺度的目标特征上进行目标检测,在输出的三角形边框中通过非极大值抑制方法去除冗余边框,获得最终的目标位置信息。具有学习目标几何姿态信息的能力,并将目标的朝向隐含在三角形边框中,可以有效预测目标方向及位置信息,从而实现了多类军用舰船和民用舰船目标类别和方向的判定,解决了舰船目标检测时目标倾斜视角带来的检测精度问题。
附图说明
图1是本发明实施例中一种具有旋转不变性的舰船目标精细化检测方法的步骤流程图;
图2是本发明实施例中一种三点式标注方法的示意图;
图3是本发明实施例中一种神经网络模型的组成示意图;
图4是本发明实施例中一种卷积模块的组成示意图;
图5是本发明实施例中一种残差模块的组成示意图;
图6是本发明实施例中一种2分组卷积模块的组成示意图;
图7是本发明实施例中一种8分组卷积模块的组成示意图;
图8是本发明实施例中一种特征图的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明公开的实施方式作进一步详细描述。
如图1,在本实施例中,该具有旋转不变性的舰船目标精细化检测方法,包括:
步骤1:采用三点式标注法,对样本遥感图像进行标注,得到样本遥感图像中的目标检测框。
在本实施例中,三点式标注方法分别标注目标所在区域的三个点(x0,y0)、(x1,y1)、(x2,y2),使得目标三角形覆盖目标区域,如图2中所示的三角形,这三个点可选取左上角、右上角及左下角和右下角的中心点作为标注的三个点。
优选的,步骤1的具体实现方式可以如下:
子步骤11,确定样本遥感图像中的样本目标。
子步骤12,标注样本目标所在区域的三个点:A点、B点和C点。如前所述,A点可以为样本目标所在区域的左上角,B点可以为样本目标所在区域的右上角,C点可以为样本目标所在区域的左下角与右下角连线的中心点。
子步骤13,根据A点、B点和C点,确定三角形标注区域,得到样本遥感图像中的目标检测框;其中,三角形标注区域覆盖样本目标。
步骤2:根据标注得到的目标检测框,计算得到样本遥感图像中的目标的位置信息、类别信息和置信度。
步骤3:构建得到神经网络模型;将样本遥感图像输入至神经网络模型,通过神经网络模型对样本遥感图像进行特征提取和识别,输出目标的位置信息、类别信息和置信度。
在本实施例中,构建得到的神经网络模型主要用于实现两个功能:特征提取和检测输出。其中,特征提取是指从图像中提取得到特征图,检测输出是指输出目标的位置信息、类别信息和置信度。
为了适应不同输入分辨率的图像,所构造的神经网络模型采用了全卷积网络,舍弃了池化层,采用步长为2的卷积实现了下采样的功能。完整模型如图3所示。其中,该神经网络模型具体可以包括:22层基础网络层和7层分类网络层。
基础网络层
基础网络层:两个卷积模块、两个2分组卷积模块、两个8分组卷积模块、一个1*1*128卷积层和4个残差模块依次级联构成基础网络层。
如图4,卷积模块由一个2维卷积层,一个批归一化层和一个非线性激活层依次级联组成。
如图5,残差模块由一个1*1卷积层和一个3*3卷积层级联组成。其中,1*1卷积层的输入与3*3卷积层的输出合并作为残差模块的输出;一个残差模块可以认为是由两个卷积层组成。
如图6,2分组卷积模块,用于将输入的特征图经过一个1*1*64、步长为2的卷积层之后,将输出一分为二分别输入至两个残差模块进行卷积运算,两个残差模块的输出合并之后作为2分组卷积模块的输出,一个2分组卷积模块可以认为是由3层卷积层组成。
如图7,8分组卷积模块,用于将输入特征图经过一个1*1*128、步长为2之后,将输出一分为八分别输入至8个残差模块进行卷积运算,8个残差模块的输出合并之后作为8分组卷积模块的输出。其中,一个8分组卷积模块可以认为是由3层卷积层组成。
分类网络层
分类网络层:一个卷积集、一个3*3卷积层和一个1*1卷积层依次级联构成分类网络层。其中,如图8,卷积集由3个1*1卷积层和2个3*3卷积层交替连接构成。
由上可见,在本实施例中,构建的神经网络模型可以在三个尺度上进行目标检测,分别将三个尺度称为尺度1、尺度2和尺度3,每个尺度具有不同的分类网络层,但是共享基础网络层,每一个尺度的网络深度为29层。也即,为了对不同尺度的目标进行检测,神经网络模型可以输出3种不同尺寸的特征图,在不同的特征图上进行预测,这三个特征图的尺寸可以分别为f1*f1,f2*f2,f3*f3。例如,在我们的试验中分别为15*15、30*30、60*60。其中,尺度1的特征图由基础网络层与分类网络层直接级联获得;尺度1中卷积集的输出经过一个1*1的卷积层并上采样之后与基础网络层中第二个8分组卷积的输出合并,合并之后与分类网络层级联获得尺度2的特征图;尺度2中卷积集的输出经过一个1*1的卷积层并上采样之后与基础网络层中第一个8分组卷积的输出合并,合并之后与分类网络级联获得尺度3的特征图;每个尺度上输出的特征图包含位置特征图、类别特征图和置信度特征图。
进一步的,如下表1示出了该神经网络模型的各层参数:
层数 核数量 核尺寸 输入 输出 参数量(M) 计算量Mflops
1 32 3*3/1 480*480*3 480*480*32 0.000864 199.0656
2 64 1*1/2 480*480*32 240*240*64 0.002048 471.8592
3 32 1*1/1 240*240*64 240*240*32 0.002048 117.9648
4 64 3*3/1 240*240*32 240*240*128 0.018432 1061.6832
5 128 1*1/2 240*240*128 120*120*128 0.016384 943.7184
6 64 1*1/1 120*120*128 120*120*64 0.008192 117.964800
7 128 3*3/1 120*120*64 120*120*256 0.147456 1061.683200
8 256 1*1/2 120*120*256 60*60*256 0.065536 943.718400
9 128 1*1/1 60*60*256 60*60*128 0.032768 117.964800
10 256 3*3/1 60*60*128 60*60*2048 2.359296 1061.683200
11 512 1*1/2 60*60*2048 30*30*512 1.048576 3774.873600
12 256 1*1/1 30*30*512 30*30*256 0.131072 117.964800
13 512 3*3/1 30*30*256 30*30*4096 9.437184 1061.683200
14 512 1*1/2 30*30*4096 15*15*512 2.097152 1887.436800
15 256 1*1/1 15*15*512 15*15*256 0.131072 29.491200
16 512 3*3/1 15*15*256 15*15*512 1.179648 265.420800
17 256 1*1/1 15*15*512 15*15*256 0.131072 29.491200
18 512 3*3/1 15*15*256 15*15*512 1.179648 265.420800
19 256 1*1/1 15*15*512 15*15*256 0.131072 29.491200
20 512 3*3/1 15*15*256 15*15*512 1.179648 265.420800
21 256 1*1/1 15*15*512 15*15*256 0.131072 29.491200
22 512 3*3/1 15*15*256 15*15*512 1.179648 265.420800
表1
由表1可见,对于基础网络层,有:第一层卷积核尺寸为3*3*32,其中卷积核的宽和高均为3,通道数为32,步长为1。第二层卷积核尺寸为1*1*64,其中卷积核的宽和高均为1,通道数为64,步长为2。第三层卷积核尺寸为1*1*32,其中卷积核的宽和高均为1,通道数为32,步长为1。第四层卷积核尺寸为3*3*64,其中卷积核的宽和高均为3,通道数为64,步长为1。第五层卷积核尺寸为1*1*128,其中卷积核的宽和高均为1,通道数为128,步长为1。第六层卷积核尺寸为1*1*64,其中卷积核的宽和高均为1,通道数为64,步长为1。第七层卷积核尺寸为3*3*128,其中卷积核的宽和高均为3,通道数为128,步长为1。第八层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1。第九层卷积核尺寸为1*1*128,其中卷积核的宽和高均为1,通道数为128,步长为1。第十层卷积核尺寸为3*3*256,其中卷积核的宽和高均为3,通道数为256,步长为1。第十一层卷积核尺寸为1*1*512,其中卷积核的宽和高均为1,通道数为512,步长为1。第十二层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1。第十三层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1。第十四层卷积核尺寸为1*1*512,其中卷积核的宽和高均为1,通道数为512,步长为2。第十五层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为2。第十六层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1。第十七层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1。第十八层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1。第十九层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1。第二十层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1。第二十一层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1。第二十二层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1。
步骤4:根据步骤2计算得到的目标的位置信息、类别信息和置信度,以及步骤3由神经网络模型输出的目标的位置信息、类别信息和置信度,通过梯度下降算法对神经网络模型中的参数进行更新。
在本实施例中,步骤4的具体实现流程可以如下:
子步骤41:从样本遥感图像数据集中随机选取一幅样本遥感图像Pi
子步骤42:通过步骤1~2,计算得到样本遥感图像Pi中的目标的位置信息、类别信息和置信度。
子步骤43:将样本遥感图像Pi作为步骤3构建得到的神经网络模型的输入,通过神经网络模型输出得到样本遥感图像Pi中的目标的位置信息、类别信息和置信度。
子步骤44:根据子步骤42计算得到的目标的位置信息、类别信息和置信度,以及子步骤43由神经网络模型输出的目标的位置信息、类别信息和置信度,计算得到损失函数。其中,损失函数包括:坐标位置的损失,置信度的损失和类别的损失。
子步骤45:通过梯度下降算法对神经网络模型中的参数进行更新。
在本书实施例中,如前所述,通过神经网络模型提取到的特征图大小为fi*fi,故将原图也划分为fi*fi的网格,其中的每个特征点对应原图中的一个网格,在每个网格中设置num_anchor个边界框。对于一个目标来说深度网络需要回归的参数有目标边界框3个点的位置、是否含有目标的置信度以及属于某一类目标的概率。对于含有有num_class类目标的任务而言,故对于每个边界框共需要预测的参数为7+num_class个参数。由于骨干网络输出的特征通道数目([15,15,512])与需要预测参数不一致,需要采用使用一个1x1的卷积将通道数由512压缩到[num_anchor×(6+1+num_class)],如图8所示,num_anchor=3,num_class=7。进一步的,每次在遥感图像数据集中随机选取一幅图像作为网络的输入,将网络输出的结果与人工标注的目标框共同计算目标函数(损失函数),通过梯度下降算法来对整个网络的参数进行更新。
损失函数的设计目标就是让坐标,置信度,类别这个三个方面达到很好的平衡。如果全部采用sum-squared error loss计算损失会有以下不足:a)localization error和classification error同等重要显然是不合理的;b)如果一个网格中没有object(一幅图中这种网格很多),那么就会将这些网格中的box的confidence置为0,相比于较少的有object的网格,会导致网络不稳定甚至发散。因此,在设计损失函数时更加更重视坐标预测,给这些损失前面赋予更大的损失权重,对没有object的bbox的confidence loss,赋予小的损失权重,有object的bbox的confidence loss和类别的loss的权重正常取1。对不同大小的bbox预测中,相比于大bbox预测偏一点,小box预测偏一点更不能忍受。而sum-square error loss中对同样的偏移loss是一样。为了解决这个问题,将box的width和height取平方根代替原本的height和width。这样small bbox发生偏移时,反应到y轴上的loss比big box要大。一个网格预测多个bounding box,在训练时希望每个object(groundtrue box)只有一个bounding box专门负责(一个object一个bbox)。具体做法是与groundtrue box(object)的IOU最大的bounding box负责该ground true box(object)的预测。这种做法称作bounding box predictor的specialization(专职化)。每个预测器会对特定(sizes aspect ratio or classed of object)的ground true box预测的越来越好。
优选的,损失函数的表达式如下:
Figure BDA0003090314920000141
损失函数分为5项,具体可以包括:
Figure BDA0003090314920000151
为第一项,表示负责预测物体的锚点的坐标损失。其中,如果锚点anchor负责预测物体,那么需要计算坐标的L2损失。
Figure BDA0003090314920000152
为第二项,表示不负责预测物体的锚点的坐标损失。其中,如果某一个锚点不负责预测物体,那么需要在迭代的初期(比如训练次数iteration小于12800)去计算坐标的L2损失。这样做可以让所有锚点的预测都接近锚点自身的坐标,这样当有物体落入这个锚点的时候,使得锚点的预测和目标差别不会太大,相应的损失也会比较小,训练起来更加容易。
Figure BDA0003090314920000153
为第三项,表示不负责预测物体的锚点的置信度confidence的损失。其中,负责预测物体的锚点需要计算置信度损失,置信度就是预测的边框bbox和真实的边框bbox的交并比IOU。
Figure BDA0003090314920000154
为第四项,表示不负责预测物体的锚点的置信度损失。其中,对那些不负责预测的锚点,需要计算每个锚点和所有真值边框的交并比。如果算出来的最大交并比小与门限值(例如0.6),则置信度的值为0,需要计算这个锚点的置信度损失。但是,如果这个值大于0.6,相应的不计算这个锚点置信度的损失。
Figure BDA0003090314920000155
为第五项,表示负责预测物体锚点的类别损失。其中,每个类别的输出概率0-1之间,计算的是L2损失。
其中,x和y分别表示标注目标的三个点在图像中的横坐标和纵坐标,k表示标注目标的点的数目,i表示锚点数目,j表示每个锚点上所取边框的数目,
Figure BDA0003090314920000156
表示预测到的横坐标,
Figure BDA0003090314920000157
表示标注的横坐标,
Figure BDA0003090314920000158
表示预测到的纵坐标,
Figure BDA0003090314920000161
表示标注的纵坐标,
Figure BDA0003090314920000162
表示用来调节第一项损失和第三项损失在总损失中所占比重,
Figure BDA0003090314920000163
表示锚点的中心横坐标,
Figure BDA0003090314920000164
表示锚点的中心纵坐标,
Figure BDA0003090314920000165
表示用来调节第二项损失和第四项损失在总损失中所占比重,
Figure BDA0003090314920000166
表示预测得到的置信度,
Figure BDA0003090314920000167
表示预测到的边框,
Figure BDA0003090314920000168
表示真实边框,
Figure BDA0003090314920000169
表示
Figure BDA00030903149200001610
Figure BDA00030903149200001611
的交并比,
Figure BDA00030903149200001612
表示预测得到的目标类别概率,
Figure BDA00030903149200001613
表示目标类别概率的真值,B表示每个锚点内设置的边框数目,s表示特征图的边长,
Figure BDA00030903149200001614
表示负责预测目标的锚点的概率,
Figure BDA00030903149200001615
表示不负责预测目标的锚点的概率。
步骤5:重复步骤4的操作过程,对神经网络模型进行多次训练后,得到目标精细化检测模型。
在本实施例中,可以重复子步骤41~45,对整个神经网络模型进行迭代训练,直至训练次数达到预先设定的次数阈值或者损失函数对应的损失值小于预先设定的损失阈值,得到目标精细化检测模型。
步骤6:将待识别遥感图像作为目标精细化检测模型的输入,通过所述目标精细化检测模型对待识别遥感图像进行特征提取和识别,输出待识别遥感图像中的目标的位置信息、类别信息和置信度。
在本实施例中,步骤6的具体实现流程可以如下:
子步骤61,将待识别遥感图像作为目标精细化检测模型的输入,通过所述目标精细化检测模型对待识别遥感图像进行特征提取,得到待识别遥感图像中的目标的位置特征图、类别特征图和置信度特征图。
子步骤62,根据得到的待识别遥感图像中的目标的位置特征图、类别特征图和置信度特征图,确定得到待识别遥感图像中的目标检测框。其中,若待识别遥感图像中的目标的置信度特征图上的某一点Qi的值大于设定的置信度阈值,则根据待识别遥感图像中的目标的置信度特征图所对应的待识别遥感图像中的目标的位置特征图、类别特征图,确定待识别遥感图像中的目标的类别和待识别遥感图像中的目标检测框。
子步骤63,按照子步骤62完成待识别遥感图像中的目标的置信度特征图上所有点的预测之后,通过非极大值抑制得到待识别遥感图像中的目标的位置信息、类别信息和置信度。
综上所述,本发明公开了一种具有旋转不变性的舰船目标精细化检测方法,该方法在训练阶段的目标标注过程中采用三角形边框来标注目标位置信息。组成三角形的三个点的为位置分别为目标左上角、右上角及左下角与右下角连线的中点。该方法具有旋转不变性,具有学习目标几何姿态信息的能力,并将目标的朝向隐含在三角形边框中,将显式的目标角度值从算法中去除掉,避免在目标函数中计算不同量纲的损失对算法的影响,同时也提高了工程可实现性,降低了计算复杂度。该方法与现有方法的不同及实质性进步如下:
(1)采用角度对目标的方向进行标注时,角度值很难准确标出,本发明不需要对目标的方向进行标注,只需要标注目标的三个点即可,大大提高了数据制作效率。
(2)采用角度来表达目标方向时,其网络输出除位置、类别、置信度之外,需要单独输出角度特征图,这无疑增加了网络模型的复杂度及设计难度,但是本发明中由于避免引入角度,故避免了单独输出角度特征图的网络,也不增加其它特征图,因此本发明减少了模型复杂度。
(3)在采用角度作为目标方向时,其所采用的损失函数需要体现角度的损失,角度在损失函数中的量纲为弧度,而位置损失的量纲为像素,在设计损失函数时,需要综合考虑不同量纲对损失函数的影响,但是在本发明中无需考虑不同量纲对损失函数的影响,故简化了损失函数的设计。
(4)本发明中所采用三角形标注法,仅对目标区域约三分之一进行了标注,骨干网络只需要提取标注部分的特征即可,而不需要对所有目标特征进行提取,有效减轻了对网络拟合能力的要求。
(5)在计算损失函数时,如果引入角度,那么计算所采用的数据类型为浮点型,在本发明中像素的位置信息采用整型,可以在一定程度上减少计算量。
(6)避免了计算三角函数相关的运算,降低了计算复杂度,适合于硬件实现。
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。
本发明说明书中未作详细描述的内容属于本领域专业技术人员的公知技术。

Claims (10)

1.一种具有旋转不变性的舰船目标精细化检测方法,其特征在于,包括:
步骤1:采用三点式标注法,对样本遥感图像进行标注,得到样本遥感图像中的目标检测框;
步骤2:根据标注得到的目标检测框,计算得到样本遥感图像中的目标的位置信息、类别信息和置信度;
步骤3:构建得到神经网络模型;将样本遥感图像输入至神经网络模型,通过神经网络模型对样本遥感图像进行特征提取和识别,输出目标的位置信息、类别信息和置信度;
步骤4:根据步骤2计算得到的目标的位置信息、类别信息和置信度,以及步骤3由神经网络模型输出的目标的位置信息、类别信息和置信度,通过梯度下降算法对神经网络模型中的参数进行更新;
步骤5:重复步骤4的操作过程,对神经网络模型进行多次训练后,得到目标精细化检测模型;
步骤6:将待识别遥感图像作为目标精细化检测模型的输入,通过所述目标精细化检测模型对待识别遥感图像进行特征提取和识别,输出待识别遥感图像中的目标的位置信息、类别信息和置信度。
2.根据权利要求1所述的具有旋转不变性的舰船目标精细化检测方法,其特征在于,采用三点式标注法,对样本遥感图像进行标注,得到样本遥感图像中的目标检测框,包括:
子步骤11,确定样本遥感图像中的样本目标;
子步骤12,标注样本目标所在区域的三个点:A点、B点和C点;其中,A点为样本目标所在区域的左上角,B点为样本目标所在区域的右上角,C点为样本目标所在区域的左下角与右下角连线的中心点;
子步骤13,根据A点、B点和C点,确定三角形标注区域,得到样本遥感图像中的目标检测框;其中,三角形标注区域覆盖样本目标。
3.根据权利要求1所述的具有旋转不变性的舰船目标精细化检测方法,其特征在于,根据步骤2计算得到的目标的位置信息、类别信息和置信度,以及步骤3由神经网络模型输出的目标的位置信息、类别信息和置信度,通过梯度下降算法对神经网络模型中的参数进行更新,包括:
子步骤41:从样本遥感图像数据集中随机选取一幅样本遥感图像Pi
子步骤42:通过步骤1~2,计算得到样本遥感图像Pi中的目标的位置信息、类别信息和置信度;
子步骤43:将样本遥感图像Pi作为步骤3构建得到的神经网络模型的输入,通过神经网络模型输出得到样本遥感图像Pi中的目标的位置信息、类别信息和置信度;
子步骤44:根据子步骤42计算得到的目标的位置信息、类别信息和置信度,以及子步骤43由神经网络模型输出的目标的位置信息、类别信息和置信度,计算得到损失函数;其中,损失函数包括:坐标位置的损失,置信度的损失和类别的损失;
子步骤45:通过梯度下降算法对神经网络模型中的参数进行更新。
4.根据权利要求3所述的具有旋转不变性的舰船目标精细化检测方法,其特征在于,重复步骤4的操作过程,对神经网络模型进行多次训练后,得到目标精细化检测模型,包括:
重复子步骤41~45,对整个神经网络模型进行迭代训练,直至训练次数达到预先设定的次数阈值或者损失函数对应的损失值小于预先设定的损失阈值,得到目标精细化检测模型。
5.根据权利要求1所述的具有旋转不变性的舰船目标精细化检测方法,其特征在于,将待识别遥感图像作为目标精细化检测模型的输入,通过所述目标精细化检测模型对待识别遥感图像进行特征提取和识别,输出待识别遥感图像中的目标的位置信息、类别信息和置信度,包括:
子步骤61,将待识别遥感图像作为目标精细化检测模型的输入,通过所述目标精细化检测模型对待识别遥感图像进行特征提取,得到待识别遥感图像中的目标的位置特征图、类别特征图和置信度特征图;
子步骤62,根据得到的待识别遥感图像中的目标的位置特征图、类别特征图和置信度特征图,确定得到待识别遥感图像中的目标检测框;其中,若待识别遥感图像中的目标的置信度特征图上的某一点Qi的值大于设定的置信度阈值,则根据待识别遥感图像中的目标的置信度特征图所对应的待识别遥感图像中的目标的位置特征图、类别特征图,确定待识别遥感图像中的目标的类别和待识别遥感图像中的目标检测框;
子步骤63,按照子步骤62完成待识别遥感图像中的目标的置信度特征图上所有点的预测之后,通过非极大值抑制得到待识别遥感图像中的目标的位置信息、类别信息和置信度。
6.根据权利要求1所述的具有旋转不变性的舰船目标精细化检测方法,其特征在于,神经网络模型采用了全卷积网络,舍弃了池化层,采用步长为2的卷积实现了下采样的功能。
7.根据权利要求1或6所述的具有旋转不变性的舰船目标精细化检测方法,其特征在于,神经网络模型,包括:
22层基础网络层:两个卷积模块、两个2分组卷积模块、两个8分组卷积模块、一个1*1*128卷积层和4个残差模块依次级联构成基础网络层;其中,卷积模块由一个2维卷积层,一个批归一化层和一个非线性激活层依次级联组成;残差模块由一个1*1卷积层和一个3*3卷积层级联组成;其中,1*1卷积层的输入与3*3卷积层的输出合并作为残差模块的输出;一个残差模块由两个卷积层组成;2分组卷积模块,用于将输入的特征图经过一个1*1*64、步长为2的卷积层之后,将输出一分为二分别输入至两个残差模块进行卷积运算,两个残差模块的输出合并之后作为2分组卷积模块的输出,一个2分组卷积模块由3层卷积层组成;8分组卷积模块,用于将输入特征图经过一个1*1*128、步长为2之后,将输出一分为八分别输入至8个残差模块进行卷积运算,8个残差模块的输出合并之后作为8分组卷积模块的输出,一个8分组卷积模块由3层卷积层组成;
7层分类网络层:一个卷积集、一个3*3卷积层和一个1*1卷积层依次级联构成分类网络层;其中,卷积集由3个1*1卷积层和2个3*3卷积层交替连接构成。
8.根据权利要求7所述的具有旋转不变性的舰船目标精细化检测方法,其特征在于,神经网络模型在三个尺度上进行目标检测,分别将三个尺度称为尺度1、尺度2和尺度3,每个尺度具有不同的分类网络层,但是共享基础网络层,每一个尺度的网络深度为29层;其中,尺度1的特征图由基础网络层与分类网络层直接级联获得;尺度1中卷积集的输出经过一个1*1的卷积层并上采样之后与基础网络层中第二个8分组卷积的输出合并,合并之后与分类网络层级联获得尺度2的特征图;尺度2中卷积集的输出经过一个1*1的卷积层并上采样之后与基础网络层中第一个8分组卷积的输出合并,合并之后与分类网络级联获得尺度3的特征图;每个尺度上输出的特征图包含位置特征图、类别特征图和置信度特征图。
9.根据权利要求7所述的具有旋转不变性的舰船目标精细化检测方法,其特征在于,对于基础网络层,有:
第一层卷积核尺寸为3*3*32,其中卷积核的宽和高均为3,通道数为32,步长为1;
第二层卷积核尺寸为1*1*64,其中卷积核的宽和高均为1,通道数为64,步长为2;
第三层卷积核尺寸为1*1*32,其中卷积核的宽和高均为1,通道数为32,步长为1;
第四层卷积核尺寸为3*3*64,其中卷积核的宽和高均为3,通道数为64,步长为1;
第五层卷积核尺寸为1*1*128,其中卷积核的宽和高均为1,通道数为128,步长为1;
第六层卷积核尺寸为1*1*64,其中卷积核的宽和高均为1,通道数为64,步长为1;
第七层卷积核尺寸为3*3*128,其中卷积核的宽和高均为3,通道数为128,步长为1;
第八层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1;
第九层卷积核尺寸为1*1*128,其中卷积核的宽和高均为1,通道数为128,步长为1;
第十层卷积核尺寸为3*3*256,其中卷积核的宽和高均为3,通道数为256,步长为1;
第十一层卷积核尺寸为1*1*512,其中卷积核的宽和高均为1,通道数为512,步长为1;
第十二层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1;
第十三层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1;
第十四层卷积核尺寸为1*1*512,其中卷积核的宽和高均为1,通道数为512,步长为2;
第十五层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为2;
第十六层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1;
第十七层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1;
第十八层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1;
第十九层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1;
第二十层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1;
第二十一层卷积核尺寸为1*1*256,其中卷积核的宽和高均为1,通道数为256,步长为1;
第二十二层卷积核尺寸为3*3*512,其中卷积核的宽和高均为3,通道数为512,步长为1。
10.根据权利要求3所述的具有旋转不变性的舰船目标精细化检测方法,其特征在于,损失函数的表达式如下:
Figure FDA0003090314910000061
损失函数分为5项,包括:
Figure FDA0003090314910000062
为第一项,表示负责预测物体的锚点的坐标损失;
Figure FDA0003090314910000063
为第二项,表示不负责预测物体的锚点的坐标损失;
Figure FDA0003090314910000064
为第三项,表示不负责预测物体的锚点的置信度的损失;
Figure FDA0003090314910000071
为第四项,表示不负责预测物体的锚点的置信度损失;
Figure FDA0003090314910000072
为第五项,表示负责预测物体锚点的类别损失;
其中,x和y分别表示标注目标的三个点在图像中的横坐标和纵坐标,k表示标注目标的点的数目,i表示锚点数目,j表示每个锚点上所取边框的数目,
Figure FDA0003090314910000073
表示预测到的横坐标,
Figure FDA0003090314910000074
表示标注的横坐标,
Figure FDA0003090314910000075
表示预测到的纵坐标,
Figure FDA0003090314910000076
表示标注的纵坐标,
Figure FDA0003090314910000077
表示用来调节第一项损失和第三项损失在总损失中所占比重,
Figure FDA0003090314910000078
表示锚点的中心横坐标,
Figure FDA0003090314910000079
表示锚点的中心纵坐标,
Figure FDA00030903149100000710
表示用来调节第二项损失和第四项损失在总损失中所占比重,
Figure FDA00030903149100000711
表示预测得到的置信度,
Figure FDA00030903149100000712
表示预测到的边框,
Figure FDA00030903149100000713
表示真实边框,
Figure FDA00030903149100000714
表示
Figure FDA00030903149100000715
Figure FDA00030903149100000716
的交并比,
Figure FDA00030903149100000717
表示预测得到的目标类别概率,
Figure FDA00030903149100000718
表示目标类别概率的真值,B表示每个锚点内设置的边框数目,s表示特征图的边长,
Figure FDA00030903149100000719
表示负责预测目标的锚点的概率,
Figure FDA00030903149100000720
表示不负责预测目标的锚点的概率。
CN202110593236.0A 2021-05-28 一种具有旋转不变性的舰船目标精细化检测方法 Active CN113516053B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110593236.0A CN113516053B (zh) 2021-05-28 一种具有旋转不变性的舰船目标精细化检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110593236.0A CN113516053B (zh) 2021-05-28 一种具有旋转不变性的舰船目标精细化检测方法

Publications (2)

Publication Number Publication Date
CN113516053A true CN113516053A (zh) 2021-10-19
CN113516053B CN113516053B (zh) 2024-05-14

Family

ID=

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114022779A (zh) * 2021-10-25 2022-02-08 电子科技大学 一种基于比例尺网络的sar船只检测方法
CN114677568A (zh) * 2022-05-30 2022-06-28 山东极视角科技有限公司 一种基于神经网络的线性目标检测方法、模块及系统
CN116012719A (zh) * 2023-03-27 2023-04-25 中国电子科技集团公司第五十四研究所 一种基于多实例学习的弱监督旋转目标检测方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5740274A (en) * 1991-09-12 1998-04-14 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
WO2018121013A1 (en) * 2016-12-29 2018-07-05 Zhejiang Dahua Technology Co., Ltd. Systems and methods for detecting objects in images
CN108319949A (zh) * 2018-01-26 2018-07-24 中国电子科技集团公司第十五研究所 一种高分辨率遥感图像中多朝向舰船目标检测与识别方法
CN108491854A (zh) * 2018-02-05 2018-09-04 西安电子科技大学 基于sf-rcnn的光学遥感图像目标检测方法
CN108491757A (zh) * 2018-02-05 2018-09-04 西安电子科技大学 基于多尺度特征学习的光学遥感图像目标检测方法
CN109271856A (zh) * 2018-08-03 2019-01-25 西安电子科技大学 基于扩张残差卷积的光学遥感图像目标检测方法
CN109919108A (zh) * 2019-03-11 2019-06-21 西安电子科技大学 基于深度哈希辅助网络的遥感图像快速目标检测方法
CN110706211A (zh) * 2019-09-17 2020-01-17 中国矿业大学(北京) 基于卷积神经网络的铁路路基病害雷达图实时检测方法
CN110796037A (zh) * 2019-10-15 2020-02-14 武汉大学 基于轻量级感受野金字塔的星载光学遥感图像舰船目标检测方法
WO2020093042A1 (en) * 2018-11-02 2020-05-07 Deep Lens, Inc. Neural networks for biomedical image analysis
CN111860494A (zh) * 2020-06-16 2020-10-30 北京航空航天大学 图像目标检测的优化方法、装置、电子设备和存储介质
CN112069910A (zh) * 2020-08-11 2020-12-11 上海海事大学 一种遥感图像多方向舰船目标检测方法
CN112489119A (zh) * 2020-12-21 2021-03-12 北京航空航天大学 一种增强可靠性的单目视觉定位方法
WO2021087985A1 (zh) * 2019-11-08 2021-05-14 深圳市欢太科技有限公司 模型训练方法、装置、存储介质及电子设备

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5740274A (en) * 1991-09-12 1998-04-14 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
WO2018121013A1 (en) * 2016-12-29 2018-07-05 Zhejiang Dahua Technology Co., Ltd. Systems and methods for detecting objects in images
CN108319949A (zh) * 2018-01-26 2018-07-24 中国电子科技集团公司第十五研究所 一种高分辨率遥感图像中多朝向舰船目标检测与识别方法
CN108491854A (zh) * 2018-02-05 2018-09-04 西安电子科技大学 基于sf-rcnn的光学遥感图像目标检测方法
CN108491757A (zh) * 2018-02-05 2018-09-04 西安电子科技大学 基于多尺度特征学习的光学遥感图像目标检测方法
CN109271856A (zh) * 2018-08-03 2019-01-25 西安电子科技大学 基于扩张残差卷积的光学遥感图像目标检测方法
WO2020093042A1 (en) * 2018-11-02 2020-05-07 Deep Lens, Inc. Neural networks for biomedical image analysis
CN109919108A (zh) * 2019-03-11 2019-06-21 西安电子科技大学 基于深度哈希辅助网络的遥感图像快速目标检测方法
CN110706211A (zh) * 2019-09-17 2020-01-17 中国矿业大学(北京) 基于卷积神经网络的铁路路基病害雷达图实时检测方法
CN110796037A (zh) * 2019-10-15 2020-02-14 武汉大学 基于轻量级感受野金字塔的星载光学遥感图像舰船目标检测方法
WO2021087985A1 (zh) * 2019-11-08 2021-05-14 深圳市欢太科技有限公司 模型训练方法、装置、存储介质及电子设备
CN111860494A (zh) * 2020-06-16 2020-10-30 北京航空航天大学 图像目标检测的优化方法、装置、电子设备和存储介质
CN112069910A (zh) * 2020-08-11 2020-12-11 上海海事大学 一种遥感图像多方向舰船目标检测方法
CN112489119A (zh) * 2020-12-21 2021-03-12 北京航空航天大学 一种增强可靠性的单目视觉定位方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FENG ZHOU: "Ship Detection Based on Deep Convolutional Neural Networks for Polsar Images", IGARSS 2018 - 2018 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYMPOSIUM *
曹宇剑;徐国明;史国川;: "基于旋转不变Faster R-CNN的低空装甲目标检测", 激光与光电子学进展, no. 10, 27 April 2018 (2018-04-27) *
李丽荣;王从庆;: "神经网络在精确打击目标识别中的应用研究", 现代防御技术, no. 03 *
赵保军;李珍珍;赵博雅;冯帆;邓宸伟;: "基于低复杂度卷积神经网络的星载SAR舰船检测", 北京交通大学学报, no. 06 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114022779A (zh) * 2021-10-25 2022-02-08 电子科技大学 一种基于比例尺网络的sar船只检测方法
CN114022779B (zh) * 2021-10-25 2023-05-26 电子科技大学 一种基于比例尺网络的sar船只检测方法
CN114677568A (zh) * 2022-05-30 2022-06-28 山东极视角科技有限公司 一种基于神经网络的线性目标检测方法、模块及系统
CN116012719A (zh) * 2023-03-27 2023-04-25 中国电子科技集团公司第五十四研究所 一种基于多实例学习的弱监督旋转目标检测方法

Similar Documents

Publication Publication Date Title
CN108549893B (zh) 一种任意形状的场景文本端到端识别方法
CN111091105B (zh) 基于新的边框回归损失函数的遥感图像目标检测方法
CN110084292B (zh) 基于DenseNet和多尺度特征融合的目标检测方法
CN110276269B (zh) 一种基于注意力机制的遥感图像目标检测方法
CN107424159B (zh) 基于超像素边缘和全卷积网络的图像语义分割方法
CN110929607B (zh) 一种城市建筑物施工进度的遥感识别方法和系统
Abdollahi et al. Improving road semantic segmentation using generative adversarial network
CN110599537A (zh) 基于Mask R-CNN的无人机图像建筑物面积计算方法及系统
CN110084093B (zh) 基于深度学习的遥感图像中目标检测与识别的方法及装置
CN112434618B (zh) 基于稀疏前景先验的视频目标检测方法、存储介质及设备
CN110889399B (zh) 基于深度学习的高分辨率遥感影像弱小目标检测方法
Zheng et al. Model-driven reconstruction of 3-D buildings using LiDAR data
CN109343920A (zh) 一种图像处理方法及其装置、设备和存储介质
CN113850129A (zh) 一种旋转等变的空间局部注意力遥感图像目标检测方法
Yue et al. Texture extraction for object-oriented classification of high spatial resolution remotely sensed images using a semivariogram
Xiao et al. Autonomous rock detection on mars through region contrast
Huang et al. Attention-guided label refinement network for semantic segmentation of very high resolution aerial orthoimages
CN116168246A (zh) 一种用于铁路工程的弃渣场识别方法、装置、设备及介质
CN116128883A (zh) 一种光伏板数量统计方法、装置、电子设备及存储介质
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN113255555A (zh) 中国交通标志牌识别方法、系统、处理设备及存储介质
Shuai et al. Regression convolutional network for vanishing point detection
Tusor et al. Shape recognition in drone images using simplified fuzzy indexing tables
CN113516053A (zh) 一种具有旋转不变性的舰船目标精细化检测方法
Varkentin et al. Development of an application for car license plates recognition using neural network technologies

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant