CN106228124B - 基于卷积神经网络的sar图像目标检测方法 - Google Patents
基于卷积神经网络的sar图像目标检测方法 Download PDFInfo
- Publication number
- CN106228124B CN106228124B CN201610561587.2A CN201610561587A CN106228124B CN 106228124 B CN106228124 B CN 106228124B CN 201610561587 A CN201610561587 A CN 201610561587A CN 106228124 B CN106228124 B CN 106228124B
- Authority
- CN
- China
- Prior art keywords
- model
- candidate
- convolutional neural
- neural networks
- indicate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的SAR图像目标检测方法,主要解决现有SAR图像目标检测技术中检测速度慢和检测准确率低的问题。其实现步骤为:1、训练卷积神经网络分类模型M0,基于该模型M0设计两个待训练的卷积神经网络模型M1、M2;2、用扩充后的MiniSAR训练集做为待训练的卷积神经网络模型M1、M2的输入,训练得到最优切片提取模型M12和最优检测模型M22;3、使用最优切片提取模型M12和最优检测模型M22对MiniSAR测试集进行检测;4、将最优检测模型M22的输出概率值大于阈值的候选区域保留,得到检测结果。本发明具有检测速度快、检测正确率高的优点,可用于车辆目标检测。
Description
技术领域
本发明属于雷达技术领域,特别涉及一种目标检测方法,可用于车辆目标检测。
背景技术
21世纪开始,卷积神经网络就被大量用于检测、分割、物体识别等多个领域,在2012年的ImageNet竞赛中,卷积神经网络取得了前所未有的成绩,比当时最好的方法降低了一半的错误率,并且使用快速图形处理单元GPU来训练卷积神经网络模型,由于GPU的强大并行计算能力,使得训练卷积神经网络模型需要的时间大大缩短,这次实验的成功给计算机视觉带来一个新的革命。
合成孔径雷达SAR是一种利用微波进行感知的主动传感器,SAR成像不受光照、天气等条件的限制,可以对感兴趣目标进行全天候、全天时的观测,SAR图像自动目标识别受到越来越广泛的关注。
现有的SAR图像目标检测方法中,双参数CFAR检测算法应用最为广泛。双参数CFAR检测算法是一种传统的SAR图像目标检测方法,该方法要求SAR图像上目标与背景杂波具有较高的对比度,并且假设背景杂波的统计分布模型是高斯分布,其执行过程是:通过滑动窗口对SAR图像中的每个像素进行遍历,每次滑动窗口,都需要计算窗口内所有像素的均值和方差来对背景杂波进行参数估计,并以此来确定一个阈值,如果窗口内的像素大于这个阈值就判定是目标像素,否则就判定为杂波像素。由于该算法需要对SAR图像中每个像素点执行同样的操作,所以需要耗费较长的检测时间。同时该方法要根据SAR图像目标的先验信息设置窗口,当一幅图像中存在尺寸相差较大的目标时,窗口尺寸如果设置不够合理对最终的检测结果会带来很大的影响。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于卷积神经网络的SAR图像目标检测方法,以提高检测速度的情况下,保证检测正确率。
本发明通过利用Mstar数据集来扩充MiniSAR训练集,解决现有的SAR图像数据无法满足卷积神经网络模型需要大量训练数据的问题,为实现上述发明目的,其技术方案包括如下:
1.基于卷积神经网络的SAR图像目标检测方法,包括:
(1)设计分类模型和待训练模型:
1a)设计卷积神经网络M0',用Mstar数据集做为卷积神经网络M0'的输入,使用随机梯度下降法训练对其进行训练,得到卷积神经网络分类模型M0;
1b)基于卷积神经网络分类模型M0设计两个待训练的卷积神经网络模型M1、M2;
(2)训练步骤
2a)使用Mstar数据集对MiniSAR训练集做扩充,得到扩充的MiniSAR数据集;
2b)使用分类模型M0对第一个待训练的卷积神经网络模型M1进行参数初始化,并用扩充的MiniSAR训练集做为该卷积神经网络模型M1的输入,使用随机梯度下降法对其进行训练,得到候选区域提取模型M11;
2c)将扩充的MiniSAR训练集输入到候选区域提取模型M11中,候选区域提取模型M11的输出构成待处理粗选候选区域集合P1',对待处理粗选候选区域集合P1'根据非最大抑制NMS去除重复候选区域,剩下的候选区域构成粗选候选区域集合P1;
2d)使用分类模型M0对第二个待训练的卷积神经网络模型M2进行参数初始化,用粗选候选区域集合P1做为该卷积神经网络模型M2的输入,使用随机梯度下降法对其进行训练,得到检测模型M21;
2e)使用检测模型M21对第一个待训练的卷积神经网络M1做参数初始化,并固定卷积神经网络模型M1中前三个卷积层参数不变,用扩充的MiniSAR训练集做为该卷积神经网络模型M1的输入,使用随机梯度下降法对其进行训练,得到最优候选区域提取模型M12;
2f)将扩充的MiniSAR训练集输入到最优候选区域提取模型M12中,最优候选区域提取模型M12的输出构成待处理细选候选区域集合P2',对待处理细选候选区域集合P2'根据非最大抑制NMS去除重复候选区域,剩下的候选区域构成细选候选区域集合P2;
2g)使用检测模型M21对第二个待训练的卷积神经网络模型M2做参数初始化,且固定卷积神经网络模型M2中前三个卷积层参数不变,并用细选候选区域集合P2做为该卷积神经网络模型M2的输入,使用随机梯度下降法对其进行训练,得到最优检测模型M22;
(3)测试步骤
3a)将MiniSAR测试集输入到最优候选区域提取模型M12中,用最优候选区域提取模型M12的输出构成待处理测试候选区域集合P3',对待处理测试候选区域集合P3'根据非最大抑制NMS去除重复候选区域,剩下的候选区域构成测试候选区域集合P3;
3b)将测试候选区域集合P3输入到最优检测模型M22中,最优检测模型M22对测试候选区域集合P3中每个候选区域输出一个类别判定概率值pr;
3c)设定阈值t=0.7,将概率值pr大于0.7的候选区域保留,即为最终检测结果。
本发明与现有技术相比有以下优点:
1.检测速度快
现有的双参数CFAR检测方法在检测时,要对图像中的每个像素点滑窗,并且每次滑窗时需要估计参考窗内背景杂波的均值和标准差,复杂度较大,检测速度慢。本发明方法中有多个最大池化层,可以快速降低输入数据的维度,降低算法复杂度,并且可以使用GPU并行处理,加快了检测速度。
2.检测正确率高
现有双参数CFAR检测方法对图像进行检测时,需要利用图像中目标的先验信息设置参数,如果图像中目标尺寸差异太大,参数设置不合理,会对最终的检测结果带来很严重的影响。而本发明方法中模型可以对候选区域尺寸自动调整,使得候选区域与目标区域更加吻合,避免了双参数CFAR中参数设置不合理带来问题,提高了检测正确率。
以下结合附图和实验对本发明作进一步详细描述。
附图说明
图1是本发明的实现流程图;
图2是本发明实验中使用的卷积神经网络分类模型M0'的结构图;
图3是本发明实验中使用的第一个待训练卷积神经网络模型M1的结构图;
图4是本发明实验中使用的第二个待训练卷积神经网络模型M2的结构图;
图5是本发明实验中使用的MiniSAR训练集;
图6是本发明实验中使用的Mstar扩充目标图像;
图7是本发明实验中使用的MiniSAR测试集图像;
图8是用本发明对MiniSAR测试集的检测结果图;
图9是用双参数CFAR检测方法对MiniSAR测试集的检测结果图。
具体实施方式
参照图1,本发明的SAR图像目标检测方法主要有模型设计、训练和测试三个阶段,具体步骤如下:
一、模型设计阶段
步骤1,设计卷积神经网络模型M0'。
参照图2,卷积神经网络M'0由特征提取和分类判定两部分构成,其中:
特征提取部分,包括三个卷积层,卷积层后跟着非线性层,前两个非线性层后跟着最大池化层;
分类判定部分包括两个全连接层,第一个全连接层后跟着非线性层,第二个全连接层后跟着柔性最大层和分类损失函数层,其表示为:
M0'=[I,C1,R,Pm,C2,R,Pm,C3,R,Fc1,R,Fc2,S,Lcls]
其中,符号“[]”表示卷积神经网络模型M'0由括号内的层按顺序组合构成,I表示数据输入层,C1表示第1个卷积层,其由64个尺寸为11*11的卷积核构成,C2表示第2个卷积层,其由128个尺寸为7*7的卷积核构成,C3表示第3个卷积层,其由256个尺寸为3*3的卷积核构成,Pm表示最大池化层,池化窗大小为3*3,R表示激活函数层,Fc1表示第1个全连接层,核个数为256,Fc2表示第2个全连接层,核个数为3,S表示柔性最大层,Lcls表示分类损失函数层,其定义为gj表示输入数据中第j个输入样本的真实分类标签,prj表示输入数据中的第j个输入样本的类别预测概率值。
步骤2,用Mstar数据集做为卷积神经网络模型M0'的输入,使用随机梯度下降法对卷积神经网络模型M0'进行训练,得到卷积神经网络分类模型M0。
2.1)从Mstar数据集中随机选取部分数据,将其输入到卷积神经网络模型M0',得到分类损失函数输出误差值δ;
2.2)根据误差值δ,使用反向传播算法来调整模型中的参数;
2.3)判断是否达到最大迭代次数,未达最大迭代次数则返回2.2)执行,到达最大迭代次数则停止,即得卷积神经网络分类模型M0。
步骤3,基于卷积神经网络分类模型M0设计第一个待训练卷积神经网络模型M1。
参照图3,卷积神经网络模型M1由特征提取和候选区域生成两部分构成,且特征提取部分与卷积神经网络分类模型M0的特征提取部分完全一致,其中:
特征提取部分,包括三个卷积层,每个卷积层后为非线性层,前两个非线性层后为最大池化层;
候选区域生成部分,由卷积层、非线性层和一个并列的处理层按顺序组合构成,该并列的处理层由两部分组成,其第一部分由卷积层、柔性最大层以及分类损失函数层组成,其第二部分由卷积层和回归代价函数层组成;
将第一个待训练的卷积神经网络模型M1表示为:
其中,符号“[]”表示第一个待训练卷积神经网络模型M1由括号内的层按顺序组合构成,符号“{”表示两部分为并列关系,I表示数据输入层,C1表示第1个卷积层,由64个尺寸为11*11的卷积核构成;C2表示第2个卷积层,由128个尺寸为7*7的卷积核构成;C3表示第3个卷积层,由256个尺寸为3*3的卷积核构成;C4表示第4个卷积层,由256个尺寸为3*3的卷积核构成;C5表示第5个卷积层,由2个尺寸为1*1的卷积核构成;C6表示第6个卷积层,由8个尺寸为1*1的卷积核构成;Pm表示最大池化层,池化窗大小为3*3;R表示激活函数层,S表示柔性最大层,Lcls表示分类损失函数层,其定义为gj表示输入数据中第j个输入样本的真实分类标签,prj表示输入数据中的第j个输入样本的类别预测概率值,Lreg表示边框回归损失函数,其定义为其中,表示第j个目标区域的坐标值,表示第j个目标区域的左上点坐标值,表示第j个目标区域的右下点坐标值,表示第j个候选区域的预测坐标值,表示第j个候选区域的左上点坐标值,表示第j个候选区域的右下点坐标值,符号“|·|”表示对求绝对值。
步骤4,基于卷积神经网络分类模型M0设计第二个待训练卷积神经网络模型M2。
参照图4,卷积神经网络模型M2由特征提取和检测判定两部分构成,其特征提取部分与卷积神经网络分类模型M0中的特征提取部分完全一致,其中:
特征提取部分,包括三个卷积层,每个卷积层后为非线性层,前两个非线性层后跟着最大池化层;
检测判定部分,由全连接层、非线性层和一个并列的处理层按顺序组合构成,其并列的处理层由两部分组成,其第一部分由全连接层、柔性最大层以及分类损失函数层组成,其第二部分由全连接层和回归代价函数层组成;
将第二个待训练的卷积神经网络模型M2表示为:
其中,符号“[]”表示第二个待训练卷积神经网络模型M2由括号内的层按顺序组合构成,符号“{”表示两部分为并列关系,I表示数据输入层,C1表示第1个卷积层,由64个尺寸为11*11的卷积核构成;C2表示第2个卷积层,由128个尺寸为7*7的卷积核构成;C3表示第3个卷积层,由256个尺寸为3*3的卷积核构成;Pm表示最大池化层,池化窗大小为3*3;Fc1表示第1个全连接层,核个数为256;Fc2表示第2个全连接层,核个数为2;Fc3表示第3个全连接层,核个数为8;R表示激活函数层,Lcls表示分类损失函数层,其定义为gj表示输入数据中第j个输入样本的真实分类标签,prj表示输入数据中的第j个输入样本的类别预测概率值,Lreg表示边框回归损失函数,其定义为 表示第j个标注目标的坐标值,表示第j个目标区域的左上点坐标值,表示第j个目标区域的右下点坐标值,表示第j个候选区域的预测坐标值,表示第j个候选区域的左上点坐标值,表示第j个候选区域的右下点坐标值,符号“|·|”表示对求绝对值。
二、训练阶段
步骤5,使用Mstar数据集对MiniSAR训练集做扩充,得到扩充的MiniSAR数据集。
5.1)从Mstar数据集中随机选取一张杂波图像T,计算该图像的均值Z,Z的计算方式为其中,T(x,y)表示杂波图像T中位置(x,y)处的灰度值;
5.2)从Mstar数据集中随机选取一张目标图像J,使用杂波图像的均值Z在目标图像J周围填充像素,将目标图像J填充成宽为200、长为310的填充目标图像J*;
5.3)将填充目标图像J*的宽拉伸为310、长拉伸为500,即得扩充目标图像J';
5.4)将扩充目标图像J'加入到MiniSAR训练集中;
5.5)重复执行5.2)-5.4)共100次,得到扩充的MiniSAR训练集。
步骤6,使用卷积神经网络分类模型M0对第一个待训练的卷积神经网络模型M1进行训练,得到候选区域提取模型M11。
6.1)使用卷积神经网络分类模型M0对第一个待训练的卷积神经网络模型M1进行参数初始化,并定义当前迭代次数k=0;
6.2)从扩充的MiniSAR训练集中随机选取部分数据,做为第一个待训练的卷积神经网络模型M1的输入,并将卷积神经网络模型M1中的分类损失函数和边框回归损失函数的输出相加得到误差值δ;
6.3)根据误差值δ,使用反向传播算法调整第一个待训练的卷积神经网络模型M1中的参数,并将迭代次数k加1;
6.4)判断迭代次数k是否达到最大迭代次数e=40000,若k=e,则停止迭代,得到候选区域提取模型M11;若k<e,则返回6.2)。
步骤7,将扩充的MiniSAR训练集输入到候选区域提取模型M11中,得到粗选候选区域集合P1。
7.1)将扩充的MiniSAR训练集输入到最优候选区域提取模型M11中,并用候选区域提取模型M11的输出构成待处理粗选候选区域集合P1';
7.2)计算待处理粗选候选区域集合P1'中第一个候选区域P1'1与其余所有候选区域的覆盖率其中,P1'1表示待处理粗选候选区域集合P1'中第一个候选区域,P1'n表示待处理粗选候选区域集合P1'中第n个候选区域,size(·)表示区域内的像素个数和。
7.3)去除覆盖率ovl大于0.5的候选区域,将第一个候选区域P1'1放入粗选区域集合P1中;
7.4)从待处理粗选候选区域集合P1'中删除第一个候选区域P1'1,返回步骤7.2),直到候选区域集合P1'为空,得到粗选候选区域集合P1。
步骤8,使用卷积神经网络分类模型M0对第二个待训练的卷积神经网络模型M2进行训练,得到检测模型M21。
8.1)使用卷积神经网络分类模型M0对第二个待训练的卷积神经网络模型M2进行参数初始化,并定义当前迭代次数k=0;
8.2)从扩充的MiniSAR训练集中随机选取部分数据,做为第二个待训练的卷积神经网络模型M2的输入,并将第二个待训练的卷积神经网络模型M2的分类损失函数和边框回归损失函数的输出相加得到误差值δ;
8.3)根据误差值δ,使用反向传播算法来调整第二个待训练的卷积神经网络模型M2中的参数,并将迭代次数k加1;
8.4)判断迭代次数k是否达到最大迭代次数e=40000,若k=e,则停止,得到检测模型M21;若k<e,则返回8.2)。
步骤9,使用检测模型M21对第一个待训练的卷积神经网络M1进行训练,得到最优候选区域提取模型M12。
9.1)使用卷积神经网络分类模型M21对第一个待训练的卷积神经网络模型M1进行参数初始化,并固定前三个卷积层参数不变,并定义当前迭代次数k=0;
9.2)从扩充的MiniSAR数据集中随机选取部分数据,做为第一个待训练的卷积神经网络模型M1的输入,并将第一个待训练的卷积神经网络模型M1的分类损失函数和边框回归损失函数的输出相加得到误差值δ;
9.3)根据误差值δ,使用反向传播算法来调整第一个待训练的卷积神经网络模型M1中的参数,并将迭代次数k加1;
9.4)判断迭代次数k是否达到最大迭代次数e=40000,若k=e,则停止,得到最优候选区域提取模型M12;若k<e,则返回9.2)。
步骤10,将扩充的MiniSAR训练集输入到最优候选区域提取模型M12中,得到细选候选区域集合P2。
10.1)将扩充的MiniSAR训练集输入到最优候选区域提取模型M12中,并用最优候选区域提取模型M12的输出构成待处理细选候选区域集合P2';
10.2)计算待处理细选候选区域集合P2'中第一个候选区域P2'1与其余所有候选区域的覆盖率其中,P2'1表示待处理细选候选区域集合P2'中第一个候选区域,P2'n表示待处理细选候选区域集合P2'中第n个候选区域,size(·)表示区域内的像素个数和。
10.3)去除覆盖率ovl大于0.5的候选区域,将第一个候选区域P2'1放入细选区域集合P2中;
10.4)从待处理细选候选区域集合P2'中删除第一个候选区域P2'1,返回步骤10.2),直到待处理细选候选区域集合P2'为空,得到细选候选区域集合P2。
步骤11,使用检测模型M21对第二个待训练的卷积神经网络模型M2训练,得到最优检测模型M22。
11.1)使用卷积神经网络分类模型M21对第二个待训练的卷积神经网络模型M2进行参数初始化,并固定前三个卷积层参数不变,并定义当前迭代次数k=0;
11.2)从扩充的MiniSAR数据集中随机选取部分数据,做为第二个待训练的卷积神经网络模型M2的输入,并将第二个待训练的卷积神经网络模型M2的分类损失函数和边框回归损失函数的输出相加得到误差值δ;
11.3)根据误差值δ,使用反向传播算法来调整第二个待训练的卷积神经网络模型M2中的参数,并将迭代次数k加1;
11.4)判断迭代次数k是否达到最大迭代次数e=40000,若k=e,则停止,得到最优检测模型M22;若k<e,则返回11.2)。
三、测试阶段
步骤12,将MiniSAR测试集输入到最优候选区域提取模型M12中,得到测试候选区域集合P3。
12.1)将MiniSAR测试集输入到最优候选区域提取模型M12中,并用最优候选区域提取模型M12的输出构成测试候选区域集合P3';
12.2)计算待处理测试候选区域集合P3'中第一个候选区域P3'1与其余所有候选区域的覆盖率其中,P3'1表示待处理测试候选区域集合P3'中第一个候选区域,P3'n表示待处理测试候选区域集合P3'中第n个候选区域,size(·)表示区域内的像素个数和;
12.3)去除覆盖率ovl大于0.2的候选区域,将第一个候选区域P3'1放入测试选区域集合P3中;
12.4)从待处理测试候选区域集合P3'中删除第一个候选区域P3'1,返回步骤12.2),直到待处理测试候选区域集合P3'为空,即可得到测试候选区域集合P3。
步骤13,将测试候选区域集合P3输入到最优检测模型M22中,得到检测结果。
13.1)将测试候选区域集合P3输入到最优检测模型M22中,最优检测模型M22对测试候选区域集合P3中每个候选区域输出一个类别判定概率值pr;
13.2)将概率值pr大于阈值t=0.7的候选区域保留,即可得到检测结果。
本发明方法的效果可通过以下实验来进一步说明:
1.实验条件
1.1)实验运行平台:
Caffe、Python2.7、Ubuntu15.04、Inter Xeon2610V3、TitanX;
1.2)实验数据及参数设置
实验所用数据是MiniSAR数据集和Mstar数据集,其中:
MiniSAR训练集如图5所示,其中,图5(a)为MiniSAR训练集中的第一个训练图像,图5(b)为MiniSAR训练集中的第二个训练图像;
Mstar数据集如图6所示,其中,图6(a)为Mstar训练集中的第一个训练图像,图6(b)为Mstar数据集中的第二个训练图像;
图5和图6中的矩形框标记的是图像中的目标区域,目标区域均为车辆,将图5和图6拼接在一起构成扩充的MiniSAR训练集;
MiniSAR测试集如图7所示,其中,图7(a)为MiniSAR测试集中的第一个测试图像,图7(b)为MiniSAR测试集中的第二个测试图像。
最大迭代次数e=40000、阈值t=0.7。
2.实验内容:
实验1,用本发明方法对扩充的MiniSAR训练集进行训练,得到最优候选区域提取模型M12和最优检测模型M22,然后对图7中的MiniSAR测试图像进行检测,检测结果如图8,其中,图8(a)为用本发明方法对图7(a)的检测结果,图8(b)为用本发明方法对图7(b)的检测结果。
实验2,用双参数CFAR检测方法对图7中的MiniSAR测试图像进行检测,双参数CFAR检测方法具体操作参照2013年西安电子科技大学李礼的硕士毕业论文《SAR目标检测与鉴别算法研究及软件设计》中的第二章“SAR目标检测方法研究”,检测结果如图9,其中,图9(a)为用双参数CFAR检测方法对图7(a)的检测结果,图9(b)为用双参数CFAR检测方法对图7(b)的检测结果。
对实验1与实验2的检测结果进行统计,结果如表1:
表1.实验1与实验2检测结果
2.实验结果分析
对表1中两种方法的实验结果进行对比,本发明方法的漏检个数为0,虚警个数为1;双参数CFAR的漏检个数为2,虚警个数为6,可以看出本发明方法有更少的漏检和更少的虚警,表明本发明提高了检测性能。
对表1中的检测用时进行对比,本发明方法检测用时仅为双参数CFAR检测用时的1/4,表明本发明方法在检测速度方面优于双参数CFAR。
综上,本发明方法相比于传统双参数CFAR具有检测准确率高、检测速度快的优点,是一种快速有效的检测方法,具有良好的实用价值和应用前景。
Claims (3)
1.基于卷积神经网络的SAR图像目标检测方法,包括:
(1)设计分类模型和待训练模型:
1a)设计卷积神经网络M0',用Mstar数据集做为卷积神经网络M0'的输入,使用随机梯度下降法训练对其进行训练,得到卷积神经网络分类模型M0:
M0'=[I,C1,R,Pm,C2,R,Pm,C3,R,Fc1,R,Fc2,S,Lcls]
其中,符号“[]”表示模型M0由括号内的层按顺序组合构成,I表示数据输入层,C1表示第1个卷积层,C2表示第2个卷积层,C3表示第3个卷积层,Pm表示最大池化层,R表示激活函数层,Fc1表示第1个全连接层,Fc2表示第2个全连接层,S表示柔性最大层,Lcls表示分类损失函数层,其定义为gj表示输入数据中第j个输入样本的真实分类标签,prj表示输入数据中的第j个输入样本的类别预测概率值;
1b)基于卷积神经网络分类模型M0设计两个待训练的卷积神经网络模型M1、M2:
其中,符号“[]”表示模型M1、M2由括号内的层按顺序组合构成,符号“{”表示两部分为并列关系,由括号内的层按顺序组合构成,Lreg表示边框回归损失函数,其定义为 表示第j个标注目标的坐标值,表示第j个目标区域的左上点坐标值,表示第j个目标区域的右下点坐标值,表示模型第j个候选区域的预测坐标值,表示第j个候选区域的左上点坐标值,表示第j个候选区域的右下点坐标值,符号“|·|”表示对求绝对值;
(2)训练步骤
2a)使用Mstar数据集对MiniSAR训练集做扩充,得到扩充的MiniSAR数据集:
2a1)从Mstar数据集中随机选取一张杂波图像T,计算得到该杂波图像的均值Z;
2a2)从Mstar数据集中随机抽取一张目标图像J,使用杂波图像的均值Z在目标图像周围填充像素,将目标图像填充成宽为200、长为310的填充目标图像J*;
2a3)对填充目标图像J*做尺寸变换,使其宽变为310、长变为500,即得所需的扩充目标图像J';
2a4)将扩充目标图像J'加入到MiniSAR训练集中;
2a5)重复执行步骤2a2)-2a4)共100次,得到扩充的MiniSAR训练集;
2b)使用分类模型M0对第一个待训练的卷积神经网络模型M1进行参数初始化,并用扩充的MiniSAR训练集做为该卷积神经网络模型M1的输入,使用随机梯度下降法对其进行训练,得到候选区域提取模型M11;
2c)将扩充的MiniSAR训练集输入到候选区域提取模型M11中,候选区域提取模型M11的输出构成待处理粗选候选区域集合P1',对待处理粗选候选区域集合P1'根据非最大抑制NMS去除重复候选区域,剩下的候选区域构成粗选候选区域集合P1;
2d)使用分类模型M0对第二个待训练的卷积神经网络模型M2进行参数初始化,用粗选候选区域集合P1做为该卷积神经网络模型M2的输入,使用随机梯度下降法对其进行训练,得到检测模型M21;
2e)使用检测模型M21对第一个待训练的卷积神经网络M1做参数初始化,并固定卷积神经网络模型M1中前三个卷积层参数不变,用扩充的MiniSAR训练集做为该卷积神经网络模型M1的输入,使用随机梯度下降法对其进行训练,得到最优候选区域提取模型M12;
2f)将扩充的MiniSAR训练集输入到最优候选区域提取模型M12中,最优候选区域提取模型M12的输出构成待处理细选候选区域集合P2',对待处理细选候选区域集合P2'根据非最大抑制NMS去除重复候选区域,剩下的候选区域构成细选候选区域集合P2;
2g)使用检测模型M21对第二个待训练的卷积神经网络模型M2做参数初始化,且固定卷积神经网络模型M2中前三个卷积层参数不变,并用细选候选区域集合P2做为该卷积神经网络模型M2的输入,使用随机梯度下降法对其进行训练,得到最优检测模型M22;
(3)测试步骤
3a)将MiniSAR测试集输入到最优候选区域提取模型M12中,用最优候选区域提取模型M12的输出构成待处理测试候选区域集合P3',对待处理测试候选区域集合P3'根据非最大抑制NMS去除重复候选区域,剩下的候选区域构成测试候选区域集合P3;
3b)将测试候选区域集合P3输入到最优检测模型M22中,最优检测模型M22对测试候选区域集合P3中每个候选区域输出一个类别判定概率值pr;
3c)设定阈值t=0.7,将概率值pr大于0.7的候选区域保留,即为最终检测结果。
2.根据权利要求1所述的基于卷积神经网络的SAR图像目标检测方法,其中步骤2c)中对待处理粗选候选区域集合P1'执行最大化抑制NMS,按照如下步骤执行:
2c1)计算待处理粗选候选区域集合P1'中第一个候选区域P1'1与其余所有候选区域的覆盖率,去除覆盖率大于0.5的候选区域,将第一个候选区域P1'1放入粗选区域集合P1中;
2c2)从待处理粗选候选区域集合P1'中删除第一个候选区域P1'1,返回步骤2c1),直到候选区域集合P1'为空,即可得到粗选候选区域集合P1。
3.根据权利要求2所述的方法,其中步骤2c1)计算待处理粗选候选区域集合P1'中第一个候选区域P1'1与其余所有候选区域的覆盖率ovl,按照如下公式计算:
其中,P1'1表示待处理粗选候选区域集合P1'中第一个候选区域,P1'n表示待处理粗选候选区域集合P1'中第n个候选区域,size(·)表示区域内的像素个数和。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610561587.2A CN106228124B (zh) | 2016-07-17 | 2016-07-17 | 基于卷积神经网络的sar图像目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610561587.2A CN106228124B (zh) | 2016-07-17 | 2016-07-17 | 基于卷积神经网络的sar图像目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106228124A CN106228124A (zh) | 2016-12-14 |
CN106228124B true CN106228124B (zh) | 2019-03-08 |
Family
ID=57520313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610561587.2A Active CN106228124B (zh) | 2016-07-17 | 2016-07-17 | 基于卷积神经网络的sar图像目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106228124B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679495A (zh) * | 2017-10-09 | 2018-02-09 | 济南大学 | 一种输电线路周边活动工程车辆的检测方法 |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106611162B (zh) * | 2016-12-20 | 2019-06-18 | 西安电子科技大学 | 基于深度学习ssd框架的道路车辆实时检测方法 |
CN106686472B (zh) * | 2016-12-29 | 2019-04-26 | 华中科技大学 | 一种基于深度学习的高帧率视频生成方法及系统 |
CN108446694B (zh) * | 2017-02-16 | 2020-11-27 | 杭州海康威视数字技术股份有限公司 | 一种目标检测方法及装置 |
CN107229918B (zh) * | 2017-05-26 | 2020-11-03 | 西安电子科技大学 | 一种基于全卷积神经网络的sar图像目标检测方法 |
CN107341488B (zh) * | 2017-06-16 | 2020-02-18 | 电子科技大学 | 一种sar图像目标检测识别一体化方法 |
CN108052940A (zh) * | 2017-12-17 | 2018-05-18 | 南京理工大学 | 基于深度学习的sar遥感图像水面目标检测方法 |
CN108256646A (zh) * | 2018-01-22 | 2018-07-06 | 百度在线网络技术(北京)有限公司 | 模型生成方法和装置 |
CN108764006B (zh) * | 2018-02-05 | 2021-11-02 | 北京航空航天大学 | 一种基于深度强化学习的sar图像目标检测方法 |
CN108710942A (zh) * | 2018-04-27 | 2018-10-26 | 温州大学激光与光电智能制造研究院 | 一种基于卷积网络的火灾场景中内容的检测装置 |
CN108664906B (zh) * | 2018-04-27 | 2023-02-10 | 温州大学激光与光电智能制造研究院 | 一种基于卷积网络的火灾场景中内容的检测方法 |
CN108647742B (zh) * | 2018-05-19 | 2021-07-13 | 南京理工大学 | 基于轻量级神经网络的快速目标检测方法 |
CN108710881B (zh) * | 2018-05-23 | 2020-12-29 | 中国民用航空总局第二研究所 | 神经网络模型、候选目标区域生成方法、模型训练方法 |
CN108764144B (zh) * | 2018-05-29 | 2021-09-07 | 电子科技大学 | 一种基于gpu的合成孔径雷达目标检测方法 |
CN109118428B (zh) * | 2018-06-07 | 2023-05-19 | 西安电子科技大学 | 一种基于特征增强的图像超分辨率重建方法 |
CN108875819B (zh) * | 2018-06-08 | 2020-10-27 | 浙江大学 | 一种基于长短期记忆网络的物体和部件联合检测方法 |
TWI689875B (zh) * | 2018-06-29 | 2020-04-01 | 由田新技股份有限公司 | 利用深度學習系統的自動光學檢測分類設備及其訓練設備 |
CN109508217B (zh) * | 2018-10-22 | 2022-03-08 | 郑州云海信息技术有限公司 | 一种数据处理方法、装置、设备及介质 |
CN109584211A (zh) * | 2018-10-31 | 2019-04-05 | 南开大学 | 一种动物卵母细胞极体的视觉自动检测方法 |
CN109740549B (zh) * | 2019-01-08 | 2022-12-27 | 西安电子科技大学 | 基于半监督cnn的sar图像目标检测系统和方法 |
CN109709536A (zh) * | 2019-01-24 | 2019-05-03 | 电子科技大学 | 一种基于卷积神经网络的sar动目标检测方法 |
CN110135267B (zh) * | 2019-04-17 | 2020-09-25 | 电子科技大学 | 一种大场景sar图像细微目标检测方法 |
CN110163275B (zh) * | 2019-05-16 | 2021-10-29 | 西安电子科技大学 | 基于深度卷积神经网络的sar图像目标分类方法 |
CN110287786B (zh) * | 2019-05-20 | 2020-01-31 | 特斯联(北京)科技有限公司 | 基于人工智能防干扰的车辆信息识别方法及装置 |
CN110738257B (zh) * | 2019-10-15 | 2023-03-10 | 西安电子科技大学 | 基于特征提取的光学遥感图像水域分类方法 |
CN111680781B (zh) * | 2020-04-20 | 2023-07-25 | 北京迈格威科技有限公司 | 神经网络处理方法、装置、电子设备及存储介质 |
CN112087443B (zh) * | 2020-09-04 | 2021-06-04 | 浙江大学 | 工业传感网络信息物理攻击下的传感数据异常检测方法 |
CN111986199B (zh) * | 2020-09-11 | 2024-04-16 | 征图新视(江苏)科技股份有限公司 | 一种基于无监督深度学习的木地板表面瑕疵检测方法 |
CN112182268B (zh) * | 2020-09-27 | 2024-04-05 | 北京达佳互联信息技术有限公司 | 一种图像分类方法、装置、电子设备及存储介质 |
CN112766108B (zh) * | 2021-01-08 | 2023-07-18 | 西安电子科技大学 | 基于上下文信息的sar图像目标检测方法 |
CN113408366B (zh) * | 2021-05-27 | 2024-02-20 | 中山大学 | 一种低频超宽带合成孔径雷达图像叶簇覆盖目标检测方法 |
CN113450320B (zh) * | 2021-06-17 | 2022-11-29 | 浙江德尚韵兴医疗科技有限公司 | 一种基于较深网络结构的超声结节分级与良恶性预测方法 |
CN113534120B (zh) * | 2021-07-14 | 2023-06-30 | 浙江大学 | 一种基于深度神经网络的多目标恒虚警率检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104732243A (zh) * | 2015-04-09 | 2015-06-24 | 西安电子科技大学 | 基于cnn的sar目标识别方法 |
CN105184309A (zh) * | 2015-08-12 | 2015-12-23 | 西安电子科技大学 | 基于cnn和svm的极化sar图像分类 |
CN105447145A (zh) * | 2015-11-25 | 2016-03-30 | 天津大学 | 一种基于项目的迁移学习推荐方法及其推荐装置 |
CN105701513A (zh) * | 2016-01-14 | 2016-06-22 | 深圳市未来媒体技术研究院 | 快速提取掌纹感兴趣区域的方法 |
CN106203506A (zh) * | 2016-07-11 | 2016-12-07 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
-
2016
- 2016-07-17 CN CN201610561587.2A patent/CN106228124B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104732243A (zh) * | 2015-04-09 | 2015-06-24 | 西安电子科技大学 | 基于cnn的sar目标识别方法 |
CN105184309A (zh) * | 2015-08-12 | 2015-12-23 | 西安电子科技大学 | 基于cnn和svm的极化sar图像分类 |
CN105447145A (zh) * | 2015-11-25 | 2016-03-30 | 天津大学 | 一种基于项目的迁移学习推荐方法及其推荐装置 |
CN105701513A (zh) * | 2016-01-14 | 2016-06-22 | 深圳市未来媒体技术研究院 | 快速提取掌纹感兴趣区域的方法 |
CN106203506A (zh) * | 2016-07-11 | 2016-12-07 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
Non-Patent Citations (1)
Title |
---|
Faster R-CNN: Towards Real-Time Object Detection;Shaoqing Ren等;《Advances in Neural Information Processing Systems》;20151231;第91-99页 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679495A (zh) * | 2017-10-09 | 2018-02-09 | 济南大学 | 一种输电线路周边活动工程车辆的检测方法 |
CN107679495B (zh) * | 2017-10-09 | 2020-08-07 | 济南大学 | 一种输电线路周边活动工程车辆的检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106228124A (zh) | 2016-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106228124B (zh) | 基于卷积神经网络的sar图像目标检测方法 | |
CN106886023B (zh) | 一种基于动态卷积神经网络的雷达回波外推方法 | |
Shen et al. | Detection of stored-grain insects using deep learning | |
CN110298298A (zh) | 目标检测及目标检测网络的训练方法、装置及设备 | |
CN106156744B (zh) | 基于cfar检测与深度学习的sar目标检测方法 | |
CN109613006A (zh) | 一种基于端到端神经网络的织物疵点检测方法 | |
CN109284704A (zh) | 基于cnn的复杂背景sar车辆目标检测方法 | |
CN109271856A (zh) | 基于扩张残差卷积的光学遥感图像目标检测方法 | |
CN107680119A (zh) | 一种基于时空上下文融合多特征及尺度滤波的跟踪算法 | |
CN111179307A (zh) | 一种全卷积分类及回归孪生网络结构的视觉目标跟踪方法 | |
CN112395987B (zh) | 基于无监督域适应cnn的sar图像目标检测方法 | |
CN107665336A (zh) | 智能冰箱中基于Faster‑RCNN的多目标检测方法 | |
CN105825502B (zh) | 一种基于显著性指导的词典学习的弱监督图像解析方法 | |
CN104680538B (zh) | 基于超像素的sar图像cfar目标检测方法 | |
CN108062531A (zh) | 一种基于级联回归卷积神经网络的视频目标检测方法 | |
CN110009010A (zh) | 基于兴趣区域重检测的宽幅光学遥感目标检测方法 | |
CN101975940A (zh) | 基于分割组合的sar图像自适应恒虚警率目标检测方法 | |
CN105738888B (zh) | 基于海杂波抑制的双特征海面漂浮小目标检测方法 | |
CN110647802A (zh) | 基于深度学习的遥感影像舰船目标检测方法 | |
CN104408482A (zh) | 一种高分辨率sar图像目标检测方法 | |
CN104463870A (zh) | 一种图像显著区域检测方法 | |
CN105354824B (zh) | 基于区域提取的双参数恒虚警检测方法 | |
CN109583455A (zh) | 一种融合递进图排序的图像显著性检测方法 | |
CN105005983A (zh) | 一种sar图像背景杂波建模及目标检测方法 | |
CN102779346A (zh) | 基于改进c-v模型的sar图像变化检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |