CN111539422B - 基于Faster RCNN的飞行目标协同识别方法 - Google Patents

基于Faster RCNN的飞行目标协同识别方法 Download PDF

Info

Publication number
CN111539422B
CN111539422B CN202010286279.XA CN202010286279A CN111539422B CN 111539422 B CN111539422 B CN 111539422B CN 202010286279 A CN202010286279 A CN 202010286279A CN 111539422 B CN111539422 B CN 111539422B
Authority
CN
China
Prior art keywords
target
network
roi
bounding box
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010286279.XA
Other languages
English (en)
Other versions
CN111539422A (zh
Inventor
黄成�
魏家豪
刘振光
刘子淇
姚文杰
罗涛
王力立
张永
徐志良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202010286279.XA priority Critical patent/CN111539422B/zh
Publication of CN111539422A publication Critical patent/CN111539422A/zh
Application granted granted Critical
Publication of CN111539422B publication Critical patent/CN111539422B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Faster RCNN的飞行目标协同识别方法,包括以下步骤:构建训练数据集;构建Faster RCNN网络;训练Faster RCNN网络;在多个分布式平台上实施训练后的Faster RCNN网络;进行目标检测并将识别结果进行决策级融合,实现目标协同识别。针对变化环境下的飞行目标红外图像识别场景,本发明的方法采用协同识别的方法能够获取目标多角度、多姿态的图像信息,使对象轮廓、姿态等信息更加丰富立体,能够有效地提高目标的识别准确率,同时优化了Faster RCNN网络的锚框生成方法,提高了目标识别的效率。

Description

基于Faster RCNN的飞行目标协同识别方法
技术领域
本发明属于目标识别领域,特别是一种基于Faster RCNN的飞行目标协同识别方法。
背景技术
目前红外成像技术的迅速发展对红外目标检测技术的要求也相应地不断提高。如何能够快而准地分割、检测、识别、定位出红外目标是将红外成像技术应用于解决实际问题的重中之重。红外图像的目标检测方法可以分为以下几个大方向:利用目标在图像中的先验知识进行区分、对目标进行模板匹配、使用机器学习方法对目标特征进行检测等等。
基于机器学习的红外目标检测方法一般通过人为设定的一些特征结合分类器对候选窗口进行分类判断从而达到检测识别的目的。其中,候选区域的提取、人为特征的设定、分类器的选择是几个比较关键的环节。目前,基于机器学习的红外目标检测方法由于其较强的鲁棒性、实用性,已经成为红外检测的主流方法,被广泛应用。
Faster RCNN是基于机器学习的目标检测方法中的常见的框架之一,它是在RCNN的基础上进行了新的优化的网络框架。RCNN是基于卷积神经网络进行物体检测的经典框架,它遵从传统目标检测的流程框架,先通过感兴趣区域提取选出候选框,然后对提取出的候选框进行特征提取,最后将获取的特征向量使用分类器来进行分类。Faster RCNN可以简单地看做“区域生成网络+Fast RCNN”的系统,用区域生成网络代替Fast RCNN中的Selective Search(选择性搜索)方法,在原有算法的基础上将目标检测的四个基本步骤:候选区域生成、特征提取、分类、位置精修统一到一个深度学习网络框架之内,大大提高了运算速度。然而尽管Faster RCNN模型对一般目标的检测具有良好的适用性,但其未考虑目标属性等先验知识,使得它们在特定场景的应用中仍存在检测精度不理想的问题。此外,传统的飞行目标识别方法获取的目标图像角度、姿态单一,目标的轮廓和纹理信息十分有限。然而,不同种类的飞行目标在红外图像中呈现的性质会随着温度与环境的变化而产生相应的变化,如在晴天或气温较高的环境下与阴天或夜间的环境下相比,飞行目标与背景的灰度值会呈现相反的极性,其呈现特征会有较大差异。同时,飞行目标之间会产生相互遮挡的情况。且红外图像中往往伴随着一些稀疏噪点,这些噪点不具有统计规律,不能靠单一手段将其消除,容易对一般方法下的识别性能造成影响。
发明内容
本发明的目的在于提供一种能减小环境变化对识别结果的干扰,提高目标识别的检测精度和鲁棒性的飞行目标协同识别方法。
实现本发明目的的技术解决方案为:一种基于Faster RCNN的飞行目标协同识别方法,所述方法包括以下步骤:
步骤1,构建训练数据集;
步骤2,构建Faster RCNN网络;
步骤3,训练Faster RCNN网络;
步骤4,在多个分布式平台上实施训练后的Faster RCNN网络;
步骤5,进行目标检测并将识别结果进行决策级融合,实现目标协同识别。
进一步地,步骤1所述构建训练数据集,具体过程包括:
步骤1-1,采集飞行目标的若干红外图像作为样本;
步骤1-2,针对每一幅红外图像,从该图像中提取ROI区域,并获取ROI区域的位置信息;
步骤1-3,由红外图像以及其对应的标注信息构建训练数据集,并将训练数据集划分为测试集、训练集和验证集;所述标注信息包括ROI区域的坐标以及ROI区域中目标的类型。
进一步地,步骤2所述构建Faster RCNN网络,具体包括:
步骤2-1,对训练数据集进行聚类,获取锚框的几何先验知识,包括锚框的宽高比、尺度及数目;所述尺度为面积;
步骤2-2,由步骤2-1确定的锚框替换Faster RCNN网络中固定的9个锚框。
进一步地,所述Faster RCNN网络中的特征提取网络采用ZF网络。
进一步地,步骤2-1中所述对训练数据集进行聚类,获取锚框的几何先验知识,包括锚框的宽高比、尺度及数目,具体包括:
步骤2-1-1,将训练数据集中所有图像的宽和高进行归一化;
步骤2-1-2,将归一化图像中ROI区域边界框的左下角归置到原点,实现对所有ROI区域边界框的聚集;令Bboxi=(wi,hi),i=1,2,…,n,wi、hi分别为ROI区域边界框的宽、高,n为ROI区域边界框的数目;
步骤2-1-3,对ROI区域边界框的宽高比ratio=wi/hi进行K-means聚类,获得K1个聚类结果
Figure BDA0002448627450000038
Ri'表示第i'个宽高比,i'=1,2,…,K1
步骤2-1-4,从n个ROI区域边界框中随机选取K2个ROI区域边界框构建初始质心边界框集合;
步骤2-1-5,根据第j个质心边界框到第i个ROI区域边界框的距离,对n个ROI区域边界框进行聚类,生成K2个簇;之后更新质心边界框集合,包括:求取每个簇中所有ROI区域边界框的宽的中值,以该中值作为该簇中所包含的质心边界框的宽;求取每个簇中所有ROI区域边界框的高的中值,以该中值作为该簇中所包含的质心边界框的高;
重复该过程直至每个簇质心边界框的更新误差小于预设误差;
其中,第j个质心边界框到第i个ROI区域边界框的距离公式为:
Figure BDA0002448627450000031
式中,
Figure BDA0002448627450000032
表示第j个质心边界框到第i个ROI区域边界框的距离,
Figure BDA0002448627450000033
表示第j个质心边界框与第i个ROI区域边界框的交并面积比,表示为:
Figure BDA0002448627450000034
步骤2-1-6,将K2个质心边界框各自的宽高相乘,获得K2个尺度
Figure BDA0002448627450000035
Sj'表示第j'个尺度,j'=1,2,…,K2
步骤2-1-7,将步骤2-1-3中的K1个聚类结果
Figure BDA0002448627450000036
步骤2-1-6中的K2个尺度
Figure BDA0002448627450000037
分别与预设的基础锚框尺寸相乘,获得K1×K2个锚框。
进一步地,步骤3所述训练Faster RCNN网络,具体包括:
步骤3-1,初始化Faster RCNN网络参数及迭代次数阈值N1
步骤3-2,确定损失函数;
步骤3-3,对训练集图像进行预处理,获得所需格式及分辨率的图像;
步骤3-4,将训练集中的图像输入至Faster RCNN网络的特征提取网络,输出图像的一系列特征图,作为RPN与Fast RCNN的共享特征;
步骤3-5,将步骤3-4获得的特征图输入至Faster RCNN网络的RPN网络中,对RPN进行单独训练,计算损失函数值,更新RPN网络参数,同时输出若干候选框;
步骤3-6,将步骤3-5获得的候选框输入至Faster RCNN网络的Fast RCNN网络,对Fast RCNN网络进行单独训练,计算损失函数值,更新Fast RCNN网络参数;
步骤3-7,基于上述对Faster RCNN网络更新的结果,再次单独训练RPN网络,同时固定特征提取网络的参数,仅更新RPN网络的参数;
步骤3-8,利用步骤3-7更新后的RPN网络的输出结果再次对Fast RCNN网络进行单独训练,同样固定特征提取网络的参数,仅更新Fast RCNN网络参数;
步骤3-9,利用验证集验证损失是否收敛,若是,结束训练过程,否则,重新设置迭代次数阈值为N2,返回执行步骤3-4,直至收敛,其中N2<N1
步骤3-10,利用测试集对Faster RCNN网络进行最终评估,所得误差值作为泛化误差的近似值。
进一步地,步骤4中所述多个分布式平台上均搭载红外传感器,用于采集目标的红外图像;多个分布式平台中的某一个平台作为主平台节点,其余平台作为从平台节点,其中主平台节点接收从平台节点信息,并与地面站进行通信。
进一步地,步骤5所述进行目标检测并将识别结果进行决策级融合,实现目标协同识别,具体包括:
步骤5-1,将同一时刻多个分布式平台搭载的红外传感器所获得的图像构成一个图像序列,该图像序列中的图像数量为分布式平台数Np
步骤5-2,对所述图像序列中的图像进行预处理,获得所需格式及分辨率的图像;
步骤5-3,将预处理后的图像序列输入训练后的Faster RCNN网络中,获得检测结果;具体为:
针对某图像序列:
Figure BDA0002448627450000041
将图像依次输入Faster RCNN网络后可得Np个结果:
Figure BDA0002448627450000042
式中,i表示图像序列中的第i幅图像,ri表示第i幅图像经过检测得到的结果,M表示检测目标的类别数量,
Figure BDA0002448627450000051
表示第i幅图像中检测到第l类目标的概率值;
获得所述图像序列P的结果序列R为:
Figure BDA0002448627450000052
步骤5-4,利用D-S证据理论对步骤5-3获得的结果序列进行融合,包括:
(1)在事件全域X中增加一项θ:
θ={C1,C2,…,Cl,…,CM}
式中,Cl为目标属于第l类目标的事件,
Figure BDA0002448627450000053
为Cl的概率P(Cl),θ表示无法得知目标属于C1,C2,…,Cl,…,CM中的哪一类;假设事件θ发生的概率为Ω,即P(θ)=Ω,Ω为一个接近0的值,表示θ发生的概率很低;
由此,事件全域扩展为:
X={C1,C2,…,Cl,…,CM,θ}
(2)计算归一化系数1-k,计算公式为:
Figure BDA0002448627450000054
式中,Pi(S*)表示第i幅图像检测结果ri中事件S*的概率;特别地,当S*=θ时,P*(S*)=Ω;
(3)利用1-k计算最终的分类结果H:
H={h1,h2,…,hl,…,hM}
式中,hl为数据融合后得到的检测目标属于第l类目标的概率,hl的计算公式为:
Figure BDA0002448627450000055
(4)获取分类结果H中最大的元素,该元素代表的概率值所对应的目标类型即为此融合判定得到的目标所属类型。
进一步地,所述获取分类结果H中最大的元素,具体采用TopN算法实现。
本发明与现有技术相比,其显著优点为:1)通过采用空间中分布的站点进行目标识别,能够获取目标多角度、多姿态的图像信息,有效地提高识别准确率和鲁棒性;2)利用Faster RCNN的端到端的特性进行红外图像中的飞行目标识别,同时实现边框回归和目标分类,在保证实时性的同时,提高准确率,降低运算复杂度;3)利用聚类算法获取待检测目标的几何先验知识,优化了模型生成建议区域的能力,提高了模型边框回归精度;4)利用D-S证据理论对多站获取图像信息的检测结果进行数据融合,提高了识别的准确率。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为一个实施例中基于Faster RCNN的飞行目标协同识别方法流程图。
图2为一个实施例中搭建的Faster RCNN网络结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本申请,并不用于限定本申请。
在一个实施例中,提供了一种基于Faster RCNN的飞行目标协同识别方法,该方法包括以下步骤:
步骤1,构建训练数据集;
步骤2,构建Faster RCNN网络;
步骤3,训练Faster RCNN网络;
步骤4,在多个分布式平台上实施训练后的Faster RCNN网络;
步骤5,进行目标检测并将识别结果进行决策级融合,实现目标协同识别。
进一步地,在其中一个实施例中,上述步骤1构建训练数据集,具体过程包括:
步骤1-1,采集飞行目标的若干红外图像作为样本;
这里,可以采集不同时段、不同环境、不同飞行姿态、不同天气等条件下飞行目标的n幅红外图像,之后以这些图像为基础,对图像进行翻转、旋转、亮度变化、裁剪、放大缩小、添加噪声等图像增广处理,扩充图像的数量。
步骤1-2,针对每一幅红外图像,从该图像中提取ROI区域,并获取ROI区域的位置信息;
步骤1-3,由红外图像以及其对应的标注信息构建训练数据集,并将训练数据集划分为测试集、训练集和验证集;所述标注信息包括ROI区域的坐标以及ROI区域中目标的类型。
这里,按p1:p2:p3的比例将训练数据集划分为测试集、训练集和验证集,一般p1大于p2、p3
示例性地,选取p1:p2:p3=6:2:2,训练效果更好。
进一步地,在其中一个实施例中,结合图2,上述步骤2构建Faster RCNN网络,具体包括:
步骤2-1,对训练数据集进行聚类,获取锚框的几何先验知识,包括锚框的宽高比、尺度及数目;所述尺度为面积;
步骤2-2,由步骤2-1确定的锚框替换Faster RCNN网络中固定的9个锚框。
进一步地,在其中一个实施例中,上述Faster RCNN网络中的特征提取网络采用ZF网络。
进一步地,在其中一个实施例中,结合图2,上述步骤2-1中对训练数据集进行聚类,获取锚框的几何先验知识,包括锚框的宽高比、尺度及数目,具体包括:
步骤2-1-1,将训练数据集中所有图像的宽和高进行归一化;
步骤2-1-2,将归一化图像中ROI区域边界框的左下角归置到原点,实现对所有ROI区域边界框的聚集;令Bboxi=(wi,hi),i=1,2,…,n,wi、hi分别为ROI区域边界框的宽、高,n为ROI区域边界框的数目;
步骤2-1-3,对ROI区域边界框的宽高比ratio=wi/hi进行K-means聚类,获得K1个聚类结果
Figure BDA0002448627450000071
Ri'表示第i'个宽高比,i'=1,2,…,K1
步骤2-1-4,从n个ROI区域边界框中随机选取K2个ROI区域边界框构建初始质心边界框集合;
步骤2-1-5,根据第j个质心边界框到第i个ROI区域边界框的距离,对n个ROI区域边界框进行聚类,生成K2个簇;之后更新质心边界框集合,包括:求取每个簇中所有ROI区域边界框的宽的中值,以该中值作为该簇中所包含的质心边界框的宽;求取每个簇中所有ROI区域边界框的高的中值,以该中值作为该簇中所包含的质心边界框的高;
重复该过程直至每个簇质心边界框的更新误差小于预设误差;
其中,第j个质心边界框到第i个ROI区域边界框的距离公式为:
Figure BDA0002448627450000081
式中,
Figure BDA0002448627450000082
表示第j个质心边界框到第i个ROI区域边界框的距离,
Figure BDA0002448627450000083
表示第j个质心边界框与第i个ROI区域边界框的交并面积比,表示为:
Figure BDA0002448627450000084
步骤2-1-6,将K2个质心边界框各自的宽高相乘,获得K2个尺度
Figure BDA0002448627450000085
Sj'表示第j'个尺度,j'=1,2,…,K2
步骤2-1-7,将步骤2-1-3中的K1个聚类结果
Figure BDA0002448627450000086
步骤2-1-6中的K2个尺度
Figure BDA0002448627450000087
分别与预设的基础锚框尺寸相乘,获得K1×K2个锚框。
进一步地,在其中一个实施例中,上述步骤3训练Faster RCNN网络,具体包括:
步骤3-1,初始化Faster RCNN网络参数及迭代次数阈值N1;
步骤3-2,确定损失函数;
步骤3-3,对训练集图像进行预处理,获得所需格式及分辨率的图像;
步骤3-4,将训练集中的图像输入至Faster RCNN网络的特征提取网络,输出图像的一系列特征图,作为RPN与Fast RCNN的共享特征;
步骤3-5,将步骤3-4获得的特征图输入至Faster RCNN网络的RPN网络中,对RPN进行单独训练,计算损失函数值,更新RPN网络参数,同时输出若干候选框;
步骤3-6,将步骤3-5获得的候选框输入至Faster RCNN网络的Fast RCNN网络,对Fast RCNN网络进行单独训练,计算损失函数值,更新Fast RCNN网络参数;
步骤3-7,基于上述对Faster RCNN网络更新的结果,再次单独训练RPN网络,同时固定特征提取网络的参数,仅更新RPN网络的参数;
步骤3-8,利用步骤3-7更新后的RPN网络的输出结果再次对Fast RCNN网络进行单独训练,同样固定特征提取网络的参数,仅更新Fast RCNN网络参数;
步骤3-9,利用验证集验证损失是否收敛,若是,结束训练过程,否则,重新设置迭代次数阈值为N2,返回执行步骤3-4,直至收敛,其中N2<N1;
步骤3-10,利用测试集对Faster RCNN网络进行最终评估,所得误差值作为泛化误差的近似值。
优选地,在其中一个实施例中,上述步骤3-2中选取的损失函数为:
Figure BDA0002448627450000091
式中,i为锚框索引值,pi *表示锚框是否为目标的真实值,pi表示锚框是否为目标的预测值,ti *表示锚框左上角坐标(x1,y1)与右下角坐标(x2,y2)的真实值,ti表示锚框左上角坐标(x1,y1)与右下角坐标(x2,y2)的预测值,Ncls和Nreg是归一化参数,λ是两个损失子函数Lcls和Lreg的平衡权重值。
优选地,在其中一个实施例中,上述步骤3-3中对训练集图像进行预处理具体采用双三次插值算法。
进一步地,在其中一个实施例中,上述步骤4中多个分布式平台上均搭载红外传感器,用于采集目标的红外图像;多个分布式平台中的某一个平台作为主平台节点,其余平台作为从平台节点,其中主平台节点接收从平台节点信息,并与地面站进行通信。
进一步地,在其中一个实施例中,上述步骤5进行目标检测并将识别结果进行决策级融合,实现目标协同识别,具体包括:
步骤5-1,将同一时刻多个分布式平台搭载的红外传感器所获得的图像构成一个图像序列,该图像序列中的图像数量为分布式平台数Np
步骤5-2,对所述图像序列中的图像进行预处理,获得所需格式及分辨率的图像;
步骤5-3,将预处理后的图像序列输入训练后的Faster RCNN网络中,获得检测结果;具体为:
针对某图像序列:
Figure BDA0002448627450000092
将图像依次输入Faster RCNN网络后可得Np个结果:
Figure BDA0002448627450000093
式中,i表示图像序列中的第i幅图像,ri表示第i幅图像经过检测得到的结果,M表示检测目标的类别数量,
Figure BDA0002448627450000094
表示第i幅图像中检测到第l类目标的概率值;
获得所述图像序列P的结果序列R为:
Figure BDA0002448627450000101
步骤5-4,利用D-S证据理论对步骤5-3获得的结果序列进行融合,包括:
(1)在事件全域X中增加一项θ:
θ={C1,C2,…,Cl,…,CM}
式中,Cl为目标属于第l类目标的事件,
Figure BDA0002448627450000102
为Cl的概率P(Cl),θ表示无法得知目标属于C1,C2,…,Cl,…,CM中的哪一类;假设事件θ发生的概率为Ω,即P(θ)=Ω,则Ω为一个接近0的值,表示θ发生的概率很低
由此,事件全域扩展为:
X={C1,C2,…,Cl,…,CM,θ}
示例性的,p(θ)=Ω=0.01时,能得到理想的数据融合结果。
(2)计算归一化系数1-k,计算公式为:
Figure BDA0002448627450000103
式中,Pi(S*)表示第i幅图像检测结果ri中事件S*的概率;特别地,当S*=θ时,P*(S*)=Ω;
(3)利用1-k计算最终的分类结果H:
H={h1,h2,…,hl,…,hM}
式中,hl为数据融合后得到的检测目标属于第l类目标的概率,hl的计算公式为:
Figure BDA0002448627450000104
(4)获取分类结果H中最大的元素,该元素代表的概率值所对应的目标类型即为此融合判定得到的目标所属类型。
进一步优选地,在其中一个实施例中,上述获取分类结果H中最大的元素,具体采用TopN算法实现。
针对变化环境下的飞行目标红外图像识别场景,本发明的方法采用协同识别的方法能够获取目标多角度、多姿态的图像信息,使对象轮廓、姿态等信息更加丰富立体,能够有效地提高目标的识别准确率,同时优化了Faster RCNN网络的锚框生成方法,提高了目标识别的效率。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (7)

1.一种基于Faster RCNN的飞行目标协同识别方法,其特征在于,所述方法包括以下步骤:
步骤1,构建训练数据集;
步骤2,构建Faster RCNN网络;具体包括:
步骤2-1,对训练数据集进行聚类,获取锚框的几何先验知识,包括锚框的宽高比、尺度及数目;所述尺度为面积;具体包括:
步骤2-1-1,将训练数据集中所有图像的宽和高进行归一化;
步骤2-1-2,将归一化图像中ROI区域边界框的左下角归置到原点,实现对所有ROI区域边界框的聚集;令Bboxi=(wi,hi),i=1,2,…,n,wi、hi分别为ROI区域边界框的宽、高,n为ROI区域边界框的数目;
步骤2-1-3,对ROI区域边界框的宽高比ratio=wi/hi进行K-means聚类,获得K1个聚类结果
Figure FDA0003724073260000011
Ri'表示第i'个宽高比,i'=1,2,…,K1
步骤2-1-4,从n个ROI区域边界框中随机选取K2个ROI区域边界框构建初始质心边界框集合;
步骤2-1-5,根据第j个质心边界框到第i个ROI区域边界框的距离,对n个ROI区域边界框进行聚类,生成K2个簇;之后更新质心边界框集合,包括:求取每个簇中所有ROI区域边界框的宽的中值,以该中值作为该簇中所包含的质心边界框的宽;求取每个簇中所有ROI区域边界框的高的中值,以该中值作为该簇中所包含的质心边界框的高;
重复该过程直至每个簇质心边界框的更新误差小于预设误差;
其中,第j个质心边界框到第i个ROI区域边界框的距离公式为:
Figure FDA0003724073260000012
式中,
Figure FDA0003724073260000013
表示第j个质心边界框到第i个ROI区域边界框的距离,
Figure FDA0003724073260000014
表示第j个质心边界框与第i个ROI区域边界框的交并面积比,表示为:
Figure FDA0003724073260000021
步骤2-1-6,将K2个质心边界框各自的宽高相乘,获得K2个尺度
Figure FDA0003724073260000022
Sj'表示第j'个尺度,j'=1,2,…,K2
步骤2-1-7,将步骤2-1-3中的K1个聚类结果
Figure FDA0003724073260000023
步骤2-1-6中的K2个尺度
Figure FDA0003724073260000024
分别与预设的基础锚框尺寸相乘,获得K1×K2个锚框;
步骤2-2,由步骤2-1确定的锚框替换Faster RCNN网络中固定的9个锚框;
步骤3,训练Faster RCNN网络;
步骤4,在多个分布式平台上实施训练后的Faster RCNN网络;
步骤5,进行目标检测并将识别结果进行决策级融合,实现目标协同识别。
2.根据权利要求1所述的基于Faster RCNN的飞行目标协同识别方法,其特征在于,步骤1所述构建训练数据集,具体过程包括:
步骤1-1,采集飞行目标的若干红外图像作为样本;
步骤1-2,针对每一幅红外图像,从该图像中提取ROI区域,并获取ROI区域的位置信息;
步骤1-3,由红外图像以及其对应的标注信息构建训练数据集,并将训练数据集划分为测试集、训练集和验证集;所述标注信息包括ROI区域的坐标以及ROI区域中目标的类型。
3.根据权利要求1所述的基于Faster RCNN的飞行目标协同识别方法,其特征在于,所述Faster RCNN网络中的特征提取网络采用ZF网络。
4.根据权利要求1所述的基于Faster RCNN的飞行目标协同识别方法,其特征在于,步骤3所述训练Faster RCNN网络,具体包括:
步骤3-1,初始化Faster RCNN网络参数及迭代次数阈值N1
步骤3-2,确定损失函数;
步骤3-3,对训练集图像进行预处理,获得所需格式及分辨率的图像;
步骤3-4,将训练集中的图像输入至Faster RCNN网络的特征提取网络,输出图像的一系列特征图,作为RPN与Fast RCNN的共享特征;
步骤3-5,将步骤3-4获得的特征图输入至Faster RCNN网络的RPN网络中,对RPN进行单独训练,计算损失函数值,更新RPN网络参数,同时输出若干候选框;
步骤3-6,将步骤3-5获得的候选框输入至Faster RCNN网络的Fast RCNN网络,对FastRCNN网络进行单独训练,计算损失函数值,更新Fast RCNN网络参数;
步骤3-7,基于上述对Faster RCNN网络更新的结果,再次单独训练RPN网络,同时固定特征提取网络的参数,仅更新RPN网络的参数;
步骤3-8,利用步骤3-7更新后的RPN网络的输出结果再次对Fast RCNN网络进行单独训练,同样固定特征提取网络的参数,仅更新Fast RCNN网络参数;
步骤3-9,利用验证集验证损失是否收敛,若是,结束训练过程,否则,重新设置迭代次数阈值为N2,返回执行步骤3-4,直至收敛,其中N2<N1
步骤3-10,利用测试集对Faster RCNN网络进行最终评估,所得误差值作为泛化误差的近似值。
5.根据权利要求1所述的基于Faster RCNN的飞行目标协同识别方法,其特征在于,步骤4中所述多个分布式平台上均搭载红外传感器,用于采集目标的红外图像;多个分布式平台中的某一个平台作为主平台节点,其余平台作为从平台节点,其中主平台节点接收从平台节点信息,并与地面站进行通信。
6.根据权利要求1所述的基于Faster RCNN的飞行目标协同识别方法,其特征在于,步骤5所述进行目标检测并将识别结果进行决策级融合,实现目标协同识别,具体包括:
步骤5-1,将同一时刻多个分布式平台搭载的红外传感器所获得的图像构成一个图像序列,该图像序列中的图像数量为分布式平台数Np
步骤5-2,对所述图像序列中的图像进行预处理,获得所需格式及分辨率的图像;
步骤5-3,将预处理后的图像序列输入训练后的Faster RCNN网络中,获得检测结果;具体为:
针对某图像序列:
Figure FDA0003724073260000031
将图像依次输入Faster RCNN网络后可得Np个结果:
ri={ri 1,ri 2,…,ri l,…,ri M},0<i<Np,0<l<M,
Figure FDA0003724073260000041
式中,i表示图像序列中的第i幅图像,ri表示第i幅图像经过检测得到的结果,M表示检测目标的类别数量,ri l表示第i幅图像中检测到第l类目标的概率值;
获得所述图像序列P的结果序列R为:
Figure FDA0003724073260000042
步骤5-4,利用D-S证据理论对步骤5-3获得的结果序列进行融合,包括:
(1)在事件全域X中增加一项θ:
θ={C1,C2,…,Cl,…,CM}
式中,Cl为目标属于第l类目标的事件,ri l为Cl的概率P(Cl),θ表示无法得知目标属于C1,C2,…,Cl,…,CM中的哪一类;假设事件θ发生的概率为Ω,即P(θ)=Ω,Ω为一个接近0的值,表示θ发生的概率很低;
由此,事件全域扩展为:
X={C1,C2,…,Cl,…,CM,θ}
(2)计算归一化系数1-k,计算公式为:
Figure FDA0003724073260000043
式中,Pi(S*)表示第i幅图像检测结果ri中事件S*的概率;特别地,当S*=θ时,P*(S*)=Ω;
(3)利用1-k计算最终的分类结果H:
H={h1,h2,…,hl,…,hM}
式中,hl为数据融合后得到的检测目标属于第l类目标的概率,hl的计算公式为:
Figure FDA0003724073260000044
(4)获取分类结果H中最大的元素,该元素代表的概率值所对应的目标类型即为此融合判定得到的目标所属类型。
7.根据权利要求6所述的基于Faster RCNN的飞行目标协同识别方法,其特征在于,所述获取分类结果H中最大的元素,具体采用TopN算法实现。
CN202010286279.XA 2020-04-13 2020-04-13 基于Faster RCNN的飞行目标协同识别方法 Active CN111539422B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010286279.XA CN111539422B (zh) 2020-04-13 2020-04-13 基于Faster RCNN的飞行目标协同识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010286279.XA CN111539422B (zh) 2020-04-13 2020-04-13 基于Faster RCNN的飞行目标协同识别方法

Publications (2)

Publication Number Publication Date
CN111539422A CN111539422A (zh) 2020-08-14
CN111539422B true CN111539422B (zh) 2022-09-06

Family

ID=71978664

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010286279.XA Active CN111539422B (zh) 2020-04-13 2020-04-13 基于Faster RCNN的飞行目标协同识别方法

Country Status (1)

Country Link
CN (1) CN111539422B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101430B (zh) * 2020-08-28 2022-05-03 电子科技大学 用于图像目标检测处理的锚框生成方法及轻量级目标检测方法
CN112101442A (zh) * 2020-09-09 2020-12-18 昆明理工大学 一种基于花蕊检测的花朵计数方法
CN112733747A (zh) * 2021-01-14 2021-04-30 哈尔滨市科佳通用机电股份有限公司 一种缓解阀拉杆脱落故障的识别方法、系统及装置
CN113313078B (zh) * 2021-07-02 2022-07-08 昆明理工大学 一种基于模型优化的轻量化夜间红外图像行人检测方法及系统
CN113591645B (zh) * 2021-07-21 2024-09-13 东北电力大学 一种基于区域卷积神经网络的电力设备红外图像识别方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10198671B1 (en) * 2016-11-10 2019-02-05 Snap Inc. Dense captioning with joint interference and visual context
CN108182413B (zh) * 2017-12-29 2022-01-25 中国矿业大学(北京) 一种矿井移动目标检测与跟踪识别方法
CN110427915B (zh) * 2019-08-14 2022-09-27 北京百度网讯科技有限公司 用于输出信息的方法和装置

Also Published As

Publication number Publication date
CN111539422A (zh) 2020-08-14

Similar Documents

Publication Publication Date Title
CN111539422B (zh) 基于Faster RCNN的飞行目标协同识别方法
CN109614985B (zh) 一种基于密集连接特征金字塔网络的目标检测方法
CN110119728B (zh) 基于多尺度融合语义分割网络的遥感图像云检测方法
CN109977918B (zh) 一种基于无监督域适应的目标检测定位优化方法
CN106897670B (zh) 一种基于计算机视觉的快递暴力分拣识别方法
Secord et al. Tree detection in urban regions using aerial lidar and image data
CN111091105A (zh) 基于新的边框回归损失函数的遥感图像目标检测方法
CN112084869B (zh) 一种基于紧致四边形表示的建筑物目标检测方法
CN111899172A (zh) 一种面向遥感应用场景的车辆目标检测方法
CN112101278A (zh) 基于k近邻特征提取和深度学习的宅基地点云分类方法
CN108257154B (zh) 基于区域信息和cnn的极化sar图像变化检测方法
CN111611874B (zh) 基于ResNet和Canny的人脸口罩佩戴检测方法
CN107292875A (zh) 一种基于全局‑局部特征融合的显著性检测方法
CN112633350A (zh) 一种基于图卷积的多尺度点云分类实现方法
CN109446894B (zh) 基于概率分割及高斯混合聚类的多光谱图像变化检测方法
CN110543906B (zh) 基于Mask R-CNN模型的肤质自动识别方法
Zeng et al. An improved object detection method based on deep convolution neural network for smoke detection
CN113111727B (zh) 一种基于特征对齐的遥感场景下旋转目标检测方法
CN113408594B (zh) 一种基于注意力网络尺度特征融合的遥感场景分类方法
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN113033520A (zh) 一种基于深度学习的树木线虫病害木识别方法及系统
CN108734200B (zh) 基于bing特征的人体目标视觉检测方法和装置
CN110222767A (zh) 基于嵌套神经网络和栅格地图的三维点云分类方法
CN106991411A (zh) 基于深度形状先验的遥感图像目标精细化提取方法
CN110826575A (zh) 一种基于机器学习的水下目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant