CN107622507A - 一种基于深度学习的空中目标跟踪方法 - Google Patents

一种基于深度学习的空中目标跟踪方法 Download PDF

Info

Publication number
CN107622507A
CN107622507A CN201710676396.5A CN201710676396A CN107622507A CN 107622507 A CN107622507 A CN 107622507A CN 201710676396 A CN201710676396 A CN 201710676396A CN 107622507 A CN107622507 A CN 107622507A
Authority
CN
China
Prior art keywords
target
sample
formula
target location
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710676396.5A
Other languages
English (en)
Other versions
CN107622507B (zh
Inventor
蔺素珍
郑瑶
任之俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North University of China
Original Assignee
North University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North University of China filed Critical North University of China
Priority to CN201710676396.5A priority Critical patent/CN107622507B/zh
Publication of CN107622507A publication Critical patent/CN107622507A/zh
Application granted granted Critical
Publication of CN107622507B publication Critical patent/CN107622507B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及空中目标跟踪方法,具体为基于深度学习的空中目标跟踪方法,本方法按如下步骤进行:MDNet采集第一帧图像的正样本并进行随机取样,将随机取样后的样本作为数据集训练bounding‑box模型;其次,训练利用最小信息准则和最小二乘法确定阶数和参数的AR模型,估计目标运动轨迹并预测目标位置;然后,将该目标位置作为MDNet的采样中心,再利用bounding‑box回归模型调整目标位置,精确完成跟踪。本方法可以自适应提取空中目标特征,并结合AR模型有效利用目标的运动信息,可极大改善MDNet对目标特征的依赖性,在解决伪目标干扰的同时,提高跟踪精度。

Description

一种基于深度学习的空中目标跟踪方法
技术领域
本发明涉及目标跟踪方法,具体为一种基于深度学习的空中目标跟踪方法。
背景技术
空中目标跟踪是航空航天等各类探测系统的关键技术之一,由于观测距离较远,该类目标在地面观测和跟踪过程中,往往因缺少形状和纹理特征而呈现为小目标甚至点目标状态,造成检测和跟踪困难。光流法、相邻帧差法和背景减法是当前采用的主要方法,但往往仅针对特定目标,需要根据先验知识选择合适的跟踪算法,不利于工程化应用。
新近,深度学习在图像分类、目标检测等许多领域均已成功突破了固定状态模型的约束,在目标跟踪领域也有少许探索性的研究,如基于深度学习的双层卷积神经网络、深度卷积神经网络以及多域卷积神经网络,均通过自适应提取目标特征,来区分目标与背景信息,在降低跟踪误差同时提高了算法的鲁棒性,但都较注重不同类物体的特征提取,未述及同类目标如何区分,不利于存在伪目标时的高精度跟踪。总的来说,这些研究证实深度人工神经网络学习得到的参数更多、更全,可以降低对先验知识的依赖,但未解决目标跟踪中目标与伪目标交会时往往存在的跟踪漂移问题。
为此,需要有一种新的方法来解决基于卷积神经网络方法跟踪目标时过分依赖目标特征难以区分目标与伪目标所导致的跟踪漂移问题。
发明内容
本发明为了解决基于卷积神经网络跟踪空中目标时存在的跟踪漂移问题,提出了一种基于深度学习的空中目标跟踪方法。
本发明是采用如下的技术方案实现的:一种基于深度学习的空中目标跟踪方法,包括以下步骤:
1.构建多域卷积神经网络(MDNet)
网络包含五层隐藏层和一层二分类层,五层隐藏层分别是conv1、 conv2、conv3、fc4和fc5,其中,conv1、conv2、conv3为卷积层,对应VGG-M网络的结构自适应提取特征,fc4、fc5为全连接层,将特征图表示转换为一维向量并对其进行特征组合,二分类层为fc6,对目标和背景进行分类。
2.训练多域卷积神经网络中bounding-box回归模型
(1)标定第一帧图像目标位置
标定第一帧图像目标位置为x1、y1为目标位置坐标值,sw、sh为目标矩形框的宽和高;
(2)选择样本
MDNet以为中心采样生成W个回归样本,每个回归样本与目标实际位置重叠率的计算方法如下:
式中,Rt为输出跟踪框区域,Rg为实际目标区域,area表示Rt和 Rg的运算结果面积,N为视频序列帧数;
设置重叠率的阈值为L,大于等于L的样本为正样本,小于L的样本为负样本,然后从正样本中随机选取Q个样本输入网络训练bounding-box回归模型;
(3)微调网络
提取第一帧图像的正负样本经conv3得到特征图表示,将其中重叠率为[L-0.1,L)的负样本的特征图作为难例样本与正样本一同输入 fc4实现网络微调。
3.自回归模型(AR模型)训练与预测
(1)训练AR模型
AR模型表示为:
式中,{zt|t=1,2,…,T}是一个时间序列的目标位置的观测值,z为 x或y,T为时间序列的长度,zt-1,zt-2,…,zt-p为t时刻前1到p时刻的观测值,εt为预测误差,p为模型的阶数,为模型的参数;
p和的确定方法如下:
1)利用最小信息准则函数AIC(p)计算p,p={1,2,…,pmax},其中pmax为模型阶数的上界,当AIC(p)最小时对应的p即为式(2)最终的p值, AIC(p)的确定方法如下:
式中,是用最小二乘法对式(2)拟合的残差方差估计,其计算方法为:
式中,为误差方差;
2)根据最小二乘法:β=(ZTZ)-1ZTY (5)
计算出不同T值对应的参数矩阵β,当残差方差估计为最小值时,对应的β即为最佳参数式中Z为T时刻前的观测值矩阵, Y为T+1时刻预测值的矩阵。
(2)预测目标位置
将第n帧的前p帧目标位置的x、y坐标值分别代入训练好的AR 模型,即为预测到第n帧目标的位置。
4.网络测试
MDNet以预测到的第n帧目标位置为中心采样,采用多维高斯分布采样M个候选样本,并按照以下方式选择置信度最高的样本:
式中,E*为置信度最高的样本,Ei为当前候选样本;
将E*输入至bounding-box回归模型进行调整使E*的区域和目标区域更接近,最终确定目标位置。
上述的基于深度学习的空中目标跟踪方法,目标矩形框宽和高的取值通常在10-20之间,AR模型的阶数取值为4,时间序列的长度为16。
基于MDNet跟踪目标的优势在于:一是自适应提取目标特征,通过训练各种场景的视频序列,提高了网络的泛化能力;二是通过训练海量数据,得到目标通用的特征表达,有效区分了目标和背景,但该方法的缺点是对目标位置不敏感,不利于能区分伪目标,故而存在伪目标时跟踪精度难以保证;AR模型是一种常用的时间序列预测模型,较适用于具有自相关且基于前期大量数据的视频序列跟踪,该模型可充分利用全部历史数据,以保证预测精度和可连续性。因此本发明通过AR模型对MDNet提取到的目标运动信息进行目标运动轨迹估计,进而预测目标位置,可以综合二者的优势,解决跟踪过程中伪目标对目标干扰造成的跟踪漂移问题,极大提高跟踪精确度。
附图说明
图1为本发明的流程图。
图2 MDNet的网络结构图。
图3为本发明的部分目标跟踪图像,图中1为目标,其他均为伪目标。
具体实施方式
基于深度学习的空中目标跟踪方法,包括以下步骤:
1.构建多域卷积神经网络(MDNet)
MDNet输入107×107像素的样本图像,包含的五层隐藏层分别是conv1、conv2、conv3、fc4和fc5,还包含一个fc6,其中,conv1-3 为卷积层,fc4、fc5为全连接层;全连接层采用relu激活函数和dropout 防止过拟合;fc6层为二分类层有K个分支,每个分支输出一个二维向量,均利用softmax函数对目标和背景进行分类。
2.训练多域卷积神经网络中bounding-box回归模型
(1)标定第一帧目标位置
标定第一帧目标位置为x1、y1为目标位置坐标值,sw、sh为目标矩形框的宽和高,取值通常在10-20之间;
(2)选择样本
MDNet以为中心采样生成10000个回归样本,每个回归样本与目标实际位置重叠率的计算方法如下:
式中,Rt为输出跟踪框区域,Rg为实际目标区域,area表示Rt和 Rg的运算结果面积,N为视频序列帧数;
设重叠率的阈值为L=0.60,大于等于0.60的样本为正样本,小于0.60的样本为负样本,然后从正样本中随机选取1000个样本输入网络训练bounding-box回归模型;
(3)微调网络
提取第一帧图像的正负样本经conv3得到特征图表示,将重叠率为[0.50,0.60)的负样本特征图作为难例样本与正样本一同输入fc4实现网络微调。
3.AR模型训练与预测
(1)训练AR模型
AR模型表示为:
式中,{zt|t=1,2,…,T}是一个时间序列的目标位置的观测值,z为 x或y,T为时间序列的长度,zt-1,zt-2,…,zt-p为t时刻前1到p时刻的观测值,εt为预测误差,p为模型的阶数,为模型的参数;
p和的确定方法如下:
1)利用最小信息准则函数AIC(p)计算p,p={1,2,…,pmax},其中pmax为模型阶数的上界,当AIC(p)最小时对应的p即为式(2)最终的p值, AIC(p)的确定方法如下:
式中,是用最小二乘法对式(2)拟合的残差方差估计,其计算方法为:
式中,为误差方差;
2)根据最小二乘法:β=(ZTZ)-1ZTY (5)
计算出不同T值对应的参数矩阵β,当残差方差估计为最小值时,对应的β即为最佳参数式中Z为T时刻前的观测值矩阵, Y为T+1时刻预测值的矩阵。
根据式(3)计算得在p=4时AIC(p)=min,则确定模型为AR(4);根据式(4)、(5)得T=16时最小,确定了模型参数。
(2)预测目标位置
将第n帧(n≥17)的前4帧目标位置的x、y坐标值分别代入训练好的AR模型,预测第n帧目标的位置为(xn′,yn′)。
4.网络测试
MDNet以(xn′,yn′)为中心采样,采用多维高斯分布采样 M(M=256)个候选样本并按照以下方式选择置信度最高的样本:
式中,E*为置信度最高的样本,Ei为当前候选样本;
将E*输入至bounding-box回归模型进行调整使E*的区域更接近实际目标区域,最终确定目标位置。

Claims (2)

1.基于深度学习的空中目标跟踪方法,其特征在于包括以下步骤:
(1)构建多域卷积神经网络
多域卷积神经网络包含五层隐藏层和一层二分类层,五层隐藏层分别是conv1、conv2、conv3、fc4和fc5,其中,conv1、conv2、conv3为卷积层,fc4、fc5为全连接层,二分类层为fc6,对目标和背景进行分类;
(2)训练多域卷积神经网络中bounding-box回归模型
1)标定第一帧图像目标位置
标定第一帧图像目标位置为x1、y1为目标位置坐标值,sw、sh为目标矩形框的宽和高;
2)选择样本
多域卷积神经网络以为中心采样生成W个回归样本,每个回归样本与目标实际位置重叠率的计算方法如下:式中,Rt为输出跟踪框区域,Rg为实际目标区域,area表示Rt和Rg的运算结果面积,N为视频序列帧数;
设重叠率的阈值为L,大于等于L的样本为正样本,小于L的样本为负样本,然后从正样本中随机选取Q个样本输入网络训练bounding-box回归模型;
3)微调网络
提取第一帧图像的正负样本经conv3得到特征图表示,将其中重叠率为[L-0.1,L)的负样本的特征图作为难例样本与正样本一同输入fc4实现网络微调;
(3)自回归模型训练与预测
1)训练自回归模型
自回归模型表示为:式中,{zt|t=1,2,…,T}是一个时间序列的目标位置的观测值,z为x或y,T为时间序列的长度,zt-1,zt-2,…,zt-p为t时刻前1到p时刻的观测值,εt为预测误差,p为模型的阶数,为模型的参数;
其中p和的确定方法如下:
①利用最小信息准则函数AIC(p)计算p,p={1,2,…,pmax},其中pmax为模型阶数的上界,当AIC(p)最小时对应的p即为最终的p值,AIC(p)的确定方法如下:式中,是用最小二乘法对自回归模型拟合的残差方差估计,其计算方法为:式中,为误差方差;
②根据最小二乘法:β=(ZTZ)-1ZTY计算出不同T值对应的参数矩阵β,当残差方差估计为最小值时,对应的β即为最佳参数式中Z为T时刻前的观测值矩阵,Y为T+1时刻预测值的矩阵;
2)预测目标位置
将第n帧的前p帧目标位置的x、y坐标值分别代入训练好的自回归模型,即为预测到第n帧目标的位置;
(4)网络测试
多域卷积神经网络以预测到的第n帧目标位置为中心采样,采用多维高斯分布采样M个候选样本,并按照以下方式选择置信度最高的样本:式中,E*为置信度最高的样本,Ei为当前候选样本;将E*输入至bounding-box回归模型进行调整使E*的区域和目标区域更接近,最终确定目标位置。
2.根据权利要求1所述的基于深度学习的空中目标跟踪方法,其特征在于目标矩形框宽和高的取值通常在10-20之间,AR模型的阶数取值为4,时间序列的长度为16。
CN201710676396.5A 2017-08-09 2017-08-09 一种基于深度学习的空中目标跟踪方法 Active CN107622507B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710676396.5A CN107622507B (zh) 2017-08-09 2017-08-09 一种基于深度学习的空中目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710676396.5A CN107622507B (zh) 2017-08-09 2017-08-09 一种基于深度学习的空中目标跟踪方法

Publications (2)

Publication Number Publication Date
CN107622507A true CN107622507A (zh) 2018-01-23
CN107622507B CN107622507B (zh) 2020-04-07

Family

ID=61088099

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710676396.5A Active CN107622507B (zh) 2017-08-09 2017-08-09 一种基于深度学习的空中目标跟踪方法

Country Status (1)

Country Link
CN (1) CN107622507B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257156A (zh) * 2018-01-24 2018-07-06 清华大学深圳研究生院 一种从视频中自动追踪目标物体的方法
CN108681774A (zh) * 2018-05-11 2018-10-19 电子科技大学 基于生成对抗网络负样本增强的人体目标跟踪方法
CN109448018A (zh) * 2018-09-18 2019-03-08 平安科技(深圳)有限公司 跟踪目标的定位方法、装置、设备及存储介质
CN109829936A (zh) * 2019-01-29 2019-05-31 青岛海信网络科技股份有限公司 一种目标追踪的方法及设备
CN111274917A (zh) * 2020-01-17 2020-06-12 江南大学 一种基于深度检测的长时目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105976400A (zh) * 2016-05-10 2016-09-28 北京旷视科技有限公司 基于神经网络模型的目标跟踪方法及装置
CN106651915A (zh) * 2016-12-23 2017-05-10 大连理工大学 基于卷积神经网络的多尺度表达的目标跟踪方法
CN106709936A (zh) * 2016-12-14 2017-05-24 北京工业大学 一种基于卷积神经网络的单目标跟踪方法
CN106846364A (zh) * 2016-12-30 2017-06-13 明见(厦门)技术有限公司 一种基于卷积神经网络的目标跟踪方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105976400A (zh) * 2016-05-10 2016-09-28 北京旷视科技有限公司 基于神经网络模型的目标跟踪方法及装置
CN106709936A (zh) * 2016-12-14 2017-05-24 北京工业大学 一种基于卷积神经网络的单目标跟踪方法
CN106651915A (zh) * 2016-12-23 2017-05-10 大连理工大学 基于卷积神经网络的多尺度表达的目标跟踪方法
CN106846364A (zh) * 2016-12-30 2017-06-13 明见(厦门)技术有限公司 一种基于卷积神经网络的目标跟踪方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HYEONSEOB NAM 等: "Learning Multi-domain Convolutional Neural Networks for Visual Tracking", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
KALYAN KUMAR HALDER 等: "Target Tracking in Dynamic Background using Generalized Regression Neural Network", 《2015 INTERNATIONAL CONFERENCE ON ADVANCED MECHATRONICS》 *
SHAOQING REN 等: "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
蔡玉柱 等: "基于自适应卷积特征的目标跟踪算法", 《光学学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257156A (zh) * 2018-01-24 2018-07-06 清华大学深圳研究生院 一种从视频中自动追踪目标物体的方法
CN108681774A (zh) * 2018-05-11 2018-10-19 电子科技大学 基于生成对抗网络负样本增强的人体目标跟踪方法
CN108681774B (zh) * 2018-05-11 2021-05-14 电子科技大学 基于生成对抗网络负样本增强的人体目标跟踪方法
CN109448018A (zh) * 2018-09-18 2019-03-08 平安科技(深圳)有限公司 跟踪目标的定位方法、装置、设备及存储介质
CN109448018B (zh) * 2018-09-18 2023-08-01 平安科技(深圳)有限公司 跟踪目标的定位方法、装置、设备及存储介质
CN109829936A (zh) * 2019-01-29 2019-05-31 青岛海信网络科技股份有限公司 一种目标追踪的方法及设备
CN109829936B (zh) * 2019-01-29 2021-12-24 青岛海信网络科技股份有限公司 一种目标追踪的方法及设备
CN111274917A (zh) * 2020-01-17 2020-06-12 江南大学 一种基于深度检测的长时目标跟踪方法

Also Published As

Publication number Publication date
CN107622507B (zh) 2020-04-07

Similar Documents

Publication Publication Date Title
CN110660082B (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN107622507A (zh) 一种基于深度学习的空中目标跟踪方法
CN106408594B (zh) 基于多伯努利特征协方差的视频多目标跟踪方法
CN107609525B (zh) 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法
CN109447008B (zh) 基于注意力机制和可变形卷积神经网络的人群分析方法
CN106127204B (zh) 一种全卷积神经网络的多方向水表读数区域检测算法
CN110135500B (zh) 一种基于自适应深度特征滤波器的多场景下目标跟踪方法
CN107122736B (zh) 一种基于深度学习的人体朝向预测方法及装置
CN111476817A (zh) 一种基于yolov3的多目标行人检测跟踪方法
CN113223059B (zh) 基于超分辨率特征增强的弱小空域目标检测方法
CN105335701B (zh) 一种基于hog与d-s证据理论多信息融合的行人检测方法
CN107563345A (zh) 一种基于时空显著性区域检测的人体行为分析方法
CN108491766B (zh) 一种端到端的基于深度决策森林的人群计数方法
CN110009060B (zh) 一种基于相关滤波与目标检测的鲁棒性长期跟踪方法
CN109993770B (zh) 一种自适应时空学习与状态识别的目标跟踪方法
CN105809718B (zh) 一种轨迹熵最小化的对象跟踪方法
CN111882586A (zh) 一种面向剧场环境的多演员目标跟踪方法
CN111274917A (zh) 一种基于深度检测的长时目标跟踪方法
CN113763424B (zh) 基于嵌入式平台的实时智能目标检测方法及系统
CN110991257A (zh) 基于特征融合与svm的极化sar溢油检测方法
Sun et al. Fusing Kalman filter with TLD algorithm for target tracking
CN116051970A (zh) 一种基于改进的yolov5模型的针对重叠鱼类目标的辨识方法
Liu et al. Self-correction ship tracking and counting with variable time window based on YOLOv3
Yang et al. A method of pedestrians counting based on deep learning
CN106127798B (zh) 基于自适应模型的稠密时空上下文目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant