CN109063549B - 基于深度神经网络的高分辨率航拍视频运动目标检测方法 - Google Patents
基于深度神经网络的高分辨率航拍视频运动目标检测方法 Download PDFInfo
- Publication number
- CN109063549B CN109063549B CN201810629556.5A CN201810629556A CN109063549B CN 109063549 B CN109063549 B CN 109063549B CN 201810629556 A CN201810629556 A CN 201810629556A CN 109063549 B CN109063549 B CN 109063549B
- Authority
- CN
- China
- Prior art keywords
- image frame
- network
- optical flow
- feature
- acquiring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 53
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 26
- 230000003287 optical effect Effects 0.000 claims abstract description 84
- 238000000034 method Methods 0.000 claims abstract description 44
- 238000010586 diagram Methods 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 6
- 230000005764 inhibitory process Effects 0.000 claims description 4
- 230000013016 learning Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000031836 visual learning Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2136—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理技术领域,提出一种基于深度神经网络的高分辨率航拍视频运动目标检测方法,旨在解决在航拍视频中的运动目标的检测中准确率低和环境适应能力差的技术问题。为此目的,本发明的基于深度神经网络的高分辨率航拍视频目标检测方法包括:基于预设的稀疏特征点跟踪网络并根据待检测航拍视频中当前时刻图像帧与前一时刻图像帧,获取光流特征图;基于预设的可动目标概率估值网络并根据上述当前时刻图像帧,获取可动目标的表观特征图;基于预设的运动目标检测网络并根据上述光流特征和表观特征图,获取上述高分辨率航拍视频中运动目标的大小和位置。基于上述步骤本发明可以快速、准确的从高分辨率的航拍视频中对运动目标进行检测。
Description
技术领域
本发明涉及计算机视觉技术领域,特别涉及基于深度神经网络的视觉学习领域,具体涉及基于深度神经网络的高分辨率航拍视频运动目标检测方法。
背景技术
随着计算机图形视觉技的发展以及目标追踪技术的发展,将航拍的运动目标及时准确的检测出,变得越来越重要。
目前,对航拍视频运动目标检测方法大多是针对的低分辨率(分辨率多为640×480)场景设计的,采用基于浅层特征的视频分析技术(融合很多图像帧的运动信息)实现航拍视频中的运动目标检测。其中,这些方法大致可分为三类:基于光流的方法、基于帧间差分的方法和基于背景建模的方法。
为实现对大范围区域的精细监测,目前,无人机大多配备高分辨率相机(分辨率通常为4k×2k或1080p),上述基于视频分析的方法计算复杂度太高,且由于基于浅层特征分析,上述方法的准确率和环境适应能力差。基于光流的方法根据所使用光流的稠密程度可以分为基于稠密光流的方法和基于稀疏光流的方法,基于稠密光流的方法稠密光流的计算十分耗时,且在运动目标边缘区域往往得不到准确的光流,基于稀疏光流的方法由于光流的计算基于浅层特征,得到的光流往往具有估算不准确的部分,且判定是否属于运动目标的规则过于简单造成检测准确率低的问题。基于帧间差分的方法无法解决鬼影和空洞问题,需要融合很多图像帧的运动信息才能实现较准确的航拍视频运动目标检测,应用于高分辨率航拍视频时计算复杂度太高。基于背景建模的方法需要利用很多图像帧建立背景模型,因此对存储空间和计算能力要求很高,同样不适合应用于高分辨率航拍视频运动目标机载实时检测场景。
发明内容
为了解决现有技术中的上述问题,即为了解决在高分辨率航拍视频运动目标检测中,因浅层特征分析,造成的高分辨率航拍视频中运动目标检测的准确率低和环境适应能力差的技术问题。为此目的,本发明提供了一种基于深度神经网络的高分辨率航拍视频运动目标的检测方法,以解决上述技术问题。
第一方面,本发明提供的基于深度神经网络的高分辨率航拍视频运动目标检测方法包括如下步骤:基于预设的稀疏特征点跟踪网络并根据待检测航拍视频中当前时刻图像帧与前一时刻图像帧,获取光流特征图;基于预设的可动目标概率估值网络并根据上述当前时刻图像帧,获取可动目标的表观特征图;基于预设的运动目标检测网络并根据上述光流特征和表观特征图,获取上述高分辨率航拍视频中运动目标的大小和位置;其中,上述稀疏特征点跟踪网络、可动目标概率估值网络和运动目标检测网络均是基于深度神经网络构建的网络模型。
进一步地,本发明提供的一个优选技术方案中,“基于预设的稀疏特征点跟踪网络并根据待检测航拍视频中当前时刻的图像帧与前一时刻的图像帧,获取光流特征图”的步骤包括:
根据上述稀疏特征点跟踪网络分别获取上述当前时刻图像帧与前一时刻图像帧对应的多尺度金字塔特征图像;根据上述前一时刻图像帧对应的多尺度金字塔特征图,提取稀疏特征点;根据上述当前时刻图像帧与前一时刻图像帧对应的多尺度金字塔特征图像获取每个上述稀疏特征点的光流,并根据上述光流获取光流特征图。
进一步地,本发明提供的一个优选技术方案中,“根据上述前一时刻图像帧对应的多尺度金字塔特征图,提取稀疏特征点”的步骤包括:将上述前一时刻图像帧对应的多尺度金字塔特征图划分为多个图像块;获取每个上述图像块中多尺度金字塔特征最大值对应的特征点。
进一步地,本发明提供的一个优选技术方案中,“根据上述当前时刻图像帧与前一时刻图像帧对应的多尺度金字塔特征图像获取每个上述稀疏特征点的光流”的步骤包括:
获取每个上述稀疏特征点在上述前一时刻图像帧对应的多尺度金字塔特征图像中每个尺度特征图像上的基准位置;根据上述基准位置并利用预设的搜索子对上述当前时刻图像帧对应的多尺度金字塔特征图像中每个尺度特征图像进行搜索,得到与上述基准位置匹配度最高的对应位置;根据上述基准位置和对应位置获取相应稀疏特征点的光流;其中,上述搜索子表示在每层金字塔特征图中搜索时的像素点最小覆盖区域。
进一步地,本发明提供的一个优选技术方案中,“基于预设的可动目标概率估值网络并根据上述当前时刻图像帧,获取可动目标的表观特征图”的步骤包括:
根据上述可动目标概率估值网络获取上述当前时刻图像帧对应的多尺度多通道特征图像;对上述多尺度多通道特征图像进行金字塔池化处理,得到上述当前时刻图像帧中每个像素点的多尺度多通道特征;对上述每个像素点的多尺度多通道特征进行概率估值,得到每个像素点对应的可动目标所属概率;上述可动目标所属概率是某个像素点属于可动目标的概率;根据上述每个像素点对应的可动目标所属概率,获取上述可动目标的表观特征图。
进一步地,本发明提供的一个优选技术方案中,“基于预设的运动目标检测网络并根据上述光流特征和表观特征图,获取高分辨率航拍视频中运动目标的大小和位置”的步骤包括:
根据上述运动目标检测网络对上述光流特征图和上述表观特征图进行联合编码,得到联合特征;通过对上述联合特征进行目标预测和非最大化抑制,获得运动目标的粗略位置和大小;按比例扩大上述运动目标的粗略位置所示区域作为区域建议,利用通过上述可动目标概率估值网络获取的高分辨率特征,使用边框回归网络确定出运动目标的大小和位置。
进一步地,本发明提供的一个优选技术方案中,上述方法还包括训练上述稀疏特征点跟踪网络的步骤:利用稠密光流数据库中图像帧作为样本数据,通过最小化如下目标函数进行监督学习,训练上述稀疏特征点跟踪网络:
其中,M为图像帧中特征点总数,{(ui,vi)|i=1.2.3....M}为搜索得到的光流向量,{(u′i,v′i)|i=1.2.3....M}为对应的基准光流向量。
进一步地,本发明提供的一个优选技术方案中,上述方法还包括通过最小化如下约束函数,训练上述可动目标概率估值模型:
其中,其中W和H分别代表表观特征图的宽和高,qx,y表示(x,y)位置处的像素属于可动目标的基准概率,px,y表示(x,y)处的像素预测的可动目标概率。
第二方面,本发明提供的一种存储装置,上述程序适于由处理器加载以执行,上述发明内容中的任一方法。
第三方面,本发明提供的一种处理装置,包括处理器和存储设备,上述存储设备,适于存储多条程序;其中,上述程序适于由处理器加载以执行上述发明内容中的任一方法。
与最接近的现有技术相比,上述技术方案至少具有如下有益效果:
本发明提供的基于深度神经网络的高分辨率航拍视频运动目标检测方法,通过提取航拍视频中连续的两帧图像帧中光流特征和表观特征获得图像帧的光流特征图和表观特征图,融合上述光流特征图和表观特征图,利用检测模型检测航拍视频中运动目标。实现了对高分辨率航拍视频中运动目标的检测。解决了稠密光流计算时,计算复杂度高、存储空间和计算能力要求高,且在运动目标边缘区域因无法得到准确的光流,造成检测准确率低下问题。
附图说明
图1是本发明实施例中一种基于深度神经网络的高分辨率航拍视频运动目标检测方法的主要步骤示意图;
图2是本发明实施例中从两帧图像帧中提取光流特征,获得光流特征图的示意图;
图3是本发明实施例中从两帧图像帧中提取表观特征图的示意图;
图4是本发明实施例中融合光流特征与表观特征的运动目标检测技术路线示意图;
图5是本发明实施例中基于光流特征和表观特征对高分辨率航拍视频运动目标检测的技术路线示意图。
具体实施方式
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
参阅附图1,图1示例性示出了本实施例中一种基于深度神经网络的高分辨率航拍视频运动目标检测方法的主要步骤。如图1所示,本实施例中基于深度神经网络的高分辨率航拍视频运动目标检测方法,包括以下步骤:
步骤1,基于预设的稀疏特征点跟踪网络并根据待检测航拍视频中当前时刻图像帧与前一时刻图像帧,获取光流特征图。
在本实施例中,应用于基于深度神经网络的高分辨率航拍视频运动目标检测方法的电子设备,如服务器或应用平台,从与其通信连接的视频采集装置中获得高分别率的航拍视频。并从上述航拍视频中的连续两帧航拍视频图像帧中提取光流特征,得到图像帧的光流特征图。
上述航拍视频中的航拍图像帧,可以是对上述航拍视频进行镜头分割,得到按时间排列的视频帧序列,即得到上述航拍视频的航拍图像帧序列。在具体地实现方式中,可以按照时间顺序,依次对上述航拍图像帧序列中当前时刻和前一时刻连续的两帧航拍图像帧进行光流特征的提取,得到各个航拍图像帧的光流特征图。可以根据上述两帧航拍图像帧的稀疏特征对其进行跟踪,从两帧航拍图像帧中提取光流特征图。
进一步地,本实施例提供的一个优选技术方案中,参考附图2,附图2示出了从两帧图像帧中提取光流特征,获得光流特征图的示意图。如图2所示,“基于预设的稀疏特征点跟踪网络并根据待检测航拍视频中当前时刻的图像帧与前一时刻的图像帧,获取光流特征图”的步骤包括:
根据上述稀疏特征点跟踪网络分别获取上述当前时刻图像帧与前一时刻图像帧对应的多尺度金字塔特征图像;根据上述前一时刻图像帧对应的多尺度金字塔特征图,提取稀疏特征点;根据上述当前时刻图像帧与前一时刻图像帧对应的多尺度金字塔特征图像获取每个上述稀疏特征点的光流,并根据上述光流获取光流特征图。
这里,从高分辨率航拍视频中获取两帧连续的航拍图像帧中前一时刻及当前时刻两帧图像,分别生成上述两帧航拍图像帧对应的多尺度金字塔特征图。具体地,一些优选的方案中,可以利用稀疏特征点跟踪网络模型分别生成两帧航拍图像帧对应的多尺度金字塔特征图。其中,上述稀疏特征点跟踪网络模型可以是基于深度卷积神经网络模型,根据所输入两帧航拍图像帧,生成两帧图像帧对应的多尺度金字塔特征图。
在一些优选的实现方式中,“根据上述前一时刻图像帧对应的多尺度金字塔特征图,提取稀疏特征点”的步骤包括:将上述前一时刻图像帧对应的多尺度金字塔特征图划分为多个图像块;获取每个上述图像块中多尺度金字塔特征最大值对应的特征点。
“根据上述当前时刻图像帧与前一时刻图像帧对应的多尺度金字塔特征图像获取每个上述稀疏特征点的光流”的步骤包括:获取每个上述稀疏特征点在上述前一时刻图像帧对应的多尺度金字塔特征图像中每个尺度特征图像上的基准位置;根据上述基准位置并利用预设的搜索子对上述当前时刻图像帧对应的多尺度金字塔特征图像中每个尺度特征图像进行搜索,得到与上述基准位置匹配度最高的对应位置;根据上述基准位置和对应位置获取相应稀疏特征点的光流。
其中,搜索子表示在每层金字塔特征图中搜索时的像素点最小覆盖区域,例如,在每层金字塔特征图中可采用3×3基本像素点大小的搜索子,在基准位置对应到当前时刻帧中位置的搜索子范围内找到最匹配的位置作为每层的匹配位置。
上述跟踪网络模型可以采用5层卷积神经网络,对前一时刻图像帧和当前时刻图像帧分别生成对应的5层多尺度金字塔特征图。考虑到计算效率,每层采用12通道3×3的卷积以学习得到具有更强表达能力的、适用于跟踪匹配的、多尺度特征,分别得到每个像素点在各个尺度下的12维的深度特征描述子。池化步长可设为2,搜索子大小可设为3×3,搜索范围可以达到90个像素以上;增大网络层数或搜索子大小可以获得更大的搜索范围。
上述稀疏特征点的提取,可以是将两帧航拍图像帧中的前一时刻的航拍图像帧,分为多个图像块,在每个图像块中,取其对应的多尺度金字塔特征响应值最大的位置为该图像块的特征点;其中,可以将航拍图像帧划分为8×8的图像块。
上述利用多尺度金字塔特征图与搜索子获得光流特征,可以是利用12维的深度特征描述子的欧氏距离作为度量准则,通过从高层特征图到低层特征图的搜索回溯找到最匹配的特征点获取光流特征图。
对于每一个稀疏特征点,首先在前一时刻的航拍图像帧的金字塔特征图中将其位置向前层层映射,得到该特征点在各个尺度特征下的基准位置,然后利用搜索子在当前时刻航拍图像帧的低分辨率特征图中进行搜索匹配,得到跟踪到的对应位置,并向高一级别的分辨率特征图层层映射和回溯,找到在当前时刻航拍图像帧中最匹配的位置,得到该特征点的光流。
进一步地,本实施例提供的一个优选技术方案中,在“基于预设的稀疏特征点跟踪网络并根据待检测航拍视频中当前时刻图像帧与前一时刻图像帧,获取光流特征图”的步骤之前,还包括训练上述跟踪网络模型的步骤:
利用稠密光流数据库中图像帧作为样本数据,通过最小化如下目标函数进行监督学习,训练上述跟踪网络模型:
其中,M为图像帧中特征点总数,{(ui,vi)|i=1.2.3....M}为搜索得到的光流向量,{(u′i,v′i)|i=1.2.3....M}为对应的基准光流向量。这里,对上述跟踪网络模型训练时,将每一个像素都作为特征点,利用稠密光流数据库进行有监督的学习,以得到性能优越的用于特征图提取的基于深度神经网络的跟踪网络模型参数。上述稠密光流数据库可以是诸如Middlebury,KITTI,Sintel,Flying Chairs的数据库。
步骤2,基于预设的可动目标概率估值网络并根据上述当前时刻图像帧,获取可动目标的表观特征图。
在本实施例中,利用预设的可动目标概率估值网络对上述航拍图像帧中的当前时刻的图像帧进行池化处理,获得可动目标的表观特征图。参考附图3,附图3示出了从当前时刻图像帧中提取表观特征图的示意图。如图3所示,上述“基于预设的可动目标概率估值网络并根据上述当前时刻图像帧,获取可动目标的表观特征图”的步骤包括:
根据上述可动目标概率估值网络获取上述当前时刻图像帧对应的多尺度多通道特征图像;对上述多尺度多通道特征图像进行金字塔池化处理,得到上述当前时刻图像帧中每个像素点的多尺度多通道特征;对上述每个像素点的多尺度多通道特征进行概率估值,得到每个像素点对应的可动目标所属概率;上述可动目标所属概率是某个像素点属于可动目标的概率;根据上述每个像素点对应的可动目标所属概率,获取上述可动目标的表观特征图。
具体地,上述获取多尺度多通道特征图像可以是,将图像帧中所有目标类型组织划分为可动目标和其他类型目标,使得问题简化为一类目标的概率估值。利用预先构建的可动目标概率估值模型进行概率估值,对每个像素点对应的可动目标所属概率进行估值,得到可动目标的表观特征图;其中,上述可动目标概率估值模型是基于深度神经网络构建的可动目标的表观特征图类别的概率预测模型。
上述可动目标概率估值模型为基于ResNet50轻量级网络结构建,在基本不损失概率估值性能的情况下进一步减少特征通道数量,降低网络的计算复杂度,利用其进行特征提取,获取每个像素点的表达能力更强的多尺度多通道特征图像。
上述对多尺度多通道特征图像进行金字塔池化处理,可以是在获得每个稀疏像素点多尺度多通道特征图像后,利用卷积操作和采样将多尺度多通道特征图像整合为与输出概率图像具有同等分辨率的多尺度多通道特征图像,经过数据重组得到每个稀疏像素点的多尺度多通道特征。上述航拍图像帧可以为高分辨率图像帧,上述表观特征图为分辨率较低的图像帧。
上述取可动目标的表观特征图可以是利用1×1×N的卷积网络对每个像素的多尺度多通道特征进行概率估值,得到可动目标的表观特征图,其中N为金字塔池化后每个像素点的通道数。
进一步地,本实施例提供的一个优选技术方案中,上述方法还包括:通过最小化如下约束函数,训练上述可动目标概率估值模型:
其中,W和H分别代表表观特征图的宽和高,qx,y表示(x,y)位置处的像素属于可动目标的基准概率,px,y表示(x,y)处的像素预测的可动目标概率。可以理解地是,由于表观特征图宽度和高度是标注的高分辨率航拍图像宽度和高度的八分之一,qx,y并不是简单的0或1而是通过计算标注的高分辨率图像8×8标注块算术平均得到的浮点值。
步骤3,基于预设的运动目标检测网络并根据上述光流特征和表观特征图,获取上述高分辨率航拍视频中运动目标的位置。
在本实施例中,利用融合光流特征与表观特征的运动目标检测网络获取上述高分辨率航拍视频中运动目标的检测结果。参阅附图4,图4示例性示出了本实施例中融合光流特征与表观特征的运动目标检测主要步骤示意图。如图4所示,根据光流特征和表观特征进行运动目标检测的主要步骤为:
对所得到的上述光流特征图和上述表观特征图进行编码得到联合特征;通过对上述联合特征进行目标预测和非最大化抑制,获得运动目标的粗略位置和大小;按比例扩大上述运动目标的粗略位置所示区域作为区域建议,利用通过上述可动目标概率估值网络获取的高分辨率特征,使用边框回归网络确定出运动目标的位置。
这里,对上述得到的光流特征图和表观特征图进行编码,因高分辨率航拍视频中的运动目标通常不会太大,可以使用VGG16网络的第7层的输出进行特征联合编码;因VGG16的第7层输出为256通道,对上述光流特征图和表观特征图经过特征联合编码后,得到512个通道的特征图。反推到4096×2160的高分辨率航拍视频,该特征联合编码方式至少可以保证检测到大小不小于64×64的运动目标。若期望稳定检测更小的运动目标,可采用VGG16网络更低层的输出进行特征联合编码。
VGG16为具有13个卷积层和3个全连接层的网络结构,使用多个较小的卷积核的卷积层代替一个卷积核较大的卷积层,以减少参数,并进行更多的非线性映射,增加网络的拟合/表达能力。
这里,获得运动目标的粗略位置和大小,实现对运动目标的初检。具体为,对经过特征联合编码得到的特征图像,利用1×1卷积和Hidden网络解码,得到5×N通道的输出,其中5表示为每个Anchor Box的预测,N为Anchor Box的数量。利用目标预测网络对获取的Anchor Box的预测进行判定和非最大化抑制,得到航拍视频中运动目标的粗略位置和大小。其中,每个Anchor Box的预测输出中,第一维是运动目标的置信度,后四维为运动目标分别在x和y方向的位置和尺度。
这里,利用上述高分辨率特征使用边框回归网络确定出运动目标。具体为,因光流特征图和表观特征图分辨率较低,造成融合光流特征与表观特征的运动目标检测结果可能存在精度损失。由此,将运动目标粗检测结果按比例扩大,如,扩大1.2倍后作为区域建议,利用可动目标概率估值网络中获取的高分辨率特征,采用边框回归网络获取精确的运动目标检测结果。
进一步地,本实施例提供的一个优选技术方案中,在“基于预设的运动目标检测网络并根据上述光流特征和表观特征图,获取上述高分辨率航拍视频中运动目标的位置”的步骤之前,对上述检测模型进行训练。对上述检测模型的训练可以为对特征联合编码、运动目标粗检测和边框回归网络中的参数极性训练。综合Confidences的交叉熵损失和目标框的坐标损失来定义运动目标粗检测网络的损失函数:
其中,S是64×32大小的特征图网格集合,qs代表网格s的预测部分,ps代表基准部分。Cobject表示运动目标集合,的作用是计算时只对运动目标考虑引入回归损失函数。得到运动目标粗检测结果后,将粗检测结果映射到高分辨率特征图中,以利用该粗检测区域内的高分辨率特征进行边框回归,得到最终的精确检测结果。和 的含义分别为预测目标框和基准目标框的中心坐标x,中心坐标y、宽和高。
作为示例,参考附图5,参阅附图5,图5示例性示出了融合光流特征与表观特征的运动目标检测方法示意图。如图5所示,对视频中的连续两帧图像帧分别进行处理,首先对t-Δt时刻图像帧进行基于稀疏特征点的跟踪网络的光流特征提取,获得t-Δt时刻图像帧的光流特征图,如图中标识S100所示。同时,对t时刻图像帧进行表观特征的提取,获得t时刻图像帧的表观特征图,如图中标识S110所示。其中,表观特征提取可以为基于可动目标概率估值网络的表观特征提取,包括特征提取和概率估值。最后,对上述光流特征图和表观特征图进行融合处理,得到高分辨率下的运动目标的检测结果,上述融合处理为融合运动与表观特征的运动目标检测方法,可以利用上述步骤中的检测模型实现融合处理,如图中标识S120所示。
本申请还提供了一种存储装置,上述存储装置承载有一个或者多个程序,上述程序适于由处理器加载并执行,当上述一个或者多个程序被该装置执行时可以是实现上述实施例中的任一方法。
本申请还提供了一种处理装置,该处理装置包括处理器,适于执行各条程序;以及存储设备,适于存储多条程序;其中,上述程序适于由处理器加载并执行以实现上述实施例中的任一方法。
与最接近的现有技术相比,上述技术方案至少具有如下有益效果:
利用稀疏特征点跟踪视频图像帧的方法从两帧图像中提取精确的光流特征图和表观特征图;并利用融合光流特征与表观特征的运动目标检测模型获取精确的高分辨率下的运动目标的检测结果。提升运动目标检测算法的准确率和环境适应能力,且利用前一时刻图像帧与当前时刻图像帧即可实现对高分辨率航拍视频中运动目标的精确检测,适用于实时性要求很高的高分辨率航拍场景。因此,应用本发明提供的方法可以快速、准确实现对航拍视频中运动目标的检测。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
Claims (9)
1.一种基于深度神经网络的高分辨率航拍视频运动目标检测方法,其特征在于,所述方法包括:
基于预设的稀疏特征点跟踪网络并根据待检测航拍视频中当前时刻图像帧与前一时刻图像帧,获取光流特征图;
基于预设的可动目标概率估值网络并根据所述当前时刻图像帧,获取可动目标的表观特征图;
基于预设的运动目标检测网络并根据所述光流特征和表观特征图,获取所述高分辨率航拍视频中运动目标的大小和位置;
其中,所述稀疏特征点跟踪网络、可动目标概率估值网络和运动目标检测网络均是基于深度神经网络构建的网络模型;
“基于预设的稀疏特征点跟踪网络并根据待检测航拍视频中当前时刻的图像帧与前一时刻的图像帧,获取光流特征图”的步骤包括:
根据所述稀疏特征点跟踪网络分别获取所述当前时刻图像帧与前一时刻图像帧对应的多尺度金字塔特征图像;
根据所述前一时刻图像帧对应的多尺度金字塔特征图,提取稀疏特征点;
根据所述当前时刻图像帧与前一时刻图像帧对应的多尺度金字塔特征图像获取每个所述稀疏特征点的光流,并根据所述光流获取光流特征图。
2.根据权利要求1所述的基于深度神经网络的高分辨率航拍视频运动目标检测方法,其特征在于,“根据所述前一时刻图像帧对应的多尺度金字塔特征图,提取稀疏特征点”的步骤包括:
将所述前一时刻图像帧对应的多尺度金字塔特征图划分为多个图像块;
获取每个所述图像块中多尺度金字塔特征最大值对应的特征点。
3.根据权利要求1所述的基于深度神经网络的高分辨率航拍视频运动目标检测方法,其特征在于,“根据所述当前时刻图像帧与前一时刻图像帧对应的多尺度金字塔特征图像获取每个所述稀疏特征点的光流”的步骤包括:
获取每个所述稀疏特征点在所述前一时刻图像帧对应的多尺度金字塔特征图像中每个尺度特征图像上的基准位置;
根据所述基准位置并利用预设的搜索子对所述当前时刻图像帧对应的多尺度金字塔特征图像中每个尺度特征图像进行搜索,得到与所述基准位置匹配度最高的对应位置;
根据所述基准位置和对应位置获取相应稀疏特征点的光流;
其中,所述搜索子表示在每层金字塔特征图中搜索时的像素点最小覆盖区域。
4.根据权利要求1所述的基于深度神经网络的高分辨率航拍视频运动目标检测方法,其特征在于,“基于预设的可动目标概率估值网络并根据所述当前时刻图像帧,获取可动目标的表观特征图”的步骤包括:
根据所述可动目标概率估值网络获取所述当前时刻图像帧对应的多尺度多通道特征图像;
对所述多尺度多通道特征图像进行金字塔池化处理,得到所述当前时刻图像帧中每个像素点的多尺度多通道特征;
对所述每个像素点的多尺度多通道特征进行概率估值,得到每个像素点对应的可动目标所属概率;所述可动目标所属概率是某个像素点属于可动目标的概率;
根据所述每个像素点对应的可动目标所属概率,获取所述可动目标的表观特征图。
5.根据权利要求1-4中任一项所述的基于深度神经网络的高分辨率航拍视频运动目标检测方法,其特征在于,“基于预设的运动目标检测网络并根据所述光流特征和表观特征图,获取高分辨率航拍视频中运动目标的大小和位置”的步骤包括:
根据所述运动目标检测网络对所述光流特征图和所述表观特征图进行联合编码,得到联合特征;
通过对所述联合特征进行目标预测和非最大化抑制,获得运动目标的粗略位置和大小;
按比例扩大所述运动目标的粗略位置所示区域作为区域建议,利用通过所述可动目标概率估值网络获取的高分辨率特征,使用边框回归网络确定出运动目标的大小和位置。
8.一种存储装置,其中存储有多条程序,其特征在于,所述程序适于由处理器加载以执行权利要求1-7中任一项所述的基于深度神经网络的高分辨率航拍视频运动目标检测方法。
9.一种处理装置,包括处理器和存储设备,所述存储设备,适于存储多条程序;
其特征在于,所述程序适于由处理器加载以执行权利要求1-7任一项中所述的基于深度神经网络的高分辨率航拍视频运动目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810629556.5A CN109063549B (zh) | 2018-06-19 | 2018-06-19 | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810629556.5A CN109063549B (zh) | 2018-06-19 | 2018-06-19 | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109063549A CN109063549A (zh) | 2018-12-21 |
CN109063549B true CN109063549B (zh) | 2020-10-16 |
Family
ID=64820478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810629556.5A Active CN109063549B (zh) | 2018-06-19 | 2018-06-19 | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109063549B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110070050B (zh) * | 2019-04-24 | 2021-08-20 | 厦门美图之家科技有限公司 | 目标检测方法及系统 |
CN111161309B (zh) * | 2019-11-19 | 2023-09-12 | 北航航空航天产业研究院丹阳有限公司 | 一种车载视频动态目标的搜索与定位方法 |
CN113673545A (zh) * | 2020-05-13 | 2021-11-19 | 华为技术有限公司 | 光流估计方法、相关装置、设备及计算机可读存储介质 |
CN111882583B (zh) * | 2020-07-29 | 2023-11-14 | 成都英飞睿技术有限公司 | 一种运动目标检测方法、装置、设备及介质 |
CN113591868B (zh) * | 2021-07-30 | 2023-09-01 | 南开大学 | 一种基于全双工策略的视频目标分割方法及系统 |
CN113936034B (zh) * | 2021-09-28 | 2024-05-28 | 北京航空航天大学 | 一种结合帧间光流的表观运动联合弱小运动目标检测方法 |
CN114419524B (zh) * | 2022-03-29 | 2022-08-05 | 之江实验室 | 一种基于伪光流辅助的视频分类方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090324013A1 (en) * | 2008-06-27 | 2009-12-31 | Fujifilm Corporation | Image processing apparatus and image processing method |
EP2701093A1 (en) * | 2012-08-20 | 2014-02-26 | Honda Research Institute Europe GmbH | Sensing system and method for detecting moving objects |
CN103679215A (zh) * | 2013-12-30 | 2014-03-26 | 中国科学院自动化研究所 | 基于视觉大数据驱动的群体性行为分析的视频监控方法 |
EP3023938A1 (en) * | 2014-11-21 | 2016-05-25 | Thomson Licensing | Method and apparatus for tracking the motion of image content in a video frames sequence using sub-pixel resolution motion estimation |
CN105913459A (zh) * | 2016-05-10 | 2016-08-31 | 中国科学院自动化研究所 | 基于高分辨率连拍图像的运动目标检测方法 |
CN107038713A (zh) * | 2017-04-12 | 2017-08-11 | 南京航空航天大学 | 一种融合光流法和神经网络的运动目标捕捉方法 |
CN107967695A (zh) * | 2017-12-25 | 2018-04-27 | 北京航空航天大学 | 一种基于深度光流和形态学方法的运动目标检测方法 |
CN107992899A (zh) * | 2017-12-15 | 2018-05-04 | 四川大学 | 一种机场场面运动目标检测识别方法 |
CN108052859A (zh) * | 2017-10-31 | 2018-05-18 | 深圳大学 | 一种基于聚类光流特征的异常行为检测方法、系统及装置 |
-
2018
- 2018-06-19 CN CN201810629556.5A patent/CN109063549B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090324013A1 (en) * | 2008-06-27 | 2009-12-31 | Fujifilm Corporation | Image processing apparatus and image processing method |
EP2701093A1 (en) * | 2012-08-20 | 2014-02-26 | Honda Research Institute Europe GmbH | Sensing system and method for detecting moving objects |
CN103679215A (zh) * | 2013-12-30 | 2014-03-26 | 中国科学院自动化研究所 | 基于视觉大数据驱动的群体性行为分析的视频监控方法 |
EP3023938A1 (en) * | 2014-11-21 | 2016-05-25 | Thomson Licensing | Method and apparatus for tracking the motion of image content in a video frames sequence using sub-pixel resolution motion estimation |
CN105913459A (zh) * | 2016-05-10 | 2016-08-31 | 中国科学院自动化研究所 | 基于高分辨率连拍图像的运动目标检测方法 |
CN107038713A (zh) * | 2017-04-12 | 2017-08-11 | 南京航空航天大学 | 一种融合光流法和神经网络的运动目标捕捉方法 |
CN108052859A (zh) * | 2017-10-31 | 2018-05-18 | 深圳大学 | 一种基于聚类光流特征的异常行为检测方法、系统及装置 |
CN107992899A (zh) * | 2017-12-15 | 2018-05-04 | 四川大学 | 一种机场场面运动目标检测识别方法 |
CN107967695A (zh) * | 2017-12-25 | 2018-04-27 | 北京航空航天大学 | 一种基于深度光流和形态学方法的运动目标检测方法 |
Non-Patent Citations (5)
Title |
---|
"FlowNet 2.0: Evolution of Optical Flow Estimation with Deep";Eddy Ilg等;《2017 IEEE Conference on Computer Vision and Pattern Recognition》;20171109;全文 * |
"FlowNet: Learning Optical Flow with Convolutional Networks";Alexey Dosovitskiy等;《2015 IEEE International Conference on Computer Vision》;20160218;全文 * |
"Real-Time Moving Object Detection from Airborne Videos";Xiaosong Lan等;《2014 IEEE International Conference on Computer and Information Technology》;20141215;全文 * |
"基于Lucas - Kanada 光流法的人眼特征点实时跟踪方法";王彬等;《计算机工程》;20150731;第41卷(第7期);全文 * |
"基于像素值聚类的运动目标检测方法";蒋建国等;《电子测量与仪器学报》;20120229;第26卷(第2期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109063549A (zh) | 2018-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109063549B (zh) | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 | |
CN110675418B (zh) | 一种基于ds证据理论的目标轨迹优化方法 | |
CN109753940B (zh) | 图像处理方法及装置 | |
CN109658445A (zh) | 网络训练方法、增量建图方法、定位方法、装置及设备 | |
CN110533048B (zh) | 基于全景区域场景感知的组合语义层次连接模型的实现方法及系统 | |
US11030478B1 (en) | System and method for correspondence map determination | |
CN112967341B (zh) | 基于实景图像的室内视觉定位方法、系统、设备及存储介质 | |
CN110969648B (zh) | 一种基于点云序列数据的3d目标跟踪方法及系统 | |
CN108805201A (zh) | 目标图像数据集生成方法及其装置 | |
CN111444923A (zh) | 自然场景下图像语义分割方法和装置 | |
CN106407978B (zh) | 一种结合似物度的无约束视频中显著物体检测方法 | |
CN113012215A (zh) | 一种空间定位的方法、系统及设备 | |
CN111709317A (zh) | 一种基于显著性模型下多尺度特征的行人重识别方法 | |
CN116721139A (zh) | 生成图像数据的深度图像 | |
CN117132649A (zh) | 人工智能融合北斗卫星导航的船舶视频定位方法及装置 | |
CN117593702B (zh) | 远程监控方法、装置、设备及存储介质 | |
CN113139540B (zh) | 背板检测方法及设备 | |
CN113129332A (zh) | 执行目标对象跟踪的方法和装置 | |
CN112699713B (zh) | 一种语义线段信息的检测方法及装置 | |
Gupta et al. | Reconnoitering the Essentials of Image and Video Processing: A Comprehensive Overview | |
CN114913330B (zh) | 点云部件分割方法、装置、电子设备与存储介质 | |
CN116664851A (zh) | 一种基于人工智能的自动驾驶数据提取方法 | |
CN115294358A (zh) | 特征点提取方法、装置、计算机设备及可读存储介质 | |
CN115375742A (zh) | 生成深度图像的方法及系统 | |
CN114399532A (zh) | 一种相机位姿确定方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |