CN113936034B - 一种结合帧间光流的表观运动联合弱小运动目标检测方法 - Google Patents
一种结合帧间光流的表观运动联合弱小运动目标检测方法 Download PDFInfo
- Publication number
- CN113936034B CN113936034B CN202111142013.9A CN202111142013A CN113936034B CN 113936034 B CN113936034 B CN 113936034B CN 202111142013 A CN202111142013 A CN 202111142013A CN 113936034 B CN113936034 B CN 113936034B
- Authority
- CN
- China
- Prior art keywords
- frame
- optical flow
- target
- network
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 143
- 230000033001 locomotion Effects 0.000 title claims abstract description 109
- 238000001514 detection method Methods 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 claims abstract description 54
- 230000003068 static effect Effects 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000010606 normalization Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 230000001965 increasing effect Effects 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 claims description 9
- 210000002569 neuron Anatomy 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 abstract description 11
- 239000013598 vector Substances 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000001502 supplementing effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种结合帧间光流的表观运动联合弱小运动目标检测方法。该方法基于YOLOv3单帧目标检测网络框架构建表观运动联合网络,将多帧累积光流作为运动特征融合到输入的单帧图像中,对表观特征进行有效补充,从而提升弱小运动目标的检测准确率。其中,采用多帧累积光流来代替相邻两帧间光流,可以更好地突出慢速小目标的运动特征,当小目标存在运动甚至慢速运动时,可以有效地通过较长时间运动信息的累积结果来补充表观信息的缺失,提升弱小运动目标的检测准确率。针对运动目标检测任务,设计表观运动联合网络的运动目标置信度和损失函数,使网络可以进一步将运动目标和静止目标区分开。实验结果表明,结合帧间光流的表观运动联合网络相比于单帧目标检测网络,可以有效地提升弱小运动目标的检测准确率。
Description
技术领域
本发明涉及一种结合帧间光流的表观运动联合弱小运动目标检测方法,属于计算机视觉技术领域。
背景技术
目标检测是计算机视觉领域的基本任务之一,其目的是找出图像或视频中的感兴趣物体。近年来,随着深度学习技术的发展,目标检测算法取得了突破,深度神经网络提取的特征能更好地适应目标外观、姿态等的变化,在光照、遮挡等因素影响下也能更加鲁棒地检测到目标。基于深度学习的视觉目标分析已经在人脸检测识别、可控环境下视频目标检测跟踪等任务上取得了较好的效果,在一些公开数据集上人车等目标检测识别已超过了人类的平均识别能力。例如,在Labeled Faces in the Wild(LFW)数据集上人脸识别精度超过99.7%(参考《Circle loss:A unified perspective of pair similarityoptimization》,刊于《Proc of IEEE Conference on Computer Vision and PatternRecognition》,2020年;《Towards universal representation learning for deep facerecognition》,刊于《Proc of IEEE Conference on Computer Vision and PatternRecognition》,2020年),在KITTI数据库上小汽车类别的识别精度达到96.1%(参考《RadhaCLOCs:Camera-LiDAR Object Candidates Fusion for 3D Object Detection》,刊于《IEEE/RSJ International Conference on Intelligent Robots and Systems》,2020年)。
然而,在面对弱小目标检测时,现有深度学习方法依然面临较大的问题,由于深度学习网络框架中往往有池化、卷积步长的限制,最终的目标表观特征图相对于原图经过了多次下采样,很多表观信息已经丢失,面对弱小目标时这些丢失的表观信息极大影响了检测精度。针对弱小目标难以被检测的问题,现有效果最明显的方法之一是FPN网络(参考《Feature pyramid networks for object detection》,刊于《Proceedings of the IEEEconference on computer vision and pattern recognition》,2017年)中提出的多层特征融合。该方法将浅层特征与深层特征相融合,用浅层特征补充深层丢失的特征。但是对于浅层表观特征本身就已经较少的情况,该方法依然不能很好地解决弱小目标漏检的问题。
考虑到单纯利用目标表观信息无法很好地检测到弱小目标,结合运动特征的视频运动目标检测作为一类重要的应用也开展了广泛的研究。其中,现有基于深度神经网络的运动目标检测算法基本采用两步式方法,即首先基于单帧图像深度神经网络检测目标,再采用光流加阈值分割的方式获取视频帧中的运动区域,从而判断单帧图像检测到的目标是否运动。这样的分步式方法存在以下问题:在单帧目标检测的基础上再过滤非运动目标,进而得到运动目标,其结果受单帧检测的精度影响较大。一旦单帧目标检测算法不能准确地检测到所有目标,后续的运动判断也无从谈起。当前,单帧目标检测算法中针对弱小目标的漏检现象仍然非常严重,当目标表观信息缺失时,基于表观深度网络的单帧目标检测算法极易漏检弱小目标。以单帧目标检测为基础的分步式方法中,运动信息的使用并没有有效提升运动目标的检测准确率。人类对于较小目标进行检测时,更多关注的是目标的运动特征,相比表观特征,运动使得我们更容易发现目标。运动特征的利用是视频目标检测与单帧目标检测的根本区别。现有分步式方法首先利用表观特征发现目标,在该阶段摒弃了帧间信息,减少了深度神经网络对外界信息的获取量,不利于提升目标检测的准确率。
为此,本申请提出了一种结合帧间光流的表观运动联合弱小运动目标检测方法。基于YOLOv3目标检测网络框架(参考《YOLOv3:an incremental improvement》,刊于《arXive-prints》,2018年),构建表观运动联合网络实现弱小运动目标的准确检测。具体地,将帧间光流场作为一种低层次运动特征,与单帧图像中的目标表观特征融合到神经网络中作为通道信息,以运动特征增强RGB图像特征,将运动特征、表观特征在一个统一网络框架内训练,结合两者的优势,最终准确检测到运动目标。这种一步式检测的应用模式相比分步式检测的应用模式,对运动小目标有更好的适应性。表观运动联合网络在目标较小、表观网络易漏检目标的情况下,利用弱小目标依然存在运动、甚至可能运动速度较快的特点,通过额外输入帧间光流进行表观和运动特征的联合训练,可以更好地检测到表观特征较少的弱小运动目标。
发明内容
本发明的目的是提供一种结合帧间光流的表观运动联合弱小运动目标检测方法。该方法不仅可以通过运动特征补充表观特征、提升弱小目标的检测准确率,还可以利用表观特征和运动特征联合预测运动目标,将运动目标和静止目标区分开来。
为实现上述目的,本发明采用的技术方案流程如下:
一种结合帧间光流的表观运动联合弱小运动目标检测方法,包括如下步骤:
(1)累积光流计算:利用深度神经网络光流计算方法计算当前帧与前一帧之间的光流,得到当前帧每个像素点的光流,所述光流包含运动方向和运动大小;按照上述方法计算N个连续帧中每相邻两帧的光流,得到N-1个光流,将所述N-1个光流叠加,形成多帧累积光流;
(2)表观运动联合网络构建:在YOLOv3单帧目标检测网络的基础上,通过用Darknet-53骨干网络提取特征,在不同尺度的YOLO层进行目标检测的结构构建表观运动联合网络,将所述多帧累积光流中包含的水平、垂直方向的运动信息作为双通道信息,连同当前帧图像的RGB三通道像素值,经过预处理后一同作为所述表观运动联合网络的输入;在YOLO层每一个预测边界框输出结果中增加运动目标置信度;并在YOLOv3单帧目标检测网络的五类损失之外,增加运动目标预测损失,从而改进损失函数;在训练过程中对所述表观运动联合网络进行约束,使所述表观运动联合网络在目标检测的基础上,进一步区分运动目标和静止目标;
(2.1)所述步骤(2)中将多帧累积光流与当前帧图像的RGB三通道像素值一同作为表观运动联合网络的输入的计算过程包括:将多帧累积光流和RGB三通道像素值经过预处理后,通过维度连接操作进行连接,作为表观运动联合网络的输入;所述多帧累积光流输入包含水平、垂直两个方向的运动信息,将YOLOv3单帧目标检测网络第一个卷积层中每一个卷积核的神经元权重参数从3个增加到5个,使得第一层的神经元能够使用新增的神经元权重参数在5个通道输入上计算得出第一层特征图,从而同时提取表观和运动特征;网络第一层特征f1用下述公式(1)表示,
其中表示预处理后的双通道多帧累积光流经过卷积操作的计算结果,/>表示RGB三通道像素值经过卷积操作的计算结果;
(2.2)所述步骤(2)中多帧累积光流和RGB三通道像素值的预处理过程为:将多帧累积光流结果取绝对值,去除累积光流的方向信息,只使用累积光流的数值大小表示当前像素的运动快慢,从而减少表观运动联合网络训练过程中的噪声,加快收敛速度;同时,对RGB三通道像素数据采用归一化处理,将数据范围限制在0到1之间,对所述多帧累积光流也采用归一化处理,使所述多帧累积光流的数据分布与表观特征的数据分布范围相同;对所述多帧累积光流采用如下述公式(2)进行归一化,
其中Ui→j、Vi→j分别表示归一化前从第i帧到第j帧的U、V方向上多帧累积光流,mean|U|表示U方向上累积光流绝对值的平均值,variance|U|表示U方向上累积光流绝对值的标准差,mean|V|表示V方向上累积光流绝对值的平均值,variance|V|表示V方向上累积光流绝对值的标准差;
(2.3)所述步骤(2)中表观运动联合网络为了区分运动目标和静止目标,在YOLO层每一个预测边界框输出结果中增加运动目标置信度的具体过程包括:在YOLOv3单帧目标检测网络YOLO层每一个预测边界框输出4个位置参数和1个物体置信度的基础上,增加1个运动目标置信度,该值是回归连续值,用来表示当前目标框中预测得到的目标是运动目标的置信度,其计算方式如公式(3)所示,
Output_dim=S×S×B×(C+(4+1+1)) (3)
其中Output_dim表示YOLO层输出的张量维度,S×S表示YOLO层中划分的网格数量,B表示每一个网格上产生的边框个数,C表示网络支持识别的类别数;表观运动联合网络将输入数据进行了YOLOv3中的编码操作,YOLO层将该输出张量进行与输入时编码相应的解码操作得到最终输出结果;
(2.4)所述步骤(2)中表观运动联合网络在YOLOv3单帧目标检测网络的五类损失之外,增加运动目标预测损失,该损失使用二分类交叉熵,具体计算如公式(4)所示,
其中Loss表示YOLOv3单帧目标检测网络提出的损失函数,用来累计检测框位置损失和类别损失,求和符号中的S2表示YOLO层中分割的网格数量,表示第i个网格的第j个预测边界框中是否存在目标,如果存在目标则为1,否则为0,mi(j)表示第i个网格的第j个预测边界框中预测得出的运动目标置信度,/>表示数据集中运动目标区域的真实标注,运动目标标注为1,静止目标标注为0,通过上述公式(4)在训练过程中对网络进行约束,令网络能够区分静止目标和运动目标;在测试时,根据网络输出的运动目标置信度判断该目标是否为运动目标,如果运动目标置信度大于Th,则将其视为运动目标输出。
如上所述的方法,其特征在于:所述步骤(1)中多帧累积光流的计算过程包括:针对N个连续帧,利用深度神经网络光流计算方法PWC-Net计算出每相邻两帧间的光流,得到N-1个光流结果,将所述每相邻两帧的光流结果以矩阵形式表示,所述矩阵中每个元素表示每个像素点的光流结果;将所述N-1个光流结果进行叠加,形成所述多帧累积光流,以增强慢速小目标的运动信息,所述相邻两帧的光流结果记为(Ui→i+1,Vi→i+1),从第1帧到第N帧的N-1帧累积光流S1→N由下述公式(5)计算得到,
如上所述的方法,其特征在于:所述步骤(2)中表观运动联合网络的具体构建过程为:
(1)以YOLOv3单帧目标检测网络为基础,将输入的图像经过Darknet-53骨干网络提取特征,在YOLO层进行目标检测,并将该YOLO层中特征图经过上采样层,与Darknet-53后两层中相应尺度的特征图进行维度拼接,实现多层特征的融合,作为下一个YOLO层提供数据;
(2)使用多个YOLO层进行不同尺度的目标检测,每个YOLO层将输入的特征图进行若干次Darknetconv2d_BN_Leaky,即DBL操作,所述DBL操作是在一个卷积层后跟一个BatchNormalization层和一个LeakyReLU层,得到输入到下一个YOLO层的特征图,再进行1次Darknetconv2d_BN_Leaky操作,并经过1×1卷积运算,输出对应的S×S×B×(C+(4+1))维度的张量,其中,S×S表示YOLO层中划分的网格数量,B表示每一个网格上产生的边框个数,C表示网络支持识别的类别数;输出张量中包含每个预测边界框的所属类别概率、位置参数以及物体置信度,其中,所属类别概率表示在预测框存在目标的情况下,目标属于各个类别的对应概率,位置参数包括4个参数x、y、w、h,分别表示预测框的中心点相对网格的偏移量和相对于S×S网格的宽、高,物体置信度表示预测框中存在目标的概率。
如上所述的方法,其特征在于步骤(1)中多帧累积光流的累积帧数参数N=3。
如上所述的方法,其特征在于运动目标置信度阈值Th=0.5。
如上所述的方法,其特征在于网络使用3个YOLO层进行不同尺度的目标检测。
如上所述的方法,其特征在于每个YOLO层将输入的特征图进行5次Darknetconv2d_BN_Leaky。
与现有技术相比,本发明所提供的结合帧间光流的表观运动联合弱小运动目标检测方法,针对视频中弱小运动目标虽然表观特征少、但存在运动的特点,利用帧间运动信息对表观特征进行有效补充,从而提升弱小运动目标的检测准确率;针对光流运动矢量具有方向性、能描述运动大小的特点,利用取绝对值、归一化等操作对表观运动联合网络中新增加的多帧累积光流进行预处理,克服噪声干扰,提升深度神经网络中光流数据对模型的拟合能力;计算多帧累积光流,相比于两帧间光流能够更有效地突出慢速小目标的运动信息,当小目标存在运动甚至慢速运动时,可以有效地通过运动特征补充表观特征提升运动小目标的检测准确率;进一步针对运动目标检测任务,设计运动目标置信度和结合运动目标预测损失的损失函数,可以更加有效地利用表观和运动特征联合预测运动目标,将运动目标和静止目标准确区分开来,能较好地完成运动目标检测任务。
附图说明
下面结合附图和具体实施方式对本发明作进一步的说明。
图1为结合帧间光流的表观运动联合网络框架图;
图2为PWC-Net网络结构。
具体实施方式
前已述及,本发明提出一种结合帧间光流的表观运动联合弱小运动目标检测方法,下面结合附图说明本发明的具体实施方式。
(1)整体流程
本发明基于YOLOv3单帧目标检测网络来构建表观运动联合网络,如附图1所示。首先,将利用PWC-Net计算得到的多帧光流累加作为累积光流,将累积光流作为低层次运动特征输入网络,作为表观特征的补充,结合单帧目标表观特征与视频目标的运动特征,提升弱小运动目标的检测准确率。具体实施方式分为两个部分:(1)多帧累积光流的计算;(2)表观运动联合网络的构建。
首先,在当前帧图像中利用前面若干帧图像计算多帧累积光流:使用PWC-Net计算相邻两帧间的光流,再用视频中连续多个相邻帧计算出多帧光流,叠加得到多帧累积光流。
然后,构建表观运动联合网络:在YOLOv3单帧目标检测算法的基础上构建表观运动联合网络。将多帧累积光流与RGB三通道数据一同输入表观运动联合网络,利用帧间运动特征弥补目标表观特征不足的缺陷,提高弱小运动小目标的检测准确率。同时,在YOLO层每一个预测边界框输出结果中增加运动目标置信度,结合运动目标预测损失来改进损失函数,在训练过程中对网络进行约束,使网络可以在目标检测的基础上进一步区分运动目标和静止目标。
(2)多帧累积光流场的计算
使用PWC-Net计算相邻两帧间的光流,再利用视频中连续多个相邻帧计算得到多帧光流,叠加这些光流得到多帧累积光流。
(2.1)PWC-Net计算相邻两帧光流
PWC-Net是NVIDIA在CVPR2018年论文中提出的光流预测网络,具有较快的运算速度以及较低的算力要求。如附图2所示,PWC-Net主要由四部分结构组成,分别是金字塔特征提取器(Pyramid Feature Extractor)、缩放层(Warping Layer)、损失量层(CostVolumnLayer)和光流估计器(Optical Flow Estimator)。
金字塔特征提取器是一个6层的卷积神经网络,每次进行2倍下采样,对视频相邻两帧分别提取特征;假设当前帧为t,缩放层用t-1帧光流场结果矫正第t帧特征图,得到新特征图。如公式(1)所示,其中x表示像素索引,表示第w个特征金字塔的第l层的金字塔特征,up2(wl+1)(x)表示将第w个特征金字塔的第l+1层的像素x两倍上采样。
损失量是3D深度预测的一个概念,在PWC-Net中用来评估两个特征图之间的变化。损失量层计算两帧图像经过特征提取和形变之后的损失量,如公式(2)所示,其中N表示当前层特征像素个数。
光流估计器也是一个6层的卷积神经网络,利用之前计算出来的损失量、第一张图片的特征和上采样的光流联合预测当前两帧最终的光流结果。使用损失量来预测光流是PWC-Net的最大改进,可以更好地通过这种方式加强网络对于输入数据的适应,相当于在更高维度加强了特征。
PWC-Net计算得出的光流采用双通道方式表示,双通道的第一个通道表示光流场矢量在x轴(水平方向)上的大小和方向,第二个通道表示光流场矢量在y轴(垂直方向)上的大小和方向,其中数值表示大小,正负表示方向。整体光流场矢量是x轴和y轴矢量的和矢量,这些数据有足够的特征表征运动信息。
(2.2)多帧累积光流计算
本发明利用(2.1)中PWC-Net网络结构计算相邻两帧间的光流,再利用视频中连续多个相邻帧计算得到多帧光流,将这些光流进行叠加,形成多帧累积光流场,有助于突出慢速小目标的运动信息。因此本发明提出利用多帧累积光流代替两帧光流作为表观运动联合网络的输入,在运动信息的补充上相比于仅利用相邻两帧光流能更好地提升慢速小目标的检测准确率。
假设视频相邻两帧计算的光流结果为(Ui→i+1,Vi→i+1),则从第1帧到第N帧的N-1帧累积光流场S1→N由下述公式(3)表示。
多帧累积光流的累积帧数参数N=3。
(3)表观运动联合网络的构建
附图1描述了本发明构建的表观运动联合网络的网络结构。首先将多帧累积光流与RGB三通道数据进行预处理,然后将预处理后的数据作为表观运动联合网络的输入,以Darknet-53作为骨干网络提取特征,在YOLO层进行目标检测,并将该YOLO层中特征图经过上采样,与Darknet-53中相应尺度的特征图进行维度拼接,实现多层特征的融合,为下一个YOLO层提供数据。网络共使用3个YOLO层进行不同尺度的目标检测,每个YOLO层将输入的特征图进行5次Darknetconv2d_BN_Leaky(DBL)操作,DBL即在一个卷积层后跟一个BatchNormalization层和一个LeakyReLU层,得到输入到下一个YOLO层的特征图,再进行1次Darknetconv2d_BN_Leaky操作,并经过1×1卷积运算,输出对应的S×S×B×(C+(4+1))维度的张量,其中,S×S表示YOLO层中划分的网格数量,B表示每一个网格上产生的边框个数,C表示网络支持识别的类别数;输出张量中包含每个预测边界框的所属类别概率、位置参数以及物体置信度,其中,所属类别概率表示在预测框存在目标的情况下,目标属于各个类别的对应概率,位置参数包括4个参数x、y、w、h,分别表示预测框的中心点相对网格的偏移量和相对于S×S网格的宽、高,物体置信度表示预测框中存在目标的概率。三个YOLO层分别利用对应大小的预测框进行目标检测,并结合运动目标预测损失来计算损失函数,损失函数包括了YOLOv3的损失和运动目标损失。
(3.1)输入数据预处理:实际生活中,人眼并不一定需要目标运动的方向才可以识别出运动物体。因此,本发明将光流数据取绝对值,去除光流中的方向信息,只使用光流的数值大小表示当前像素运动的快慢,从而减少表观运动联合网络训练过程中的噪声,加快收敛速度。此外,RGB三通道像素数据采用了归一化预处理,将数据范围限制在0到1之间,而光流数据也采用归一化操作,使光流的数据分布与表观特征数据的分布相同,从而解决数据范围不一致产生的问题。对光流取绝对值、归一化如下述公式(4)所示,其中mean|U|表示U方向上光流绝对值的平均值,variance|U|表示U方向上光流绝对值的标准差,mean|V|表示V方向上光流绝对值的平均值,variance|V|表示V方向上光流绝对值的标准差。
(3.2)表观运动联合网络的输入:YOLOv3单帧目标检测网络的输入是图像RGB三通道像素值,本发明将多帧累积光流和RGB三通道像素值经过预处理后的结果通过维度连接操作进行连接,作为表观运动联合网络的输入。如附图1表观运动联合网络框架示意图中输入部分所示,前两层为水平和垂直光流场结果,后三层表示RGB三通道图像。
在YOLOv3单帧目标检测网络中,第一个卷积层通过32个3×3大小、步长为1的卷积核进行卷积操作,对原图像提取特征并生成第一层特征图。本发明针对加入的累积光流输入,将第一个卷积层中每一个卷积核的神经元权重参数从3个增加到5个,使得第一层的神经元能够使用新增的神经元权重参数在5个通道输入上计算得出第一层特征图,从而同时提取表观和运动特征。网络第一层特征f1用下述公式(5)表示,其中表示双通道光流场经过卷积操作的计算结果,/>表示RGB三通道数据经过卷积操作的计算结果。
(3.3)运动目标置信度和损失函数设计:上述表观运动联合网络能够依靠表观特征检测到较大的静止目标,也能依靠运动特征检测到运动较快的弱小目标,本发明进一步对表观运动联合网络进行改进,使得网络可以区分运动目标和静止目标,并输出运动目标。
表观运动联合网络的输入已经包含了目标的运动特征,如果要使其区分运动目标和静止目标,需要对输出部分增加损失函数约束。本发明提出在现有YOLO层每一个预测边界框输出4个位置参数和1个物体置信度的基础上,增加1个运动目标置信度,该值是回归连续值,用来表示当前目标框中预测得到的目标是运动目标的置信度。如下述公式(6)所示,S×S表示YOLO层中划分的网格数量,B表示每一个网格上产生的边框个数,C表示网络支持的的识别类别个数,Output_dim表示YOLO层输出的张量维度。输出张量中包含每个预测边界框的所属类别概率、位置参数、物体置信度以及增加的运动目标置信度。其中,所属类别概率表示在预测框存在目标的情况下,目标属于各个类别的对应概率;位置参数包括4个参数x、y、w、h,分别表示预测框的中心点相对网格的偏移量和相对于S×S网格的宽、高;物体置信度表示预测框中存在目标的概率。因网络将输入数据进行了YOLOv3中的编码操作,所以YOLO层将该输出张量进行相应的解码操作得到真实输出。
Output_dim=S×S×B×(C+(4+1+1)) (6)
在损失函数部分,本发明在YOLOv3单帧目标检测网络的五类损失之外,增加运动目标预测损失,该损失使用二分类交叉熵,具体公式表示如(7)所示,其中Loss表示YOLOv3单帧目标检测网络中定义的损失函数,用来累计检测框位置损失和类别损失;求和符号中的S2表示YOLO层中分割的网格数量,表示第i个网格的第j个预测边界框中是否存在目标,如果存在目标则为1,否则为0;mi(j)表示第i个网格的第j个预测边界框中预测得出的运动目标置信度,/>表示数据集中运动目标区域的真实标注,运动目标标注为1,静止目标标注为0。
上述公式中新加项在训练过程中对网络进行约束,令网络能够进一步区分静止目标和运动目标。在测试时,根据网络输出的运动目标置信度判断该目标是否为运动目标,如果运动目标置信度大于阈值Th,则将其视为运动目标输出。
运动目标置信度阈值参数Th=0.5。
以上公开的仅为本发明的具体实例,根据本发明提供的思想,本领域的技术人员能思及的变化,都应落入本发明的保护范围内。
Claims (7)
1.一种结合帧间光流的表观运动联合弱小运动目标检测方法,包括如下步骤:
(1)累积光流计算:利用深度神经网络光流计算方法计算当前帧与前一帧之间的光流,得到当前帧每个像素点的光流,所述光流包含运动方向和运动大小;按照上述方法计算N个连续帧中每相邻两帧的光流,得到N-1个光流,将所述N-1个光流叠加,形成多帧累积光流;
(2)表观运动联合网络构建:在YOLOv3单帧目标检测网络的基础上,通过用Darknet-53骨干网络提取特征,在不同尺度的YOLO层进行目标检测的结构构建表观运动联合网络,将所述多帧累积光流中包含的水平、垂直方向的运动信息作为双通道信息,连同当前帧图像的RGB三通道像素值,经过预处理后一同作为所述表观运动联合网络的输入;在YOLO层每一个预测边界框输出结果中增加运动目标置信度;并在YOLOv3单帧目标检测网络的五类损失之外,增加运动目标预测损失,从而改进损失函数;在训练过程中对所述表观运动联合网络进行约束,使所述表观运动联合网络在目标检测的基础上,进一步区分运动目标和静止目标;
(2.1)所述步骤(2)中将多帧累积光流与当前帧图像的RGB三通道像素值一同作为表观运动联合网络的输入的计算过程包括:将多帧累积光流和RGB三通道像素值经过预处理后,通过维度连接操作进行连接,作为表观运动联合网络的输入;所述多帧累积光流输入包含水平、垂直两个方向的运动信息,将YOLOv3单帧目标检测网络第一个卷积层中每一个卷积核的神经元权重参数从3个增加到5个,使得第一层的神经元能够使用新增的神经元权重参数在5个通道输入上计算得出第一层特征图,从而同时提取表观和运动特征;网络第一层特征f1用下述公式(1)表示,
其中表示预处理后的双通道多帧累积光流经过卷积操作的计算结果,表示RGB三通道像素值经过卷积操作的计算结果;
(2.2)所述步骤(2)中多帧累积光流和RGB三通道像素值的预处理过程为:将多帧累积光流结果取绝对值,去除累积光流的方向信息,只使用累积光流的数值大小表示当前像素的运动快慢,从而减少表观运动联合网络训练过程中的噪声,加快收敛速度;同时,对RGB三通道像素数据采用归一化处理,将数据范围限制在0到1之间,对所述多帧累积光流也采用归一化处理,使所述多帧累积光流的数据分布与表观特征的数据分布范围相同;对所述多帧累积光流采用如下述公式(2)进行归一化,
其中Ui→j、Vi→j分别表示归一化前从第t帧到第j帧的U、V方向上多帧累积光流,mean|U|表示U方向上累积光流绝对值的平均值,variance|U|表示U方向上累积光流绝对值的标准差,mean|V|表示V方向上累积光流绝对值的平均值,variance|V|表示V方向上累积光流绝对值的标准差;
(2.3)所述步骤(2)中表观运动联合网络为了区分运动目标和静止目标,在YOLO层每一个预测边界框输出结果中增加运动目标置信度的具体过程包括:在YOLOv3单帧目标检测网络YOLO层每一个预测边界框输出4个位置参数和1个物体置信度的基础上,增加1个运动目标置信度,该值是回归连续值,用来表示当前目标框中预测得到的目标是运动目标的置信度,其计算方式如公式(3)所示,
Output_dim=S×S×B×(C+(4+1+1)) (3)
其中Output_dim表示YOLO层输出的张量维度,S×S表示YOLO层中划分的网格数量,B表示每一个网格上产生的边框个数,C表示网络支持识别的类别数;表观运动联合网络将输入数据进行了YOLOv3中的编码操作,YOLO层将该输出张量进行与输入时编码相应的解码操作得到最终输出结果;
(2.4)所述步骤(2)中表观运动联合网络在YOLOv3单帧目标检测网络的五类损失之外,增加运动目标预测损失,该损失使用二分类交叉熵,具体计算如公式(4)所示,
其中Loss表示YOLOv3单帧目标检测网络提出的损失函数,用来累计检测框位置损失和类别损失,求和符号中的S2表示YOLO层中分割的网格数量,表示第i个网格的第j个预测边界框中是否存在目标,如果存在目标则为1,否则为0,mi(j)表示第i个网格的第j个预测边界框中预测得出的运动目标置信度,/>表示数据集中运动目标区域的真实标注,运动目标标注为1,静止目标标注为0,通过上述公式(4)在训练过程中对网络进行约束,令网络能够区分静止目标和运动目标;在测试时,根据网络输出的运动目标置信度判断该目标是否为运动目标,如果运动目标置信度大于Th,则将其视为运动目标输出。
2.如权利要求1所述的方法,其特征在于:所述步骤(1)中多帧累积光流的计算过程包括:针对N个连续帧,利用深度神经网络光流计算方法PWC-Net计算出每相邻两帧间的光流,得到N-1个光流结果,将所述每相邻两帧的光流结果以矩阵形式表示,所述矩阵中每个元素表示每个像素点的光流结果;将所述N-1个光流结果进行叠加,形成所述多帧累积光流,以增强慢速小目标的运动信息,所述相邻两帧的光流结果记为(Ui→i+1,Vi→i+1),从第1帧到第N帧的N-1帧累积光流S1→N由下述公式(5)计算得到,
3.如权利要求1所述的方法,其特征在于:所述步骤(2)中表观运动联合网络的具体构建过程为:
(3.1)以YOLOv3单帧目标检测网络为基础,将输入的图像经过Darknet-53骨干网络提取特征,在YOLO层进行目标检测,并将该YOLO层中特征图经过上采样层,与Darknet-53后两层中相应尺度的特征图进行维度拼接,实现多层特征的融合,作为下一个YOLO层提供数据;
(3.2)使用多个YOLO层进行不同尺度的目标检测,每个YOLO层将输入的特征图进行若干次Darknetconv2d_BN_Leaky,即DBL操作,所述DBL操作是在一个卷积层后跟一个BatchNormalization层和一个LeakyReLU层,得到输入到下一个YOLO层的特征图,再进行1次Darknetconv2d_BN_Leaky操作,并经过1×1卷积运算,输出对应的S×S×B×(C+(4+1))维度的张量,其中,S×S表示YOLO层中划分的网格数量,B表示每一个网格上产生的边框个数,C表示网络支持识别的类别数;输出张量中包含每个预测边界框的所属类别概率、位置参数以及物体置信度,其中,所属类别概率表示在预测框存在目标的情况下,目标属于各个类别的对应概率,位置参数包括4个参数x、y、w、h,分别表示预测框的中心点相对网格的偏移量和相对于S×S网格的宽、高,物体置信度表示预测框中存在目标的概率。
4.如权利要求1所述的方法,其特征在于步骤(1)中多帧累积光流的累积帧数参数N=3。
5.如权利要求1所述的方法,其特征在于运动目标置信度阈值Th=0.5。
6.如权利要求3所述的方法,其特征在于网络使用3个YOLO层进行不同尺度的目标检测。
7.如权利要求3所述的方法,其特征在于每个YOLO层将输入的特征图进行5次Darknetconv2d_BN_Leaky。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111142013.9A CN113936034B (zh) | 2021-09-28 | 2021-09-28 | 一种结合帧间光流的表观运动联合弱小运动目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111142013.9A CN113936034B (zh) | 2021-09-28 | 2021-09-28 | 一种结合帧间光流的表观运动联合弱小运动目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113936034A CN113936034A (zh) | 2022-01-14 |
CN113936034B true CN113936034B (zh) | 2024-05-28 |
Family
ID=79277125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111142013.9A Active CN113936034B (zh) | 2021-09-28 | 2021-09-28 | 一种结合帧间光流的表观运动联合弱小运动目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113936034B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116052047B (zh) * | 2023-01-29 | 2023-10-03 | 荣耀终端有限公司 | 运动物体检测方法及其相关设备 |
CN116453010B (zh) * | 2023-03-13 | 2024-05-14 | 彩虹鱼科技(广东)有限公司 | 基于光流rgb双路特征海洋生物目标检测方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109063549A (zh) * | 2018-06-19 | 2018-12-21 | 中国科学院自动化研究所 | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 |
WO2019232894A1 (zh) * | 2018-06-05 | 2019-12-12 | 中国石油大学(华东) | 一种基于复杂场景下的人体关键点检测系统及方法 |
WO2021035807A1 (zh) * | 2019-08-23 | 2021-03-04 | 深圳大学 | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 |
JP2021081789A (ja) * | 2019-11-14 | 2021-05-27 | 日立Astemo株式会社 | 物体識別装置 |
-
2021
- 2021-09-28 CN CN202111142013.9A patent/CN113936034B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019232894A1 (zh) * | 2018-06-05 | 2019-12-12 | 中国石油大学(华东) | 一种基于复杂场景下的人体关键点检测系统及方法 |
CN109063549A (zh) * | 2018-06-19 | 2018-12-21 | 中国科学院自动化研究所 | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 |
WO2021035807A1 (zh) * | 2019-08-23 | 2021-03-04 | 深圳大学 | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 |
JP2021081789A (ja) * | 2019-11-14 | 2021-05-27 | 日立Astemo株式会社 | 物体識別装置 |
Non-Patent Citations (2)
Title |
---|
一种解决波动式干扰影响的序列图像运动目标检测方法;周建锋;苏小红;马培军;;电子与信息学报;20100215(第02期);全文 * |
基于变化检测和帧差累积的视频对象分割方法;祝世平;高洁;郭智超;;光电子.激光;20130815(第08期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113936034A (zh) | 2022-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110147743B (zh) | 一种复杂场景下的实时在线行人分析与计数系统及方法 | |
CN108133188B (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
CN109829443B (zh) | 基于图像增强与3d卷积神经网络的视频行为识别方法 | |
CN110111366B (zh) | 一种基于多级损失量的端到端光流估计方法 | |
CN108492319B (zh) | 基于深度全卷积神经网络的运动目标检测方法 | |
Xu et al. | Inter/intra-category discriminative features for aerial image classification: A quality-aware selection model | |
CN110929593B (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN110097028B (zh) | 基于三维金字塔图像生成网络的人群异常事件检测方法 | |
CN113936034B (zh) | 一种结合帧间光流的表观运动联合弱小运动目标检测方法 | |
CN111738054B (zh) | 一种基于时空自编码器网络和时空cnn的行为异常检测方法 | |
CN111639571B (zh) | 基于轮廓卷积神经网络的视频动作识别方法 | |
Hong et al. | A traffic surveillance multi-scale vehicle detection object method base on encoder-decoder | |
CN112329780B (zh) | 一种基于深度学习的深度图像语义分割方法 | |
CN114220061B (zh) | 一种基于深度学习的多目标跟踪方法 | |
CN114742799B (zh) | 基于自监督异构网络的工业场景未知类型缺陷分割方法 | |
CN112288776B (zh) | 一种基于多时间步金字塔编解码器的目标跟踪方法 | |
CN114724155A (zh) | 基于深度卷积神经网络的场景文本检测方法、系统及设备 | |
CN116091551B (zh) | 一种基于多模态融合的目标检索跟踪方法及系统 | |
CN116402850A (zh) | 一种面向智能驾驶的多目标跟踪方法 | |
CN111626090A (zh) | 一种基于深度帧差卷积神经网络的运动目标检测方法 | |
Cho et al. | Semantic segmentation with low light images by modified CycleGAN-based image enhancement | |
CN114782734A (zh) | 一种阀冷系统管道渗漏视觉检测方法及计算机与存储介质 | |
CN113158905A (zh) | 一种基于注意力机制的行人重识别方法 | |
CN112766056A (zh) | 一种基于深度神经网络的弱光环境车道线检测方法、装置 | |
CN116543338A (zh) | 一种基于注视目标估计的学生课堂行为检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |