CN115482256A - 一种轻量化的目标检测与基于语义分割的自动跟踪方法 - Google Patents

一种轻量化的目标检测与基于语义分割的自动跟踪方法 Download PDF

Info

Publication number
CN115482256A
CN115482256A CN202211120996.0A CN202211120996A CN115482256A CN 115482256 A CN115482256 A CN 115482256A CN 202211120996 A CN202211120996 A CN 202211120996A CN 115482256 A CN115482256 A CN 115482256A
Authority
CN
China
Prior art keywords
target
convolution
tracking
feature
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211120996.0A
Other languages
English (en)
Inventor
邓建华
秦琪怡
杨杰
李龙
何佳霓
代铮
赵建恒
陶泊昊
郑凯文
苟晓攀
陈昱辰
魏卓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202211120996.0A priority Critical patent/CN115482256A/zh
Publication of CN115482256A publication Critical patent/CN115482256A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种轻量化的目标检测与基于语义分割的自动跟踪方法,属于目标检测和目标跟踪技术领域。本发明首先设置了一种轻量化的目标检测网络,用于获取图像中待检测目标的坐标信息和类别结果,为后续跟踪步骤中对新目标的进入和旧目标消失的辨别做准备;进而在语义分割的目标跟踪算法的基础之上,实现对目标的自动初始化以及目标从边界进入和消失的识别;本发明可以应用于公共安全、边防巡检、农业植保、救灾救火等垂直应用领域,提升对指定目标的检测与跟踪性能。

Description

一种轻量化的目标检测与基于语义分割的自动跟踪方法
技术领域
本发明涉及目标检测和目标跟踪等计算机视觉技术领域,尤其涉及一种轻量化的目标检测与基于语义分割的自动跟踪方法。
背景技术
随着AI智能的发展,无人机因其具备轻捷灵敏、自主智能、范围覆盖广、环境依赖低等特点,常被选作空中观测搭载平台,以协助在不同场景需求、不同作业环境下,高质高效、省时省力地完成目标任务。“无人机+”也常结合目标检测和目标跟踪等计算机视觉技术,向公共安全、边防巡检、农业植保、救灾救火等垂直应用领域发展。因此无人机与计算机视觉技术的结合,具有深远而重大地社会意义、经济效益与应用价值。
目标检测与目标跟踪作为计算机视觉的两大基础研究任务。其中,目标检测旨在利用算法来提取目标的表观特征和轮廓区域等信息,以从视频或图像序列中辨别出感兴趣目标和非感兴趣背景,是将目标定位与目标分类两个子任务二合一的技术。而目标跟踪则是通过对摄像头捕获的图像序列分析,计算并找到下一帧图像中目标的确切位置,进而为跟踪平台随动控制、视频序列分析和理解提供轨迹等信息。相较于目标检测关注目标的类别和位置,目标跟踪则更聚焦于目标的运动轨迹。但目标检测与跟踪两者技术并非分割且独立的。目标跟踪根据是否结合使用目标检测算法,划分为Detection-Free Tracking和Detection-Based Tracking两类:前者根据第一帧图像中给出的初始框作为目标假设展开后续跟踪;后者依赖于目标检测模型得到的目标假设,然后进行跟踪和轨迹更新。
此外,目标跟踪算法又根据实现原理划分为预测评分、边界框回归、语义分割三大类别。前两类算法在追踪目标发生较大形变时追踪框与目标框之间的IOU值大幅度下降,在追踪目标快速移动时产生追踪框漂移等现象。而基于语义分割实现像素级追踪更关注目标本身,用可旋转矩形框对目标进行标定精度更高,对于形变或运动的物体有着更为精准的追踪效果。基于语义分割实现的跟踪除了可快速获取目标的类别、位置、轨迹等基础信息外,还可根据部位分割和关键点识别等技术进一步对目标的搭载、姿态、行为意图等进行延展分析。但现有的基于语义分割实现的跟踪方法均为Detection-Free Tracking方法,需依赖人工框选跟踪目标来启动模型,且模型无法识别目标从视线范围内的离开与进入。因此需要一种可搭载于移动端设备的轻量级方法,在对目标进行实时语义分割的同时还能完成自动跟踪,以克服现有方法存在的问题。
发明内容
本发明的目的在于,提供一种轻量化的目标检测方法,并将其与基于语义分割的跟踪算法相结合,得到一种可搭载部署于移动端设备且能够对目标进行实时语义分割的自动跟踪方法。
本发明采用的技术方案如下:
一种轻量化的目标检测与基于语义分割的自动跟踪方法,包括如下步骤:
步骤1:构建并训练轻量化的目标检测网络:
步骤1.1:以416×416×3的图像作为目标检测网络的输入,输入图像首先经过一次卷积核为3×3的普通卷积操作,得到208×208×32的特征层,用于后续步骤的特征提取;其中完成一次普通卷积操作由“卷积+归一化+ReLu激活函数”三步组成;
步骤1.2:步骤1.1获得的特征层作为该步骤的输入,用于对特征信息进行提取。
采用深度可分离卷积操作替代原YOLOv4的普通卷积操作,能够使得模型体积的大幅度缩减和计算量成倍的减少。完成一次深度可分离卷积操作过程如下:首先经过3×3的深度卷积(默认步长为1),然后进行归一化和ReLU函数激活,继而采用1×1实现逐点卷积,同样进行归一化和激活操作,使得数据标准化的同时引入非线性映射以更好模拟真实的数据规律。经深度可分离卷积多次特征提取和让通道数扩增的下采样操作后,最终输出尺度分别为52×52×256、26×26×512、13×13×1024的三个有效特征层P3、P4、P5,作为后续步骤的输入。
步骤1.3:将步骤1.2中得到的特征层P3、P4、P5输入至特征增强模块,具体如下:
步骤1.3-1:将步骤1.2得到的特征层P5作为该步骤的输入,依次利用四个不同尺度的池化核做最大池化进行处理,最大池化的池化核大小分别为13×13、9×9、5×5、1×1,并将池化后得到的4个特征层拼接堆叠,通过卷积核为1×1的普通卷积,调整为13×13×512的特征层后输出;
步骤1.3-2:经过步骤1.2特征提取后得到特征层P3、P4、P5,经过步骤1.3-1得到特征层,记为P6。首先将P3至P6这4个特征层依次执行3×3的普通卷积,使得4个特征层的通道数保持一致。继而以“P6-P5-P4-P3”的方向完成多次上采样操作和与相邻层特征层逐点信息相加的操作,接着以“P3-P4-P5-P6”的方向完成多次下采样操作和与相邻层特征层逐点信息相加的操作,最后得到4个特征层的输出;
步骤1.3-3:步骤1.3-2为完成一次双向融合网络,记为一个block。将该block的输出经3×3的普通卷积后,再次作为下一层block的输入,多次重复执行步骤1.3-2。完成最后一次block操作后,将最终得到的4个特征层作为下一步骤的输入;
步骤1.4:若用于训练模型的数据集包含k类目标,那么对步骤1.3-3输出的4个特征层,
完成卷积核为3×3和1×1的交替卷积,共计5次卷积,将4个特征层的通道数统一调整为(k+5)×3,用于预测结果信息的解码,即预测目标的中心点坐标、预测框的宽和高、预测框的置信度以及k类目标的编码(例如one-hot编码);
步骤1.5:对用于训练目标检测网络的数据集中的图像进行图像预处理,使图像尺寸调整为416×416×3后,对步骤步骤1.1至步骤1.4所限定的目标检测网络进行网络模型训练处理,当满足阈值的训练结束条件时,得到训练好的目标检测网络执行步骤2;
步骤2:基于语义分割的自动跟踪:
根据使用者指定的跟踪目标的范围及跟踪目标的优先级,对目标检测模型检测出的目标进行排序,将排序第一的目标作为待观测目标,并基于待观测目标的中心点坐标,目标框的宽、高信息封装传入指定的目标跟踪算法,即以待观测目标为当前跟踪目标,并启动跟踪模型对当前跟踪目标进行跟踪;
对当前跟踪目标进行跟踪时,通过填充(padding)区域的方式判断当前跟踪目标是否进入检测范围的边界区域,若是,则继续跟踪,若否,则通过区域划分检测的方式判断从边界离开的当前跟踪目标是否在指定时长内重回视线(重回观测画面),若重回观测画面,则继续通过填充区域的方式判断当前跟踪目标是否进入检测范围的边界区域;若未重回观测画面,则依靠区域检测次数判断跟踪目标是否已永久离开监测范围(目标从边界离开后连续指定帧数内未检测到进入边界的同类别目标则认为其永久离开监测范围);若是,则重新找寻新的待观测目标,若否,则通过区域划分检测的方式判断从边界离开的当前跟踪目标是否在指定时长内重回观测画面。
本发明提供的技术方案至少带来如下有益效果:本发明的轻量化的目标检测网络是一种超轻量且高精度的目标检测方式,用于获取图像中待检测目标的坐标信息和类别结果,为后续跟踪步骤中对新目标的进入和旧目标消失的辨别做准备;进而在语义分割的目标跟踪算法的基础之上,实现对目标的自动初始化以及目标从边界进入和消失的识别;本发明可以应用于公共安全、边防巡检、农业植保、救灾救火等垂直应用领域,提升对指定目标的检测与跟踪性能。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明的轻量化目标检测模型结构图;
图2为完成一次深度可分离卷积的流程图;
图3为空间金字塔池化层结构图;
图4为本发明的自动定位跟踪流程图;
图5为本发明的边界目标检测流程图;
图6为本发明的边界区域示意图;
图7为本发明的区域检测示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此次附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有的基于语义分割实现的跟踪方法均为Detection-Free Tracking方法,需依赖人工框选跟踪目标来启动模型,且模型无法识别目标从视线范围内的离开与进入。为满足空中识别追踪等垂直应用领域发展的需求,本发明设计了一种可搭载于移动端设备的方法,采用轻量级的目标检测算法定位目标,再在此基础上对目标进行实时语义分割的同时完成对目标的自动跟踪。以下结合实施例对本发明的特征和性能作进一步的详细描述。
实施例1
一种基于语义分割的轻量化目标自动跟踪方法,包括如下步骤:
a:构建并训练轻量化的目标检测网络:在YOLOv4目标检测算法基础上,对其网络结构的特征提取和特征增强两个部分分别进行优化,以得到超轻量且高精度的目标检测算法,用于获取图像中待检测目标的坐标信息和类别结果,为后续跟踪步骤中对新目标的进入和旧目标消失的辨别做准备;并将目标数据集输入该模型进行训练,轻量级目标检测优化网络的结构如图1所示。
a1:构建基于深度可分离卷积实现的特征提取网络:任意尺度的彩色图像作为待检测对象,首先采用四周填充黑色边框的padding填充方式使其成为方形图片,再通过等比例放缩为416×416×3尺寸的图像作为图1所示网络的输入。经过一次卷积核为3×3的普通卷积,可得到208×208×32的特征层,作为该步骤的输出。其中完成一次普通卷积操作由“卷积+归一化+ReLu激活函数”三步组成。
a2:上一步骤的输出作为该步骤的输入,并通过多次深度可分离卷积,完成对其特征信息的提取。
完成一次深度可分离卷积操作的具体步骤如图2所示:首先将多通道的卷积核拆分为多个卷积核,分别对输入的多通道执行卷积核大小为3×3的卷积(默认步长为1),然后进行归一化和ReLU函数激活;继而采用1×1的卷积核实现逐点卷积,同样进行归一化和激活操作,使得数据标准化的同时引入非线性映射以更好模拟真实的数据规律。
基于深度可分离卷积来完成特征提取的具体操作如图1所示:416×416×32的特征层,经过一次深度可分离卷积操作得到208×208×64的特征层;接着执行Conv_dw_1,Conv_dw_1由两步深度可分离卷积完成,第一次卷积的步长为2,实现卷积层宽高的下采样,得到104×104×64的特征层,第二次卷积为默认步长1,扩增其通道数,得到104×104×128的特征层;在上一步的结果之上,同样执行Conv_dw_1,得到52×52×256的特征层,记为P3;在P3的基础上执行Conv_dw_2,Conv_dw_2包含一次步长为2的深度可分离卷积,和5次步长为1的深度可分离卷积,得到26×26×512的特征层,记为P4;在P4基础上,执行Conv_dw_1,得到13×13×1024的特征层,记为P5。
原YOLOv4采用残差块结构Resblock_body经过反复堆叠来完成特征提取的CSPDarknet53网络,随着网络深度加深,经过多次下采样特征层的长宽不断减小的同时,通道数不断翻倍,堆叠次数也在逐步增多。因此每一次执行普通卷积,参与下采样和残差块计算的参数量都在成倍增加。而深度可分离卷积,将多通道的卷积核拆分为多个卷积核,分别对输入的多通道处理来获取空间信息,再采用1×1的卷积核进行逐点卷积,将空间信息同跨通道信息结耦。以实现将7×7×3的特征层经一次卷积输出为5×5×128的特征层为例,普通卷积需要3×128×3×3=3456个参数,而深度可分离卷积仅需3×3×3+3×128×1×1=411个参数,计算量由169,344降为9,660。故本发明基于深度可分离卷积来实现对特征信息的提取,其轻量化效果非常显著。
a3:构建空间金字塔池化层:
空间金字塔池化层结构如图3所示。特征层P5作为输入,依次利用池化核大小分别为13×13、9×9、5×5、1×1四个不同尺度的特征层,做最大池化进行处理,并将池化后得到的四个特征层拼接堆叠,然后通过卷积核为3×3、1×1、3×3的三次交替普通卷积,调整为13×13×512的特征层,记为P6,然后输出至下一步骤;
a4:构建基于多尺度特征融合的特征增强网络:
经过特征提取后从上至下得到五个特征层,其中P3、P4、P5三个特征层具有较高的语义信息,用于后续模块的特征增强。P5经过步骤a3后得到13×13×512的特征层,记为P6。在进入特征金字塔网络之前,将P3至P6四个特征层分别采用卷积核大小为1×1的普通卷积,将P3至P6特征层的通道数统一调整至128,得到P3_in至P6_in。相较于YOLOv4在该模块对P3至P5特征层分别设置的通道数128、256、512,本方案统一调整为128,一方面让网络结构变得更加轻盈,一方面为后续采用Add方式来实现特征融合做准备。
本发明采用Add作为融合方式,相较于YOLOv4采用的Concat的融合方式,使得卷积时同一通道的丰富信息能共享卷积核的同时,还能减少计算量。Add和Concat融合方式的计算过程如公式(1.1)和(1.2)所示,其中X和Y分别表示通道数为c的特征层,K为卷积核,*表示卷积操作。
Figure BDA0003846630370000061
Figure BDA0003846630370000062
其中,Xi、Yi表示通道i待进行融合的两个特征层,Ki表示通道i的卷积核。
多尺度特征融合由下至上方向:P6_in因与P5_in的宽高相同,故直接执行3×3普通卷积,再同P5_in融合,得到过渡层P5_td;P5_td经过上采样操作同P4_in相融合,得到过渡层P4_td;P4_td经过上采样操作同P3_in相融合,得到输出层P3_out。
多尺度特征融合由上至下方向:P4_out由上层P3_out经下采样和输入层P4_in以及过渡层P4_td融合而成;P5_out由上层P4_out经下采样和输入层P5_in以及过渡层P5_td融合而成;P6_out由上层P4_out直接经3×3普通卷积,同输入层P6_in融合而成。
至此双向融合网络构建完成,形成一个block。将该层block的输出P3_out至P6_out分别执行卷积核为3×3的普通卷积,作为下一层block的P3_in至P6_in。前序步骤中将所有特征层的通道数统一下调至128,必然会减少各特整层包含的信息,故可通过多次重复堆叠双向信息传递结构block,让模型在较少的特征数前提下,提炼到更有效的特征信息。但随着特征金字塔的深度继续加深时,模型精度反而有所下降,这是因为上下文信息反复传递,其传递路径越远,遗失的有效特征就越多。本实施例采用的堆叠次数为4,因通过实验发现在该堆叠次数下,模型在大幅度减少参数量和计算量的同时拥有最高的检测精度。完成最后一次特征金字塔操作后,将P3_out、P4_out和P6_out作为预测输出网络的输入。
a4:构建预测输出网络:以检测目标类别数是9为例。将上一步骤的输出P3_out、P4_out和P6_out,经卷积核为3×3和1×1的交替卷积(共5次卷积),调整为52×52×42、26×26×42和13×13×42。三个尺度的输出表示将图像依次划分为52×52、26×26和13×13个方格,每一个方格内对应3个预测框,换而言之3个尺度的特征层分别可实现对小、中、大三类目标的预测。一个先验框需要5个参数表示其位置,包括中心点坐标(x_offset,y_offset)、先验框的宽和高、先验框的置信度,以及还需9个参数通过one-hot编码方式表示9类目标。而一个方格又有3个预测框,因此各特征层通道数设置为(5+9)×3=42,以用于预测输出结果的解码。
a5:基于上述构建网络,本例实施获取目标检测的识别结果:轻量化后的目标检测网络可实现对图像中多目标的识别与定位,目标检测模性能如表1所示。
表1目标检测模型轻量化前后对比结果
YOLOv4 轻量化目标检测模型
检测精度 0.8666 0.8653
准确率 0.9336 0.9409
召回率 0.7769 0.7630
参数量 64,040,001 9,644,215
计算量 25.7GMac 3.63GMac
模型存储 256.3M 44.9M
根据表1所述,相较于优化前的目标检测模型YOLOv4,轻量化目标检测模型精简了84.94%的参数量,减少了85.88%的计算量,模型从原256.3M压缩至44.9M,但检测精度仅下降了0.13个百分点。
b:应用上一步骤得到的轻量化目标检测模型,在语义分割的目标跟踪算法SiamMask的基础上,实现对目标的自动初始化以及目标从边界进入和消失的识别。
b1:自动定位跟踪:SiamMask算法作为视频分割算法和目标跟踪算法,是由Detection-Free Tracking跟踪算法常用的由人工手动框选目标作为初始框来驱动模型运行。但在实际应用过程中,图像帧序列接连不断地输入模型,跟踪目标也随时间序列发生空间移动,该方式无法满足实时且准确的要求,故引入之前步骤设计的轻量化检测器,来实现自动定位跟踪。自动定位跟踪的流程如图4所示:
(1)开始模型运行;
(2)指定跟踪目标的范围及跟踪目标的优先级,根据优先级从高到低赋予各目标分值priority_score(本实施例为9类目标,故设定最大值为10,间隔值为1);
(3)视频流传入模型,采用OpenCV的VideoCapture()函数提取图像帧frame;
(4)经轻量化目标检测算法检测frame图像中的目标;
(5)判断frame内是否存在检测目标:若不存在,则执行步骤3,提取视频流的下一帧图像;若存在,则执行步骤6;
(6)判断检测器检测出的目标数量:若为单一目标,则直接执行步骤8输出该目标框信息;若为多目标,则执行步骤7;
(7)获取目标的预测分值predict_score,计算各目标的排序分值priority_score*predict_score。结合已检测出目标的预测分数和优先级,对其进行排序;
(8)从步骤7中选择排序第一的目标作为待观测目标,并将该目标的中线点坐标(x,y)以及目标框的宽和高的信息封装,传入目标跟踪算法SiamMask;
(9)由检测器检测到的目标框替代原手动拉取的目标框,启动跟踪算法,对待跟踪目标进行跟踪;
(10)停止跟踪或终止视频流的传入,结束。
b2:边界目标检测:SiamMask算法在当目标离开观测画面后,模型仍会以上一帧追踪目标为模板template,从已经不包含目标的下一帧图像search中找寻相似度最高的响应区域作为新的追踪目标,例如背景或非必要追踪对象等。故本发明根据上述问题,将轻量化目标检测算法与之相结合,辅助模型能够分辨新目标的进入和旧目标的消失。边界目标检测的流程如图5所示:
(1)开始运行模型;
(2)经步骤b1,基于轻量化检测器确定当前第k帧图像的自动定位追踪目标;
(3)对指定目标采用SiamMask算法进行追踪;
(4)判断当前是否有新的图像帧传入模型:若没有新的图像帧,则执行步骤14;否则执行步骤5;
(5)获取当前帧图像的追踪目标位置信息,尤其是中心点坐标;
(6)判断跟踪目标target是否进入采集图像的边界区域。其中边界区域的定义如图6所示,设采集图像的分辨率为image_w*image_h,则图中宽为32像素的阴影区域即为边界区域(最小目标的绝对定义为32×32,本实施例以此作为边界标准)。故以图中坐标系为标准,当追踪目标的中心点坐标(x,y)满足x∈[32,image_w-32]&y∈[32,image_h-32]时,跳转执行步骤3对下一帧图像持续追踪;否则说明该目标进入边界区域,更新下一帧图像执行步骤7;
(7)使用轻量化目标检测算法对k+1帧图像进行区域检测,其区域范围如图7所示,将采集图像均分为4个区域,每个区域大小为(image_w*image_h)/2,判断步骤6中进入边界区域的目标中心点所在区域,对该限定区域进行目标检测。区域检测一方面因缩小检测范围可筛选掉多余目标而提高检测算法的执行速度,一方面限制在上一帧目标所在区域,在目标离开画面后具有更大概率寻回同一目标持续进行追踪;
(8)判断检测器是否检测出目标且目标类别与上一帧追踪目标的类别是否匹配,若同时满足上述条件执行步骤11,否则执行步骤9;
(9)记录区域检测次数AreaDet_nums加1(AreaDet_nums初始值为1)。当追踪目标离开观测范围后,需要判定该目标是否会重回观测画面,故设置AreaDet_nums这一参数作为判断标准;
(10)设置最大检测次数max_det为10,每完成一次检测计数器AreaDet_nums加1。假设目标从边界离开后连续10帧内都未检测到进入边界时的同类别目标,则默认该目标已永久离开监测范围,跳转执行步骤2,根据自动定位追踪策略重新确定目标进行追踪;否则更新图像帧执行步骤7,再次检测;
(11)经步骤8筛选后得到同类别目标,若目标数量为1,模型认为该目标即为之前离开观测范围的同一目标,直接执行步骤14;若不止一个目标,则执行步骤12对目标进行排序;
(12)该步骤排序是为了尽可能找回进入边界区域时的同一目标target重新进行跟踪。故采用欧氏距离算法计算检测器检测出的多个目标与target的距离;
(13)选择与target最近的目标作为后续跟踪目标,跳转执行步骤3;
(14)结束模型运行。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
以上所述的仅是本发明的一些实施方式。对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (3)

1.一种轻量化的目标检测与基于语义分割的自动跟踪方法,其特征在于,包括下列步骤:
步骤1:构建并训练轻量化的目标检测网络:
步骤1.1:以416×416×3的图像作为目标检测网络的输入,输入图像首先经过一次卷积核为3×3的普通卷积操作,得到208×208×32的特征层;其中,完成一次普通卷积操作依次包括卷积运算,批归一化和ReLu函数激活;
步骤1.2:对步骤1.1获得的208×208×32的特征层进行多次深度可分离卷积操作,并将最后三次的深度可分离卷积操作输出的特征层经让通道数扩增的下采样操作后,输出尺度分别为52×52×256、26×26×512、13×13×1024的三个特征层分别标记为P3、P4、P5;
其中,完成一次深度可分离卷积操作包括:首先经过3×3的深度卷积,然后进行批归一化和ReLU函数激活,接着采用1×1的卷积核实现逐点卷积,再进行批归一化和ReLU函数激活操作,得到一次深度可分离卷积操作输出的特征层;其中,深度卷积的步长设置为1;
步骤1.3:将特征层P3、P4、P5输入至特征增强模块进行增强处理,具体如下:
步骤1.3-1:将特征层P5依次利用四个不同尺度的池化核执行最大池化处理,其中四个池化核大小分别为13×13、9×9、5×5、1×1,并将最大池化后得到的4个特征层拼接堆叠,再通过卷积核为1×1的普通卷积,调整为13×13×512的特征层,并记为特征层P6;
步骤1.3-2:将特征层P3、P4、P5和P6依次执行卷积核为3×3的普通卷积,使得4个特征层的通道数保持一致,继而以“P6-P5-P4-P3”的方向完成多次上采样操作和与相邻层特征层逐点信息相加的操作,接着再以“P3-P4-P5-P6”的方向完成多次下采样操作和与相邻层特征层逐点信息相加的操作,最后得到4个特征层的输出;
步骤1.3-3:步骤1.3-2为完成一次双向融合网络,记为一个block,将该block的输出经卷积核为3×3的普通卷积后,再次作为下一层block的输入,多次重复执行步骤1.3-2,完成最后一次block操作后,将最终得到的4个特征层作为下一步骤的输入;
步骤1.4:定义k表示用于训练目标检测网络的数据集包含的目标类别数,对步骤1.3-3输出的4个特征层,完成卷积核为3×3和1×1的交替卷积,共计5次卷积,将4个特征层的通道数统一调整为(k+5)×3,用于预测结果信息的解码,即预测目标的中心点坐标、预测框的宽和高、预测框的置信度以及k类目标的编码;
步骤1.5:对用于训练目标检测网络的数据集中的图像进行图像预处理,使图像尺寸调整为416×416×3后,对步骤步骤1.1至步骤1.4所限定的目标检测网络进行网络模型训练处理,当满足阈值的训练结束条件时,得到训练好的目标检测网络执行步骤2;
步骤2:基于语义分割的自动跟踪:
根据使用者指定的跟踪目标的范围及跟踪目标的优先级,对目标检测模型检测出的目标进行排序,将排序第一的目标作为待观测目标,并基于待观测目标的中心点坐标,目标框的宽、高信息封装传入指定的目标跟踪算法,即以待观测目标为当前跟踪目标,并启动跟踪模型对当前跟踪目标进行跟踪;
对当前跟踪目标进行跟踪时,通过填充区域的方式判断当前跟踪目标是否进入检测范围的边界区域,若是,则继续跟踪,若否,则通过区域划分检测的方式判断从边界离开的当前跟踪目标是否在指定时长内重回观测画面,若重回观测画面,则继续通过填充区域的方式判断当前跟踪目标是否进入检测范围的边界区域;若未重回观测画面,则依靠区域检测次数判断当前跟踪目标是否已永久离开监测范围;若是,则重新找寻新的待观测目标,若否,则通过区域划分检测的方式判断从边界离开的当前跟踪目标是否在指定时长内重回观测画面。
2.如权利要求1所述的方法,其特征在于,步骤2中,目标跟踪算法为SiamMask目标跟踪算法。
3.如权利要求1所述的方法,其特征在于,步骤2中,若当前跟踪目标从边界离开后连续指定帧数内未检测到进入边界的同类别目标时,则认为当前跟踪目标永久离开监测范围。
CN202211120996.0A 2022-09-15 2022-09-15 一种轻量化的目标检测与基于语义分割的自动跟踪方法 Pending CN115482256A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211120996.0A CN115482256A (zh) 2022-09-15 2022-09-15 一种轻量化的目标检测与基于语义分割的自动跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211120996.0A CN115482256A (zh) 2022-09-15 2022-09-15 一种轻量化的目标检测与基于语义分割的自动跟踪方法

Publications (1)

Publication Number Publication Date
CN115482256A true CN115482256A (zh) 2022-12-16

Family

ID=84423542

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211120996.0A Pending CN115482256A (zh) 2022-09-15 2022-09-15 一种轻量化的目标检测与基于语义分割的自动跟踪方法

Country Status (1)

Country Link
CN (1) CN115482256A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116012949A (zh) * 2023-02-06 2023-04-25 南京智蓝芯联信息科技有限公司 一种复杂场景下的人流量统计识别方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116012949A (zh) * 2023-02-06 2023-04-25 南京智蓝芯联信息科技有限公司 一种复杂场景下的人流量统计识别方法及系统
CN116012949B (zh) * 2023-02-06 2023-11-17 南京智蓝芯联信息科技有限公司 一种复杂场景下的人流量统计识别方法及系统

Similar Documents

Publication Publication Date Title
WO2020244653A1 (zh) 物体识别方法及装置
CN110688987B (zh) 一种行人位置检测与跟踪方法及系统
CN109800629B (zh) 一种基于卷积神经网络的遥感图像目标检测方法
CN107145889B (zh) 基于具有RoI池化的双CNN网络的目标识别方法
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
CN113065558A (zh) 一种结合注意力机制的轻量级小目标检测方法
CN113807187A (zh) 基于注意力特征融合的无人机视频多目标跟踪方法
CN110532970B (zh) 人脸2d图像的年龄性别属性分析方法、系统、设备和介质
CN111213155A (zh) 图像处理方法、设备、可移动平台、无人机及存储介质
CN112258559B (zh) 一种基于多目标跟踪的智能跑步计时评分系统和方法
CN110532937B (zh) 基于识别模型与分类模型进行列车前向目标精准识别的方法
CN113963032A (zh) 一种融合目标重识别的孪生网络结构目标跟踪方法
CN112818905B (zh) 一种基于注意力和时空信息的有限像素车辆目标检测方法
CN113033315A (zh) 一种稀土开采高分影像识别与定位方法
CN113569724B (zh) 基于注意力机制和扩张卷积的道路提取方法及系统
CN115482256A (zh) 一种轻量化的目标检测与基于语义分割的自动跟踪方法
CN114627339A (zh) 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质
CN114241250A (zh) 一种级联回归目标检测方法、装置及计算机可读存储介质
CN113674321A (zh) 一种基于云端的监控视频下多目标跟踪的方法
CN117392578A (zh) 基于两阶段时空注意力的动作检测方法及系统
CN116912763A (zh) 一种融合步态人脸模态的多行人重识别方法
CN114898464B (zh) 一种基于机器视觉的轻量化精准手指语智能算法识别方法
CN110659585A (zh) 一种基于交互属性监督的行人检测方法
CN114863267B (zh) 一种基于多轨迹智能预测的航拍树木数量精准统计方法
CN114155475B (zh) 无人机视角下端到端的人员动作识别方法、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination