CN113870320A - 一种基于深度神经网络的行人追踪监控方法及系统 - Google Patents

一种基于深度神经网络的行人追踪监控方法及系统 Download PDF

Info

Publication number
CN113870320A
CN113870320A CN202111471521.1A CN202111471521A CN113870320A CN 113870320 A CN113870320 A CN 113870320A CN 202111471521 A CN202111471521 A CN 202111471521A CN 113870320 A CN113870320 A CN 113870320A
Authority
CN
China
Prior art keywords
pedestrian
target
pedestrian target
detection
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111471521.1A
Other languages
English (en)
Other versions
CN113870320B (zh
Inventor
李之红
董阳
高秀丽
邱世尧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Civil Engineering and Architecture
Original Assignee
Beijing University of Civil Engineering and Architecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Civil Engineering and Architecture filed Critical Beijing University of Civil Engineering and Architecture
Priority to CN202111471521.1A priority Critical patent/CN113870320B/zh
Publication of CN113870320A publication Critical patent/CN113870320A/zh
Application granted granted Critical
Publication of CN113870320B publication Critical patent/CN113870320B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于深度神经网络的行人追踪监控方法及系统,先基于SSD模型构建深度神经网络检测框架;然后将训练样本输入至深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,并将已确定权重参数的深度神经网络检测框架称为行人目标检测模型;将待检测视频输入至行人目标检测模型进行行人目标追踪监测,采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹。本发明针对遮挡难以被检测到行人目标时,充分利用视频目标在多帧中的位置信息,采用线性插值算法补全目标的轨迹信息,进而提高了追踪监控的准确性。

Description

一种基于深度神经网络的行人追踪监控方法及系统
技术领域
本发明涉及图像处理技术领域,特别是涉及一种基于深度神经网络的行人追踪监控方法及系统。
背景技术
传统方法主要采用卡尔曼滤波算法对行人追踪监控,对不确定性较强的情况会导致行人ID跳变问题严重,因此存在追踪监控准确性低的问题。
发明内容
本发明的目的是提供一种基于深度神经网络的行人追踪监控方法及系统,以提高追踪监控的准确性。
为实现上述目的,本发明提供了一种基于深度神经网络的行人追踪监控方法,所述方法包括:
步骤S1:从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像;
步骤S2:基于SSD模型构建深度神经网络检测框架;
步骤S3:将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型;
步骤S4:将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹,具体包括:
步骤S41:将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置;
步骤S42:基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征;
步骤S43:根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置;
步骤S44:采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹。
可选地,步骤S43具体包括:
步骤S431:利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态;
步骤S432:根据各检测目标的行人目标运动状态计算运动相似度;
步骤S433:根据各检测目标的外观特征计算外观相似度;
步骤S434:根据所述运动相似度和所述外观相似度计算总相似度;
步骤S435:采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果;
步骤S436:判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“步骤S44”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
可选地,根据各检测目标的行人目标运动状态计算运动相似度的具体计算公式为:
Figure 100002_DEST_PATH_IMAGE001
其中,
Figure 3600DEST_PATH_IMAGE002
表示第i个跟踪器检测第j个检测目标的运动相似度,
Figure 100002_DEST_PATH_IMAGE003
表示第j个检测目标的目标运动状态,
Figure 790421DEST_PATH_IMAGE004
表示第i个追踪器的运动状态,
Figure 100002_DEST_PATH_IMAGE005
表示检测和跟踪的协方差矩阵。
可选地,根据各检测目标的外观特征计算外观相似度的具体公式为:
Figure 636149DEST_PATH_IMAGE006
其中,
Figure 100002_DEST_PATH_IMAGE007
表示第i个跟踪器检测第j个检测目标获得的运动特征相似度,
Figure 210218DEST_PATH_IMAGE008
表示第j个检测目标的外观特征,
Figure 100002_DEST_PATH_IMAGE009
表示第k次追踪成功的特征向量集合,
Figure 737277DEST_PATH_IMAGE010
表示第i个跟踪器的所有目标外观特征集合。
本发明还提供一种基于深度神经网络的行人追踪监控系统,所述系统包括:
获取模块,用于从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像;
检测框架构建模块,用于基于SSD模型构建深度神经网络检测框架;
训练模块,用于将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型;
追踪监测模块,用于将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹,具体包括:
行人目标初始位置确定单元,用于将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置;
特征提取单元,用于基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征;
ID匹配单元,用于根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置;
行人目标最终轨迹确定单元,用于采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹。
可选地,所述ID匹配单元具体包括:
行人目标运动状态确定子单元,用于利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态;
运动相似度计算子单元,用于根据各检测目标的行人目标运动状态计算运动相似度;
外观相似度计算子单元,用于根据各检测目标的外观特征计算外观相似度;
总相似度计算子单元,用于根据所述运动相似度和所述外观相似度计算总相似度;
ID匹配子单元,用于采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果;
判断子单元,用于判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“行人目标最终轨迹确定单元”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
可选地,根据各检测目标的行人目标运动状态计算运动相似度的具体计算公式为:
Figure 221348DEST_PATH_IMAGE001
其中,
Figure 656220DEST_PATH_IMAGE002
表示第i个跟踪器检测第j个检测目标的运动相似度,
Figure 592952DEST_PATH_IMAGE003
表示第j个检测目标的目标运动状态,
Figure 94340DEST_PATH_IMAGE004
表示第i个追踪器的运动状态,
Figure 199962DEST_PATH_IMAGE005
表示检测和跟踪的协方差矩阵。
可选地,根据各检测目标的外观特征计算外观相似度的具体公式为:
Figure 761393DEST_PATH_IMAGE006
其中,
Figure 100002_DEST_PATH_IMAGE011
表示第i个跟踪器检测第j个检测目标获得的运动特征相似度,
Figure 14782DEST_PATH_IMAGE012
表示第j个检测目标的外观特征,
Figure 100002_DEST_PATH_IMAGE013
表示第k次追踪成功的特征向量集合,
Figure 382179DEST_PATH_IMAGE014
表示第i个跟踪器的所有目标外观特征集合。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明基于SSD模型构建深度神经网络检测框架,并将已确定权重参数的深度神经网络检测框架称为行人目标检测模型,将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹。本发明针对遮挡难以被检测到行人目标时,充分利用视频目标在多帧中的位置信息,采用线性插值算法补全目标的轨迹信息,进而提高了追踪监控的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于深度神经网络的行人追踪监控方法流程图;
图2为本发明深度神经网络检测框架示意图;
图3为本发明基于深度神经网络的行人追踪监控系统结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于深度神经网络的行人追踪监控方法及系统,以提高追踪监控的准确性。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
深度神经网络是近年来人工智能领域中非常热门的研究方向,其应用方向包括目标检测与跟踪、语音识别和推荐算法等。其中深度卷积神经网络被广泛应用于目标检测与跟踪领域。深度卷积神经网络有两个特点:(1)空间不变性。深度卷积神经网络在将原图映射为特征图的同时,尺寸发生变化,但不影响目标在图像上的位置。(2)权值共享。深度卷积神经网络通过卷积核在多层的通道上图像对应位置进行特征提取,每层通道中的卷积核的权值是相同的,与全连接神经网络相比,参数量大大减少。本发明主要利用深度神经网络对行人追踪进行监控,具体监控过程如下:
实施例1
如图1所示,本发明公开一种基于深度神经网络的行人追踪监控方法,所述方法包括:
步骤S1:从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像。
步骤S2:基于SSD模型构建深度神经网络检测框架。
步骤S3:将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型。
步骤S4:将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹。
下面对各个步骤进行详细论述:
步骤S1:从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像,具体包括:
步骤S11:通过网络爬虫方式获取现有行人目标图像。
步骤S12:利用LabelImage软件对所述现有行人目标图像进行标注,获得现有行人目标标注图像。
步骤S2:基于SSD模型构建深度神经网络检测框架,具体包括:所述深度神经网络检测框架包括主干部分和检测部分,其中,主干部分包括VGG部分和附加部分。深度神经网络检测框架输入的是现有行人目标标注图像,其尺寸为300*300,通道数为3,即300*300*3维度的张量。
VGG部分共计包括5个卷积模块,分别为Conv1~Conv5。Conv1包括两个卷积层,每个卷积层通过64个3*3的卷积核提取特征信息,再通过最大池化层进一步将数据尺寸缩减到150*150;Conv2包括两个卷积层,每个卷积层通过128个3*3的卷积核提取特征信息,再通过最大池化层进一步将数据尺寸缩减到75*75;Conv3包括三个卷积层,每个卷积层通过256个3*3的卷积核提取特征信息,再通过最大池化层进一步将数据尺寸缩减到38*38;Conv4包括三个卷积层,每个卷积层通过512个3*3的卷积核提取特征信息,再通过最大池化层进一步将数据尺寸缩减到19*19;Conv5包括三个卷积层,每个卷积层通过512个3*3的卷积核提取特征信息,再通过1*1的最大池化层后尺寸不变。
附加部分共计包括6个卷积模块,Conv6包含一个卷积层,通过1024个3*3的卷积核提取特征信息;Conv7包含一个卷积层,通过1024个1*1的卷积核提取特征信息;Conv8包含两个卷积层,第一个卷积层包括256个1*1卷积核,第二个卷积层包括512个3*3的卷积核,第二个卷积层还通过将卷积核步长调成为2把数据尺寸缩减到10*10; Conv9包含两个卷积层,第一个卷积层包括128个1*1卷积核,第二个卷积层包括256个3*3的卷积核,第二个卷积层还通过将卷积核步长调成为2把数据尺寸缩减到5*5; Conv10包含两个卷积层,第一个卷积层包括128个1*1卷积核,第二个卷积层包括256个3*3的卷积核,第二个卷积层还通过将卷积核步长调成为2把数据尺寸缩减到3*3;Conv11包含两个卷积层,第一个卷积层包括128个1*1卷积核,第二个卷积层包括256个3*3的卷积核,第二层的图像尺寸与卷积核尺寸相同,故数据尺寸缩减到1*1。
Conv4的第二层,Conv7的第一层(共一层),Conv8的第二层,Conv9的第二层,Conv10的第二层,Conv11的第二层,分别输出尺寸为38*38*512,19*19*1024,10*10*512,5*5*256,3*3*256,1*1*256的特征图进入检测部分。
检测部分包括分类和定位两个预测器,每个预测器将六种尺寸的特征图分别送入六个卷积层,将不同尺寸的特征图进行融合,得到融合特征图。
步骤S3:将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数。
本实施例中,总损失函数包括置信度损失函数和位置损失函数,通过梯度下降算法和反向传播算法训练模型,以寻找差距程度最小的权重参数,优化模型的类别预测精度和位置预测精度。
网络的总损失函数为:
Figure DEST_PATH_IMAGE015
其中,N表示样本数量,
Figure 935782DEST_PATH_IMAGE016
表示置信度损失,
Figure DEST_PATH_IMAGE017
表示位置损失,
Figure 559792DEST_PATH_IMAGE018
表示平衡系数,
Figure DEST_PATH_IMAGE019
表示网络的总损失函数,
Figure 97215DEST_PATH_IMAGE020
表示检测框匹配情况,用0,1表示,
Figure DEST_PATH_IMAGE021
表示检测物体对应种类的概率;
Figure 504188DEST_PATH_IMAGE022
表示预测框的位置参数;
Figure DEST_PATH_IMAGE023
表示真实框的位置参数。
置信度损失函数为:
Figure 410833DEST_PATH_IMAGE024
其中,N表示样本数量,
Figure DEST_PATH_IMAGE025
表示第i个检测框与第j个真实框是否匹配,其值为0或1, p表示类别的编号,
Figure 877849DEST_PATH_IMAGE026
表示指第i个检测框预测的种类为p的概率,
Figure DEST_PATH_IMAGE027
表示预测结果为背景的概率,Pos表示正样本集合,Neg表示负样本,
Figure 338786DEST_PATH_IMAGE016
表示置信度损失函数。
位置损失函数为:
Figure 209835DEST_PATH_IMAGE028
其中,N表示样本数量,
Figure DEST_PATH_IMAGE029
分别表示检测框的参数与实际框的参数,共包括四个参数
Figure 970986DEST_PATH_IMAGE030
Figure DEST_PATH_IMAGE031
Figure 671220DEST_PATH_IMAGE032
Figure DEST_PATH_IMAGE033
Figure 120918DEST_PATH_IMAGE030
Figure 837070DEST_PATH_IMAGE031
分别表示中心点坐标;
Figure 360718DEST_PATH_IMAGE032
Figure 340175DEST_PATH_IMAGE033
分别表示框的宽和长;
Figure 447809DEST_PATH_IMAGE034
表示第i个检测框与第j个真实框是否匹配,其值为0或1,k表示类别的编号;
Figure DEST_PATH_IMAGE035
表示位置损失函数,g(.)表示smooth L1损失函数,其计算方法如下所示:
Figure 275DEST_PATH_IMAGE036
其中,
Figure DEST_PATH_IMAGE037
表示需要进行计算的变量。
步骤S4:将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测和ID匹配,并采用线性插值方法补全丢失的行人目标最终位置,获得行人目标最终轨迹和ID匹配结果,具体包括:
步骤S41:将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置,具体包括:
步骤S411:将待检测视频进行逐帧拆分,获得多帧视频图像。
步骤S412:将各帧视频图像输入至所述行人目标检测模型进行卷积操作,获得多张融合特征图。
步骤S413:在各所述融合特征图上利用预设尺寸的锚框进行目标的初步检测,获得待识别目标。
步骤S414:判断所述待识别目标的类别是否属于行人;如果待识别目标的类别属于行人,则通过回归修正行人目标的位置,获得行人目标初始位置;如果待识别目标的类别不属于行人,则无需处理。
步骤S42:基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征。
步骤S43:根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置,具体包括:
步骤S431:利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态。
步骤S432:根据各检测目标的行人目标运动状态计算运动相似度,具体公式为:
Figure 237483DEST_PATH_IMAGE001
其中,
Figure 653421DEST_PATH_IMAGE002
表示第i个跟踪器检测第j个检测目标的运动相似度,
Figure 982771DEST_PATH_IMAGE003
表示第j个检测目标的目标运动状态,
Figure 509568DEST_PATH_IMAGE004
表示第i个追踪器的运动状态,
Figure 742228DEST_PATH_IMAGE005
表示检测和跟踪的协方差矩阵。
步骤S433:根据各检测目标的外观特征计算外观相似度,具体公式为:
Figure 63488DEST_PATH_IMAGE038
其中,
Figure 365288DEST_PATH_IMAGE007
表示第i个跟踪器检测第j个检测目标获得的运动特征相似度,
Figure 474538DEST_PATH_IMAGE008
表示第j个检测目标的外观特征,
Figure 60240DEST_PATH_IMAGE009
表示第k次追踪成功的特征向量集合,
Figure 817980DEST_PATH_IMAGE010
表示第i个跟踪器的所有目标外观特征集合。
步骤S434:根据所述运动相似度和所述外观相似度计算总相似度,具体公式为:
Figure DEST_PATH_IMAGE039
其中,
Figure 216863DEST_PATH_IMAGE040
表示总相似度,
Figure DEST_PATH_IMAGE041
为两种特征的平衡系数。
步骤S435:采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果。
步骤S436:判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“步骤S44”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
每个行人目标与相邻帧的两种特征总相似度最大(即加权距离最小)即被判断为同一行人目标,说明不存在跟踪失败行人目标,反之则说明存在跟踪失败行人目标。
步骤S44:采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹;具体地,当相邻三帧中只有第一帧和第三帧中出现的行人目标时,采用线性插值方法基于第一帧和第三帧的最终位置进行中间帧位置插值运算,得到最终的行人目标最终轨迹。
实施例2
如图3所示,本发明还公开一种基于深度神经网络的行人追踪监控系统,所述系统包括:
获取模块301,用于从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像。
检测框架构建模块302,用于基于SSD模型构建深度神经网络检测框架。
训练模块303,用于将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型。
追踪监测模块304,用于将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹。
作为一种可选的实施方式,本发明所述追踪监测模块304具体包括:
行人目标初始位置确定单元,用于将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置。
特征提取单元,用于基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征。
ID匹配单元,用于根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置。
行人目标最终轨迹确定单元,用于采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹。
作为一种可选的实施方式,本发明所述ID匹配单元具体包括:
行人目标运动状态确定子单元,用于利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态。
运动相似度计算子单元,用于根据各检测目标的行人目标运动状态计算运动相似度。
外观相似度计算子单元,用于根据各检测目标的外观特征计算外观相似度。
总相似度计算子单元,用于根据所述运动相似度和所述外观相似度计算总相似度。
ID匹配子单元,用于采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果。
判断子单元,用于判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“行人目标最终轨迹确定单元”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种基于深度神经网络的行人追踪监控方法,其特征在于,所述方法包括:
步骤S1:从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像;
步骤S2:基于SSD模型构建深度神经网络检测框架;
步骤S3:将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型;
步骤S4:将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹,具体包括:
步骤S41:将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置;
步骤S42:基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征;
步骤S43:根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置;
步骤S44:采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹。
2.根据权利要求1所述的基于深度神经网络的行人追踪监控方法,其特征在于,步骤S43具体包括:
步骤S431:利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态;
步骤S432:根据各检测目标的行人目标运动状态计算运动相似度;
步骤S433:根据各检测目标的外观特征计算外观相似度;
步骤S434:根据所述运动相似度和所述外观相似度计算总相似度;
步骤S435:采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果;
步骤S436:判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“步骤S44”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
3.根据权利要求2所述的基于深度神经网络的行人追踪监控方法,其特征在于,根据各检测目标的行人目标运动状态计算运动相似度的具体计算公式为:
Figure DEST_PATH_IMAGE001
其中,
Figure 728013DEST_PATH_IMAGE002
表示第i个跟踪器检测第j个检测目标的运动相似度,
Figure DEST_PATH_IMAGE003
表示第j个检测目标的目标运动状态,
Figure 804422DEST_PATH_IMAGE004
表示第i个追踪器的运动状态,
Figure DEST_PATH_IMAGE005
表示检测和跟踪的协方差矩阵。
4.根据权利要求2所述的基于深度神经网络的行人追踪监控方法,其特征在于,根据各检测目标的外观特征计算外观相似度的具体公式为:
Figure 156951DEST_PATH_IMAGE006
其中,
Figure DEST_PATH_IMAGE007
表示第i个跟踪器检测第j个检测目标获得的运动特征相似度,
Figure 926193DEST_PATH_IMAGE008
表示第j个检测目标的外观特征,
Figure DEST_PATH_IMAGE009
表示第k次追踪成功的特征向量集合,
Figure 8680DEST_PATH_IMAGE010
表示第i个跟踪器的所有目标外观特征集合。
5.一种基于深度神经网络的行人追踪监控系统,其特征在于,所述系统包括:
获取模块,用于从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像;
检测框架构建模块,用于基于SSD模型构建深度神经网络检测框架;
训练模块,用于将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型;
追踪监测模块,用于将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹,具体包括:
行人目标初始位置确定单元,用于将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置;
特征提取单元,用于基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征;
ID匹配单元,用于根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置;
行人目标最终轨迹确定单元,用于采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹。
6.根据权利要求5所述的基于深度神经网络的行人追踪监控系统,其特征在于,所述ID匹配单元具体包括:
行人目标运动状态确定子单元,用于利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态;
运动相似度计算子单元,用于根据各检测目标的行人目标运动状态计算运动相似度;
外观相似度计算子单元,用于根据各检测目标的外观特征计算外观相似度;
总相似度计算子单元,用于根据所述运动相似度和所述外观相似度计算总相似度;
ID匹配子单元,用于采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果;
判断子单元,用于判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“行人目标最终轨迹确定单元”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
7.根据权利要求6所述的基于深度神经网络的行人追踪监控系统,其特征在于,根据各检测目标的行人目标运动状态计算运动相似度的具体计算公式为:
Figure 560884DEST_PATH_IMAGE001
其中,
Figure 451742DEST_PATH_IMAGE002
表示第i个跟踪器检测第j个检测目标的运动相似度,
Figure 63989DEST_PATH_IMAGE003
表示第j个检测目标的目标运动状态,
Figure 804412DEST_PATH_IMAGE004
表示第i个追踪器的运动状态,
Figure 661772DEST_PATH_IMAGE005
表示检测和跟踪的协方差矩阵。
8.根据权利要求6所述的基于深度神经网络的行人追踪监控系统,其特征在于,根据各检测目标的外观特征计算外观相似度的具体公式为:
Figure 171251DEST_PATH_IMAGE006
其中,
Figure DEST_PATH_IMAGE011
表示第i个跟踪器检测第j个检测目标获得的运动特征相似度,
Figure 518181DEST_PATH_IMAGE012
表示第j个检测目标的外观特征,
Figure DEST_PATH_IMAGE013
表示第k次追踪成功的特征向量集合,
Figure 73796DEST_PATH_IMAGE014
表示第i个跟踪器的所有目标外观特征集合。
CN202111471521.1A 2021-12-06 2021-12-06 一种基于深度神经网络的行人追踪监控方法及系统 Active CN113870320B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111471521.1A CN113870320B (zh) 2021-12-06 2021-12-06 一种基于深度神经网络的行人追踪监控方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111471521.1A CN113870320B (zh) 2021-12-06 2021-12-06 一种基于深度神经网络的行人追踪监控方法及系统

Publications (2)

Publication Number Publication Date
CN113870320A true CN113870320A (zh) 2021-12-31
CN113870320B CN113870320B (zh) 2022-06-10

Family

ID=78985863

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111471521.1A Active CN113870320B (zh) 2021-12-06 2021-12-06 一种基于深度神经网络的行人追踪监控方法及系统

Country Status (1)

Country Link
CN (1) CN113870320B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115994929A (zh) * 2023-03-24 2023-04-21 中国兵器科学研究院 一种融合空间运动和表观特征学习的多目标跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN110458861A (zh) * 2018-05-04 2019-11-15 佳能株式会社 对象检测与跟踪方法和设备
US20200065976A1 (en) * 2018-08-23 2020-02-27 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning
CN113034541A (zh) * 2021-02-26 2021-06-25 北京国双科技有限公司 目标跟踪方法、装置、计算机设备和存储介质
CN113536876A (zh) * 2021-01-08 2021-10-22 腾讯科技(深圳)有限公司 一种图像识别方法和相关装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458861A (zh) * 2018-05-04 2019-11-15 佳能株式会社 对象检测与跟踪方法和设备
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
US20200065976A1 (en) * 2018-08-23 2020-02-27 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning
CN113536876A (zh) * 2021-01-08 2021-10-22 腾讯科技(深圳)有限公司 一种图像识别方法和相关装置
CN113034541A (zh) * 2021-02-26 2021-06-25 北京国双科技有限公司 目标跟踪方法、装置、计算机设备和存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115994929A (zh) * 2023-03-24 2023-04-21 中国兵器科学研究院 一种融合空间运动和表观特征学习的多目标跟踪方法

Also Published As

Publication number Publication date
CN113870320B (zh) 2022-06-10

Similar Documents

Publication Publication Date Title
CN110276316B (zh) 一种基于深度学习的人体关键点检测方法
CN108447080B (zh) 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质
CN109241829B (zh) 基于时空注意卷积神经网络的行为识别方法及装置
CN111161315B (zh) 一种基于图神经网络的多目标跟踪方法和系统
CN110826379A (zh) 一种基于特征复用与YOLOv3的目标检测方法
CN111738269B (zh) 模型训练方法、图像处理方法及装置、设备、存储介质
CN111368634B (zh) 基于神经网络的人头检测方法、系统及存储介质
WO2019167784A1 (ja) 位置特定装置、位置特定方法及びコンピュータプログラム
CN111028216A (zh) 图像评分方法、装置、存储介质及电子设备
CN114359787A (zh) 目标属性识别方法、装置、计算机设备及存储介质
US20230215152A1 (en) Learning device, trained model generation method, and recording medium
CN113780145A (zh) 精子形态检测方法、装置、计算机设备和存储介质
CN111444850A (zh) 一种图片检测的方法和相关装置
CN116912796A (zh) 一种基于新型动态级联YOLOv8的自动驾驶目标识别方法及装置
CN111126515A (zh) 基于人工智能的模型训练方法和相关装置
CN113870320B (zh) 一种基于深度神经网络的行人追踪监控方法及系统
CN115690545B (zh) 训练目标跟踪模型和目标跟踪的方法和装置
CN112053386B (zh) 基于深度卷积特征自适应集成的目标跟踪方法
CN110738123B (zh) 识别密集陈列商品的方法及其装置
CN114022684B (zh) 人体姿态估计方法及装置
CN111160219B (zh) 对象完整度评估方法、装置、电子设备及存储介质
KR20210049261A (ko) 딥러닝 기반 식물 병증세 글로컬 서술 방법
Agustin et al. Enhancing Facial Expression Recognition through Ensemble Deep Learning
CN112990145B (zh) 一种基于组稀疏年龄估计方法及电子设备
CN113743252B (zh) 一种目标跟踪方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant