CN113870320A - 一种基于深度神经网络的行人追踪监控方法及系统 - Google Patents
一种基于深度神经网络的行人追踪监控方法及系统 Download PDFInfo
- Publication number
- CN113870320A CN113870320A CN202111471521.1A CN202111471521A CN113870320A CN 113870320 A CN113870320 A CN 113870320A CN 202111471521 A CN202111471521 A CN 202111471521A CN 113870320 A CN113870320 A CN 113870320A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- target
- pedestrian target
- detection
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012544 monitoring process Methods 0.000 title claims abstract description 35
- 238000001514 detection method Methods 0.000 claims abstract description 115
- 238000012549 training Methods 0.000 claims abstract description 26
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000002372 labelling Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010037180 Psychiatric symptoms Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于深度神经网络的行人追踪监控方法及系统,先基于SSD模型构建深度神经网络检测框架;然后将训练样本输入至深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,并将已确定权重参数的深度神经网络检测框架称为行人目标检测模型;将待检测视频输入至行人目标检测模型进行行人目标追踪监测,采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹。本发明针对遮挡难以被检测到行人目标时,充分利用视频目标在多帧中的位置信息,采用线性插值算法补全目标的轨迹信息,进而提高了追踪监控的准确性。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种基于深度神经网络的行人追踪监控方法及系统。
背景技术
传统方法主要采用卡尔曼滤波算法对行人追踪监控,对不确定性较强的情况会导致行人ID跳变问题严重,因此存在追踪监控准确性低的问题。
发明内容
本发明的目的是提供一种基于深度神经网络的行人追踪监控方法及系统,以提高追踪监控的准确性。
为实现上述目的,本发明提供了一种基于深度神经网络的行人追踪监控方法,所述方法包括:
步骤S1:从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像;
步骤S2:基于SSD模型构建深度神经网络检测框架;
步骤S3:将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型;
步骤S4:将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹,具体包括:
步骤S41:将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置;
步骤S42:基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征;
步骤S43:根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置;
步骤S44:采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹。
可选地,步骤S43具体包括:
步骤S431:利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态;
步骤S432:根据各检测目标的行人目标运动状态计算运动相似度;
步骤S433:根据各检测目标的外观特征计算外观相似度;
步骤S434:根据所述运动相似度和所述外观相似度计算总相似度;
步骤S435:采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果;
步骤S436:判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“步骤S44”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
可选地,根据各检测目标的行人目标运动状态计算运动相似度的具体计算公式为:
可选地,根据各检测目标的外观特征计算外观相似度的具体公式为:
本发明还提供一种基于深度神经网络的行人追踪监控系统,所述系统包括:
获取模块,用于从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像;
检测框架构建模块,用于基于SSD模型构建深度神经网络检测框架;
训练模块,用于将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型;
追踪监测模块,用于将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹,具体包括:
行人目标初始位置确定单元,用于将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置;
特征提取单元,用于基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征;
ID匹配单元,用于根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置;
行人目标最终轨迹确定单元,用于采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹。
可选地,所述ID匹配单元具体包括:
行人目标运动状态确定子单元,用于利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态;
运动相似度计算子单元,用于根据各检测目标的行人目标运动状态计算运动相似度;
外观相似度计算子单元,用于根据各检测目标的外观特征计算外观相似度;
总相似度计算子单元,用于根据所述运动相似度和所述外观相似度计算总相似度;
ID匹配子单元,用于采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果;
判断子单元,用于判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“行人目标最终轨迹确定单元”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
可选地,根据各检测目标的行人目标运动状态计算运动相似度的具体计算公式为:
可选地,根据各检测目标的外观特征计算外观相似度的具体公式为:
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明基于SSD模型构建深度神经网络检测框架,并将已确定权重参数的深度神经网络检测框架称为行人目标检测模型,将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹。本发明针对遮挡难以被检测到行人目标时,充分利用视频目标在多帧中的位置信息,采用线性插值算法补全目标的轨迹信息,进而提高了追踪监控的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于深度神经网络的行人追踪监控方法流程图;
图2为本发明深度神经网络检测框架示意图;
图3为本发明基于深度神经网络的行人追踪监控系统结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于深度神经网络的行人追踪监控方法及系统,以提高追踪监控的准确性。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
深度神经网络是近年来人工智能领域中非常热门的研究方向,其应用方向包括目标检测与跟踪、语音识别和推荐算法等。其中深度卷积神经网络被广泛应用于目标检测与跟踪领域。深度卷积神经网络有两个特点:(1)空间不变性。深度卷积神经网络在将原图映射为特征图的同时,尺寸发生变化,但不影响目标在图像上的位置。(2)权值共享。深度卷积神经网络通过卷积核在多层的通道上图像对应位置进行特征提取,每层通道中的卷积核的权值是相同的,与全连接神经网络相比,参数量大大减少。本发明主要利用深度神经网络对行人追踪进行监控,具体监控过程如下:
实施例1
如图1所示,本发明公开一种基于深度神经网络的行人追踪监控方法,所述方法包括:
步骤S1:从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像。
步骤S2:基于SSD模型构建深度神经网络检测框架。
步骤S3:将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型。
步骤S4:将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹。
下面对各个步骤进行详细论述:
步骤S1:从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像,具体包括:
步骤S11:通过网络爬虫方式获取现有行人目标图像。
步骤S12:利用LabelImage软件对所述现有行人目标图像进行标注,获得现有行人目标标注图像。
步骤S2:基于SSD模型构建深度神经网络检测框架,具体包括:所述深度神经网络检测框架包括主干部分和检测部分,其中,主干部分包括VGG部分和附加部分。深度神经网络检测框架输入的是现有行人目标标注图像,其尺寸为300*300,通道数为3,即300*300*3维度的张量。
VGG部分共计包括5个卷积模块,分别为Conv1~Conv5。Conv1包括两个卷积层,每个卷积层通过64个3*3的卷积核提取特征信息,再通过最大池化层进一步将数据尺寸缩减到150*150;Conv2包括两个卷积层,每个卷积层通过128个3*3的卷积核提取特征信息,再通过最大池化层进一步将数据尺寸缩减到75*75;Conv3包括三个卷积层,每个卷积层通过256个3*3的卷积核提取特征信息,再通过最大池化层进一步将数据尺寸缩减到38*38;Conv4包括三个卷积层,每个卷积层通过512个3*3的卷积核提取特征信息,再通过最大池化层进一步将数据尺寸缩减到19*19;Conv5包括三个卷积层,每个卷积层通过512个3*3的卷积核提取特征信息,再通过1*1的最大池化层后尺寸不变。
附加部分共计包括6个卷积模块,Conv6包含一个卷积层,通过1024个3*3的卷积核提取特征信息;Conv7包含一个卷积层,通过1024个1*1的卷积核提取特征信息;Conv8包含两个卷积层,第一个卷积层包括256个1*1卷积核,第二个卷积层包括512个3*3的卷积核,第二个卷积层还通过将卷积核步长调成为2把数据尺寸缩减到10*10; Conv9包含两个卷积层,第一个卷积层包括128个1*1卷积核,第二个卷积层包括256个3*3的卷积核,第二个卷积层还通过将卷积核步长调成为2把数据尺寸缩减到5*5; Conv10包含两个卷积层,第一个卷积层包括128个1*1卷积核,第二个卷积层包括256个3*3的卷积核,第二个卷积层还通过将卷积核步长调成为2把数据尺寸缩减到3*3;Conv11包含两个卷积层,第一个卷积层包括128个1*1卷积核,第二个卷积层包括256个3*3的卷积核,第二层的图像尺寸与卷积核尺寸相同,故数据尺寸缩减到1*1。
Conv4的第二层,Conv7的第一层(共一层),Conv8的第二层,Conv9的第二层,Conv10的第二层,Conv11的第二层,分别输出尺寸为38*38*512,19*19*1024,10*10*512,5*5*256,3*3*256,1*1*256的特征图进入检测部分。
检测部分包括分类和定位两个预测器,每个预测器将六种尺寸的特征图分别送入六个卷积层,将不同尺寸的特征图进行融合,得到融合特征图。
步骤S3:将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数。
本实施例中,总损失函数包括置信度损失函数和位置损失函数,通过梯度下降算法和反向传播算法训练模型,以寻找差距程度最小的权重参数,优化模型的类别预测精度和位置预测精度。
网络的总损失函数为:
置信度损失函数为:
其中,N表示样本数量,表示第i个检测框与第j个真实框是否匹配,其值为0或1, p表示类别的编号,表示指第i个检测框预测的种类为p的概率,表示预测结果为背景的概率,Pos表示正样本集合,Neg表示负样本,表示置信度损失函数。
位置损失函数为:
其中,N表示样本数量,分别表示检测框的参数与实际框的参数,共包括四个参数,,,;,分别表示中心点坐标;,分别表示框的宽和长;表示第i个检测框与第j个真实框是否匹配,其值为0或1,k表示类别的编号;表示位置损失函数,g(.)表示smooth L1损失函数,其计算方法如下所示:
步骤S4:将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测和ID匹配,并采用线性插值方法补全丢失的行人目标最终位置,获得行人目标最终轨迹和ID匹配结果,具体包括:
步骤S41:将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置,具体包括:
步骤S411:将待检测视频进行逐帧拆分,获得多帧视频图像。
步骤S412:将各帧视频图像输入至所述行人目标检测模型进行卷积操作,获得多张融合特征图。
步骤S413:在各所述融合特征图上利用预设尺寸的锚框进行目标的初步检测,获得待识别目标。
步骤S414:判断所述待识别目标的类别是否属于行人;如果待识别目标的类别属于行人,则通过回归修正行人目标的位置,获得行人目标初始位置;如果待识别目标的类别不属于行人,则无需处理。
步骤S42:基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征。
步骤S43:根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置,具体包括:
步骤S431:利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态。
步骤S432:根据各检测目标的行人目标运动状态计算运动相似度,具体公式为:
步骤S433:根据各检测目标的外观特征计算外观相似度,具体公式为:
步骤S434:根据所述运动相似度和所述外观相似度计算总相似度,具体公式为:
步骤S435:采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果。
步骤S436:判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“步骤S44”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
每个行人目标与相邻帧的两种特征总相似度最大(即加权距离最小)即被判断为同一行人目标,说明不存在跟踪失败行人目标,反之则说明存在跟踪失败行人目标。
步骤S44:采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹;具体地,当相邻三帧中只有第一帧和第三帧中出现的行人目标时,采用线性插值方法基于第一帧和第三帧的最终位置进行中间帧位置插值运算,得到最终的行人目标最终轨迹。
实施例2
如图3所示,本发明还公开一种基于深度神经网络的行人追踪监控系统,所述系统包括:
获取模块301,用于从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像。
检测框架构建模块302,用于基于SSD模型构建深度神经网络检测框架。
训练模块303,用于将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型。
追踪监测模块304,用于将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹。
作为一种可选的实施方式,本发明所述追踪监测模块304具体包括:
行人目标初始位置确定单元,用于将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置。
特征提取单元,用于基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征。
ID匹配单元,用于根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置。
行人目标最终轨迹确定单元,用于采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹。
作为一种可选的实施方式,本发明所述ID匹配单元具体包括:
行人目标运动状态确定子单元,用于利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态。
运动相似度计算子单元,用于根据各检测目标的行人目标运动状态计算运动相似度。
外观相似度计算子单元,用于根据各检测目标的外观特征计算外观相似度。
总相似度计算子单元,用于根据所述运动相似度和所述外观相似度计算总相似度。
ID匹配子单元,用于采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果。
判断子单元,用于判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“行人目标最终轨迹确定单元”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种基于深度神经网络的行人追踪监控方法,其特征在于,所述方法包括:
步骤S1:从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像;
步骤S2:基于SSD模型构建深度神经网络检测框架;
步骤S3:将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型;
步骤S4:将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹,具体包括:
步骤S41:将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置;
步骤S42:基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征;
步骤S43:根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置;
步骤S44:采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹。
2.根据权利要求1所述的基于深度神经网络的行人追踪监控方法,其特征在于,步骤S43具体包括:
步骤S431:利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态;
步骤S432:根据各检测目标的行人目标运动状态计算运动相似度;
步骤S433:根据各检测目标的外观特征计算外观相似度;
步骤S434:根据所述运动相似度和所述外观相似度计算总相似度;
步骤S435:采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果;
步骤S436:判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“步骤S44”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
5.一种基于深度神经网络的行人追踪监控系统,其特征在于,所述系统包括:
获取模块,用于从样本数据库中获取训练样本;所述样本数据库中存储有现有行人目标标注图像;
检测框架构建模块,用于基于SSD模型构建深度神经网络检测框架;
训练模块,用于将所述训练样本输入至所述深度神经网络检测框架中,利用梯度下降算法和反向传播算法进行训练,基于总损失函数确定深度神经网络检测框架的权重参数;将已确定权重参数的深度神经网络检测框架称为行人目标检测模型;
追踪监测模块,用于将待检测视频输入至所述行人目标检测模型进行行人目标追踪监测,并采用线性插值方法补全丢失行人目标位置,获得行人目标最终轨迹,具体包括:
行人目标初始位置确定单元,用于将待检测视频输入至所述行人目标检测模型中进行检测,获得各帧视频图像对应的行人目标初始位置;
特征提取单元,用于基于各帧视频图像对应的所述行人目标初始位置对目标框中的行人目标特征信息进行提取,得到行人目标的运动特征和外观特征;
ID匹配单元,用于根据各帧图像中所有行人目标的运动特征和外观特征进行ID匹配,获得ID匹配结果以及所有行人目标在不同帧图像中的最终位置;
行人目标最终轨迹确定单元,用于采用线性插值方法将各帧图像中丢失的行人目标最终位置进行插值运算,获得行人目标最终轨迹。
6.根据权利要求5所述的基于深度神经网络的行人追踪监控系统,其特征在于,所述ID匹配单元具体包括:
行人目标运动状态确定子单元,用于利用卡尔曼滤波对各帧图像中所有行人目标的运动特征进行预测,获得各检测目标的行人目标运动状态;
运动相似度计算子单元,用于根据各检测目标的行人目标运动状态计算运动相似度;
外观相似度计算子单元,用于根据各检测目标的外观特征计算外观相似度;
总相似度计算子单元,用于根据所述运动相似度和所述外观相似度计算总相似度;
ID匹配子单元,用于采用匈牙利匹配算法将不同帧图像之间总相似度最大的行人目标进行ID匹配,并输出ID匹配结果;
判断子单元,用于判断ID匹配结果中是否存在跟踪失败行人目标;如果存在跟踪失败行人目标,则执行“行人目标最终轨迹确定单元”;如果不存在跟踪失败行人目标,则输出所有行人目标在不同帧图像中的最终位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111471521.1A CN113870320B (zh) | 2021-12-06 | 2021-12-06 | 一种基于深度神经网络的行人追踪监控方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111471521.1A CN113870320B (zh) | 2021-12-06 | 2021-12-06 | 一种基于深度神经网络的行人追踪监控方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113870320A true CN113870320A (zh) | 2021-12-31 |
CN113870320B CN113870320B (zh) | 2022-06-10 |
Family
ID=78985863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111471521.1A Active CN113870320B (zh) | 2021-12-06 | 2021-12-06 | 一种基于深度神经网络的行人追踪监控方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113870320B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115994929A (zh) * | 2023-03-24 | 2023-04-21 | 中国兵器科学研究院 | 一种融合空间运动和表观特征学习的多目标跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
CN110458861A (zh) * | 2018-05-04 | 2019-11-15 | 佳能株式会社 | 对象检测与跟踪方法和设备 |
US20200065976A1 (en) * | 2018-08-23 | 2020-02-27 | Seoul National University R&Db Foundation | Method and system for real-time target tracking based on deep learning |
CN113034541A (zh) * | 2021-02-26 | 2021-06-25 | 北京国双科技有限公司 | 目标跟踪方法、装置、计算机设备和存储介质 |
CN113536876A (zh) * | 2021-01-08 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 一种图像识别方法和相关装置 |
-
2021
- 2021-12-06 CN CN202111471521.1A patent/CN113870320B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458861A (zh) * | 2018-05-04 | 2019-11-15 | 佳能株式会社 | 对象检测与跟踪方法和设备 |
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
US20200065976A1 (en) * | 2018-08-23 | 2020-02-27 | Seoul National University R&Db Foundation | Method and system for real-time target tracking based on deep learning |
CN113536876A (zh) * | 2021-01-08 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 一种图像识别方法和相关装置 |
CN113034541A (zh) * | 2021-02-26 | 2021-06-25 | 北京国双科技有限公司 | 目标跟踪方法、装置、计算机设备和存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115994929A (zh) * | 2023-03-24 | 2023-04-21 | 中国兵器科学研究院 | 一种融合空间运动和表观特征学习的多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113870320B (zh) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110276316B (zh) | 一种基于深度学习的人体关键点检测方法 | |
CN108447080B (zh) | 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质 | |
CN109241829B (zh) | 基于时空注意卷积神经网络的行为识别方法及装置 | |
CN111161315B (zh) | 一种基于图神经网络的多目标跟踪方法和系统 | |
CN110826379A (zh) | 一种基于特征复用与YOLOv3的目标检测方法 | |
CN111738269B (zh) | 模型训练方法、图像处理方法及装置、设备、存储介质 | |
CN111368634B (zh) | 基于神经网络的人头检测方法、系统及存储介质 | |
WO2019167784A1 (ja) | 位置特定装置、位置特定方法及びコンピュータプログラム | |
CN111028216A (zh) | 图像评分方法、装置、存储介质及电子设备 | |
CN114359787A (zh) | 目标属性识别方法、装置、计算机设备及存储介质 | |
US20230215152A1 (en) | Learning device, trained model generation method, and recording medium | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN111444850A (zh) | 一种图片检测的方法和相关装置 | |
CN116912796A (zh) | 一种基于新型动态级联YOLOv8的自动驾驶目标识别方法及装置 | |
CN111126515A (zh) | 基于人工智能的模型训练方法和相关装置 | |
CN113870320B (zh) | 一种基于深度神经网络的行人追踪监控方法及系统 | |
CN115690545B (zh) | 训练目标跟踪模型和目标跟踪的方法和装置 | |
CN112053386B (zh) | 基于深度卷积特征自适应集成的目标跟踪方法 | |
CN110738123B (zh) | 识别密集陈列商品的方法及其装置 | |
CN114022684B (zh) | 人体姿态估计方法及装置 | |
CN111160219B (zh) | 对象完整度评估方法、装置、电子设备及存储介质 | |
KR20210049261A (ko) | 딥러닝 기반 식물 병증세 글로컬 서술 방법 | |
Agustin et al. | Enhancing Facial Expression Recognition through Ensemble Deep Learning | |
CN112990145B (zh) | 一种基于组稀疏年龄估计方法及电子设备 | |
CN113743252B (zh) | 一种目标跟踪方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |