CN114677633B - 基于多部件特征融合的行人检测多目标跟踪系统及方法 - Google Patents

基于多部件特征融合的行人检测多目标跟踪系统及方法 Download PDF

Info

Publication number
CN114677633B
CN114677633B CN202210579638.XA CN202210579638A CN114677633B CN 114677633 B CN114677633 B CN 114677633B CN 202210579638 A CN202210579638 A CN 202210579638A CN 114677633 B CN114677633 B CN 114677633B
Authority
CN
China
Prior art keywords
component
frame
pedestrian
fusion
track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210579638.XA
Other languages
English (en)
Other versions
CN114677633A (zh
Inventor
张文广
王军
徐晓刚
何鹏飞
曹卫强
朱亚光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Zhejiang Lab
Original Assignee
Zhejiang Gongshang University
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University, Zhejiang Lab filed Critical Zhejiang Gongshang University
Priority to CN202210579638.XA priority Critical patent/CN114677633B/zh
Publication of CN114677633A publication Critical patent/CN114677633A/zh
Application granted granted Critical
Publication of CN114677633B publication Critical patent/CN114677633B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于多部件特征融合的行人检测多目标跟踪系统及方法,首先,获取行人图像数据集并进行行人多部件标注;其次,构造并训练基于多部件特征融合的行人检测多目标跟踪系统,系统包括沙漏模块、目标尺寸回归模块、目标中心点偏移回归模块、目标中心点热度图模块和多部件特征融合模块;然后,基于所述训练得到的模型进行推理获取单帧行人检测结果及多帧的行人融合特征;其次,计算当前帧检测得到的行人特征与前一帧轨迹的融合特征的相似度;最终,利用所述相似度矩阵进行数据关联,生成当前帧的行人轨迹,并更新轨迹的特征。本方法耗时较低,且对遮挡问题鲁棒性较好。

Description

基于多部件特征融合的行人检测多目标跟踪系统及方法
技术领域
本发明涉及图像识别技术领域,尤其是涉及基于多部件特征融合的行人检测多目标跟踪系统及方法。
背景技术
随着城市公共区域监控相机的广泛部署,基于公共安全及紧急求援的需求,针对行人的在线检测及多目标跟踪技术具有重大的学术与商业价值。
当前的大部分多目标跟踪算法均是采用两阶段模式,即先利用相对成熟的检测算法检测得到目标,然后对目标提取外观特征及运动信息,再基于上述特征对目标和轨迹进行关联从而达到多目标跟踪的目的。但是这种方法有明显的缺陷:
1.两阶段方法极度依赖检测算法的效果,一旦目标因为遮挡等问题导致漏检,第二阶段的跟踪算法无法对上述漏检做任何修补。
2.两阶段跟踪算法需要单独先对目标进行检测然后再对检测得到的目标一一提取外观和运动特征,这种两阶段模式耗时较长,无法满足当前的在线实时检测和跟踪的需求。
针对两阶段多目标跟踪算法的缺陷,学术界提出将检测和跟踪融合的多目标跟踪网络,虽然在运行效率上避免了两阶段的耗时过长问题,但是在遮挡问题上一直表现欠佳,由于遮挡导致的漏检问题甚至最终效果不如两阶段算法。
基于此,需要提供一种运行效率较高,抗遮挡且性能优异的行人检测多目标跟踪方法。
发明内容
为解决现有技术的不足,实现提高行人检测多目标跟踪的抗遮挡性、提高检测效率的目的,本发明采用如下的技术方案:
一种基于多部件特征融合的行人检测多目标跟踪系统,包括沙漏模块、目标尺寸回归模块、目标中心点热度图模块、目标中心点偏移回归模块和多部件特征融合模块,沙漏模块分别获取第t帧及其前k帧图像的特征图,特征提取的过程共享权重,第t帧的特征图分别通过目标尺寸回归模块、目标中心点偏移回归模块、目标中心点热度图模块和多部件特征融合模块,得到目标宽高、目标中心点偏移、目标中心点和外观特征,多部件特征融合模块分别与沙漏模块和目标中心点热度图模块连接,分别获取第t帧及其前k帧图像的特征图,提取外观特征后,将前k帧的具有与第t帧图像相同身份识别号的外观特征,基于目标中心点进行拼接,得到目标在第t帧的外观特征,身份识别号用于表示行人不同的部件,由于有锚框anchor的存在,直接在全图的特征图中,基于目标中心点截取得到目标中心点区域的特征,因此提取出的外观特征,就是基于目标中心点的外观特征。
所述系统还包括图像预处理模块,对输入的图像进行图像缩放,并将缩放后的图像由RGB空间转换至RGBP空间,再进行像素灰度归一化,得到的输入张量作为沙漏模块的输入。
所述沙漏模块,包括依次连接的一组不同尺寸的残差模块,为该组的部分残差模块生成对应的复制模块,在该组不同尺寸的残差模块的输出端,依次累加与所述部分残差模块对应的复制模块。
所述残差模块,包括一组残差单元,每个残差单元包括依次连接的卷积层、激活层和批归一化层,残差模块的输出与输入进行相加,得到残差模块的最终输出。
一种基于多部件特征融合的行人检测多目标跟踪系统的跟踪方法,包括如下步骤:
步骤S1:获取行人图像数据集并对行人部件进行标注;
步骤S2:构造并训练基于多部件特征融合的行人检测多目标跟踪系统;首先回归得到行人的P类部件对应的多部件特征,对多部件特征进行融合,得到多部件融合特征;
步骤S3:基于训练得到的系统进行推理,获取单帧行人检测结果及多帧的行人融合特征,使用训练好的系统,检测得到的行人多部件,通过单个部件搜索最近邻其他部件,组合成一个人体;
步骤S4:计算当前帧检测得到的行人特征与前一帧轨迹的融合特征的相似度,根据步骤S2获取的当前帧的多部件融合特征,与当前帧之前的历史轨迹的融合特征进行相似度比较;
步骤S5:利用相似度矩阵进行数据关联,生成当前帧的行人轨迹,并更新轨迹的特征。
进一步地,所述步骤S1中,使用矩形框对视频的每帧图像的行人部件进行框注,包括头肩区域标注为类别0、躯干区域标注为类别1和腿部区域标注为类别2,相同区域标注相同的身份识别号;
所述步骤S3中,如果没有检测到头肩区域,则按照躯干区域搜索最近的腿部区域,然后将目标框组合成人体,如果仅检测到腿部区域,则按照误检处理。
进一步地,所述步骤S2中,系统的总损失函数包括分类损失函数和检测损失函数,分类损失函数采用多部件融合特征分类损失函数,第i个行人的多部件特征经全连接层得到多部件分类输出,通过多部件分类输出、第t帧图像中第i个行人中是否检测到了该部件,以及各类部件在融合分类中的占比,得到第i个行人的多部件融合分类输出;最终第t帧的损失函数为检测损失函数与分类损失函数平均和。
进一步地,所述步骤S2中,系统首先回归得到人体P类部件,对应的多部件特征则 用
Figure 775383DEST_PATH_IMAGE001
表示,其中i表示第i个行人,n表示在t-k帧到t帧内 检测到同一个行人的同一个部件的次数,a为P类部件的上标,对应的多部件融合特征用
Figure 454626DEST_PATH_IMAGE002
表示。
进一步地,所述步骤S2中分类损失函数,第i个行人的多部件特征
Figure 338268DEST_PATH_IMAGE003
经过全连接 层,得到多部件分类输出
Figure 811975DEST_PATH_IMAGE004
,则第i个行人的多部件融合分类输出表示为:
Figure 515488DEST_PATH_IMAGE005
其中
Figure 732843DEST_PATH_IMAGE004
为第t帧第i个多部件特征
Figure 470992DEST_PATH_IMAGE003
经过全连接层得到多部件分类输出,α为 三个部件在融合分类中的占比权重,且满足α 0+α 1+…+α P =1,φ i,t 为第t帧图像中第i个行人 中是否检测到了该部件,如果未检测到则数值为0,否则数值则为1,表示为
Figure 381179DEST_PATH_IMAGE006
,分类损失函数为当前t帧内,检测得到的所有m个目标的多部件融合 特征分类损失的平均和,公式表示为:
Figure 837568DEST_PATH_IMAGE007
其中C表示按行人分类的类别个数,在训练中则为整个训练集轨迹的个数,最终t帧的分类损失函数表示为:
Figure 593035DEST_PATH_IMAGE009
进一步地,所述步骤S2中的检测损失函数采用L1损失函数,令第i个部件的检测L1 损失函数为
Figure 185690DEST_PATH_IMAGE010
,则检测损失函数表示为
Figure 735620DEST_PATH_IMAGE011
,其中m为训练 数据集第t帧中总的行人个数,a为行人三个部件的上标。
进一步地,所述步骤S3中,使用训练好的系统,检测得到的行人P个部件目标框,通 过单个部件搜索最近邻其他部件,组合成一个人体;第i个目标框的P部件用
Figure 679305DEST_PATH_IMAGE012
表示,其中x,y,w,h分别表示目标 框中心点的坐标和目标框的宽高,a为P个部件的上标,第i个组合人体的目标框表示为
Figure 504042DEST_PATH_IMAGE013
进一步地,所述步骤S4中,相似度采用部件对部件的余弦距离进行计算,由步骤S2 可知,第t帧第i个目标的多部件融合特征表示为
Figure 951204DEST_PATH_IMAGE014
, 历史轨迹第j个轨迹的特征表示为
Figure 672035DEST_PATH_IMAGE015
,则该目标 与该轨迹的相似度表示为
Figure 103016DEST_PATH_IMAGE016
,其中α为P个 部件在融合分类中的占比权重,且满足α 0+α 1+…+α P =1,
Figure 200285DEST_PATH_IMAGE017
为第t帧图像中第i个人体中是 否检测到了该部件,如果未检测到则数值为0,否则数值则为1,即
Figure 33112DEST_PATH_IMAGE018
Figure 924845DEST_PATH_IMAGE019
为跟踪轨迹前k帧的部件融合特征,表示为
Figure 843122DEST_PATH_IMAGE020
进一步地,所述步骤S5中,利用匈牙利算法按相似度矩阵进行关联匹配,第t帧检 测到的目标与各个轨迹中相似度最高的轨迹进行关联匹配,如果最大相似度小于相似度阈 值,则认为该目标对应的组合人体未关联上任何一个轨迹,并且该组合人体会生成一个新 的轨迹;如果某个轨迹未关联上任何一个组合人体,则该轨迹的多部件融合特征第t帧数值 采用第t-1帧的数值,如果连续n’帧未关联上任何组合人体,则认定该轨迹为消失轨迹,最 后,基于形成的第t帧的目标轨迹更新融合特征,特征更新为
Figure 744082DEST_PATH_IMAGE021
,其中i表示第t帧中的第i个轨迹,a为多部件的 上标,k为特征融合的总帧数。
本发明的优势和有益效果在于:
本发明通过构建检测与跟踪融合的单阶段网络,可以使得模型推理时共享检测与跟踪的权重计算,相较于传统检测与跟踪独立的两阶段网络大幅较少了计算耗时,降低了实际部署的硬件成本;通过k帧加权累加更新目标的多部件特征,实时更新轨迹目标的特征库,增强算法对目标在运动中由于角度光照等问题导致的特征变化的鲁棒性;通过分别检测行人的多个部件然后组合成一个人体来检测行人,增强了检测模块对遮挡的抗干扰性,在仅遮挡下半身的情况中算法性能较传统检测算法大幅提升;通过提取人体的多部件融合特征来表征一个人体的外观特征,加大更能表征人体的头肩和躯干特征的权重,提升了跟踪重识别的准确度。
附图说明
图1为本发明实施例的系统框架图。
图2为本发明实施例中沙漏模块的网络框架图。
图3为本发明实施例中沙漏模块中的残差模块框架图。
图4为本发明实施例的方法流程图。
图5为本发明实施例中行人多部件标注效果图。
图6是本发明实施例的装置结构图。
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
以解决现有两阶段算法耗时较长,且单阶段算法对遮挡鲁棒性较差的问题。针对两阶段算法耗时较长问题,本发明提出了测与跟踪融合的单阶段网络,采用Hourglass作为网络模型的主干,通过同时回归行人的头肩、躯干、腿部三个部件然后将部件进行组合成行人,基于回归框通过特征提取网络同时提取行人的头肩、躯干、腿部三个部件的外观特征然后将特征进行融合组成行人的重识别特征,最后基于重识别特征与轨迹的相似度进行轨迹关联,从而达到多目标跟踪的目的。
如图1所示,基于多部件特征融合的行人检测多目标跟踪系统,包括沙漏模块、目标尺寸回归模块、目标中心点偏移回归模块、目标中心点热度图模块和多部件特征融合模块,沙漏模块分别获取第t帧及其前k帧图像的特征图,特征提取的过程共享权重,第t帧的特征图分别通过目标尺寸回归模块、目标中心点偏移回归模块、目标中心点热度图模块和多部件特征融合模块,得到目标宽高、目标中心点偏移、目标中心点和外观特征,多部件特征融合模块分别与沙漏模块和目标中心点热度图模块连接,分别获取第t帧及其前k帧图像的特征图,提取外观特征后,将前k帧的具有与第t帧图像相同身份识别号的外观特征,基于目标中心点进行拼接,得到目标在第t帧的外观特征,身份识别号用于表示行人不同的部件,由于有锚框anchor的存在,直接在全图的特征图中,基于目标中心点截取得到目标中心点区域的特征,因此提取出的外观特征,就是基于目标中心点的外观特征。
系统还包括图像预处理模块,对输入的图像进行图像缩放,并将缩放后的图像由RGB空间转换至RGBP空间,再进行像素灰度归一化,得到的输入张量作为沙漏模块的输入。
沙漏模块包括依次连接的一组不同尺寸的残差模块,为该组的部分残差模块生成对应的复制模块,在该组不同尺寸的残差模块的输出端,依次累加与所述部分残差模块对应的复制模块。
残差模块包括一组残差单元,每个残差单元包括依次连接的卷积层、激活层和批归一化层,残差模块的输出与输入进行相加,得到残差模块的最终输出。
具体地,步骤S2所述行人多部件检测与特征提取网络中主要包含以下几个子网络模块:Hourglass模块(沙漏子网络),目标尺寸回归模块,目标中心点偏移回归模块,目标中心点热度图模块,多部件特征融合模块,首先,将第t帧的图像缩放至512*512尺寸,并将该缩放图像由RGB空间转换至RGBP空间,而后像素灰度归一化至0到1的范围内得到网络的输入张量;然后,将输入张量送入Hourglass子网络得到128*128*256尺寸的特征图;再由特征图分别经过3*3*256和1*1*256*2的两个卷积层得到目标的宽高,由特征图分别经过3*3*256和1*1*256*2的两个卷积层得到目标的中心点偏移,由特征图分别经过3*3*256和1*1*256*3的两个卷积层以及一个最大值池化层得到目标的中心点,由特征图分别经过3*3*256和1*1*256*128的两个卷积层得到目标的外观特征,再将前k帧的具有相同身份识别号的外观特征进行平均求和得到目标在t帧的外观特征。
具体地,如图2所示,沙漏模块为沙漏子网络,采用多个不同尺寸的残差模块组合而成,C1~C7分别表示为一个不同尺寸的残差模块,C1a~C4a分别表示C1~C4的复制模块,C1a~C4a与C1~C4模块相加则得到C1b~C4b。沙漏网络用于目标检测和特征提取,残差模块结构如图3所示,模块输出由输入经过三个不同尺寸的卷积层、激活层、批归一化(BN)层然后与原输入相加得到。
如图4所示,基于多部件特征融合的行人检测多目标跟踪方法,包括以下步骤:
步骤S1:获取行人图像数据集并进行行人多部件标注;
如图5所示,使用矩形框对视频的每帧图像的行人部件进行框注,包括头肩区域标注为类别0、躯干区域标注为类别1和腿部区域标注为类别2,相同区域标注相同的身份识别号;
步骤S2:构造并训练基于多部件特征融合的行人检测多目标跟踪系统;首先回归得到行人的P类部件对应的多部件特征,对多部件特征进行融合,得到多部件融合特征;
系统的总损失函数包括分类损失函数和检测损失函数,分类损失函数采用多部件融合特征分类损失函数,第i个行人的多部件特征经全连接层得到多部件分类输出,通过多部件分类输出、第t帧图像中第i个行人中是否检测到了该部件,以及各类部件在融合分类中的占比,得到第i个行人的多部件融合分类输出;最终第t帧的损失函数为检测损失函数与分类损失函数平均和。
系统首先回归得到人体P类部件,对应的多部件特征则用
Figure 165836DEST_PATH_IMAGE001
表示,其中i表示第i个行人,n表示在t-k帧到t帧内 检测到同一个行人的同一个部件的次数,a为P类部件的上标,对应的多部件融合特征用
Figure 494049DEST_PATH_IMAGE002
表示。
具体地,S2所述模型首先回归得到人体头肩、人体躯干、人体腿部三类部件目标, 对应的多部件特征则用
Figure 634044DEST_PATH_IMAGE022
表示,其中i表示第i个目标(第i个 人),n表示在t-k帧到t帧内检测到同一个目标的同一个部件的次数,a为三个部件的上标, 对应的多部件融合特征用
Figure 338695DEST_PATH_IMAGE023
表示。
分类损失函数,第i个行人的多部件特征
Figure 880534DEST_PATH_IMAGE003
经过全连接层,得到多部件分类输出
Figure 114070DEST_PATH_IMAGE004
,则第i个行人的多部件融合分类输出表示为:
Figure 741360DEST_PATH_IMAGE005
其中
Figure 984123DEST_PATH_IMAGE004
为第t帧第i个多部件特征
Figure 380469DEST_PATH_IMAGE003
经过全连接层得到多部件分类输出,α为 三个部件在融合分类中的占比权重,且满足α 0+α 1+…+α P =1,φ i,t 为第t帧图像中第i个行人 中是否检测到了该部件,如果未检测到则数值为0,否则数值则为1,表示为
Figure 50485DEST_PATH_IMAGE006
,分类损失函数为当前t帧内,检测得到的所有m个目标的多部件融合 特征分类损失的平均和,公式表示为:
Figure 165071DEST_PATH_IMAGE007
其中C表示按行人分类的类别个数,在训练中则为整个训练集轨迹的个数,最终t帧的分类损失函数表示为:
Figure 945945DEST_PATH_IMAGE024
具体地,S2所述模型的分类损失函数采用多部件融合特征分类损失函数,即所述 第i个人的多部件特征
Figure 462377DEST_PATH_IMAGE003
经过一个全连接层得到多部件分类输出
Figure 303294DEST_PATH_IMAGE004
,则第i个人的多部 件融合分类输出表示为
Figure 905177DEST_PATH_IMAGE025
,其中
Figure 489742DEST_PATH_IMAGE004
为第t帧第i个 多部件特征
Figure 595101DEST_PATH_IMAGE003
经过一个全连接层得到多部件分类输出,α为三个部件在融合分类中的占 比权重,且满足α 0+α 1+α 2=1,φ i,t 为第t帧图像中第i个人体中是否检测到了该部件,如果未 检测到则数值为0,否则数值则为1,表示为
Figure 606920DEST_PATH_IMAGE006
,分类损失函数为当前t帧 内,检测得到的所有m个目标的多部件融合特征分类损失的平均和,公式表示为
Figure 696098DEST_PATH_IMAGE007
,其中C表示按行人分类的类别个数,在 训练中则为整个训练集轨迹的个数,最终t帧的分类损失函数表示为
Figure 818775DEST_PATH_IMAGE027
检测损失函数采用L1损失函数,令第i个部件的检测L1损失函数为
Figure 44220DEST_PATH_IMAGE010
,则检测损 失函数表示为
Figure 226940DEST_PATH_IMAGE011
,其中m为训练数据集第t帧中总的行人个 数,a为行人三个部件的上标。
具体地,S2所述模型的检测损失函数采用常用的L1损失函数,令第i个部件的检测 L1损失函数表示为
Figure 803415DEST_PATH_IMAGE010
,则检测损失函数表示为
Figure 729782DEST_PATH_IMAGE028
,其中m为训练 数据集第t帧中总的行人个数,a为行人三个部件的上标;最终第t帧的损失函数为检测损失 函数与分类损失函数平均和,即
Figure 809734DEST_PATH_IMAGE029
S3:基于训练得到的系统进行推理,获取单帧行人检测结果及多帧的行人融合特征,使用训练好的系统,检测得到的行人多部件,通过单个部件搜索最近邻其他部件,组合成一个人体;
使用训练好的系统,检测得到的行人P个部件目标框,通过单个部件搜索最近邻其 他部件,组合成一个人体;第i个目标框的P部件用
Figure 428934DEST_PATH_IMAGE012
表示,其中x,y,w,h分别表示目标 框中心点的坐标和目标框的宽高,a为P个部件的上标,第i个组合人体的目标框表示为
Figure 227126DEST_PATH_IMAGE013
具体地,S3所述使用训练好的模型检测得到的人体三个部件目标框,通过头肩、躯 干、腿部按照Y轴增大方向最近邻搜索其他两个部件来组合成一个人体,第i个目标框的三 个部件用
Figure 957184DEST_PATH_IMAGE030
表示,其中x,y,w,h分别表示目标框中心 点的坐标和目标框的宽高,a为三个部件的上标,则第i个组合人体的目标框表示为
Figure 891642DEST_PATH_IMAGE031
,如果没有检测到头肩则按照躯干搜索最近的腿部目标框 组合成人体,如果仅检测到腿部则按照误检处理。
S4:计算当前帧检测得到的行人特征与前一帧轨迹的融合特征的相似度,根据步骤S2获取的当前帧的多部件融合特征,与当前帧之前的历史轨迹的融合特征进行相似度比较;
相似度采用部件对部件的余弦距离进行计算,由步骤S2可知,第t帧第i个目标的 多部件融合特征表示为
Figure 681744DEST_PATH_IMAGE014
,历史轨迹第j个轨迹的 特征表示为
Figure 967232DEST_PATH_IMAGE015
,则该目标与该轨迹的相似度表 示为
Figure 235402DEST_PATH_IMAGE032
,其中α为P个部件在融合分类中的占比权重,且满足α 0+α 1+…+α P =1,
Figure 289946DEST_PATH_IMAGE017
为第t帧图像中第i个人 体中是否检测到了该部件,如果未检测到则数值为0,否则数值则为1,即
Figure 250948DEST_PATH_IMAGE018
Figure 758153DEST_PATH_IMAGE019
为跟踪轨迹前k帧的部件融合特征,表示为
Figure 830014DEST_PATH_IMAGE020
具体地,S4所述计算组合人体与前一帧轨迹的相似度采用部件对部件的余弦距离 进行计算,由S2可知,第t帧第i个目标的多部件融合特征表示为
Figure 4644DEST_PATH_IMAGE033
,历史轨迹第j个轨迹的特征表示为
Figure 870968DEST_PATH_IMAGE034
,则该目标与该轨迹的相似度表示为
Figure 131049DEST_PATH_IMAGE035
,其中α为三 个部件在融合分类中的占比权重,且满足α 0+α 1+α 2=1,
Figure 475442DEST_PATH_IMAGE017
为第t帧图像中第i个人体中是 否检测到了该部件,如果未检测到则数值为0,否则数值则为1,即
Figure 504578DEST_PATH_IMAGE036
,为 跟踪轨迹前k帧的部件融合特征,表示为
Figure 541804DEST_PATH_IMAGE037
,本发明的实施 例中,k=15;α 0=0.6;α 1=0.3;α 2=0.1,参数的取值与应用场景有一定关系。
S5:利用相似度矩阵进行数据关联,生成当前帧的行人轨迹,并更新轨迹的特征。
利用匈牙利算法按相似度矩阵进行关联匹配,第t帧检测到的目标与各个轨迹中 相似度最高的轨迹进行关联匹配,如果最大相似度小于相似度阈值,则认为该组合人体未 关联上任何一个轨迹,并且该组合人体会生成一个新的轨迹;如果某个轨迹未关联上任何 一个组合人体,则该轨迹的多部件融合特征t帧数值采用t-1帧的数值,如果连续n’帧未关 联上任何组合人体,则认定该轨迹为消失轨迹,最后,基于所述形成的t帧的目标轨迹更新 融合特征,特征更新为
Figure 289180DEST_PATH_IMAGE021
,其中i表示第t帧中的第 i个轨迹,α为多部件的上标,k为特征融合的总帧数。
具体地,本实施例中为n’=15。最后,基于所述形成的t帧的目标轨迹更新融合特 征,特征更新为
Figure 702844DEST_PATH_IMAGE038
,其中i表示第t帧中的第i个轨迹,α为多部 件的上标,k为特征融合的总帧数。
与前述基于多部件特征融合的行人检测多目标跟踪方法的实施例相对应,本发明还提供了基于多部件特征融合的行人检测多目标跟踪装置的实施例。
参见图6,本发明实施例提供的基于多部件特征融合的行人检测多目标跟踪装置,包括一个或多个处理器,用于实现上述实施例中的基于多部件特征融合的行人检测多目标跟踪方法。
本发明基于多部件特征融合的行人检测多目标跟踪装置的实施例可以应用在任意具备数据处理能力的设备上,该任意具备数据处理能力的设备可以为诸如计算机等设备或装置。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在任意具备数据处理能力的设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图6所示,为本发明基于多部件特征融合的行人检测多目标跟踪装置所在任意具备数据处理能力的设备的一种硬件结构图,除了图6所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现上述实施例中的基于多部件特征融合的行人检测多目标跟踪方法。
所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是任意具备数据处理能力的设备的外部存储设备,例如所述设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、SD卡、闪存卡(Flash Card)等。进一步的,所述计算机可读存储介质还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储已经输出或者将要输出的数据。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的范围。

Claims (9)

1.一种基于多部件特征融合的行人检测多目标跟踪方法,其特征在于包括如下步骤:
步骤S1:获取行人图像数据集并对行人部件进行标注;
步骤S2:构造并训练基于多部件特征融合的行人检测多目标跟踪系统;首先回归得到行人的P类部件对应的多部件特征,对多部件特征进行融合,得到多部件融合特征;
步骤S3:基于训练得到的系统进行推理,获取单帧行人检测结果及多帧的行人融合特征,使用训练好的系统,检测得到的行人多部件,通过单个部件搜索最近邻其他部件,组合成一个人体;
步骤S4:计算当前帧检测得到的所述人体的多部件融合特征与前一帧轨迹的融合特征 的相似度;根据步骤S2获取的当前帧的多部件融合特征,与当前帧之前的历史轨迹的融合 特征进行相似度比较,历史轨迹第j个轨迹的特征表示为
Figure DEST_PATH_IMAGE001
Figure DEST_PATH_IMAGE003
k为特征融合的总帧数;
步骤S5:利用相似度矩阵进行数据关联,生成当前帧的行人轨迹,并更新轨迹的特征。
2.根据权利要求1所述的基于多部件特征融合的行人检测多目标跟踪方法,其特征在于:所述步骤S1中,使用矩形框对视频的每帧图像的行人部件进行框注,包括头肩区域标注为类别0、躯干区域标注为类别1和腿部区域标注为类别2,相同区域标注相同的身份识别号;
所述步骤S3中,如果没有检测到头肩区域,则按照躯干区域搜索最近的腿部区域,然后将目标框组合成人体,如果仅检测到腿部区域,则按照误检处理。
3.根据权利要求1所述的基于多部件特征融合的行人检测多目标跟踪方法,其特征在于:所述步骤S2中,系统的总损失函数包括分类损失函数和检测损失函数,分类损失函数采用多部件融合特征分类损失函数,第i个行人的多部件特征经全连接层得到多部件分类输出,通过多部件分类输出、第t帧图像中第i个行人中是否检测到了该部件,以及各类部件在融合分类中的占比,得到第i个行人的多部件融合分类输出;最终第t帧的损失函数为检测损失函数与分类损失函数平均和。
4.根据权利要求3所述的基于多部件特征融合的行人检测多目标跟踪方法,其特征在 于:所述步骤S2中,系统首先回归得到人体P类部件,对应的多部件特征则用
Figure DEST_PATH_IMAGE005
表示,其中i表示第i个行人,n表示在t-k帧到t帧内 检测到同一个行人的同一个部件的次数,对应的多部件融合特征用
Figure DEST_PATH_IMAGE006
表示。
5.根据权利要求4所述的基于多部件特征融合的行人检测多目标跟踪方法,其特征在 于:所述步骤S2中分类损失函数,第i个行人的多部件特征
Figure DEST_PATH_IMAGE007
经过全连接层,得到多部件 分类输出
Figure DEST_PATH_IMAGE008
,则第i个行人的多部件融合分类输出表示为:
Figure DEST_PATH_IMAGE009
其中
Figure 737580DEST_PATH_IMAGE008
为第t帧第i个多部件特征
Figure 689356DEST_PATH_IMAGE007
经过全连接层得到多部件分类输出,α P P个部 件在融合分类中的占比权重,且满足α 0+α 1+…+α P =1,
Figure DEST_PATH_IMAGE010
为第t帧图像中第i个行人中是否 检测到了该部件,如果未检测到则数值为0,否则数值则为1,表示为
Figure DEST_PATH_IMAGE012
,分类损失函数为当前t帧内,检测得到的所有m个目标的多部件融合特征分类损失的平均 和,公式表示为:
Figure DEST_PATH_IMAGE013
其中C表示按行人分类的类别个数,在训练中则为整个训练集轨迹的个数,最终t帧的分类损失函数表示为:
Figure DEST_PATH_IMAGE014
6.根据权利要求3所述的基于多部件特征融合的行人检测多目标跟踪方法,其特征在 于:所述步骤S2中的检测损失函数采用L1损失函数,令第i个部件的检测L1损失函数为
Figure DEST_PATH_IMAGE015
, 则检测损失函数表示为
Figure DEST_PATH_IMAGE016
,其中m为训练数据集第t帧中总 的行人个数。
7.根据权利要求3所述的跟踪方法,其特征在于:所述步骤S3中,使用训练好的系统,检 测得到的行人P个部件目标框,通过单个部件搜索最近邻其他部件,组合成一个人体;第i个 目标框的P部件用
Figure DEST_PATH_IMAGE017
表示,其中x,y, w,h分别表示目标框中心点的坐标和目标框的宽高,第i个组合人体的目标框表示为
Figure DEST_PATH_IMAGE018
8.根据权利要求3所述的基于多部件特征融合的行人检测多目标跟踪方法,其特征在 于:所述步骤S4中,相似度采用部件对部件的余弦距离进行计算,由步骤S2可知,第t帧第i 个目标的多部件融合特征表示为
Figure DEST_PATH_IMAGE019
,历史轨迹第j 个轨迹的特征表示为
Figure 522445DEST_PATH_IMAGE001
,则该目标与该轨迹的相 似度表示为
Figure DEST_PATH_IMAGE021
,其中α P 为P个部件在融合分类中的占比权重,且满足α 0+α 1+…+α P =1,
Figure DEST_PATH_IMAGE022
为第t帧图像中第 i个人体中是否检测到了该部件,如果未检测到则数值为0,否则数值则为1,即
Figure 486160DEST_PATH_IMAGE012
Figure 942549DEST_PATH_IMAGE003
9.根据权利要求8所述的基于多部件特征融合的行人检测多目标跟踪方法,其特征在于:所述步骤S5中,利用匈牙利算法按相似度矩阵进行关联匹配,第t帧检测到的目标与各个轨迹中相似度最高的轨迹进行关联匹配,如果最大相似度小于相似度阈值,则认为该目标对应的组合人体未关联上任何一个轨迹,并且该组合人体会生成一个新的轨迹;如果某个轨迹未关联上任何一个组合人体,则该轨迹的多部件融合特征第t帧数值采用第t-1帧的数值,如果连续n’帧未关联上任何组合人体,则认定该轨迹为消失轨迹,最后,基于形成的第t帧的目标轨迹更新融合特征,特征更新为
Figure DEST_PATH_IMAGE024
,其中j表示第t帧中的第j个轨迹,k为特征融合的总帧数。
CN202210579638.XA 2022-05-26 2022-05-26 基于多部件特征融合的行人检测多目标跟踪系统及方法 Active CN114677633B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210579638.XA CN114677633B (zh) 2022-05-26 2022-05-26 基于多部件特征融合的行人检测多目标跟踪系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210579638.XA CN114677633B (zh) 2022-05-26 2022-05-26 基于多部件特征融合的行人检测多目标跟踪系统及方法

Publications (2)

Publication Number Publication Date
CN114677633A CN114677633A (zh) 2022-06-28
CN114677633B true CN114677633B (zh) 2022-12-02

Family

ID=82080974

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210579638.XA Active CN114677633B (zh) 2022-05-26 2022-05-26 基于多部件特征融合的行人检测多目标跟踪系统及方法

Country Status (1)

Country Link
CN (1) CN114677633B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998999B (zh) * 2022-07-21 2022-12-06 之江实验室 一种基于多帧输入与轨迹平滑的多目标跟踪方法和装置
CN117576167B (zh) * 2024-01-16 2024-04-12 杭州华橙软件技术有限公司 多目标跟踪方法、多目标跟踪装置及计算机存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101406390B (zh) * 2007-10-10 2012-07-18 三星电子株式会社 检测人体部位和人的方法和设备以及对象检测方法和设备
CN103853794B (zh) * 2012-12-07 2017-02-08 北京瑞奥风网络技术中心 一种基于部件关联的行人检索方法
CN105989615A (zh) * 2015-03-04 2016-10-05 江苏慧眼数据科技股份有限公司 一种基于多特征融合的行人跟踪方法
CN110096933B (zh) * 2018-01-30 2023-07-18 华为技术有限公司 目标检测的方法、装置及系统
CN110046601B (zh) * 2019-04-24 2023-04-07 南京邮电大学 针对十字路口场景的行人检测方法
CN111460926B (zh) * 2020-03-16 2022-10-14 华中科技大学 一种融合多目标跟踪线索的视频行人检测方法
CN111639551B (zh) * 2020-05-12 2022-04-01 华中科技大学 基于孪生网络和长短期线索的在线多目标跟踪方法和系统
CN111507317B (zh) * 2020-06-30 2020-10-23 之江实验室 一种基于视觉的旋转设备作业手套佩戴检测方法及系统
CN113158791B (zh) * 2021-03-15 2022-08-16 上海交通大学 一种以人为中心的图像描述标注方法、系统、终端及介质
CN113095199B (zh) * 2021-04-06 2022-06-14 复旦大学 一种高速行人识别方法及装置
CN113592906B (zh) * 2021-07-12 2024-02-13 华中科技大学 一种基于标注帧特征融合的长视频目标跟踪方法及系统
CN113989333A (zh) * 2021-11-29 2022-01-28 之江实验室 一种基于人脸和头肩信息的行人跟踪的方法
CN114333057A (zh) * 2021-12-29 2022-04-12 南京理工大学 基于多级别特征交互融合的组合动作识别方法及系统

Also Published As

Publication number Publication date
CN114677633A (zh) 2022-06-28

Similar Documents

Publication Publication Date Title
Shao et al. Real-time and accurate UAV pedestrian detection for social distancing monitoring in COVID-19 pandemic
CN114677633B (zh) 基于多部件特征融合的行人检测多目标跟踪系统及方法
Tu et al. ORSI salient object detection via multiscale joint region and boundary model
CN110427905A (zh) 行人跟踪方法、装置以及终端
CN109472191B (zh) 一种基于时空上下文的行人重识别与追踪方法
US20220180534A1 (en) Pedestrian tracking method, computing device, pedestrian tracking system and storage medium
Zhong et al. Adversarial reconstruction based on tighter oriented localization for catenary insulator defect detection in high-speed railways
Wang et al. A coupled encoder–decoder network for joint face detection and landmark localization
Wang et al. Point linking network for object detection
CN112101195B (zh) 人群密度预估方法、装置、计算机设备和存储介质
CN111160291A (zh) 基于深度信息与cnn的人眼检测方法
CN111104925A (zh) 图像处理方法、装置、存储介质和电子设备
Li et al. A multi-type features method for leg detection in 2-D laser range data
CN113378675A (zh) 一种同时检测和特征提取的人脸识别方法
CN112541421A (zh) 一种开放空间的行人换装重识别方法
Li et al. Real-time tracking algorithm for aerial vehicles using improved convolutional neural network and transfer learning
Yu et al. Multibranch feature difference learning network for cross-spectral image patch matching
CN114581990A (zh) 一种跑步智能测试方法以及装置
CN113780145A (zh) 精子形态检测方法、装置、计算机设备和存储介质
Abdullah et al. Vehicle counting using deep learning models: a comparative study
Yang et al. High-speed rail pole number recognition through deep representation and temporal redundancy
Wang et al. Instance motion tendency learning for video panoptic segmentation
Bhattacharya et al. Simplified face quality assessment (sfqa)
CN115240269A (zh) 基于体型变换的步态识别方法、设备及存储介质
TWI728655B (zh) 應用於動物的卷積神經網路偵測方法及系統

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant