CN112926487A - 一种行人重识别的方法和装置 - Google Patents

一种行人重识别的方法和装置 Download PDF

Info

Publication number
CN112926487A
CN112926487A CN202110285142.7A CN202110285142A CN112926487A CN 112926487 A CN112926487 A CN 112926487A CN 202110285142 A CN202110285142 A CN 202110285142A CN 112926487 A CN112926487 A CN 112926487A
Authority
CN
China
Prior art keywords
walking
pedestrian
feature
feature vector
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110285142.7A
Other languages
English (en)
Other versions
CN112926487B (zh
Inventor
谢雪梅
韩笑
李旭阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Institute of Technology of Xidian University
Original Assignee
Guangzhou Institute of Technology of Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Institute of Technology of Xidian University filed Critical Guangzhou Institute of Technology of Xidian University
Priority to CN202110285142.7A priority Critical patent/CN112926487B/zh
Publication of CN112926487A publication Critical patent/CN112926487A/zh
Application granted granted Critical
Publication of CN112926487B publication Critical patent/CN112926487B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种行人重识别的方法和装置,所述方法包括:获取行走特征数据库,通过对所述行走特征数据库中的每一所述行走特征,执行特征向量筛选操作,当存在第一特征向量与第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除,以此更新每一所述行走特征,得到更新后的行走特征数据库,进而对待识别行人的行走特征进行行人重识别,得到行人重识别结果。采用本发明实施例,能够实现对模糊、遮挡和重复序列帧的筛查,有效地提高了每一行走特征的判别性,提高行人重识别的准确性。

Description

一种行人重识别的方法和装置
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种行人重识别的方法和装置。
背景技术
行人重识别是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。随着智慧城市的建设,行人重识别有着重要应用,如跨摄像头的行人追踪与行人异常行为分析。
对于每个摄像头采集的视频,现有方法采用人工标注或者检测算法从视频中提取每个行人的行走序列,进而为每个行走序列提取行走特征,组成此摄像头下的行走特征集合。对于特定摄像头下的特定行人,获取此行人在此摄像头下的行走特征,对比其他摄像头下的行走特征集合,实现行人重识别。
可见,行走特征的判别性是基于视频的行人重识别方法的关键。然而,发明人发现现有技术至少存在如下问题:在实际应用中,由于行人与行人之间的相互干扰,导致行走序列中存在模糊、遮挡的序列帧,降低了行走特征的判别性,限制了行人重识别的精度。
发明内容
本发明实施例的目的是提供一种行人重识别的方法和装置,能有效提高行走特征集合的判别性,提高行人重识别的准确性。
为实现上述目的,本发明实施例提供了一种行人重识别的方法,包括:
获取若干个监控视角下的行走特征集合,作为行走特征数据库;其中,所述行走特征集合包括同一监控视角下所监控到的行人对应的行走特征;所述行走特征由若干个特征向量组成;
对所述行走特征数据库中的每一所述行走特征,执行特征向量筛选操作,以更新每一所述行走特征,得到更新后的行走特征数据库;其中,所述特征向量筛选操作包括:依次获取当前的行走特征中的每一特征向量,作为第一特征向量;在获取所述第一特征向量之后,依次获取所述当前的行走特征中不为所述第一特征向量的特征向量,作为第二特征向量;当所述第一特征向量与所述第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除;
根据所述更新后的行走特征数据库,对待识别行人的行走特征进行行人重识别,得到行人重识别结果。
作为上述方案的改进,所述当所述第一特征向量与所述第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除,具体包括:
计算所述第一特征向量与所述第二特征向量的余弦相似度;
当所述第一特征向量与所述第二特征向量的余弦相似度处于预设的阈值范围内时,将所述第二特征向量在所述当前的行走特征中删除。
作为上述方案的改进,通过以下计算公式,计算所述第一特征向量与所述第二特征向量的余弦相似度:
Figure BDA0002980144740000021
其中,θ为所述第一特征向量与所述第二特征向量的余弦相似度,X为所述第一特征向量,Y为所述第二特征向量,T表示转置操作。
作为上述方案的改进,所述获取若干个监控视角下的行走特征集合,作为行走特征数据库,具体包括:
采集若干个监控视角下的监控视频;
提取每一所述监控视频对应的行走序列集合;其中,所述行走序列集合由所述监控视频中的每一行人对应的行走序列组成;
提取每一所述行走序列集合对应的行走特征集合,得到所述行走特征数据库。
作为上述方案的改进,所述提取每一所述监控视频对应的行走序列集合,具体包括:
利用预设的检测算法,计算所述监控视频的每一视频帧中的所有行人检测区域;
利用预设的跟踪算法,计算所述监控视频的每一视频帧中的所有行人预测区域,并获取每一行人预测区域对应的预先分配的行人身份标识;
将所述视频帧中的行人检测区域和行人预测区域进行匹配,并根据所述行人检测区域与对应匹配的行人预测区域,得到行人目标区域和对应的行人身份标识;
基于每一所述视频帧中的行人目标区域和行人身份标识,得到所述监控视频中每一行人的行走序列,以得到所述监控视频对应的行走序列集合。
作为上述方案的改进,所述将每一所述视频帧中的行人检测区域和行人预测区域进行匹配,并根据所述行人检测区域与对应匹配的行人预测区域,得到行人目标区域和对应的行人身份标识,具体包括:
针对每一所述视频帧,依次获取所述视频帧中的每一所述行人检测区域,作为当前行人检测区域;
采用预设的交并比公式IOU=(A∩Bi)/(A∪Bi),计算所述当前行人检测区域与所在的视频帧中的所有的行人预测区域的重叠度IOU;其中,A为所述视频帧中的当前行人检测区域,Bi为所述视频帧中的第i个行人预测区域;i=1,2,…,n;n为所述视频帧中的行人预测区域的个数;
获取使得所述重叠度达到最大值所对应的行人预测区域,作为与所述当前行人检测区域匹配的行人预测区域;
根据所述当前行人检测区域和所述匹配的行人预测区域,计算行人目标区域;
根据所述匹配的行人预测区域对应的行人身份标识,得到所述行人目标区域对应的行人身份标识。
作为上述方案的改进,所述提取每一所述行走序列集合对应的行走特征集合,具体包括:
针对每一所述行走序列集合中的每一所述行走序列,依次读取所述行走序列的每一序列帧,并输入预先训练完成的特征提取模型,得到所述特征提取模型输出的每一行走特征向量;
按照每一所述序列帧的输入时间顺序,对每一所述行走特征向量进行排序,得到所述行走序列的行走特征,以得到每一所述行走序列集合对应的行走特征集合。
作为上述方案的改进,所述根据所述更新后的行走特征数据库,对待识别行人的行走特征进行行人重识别,得到行人重识别结果,具体包括:
依次获取所述更新后的行走特征数据库中的每一行走特征,作为候选行走特征;
计算所述待识别行人的行走特征与每一所述候选行走特征的特征距离;
获取使得所述特征距离达到最大值所对应的候选行走特征,得到行人重识别结果。
本发明实施例还提供了一种行人重识别的装置,包括:
数据库获取模块,用于获取若干个监控视角下的行走特征集合,作为行走特征数据库;其中,所述行走特征集合包括同一监控视角下所监控到的行人对应的行走特征;所述行走特征由若干个特征向量组成;
数据库更新模块,用于对所述行走特征数据库中的每一所述行走特征,执行特征向量筛选操作,以更新每一所述行走特征,得到更新后的行走特征数据库;其中,所述特征向量筛选操作包括:依次获取当前的行走特征中的每一特征向量,作为第一特征向量;在获取所述第一特征向量之后,依次获取所述当前的行走特征中不为所述第一特征向量的特征向量,作为第二特征向量;当所述第一特征向量与所述第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除;
行人重识别模块,用于根据所述更新后的行走特征数据库,对待识别行人的行走特征进行行人重识别,得到行人重识别结果。
本发明实施例还提供了一种行人重识别的装置,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如上述任意一项所述的行人重识别的方法。
与现有技术相比,本发明公开的一种行人重识别的方法和装置,在获取行走特征数据库之后,通过对所述行走特征数据库中的每一所述行走特征,执行特征向量筛选操作,当存在第一特征向量与第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除,以此更新每一所述行走特征,得到更新后的行走特征数据库,进而对待识别行人的行走特征进行行人重识别,得到行人重识别结果。采用本发明实施例的技术手段,基于特征向量的特征距离对行走特征进行直接筛选和更新,克服了现有技术不能筛查模糊、遮挡和重复序列帧的问题,有效地提高了每一行走特征的判别性,使得在行人相互遮挡的监控视频中也能获得更高精度的行人重识别结果,提高行人重识别的准确性。
附图说明
图1是本发明实施例一提供的一种行人重识别的方法的步骤示意图;
图2是本发明实施例二中更新行走特征集合的步骤示意图;
图3是本发明实施例三中提取行走序列集合的步骤示意图;
图4是本发明实施例四中提取行走特征集合的步骤示意图;
图5是本发明实施例五提供的一种行人重识别的装置的结构示意图;
图6是本发明实施例六提供的一种行人重识别的装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,是本发明实施例一提供的一种行人重识别的方法的步骤示意图。本发明实施例一提供的一种行人重识别的方法,具体通过步骤S1至S3执行:
S1、获取若干个监控视角下的行走特征集合,作为行走特征数据库;其中,所述行走特征集合包括同一监控视角下所监控到的行人对应的行走特征;所述行走特征由若干个特征向量组成。
具体地,所述步骤S1,具体包括步骤S11至S13:
S11、采集若干个监控视角下的监控视频。
S12、提取每一所述监控视频对应的行走序列集合;其中,所述行走序列集合由所述监控视频中的每一行人对应的行走序列组成。
S13、提取每一所述行走序列集合对应的行走特征集合,得到所述行走特征数据库。
行人重识别是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。在本发明实施例中,可以利用架设在不同位置的摄像头同时采集视频,得到包括行人目标的监控视频,每一行人目标至少由两个摄像头捕捉到。进一步,从不同监控视角下的监控视频中提取每个行人的行走序列,为每个行走序列提取行走特征,组成不同监控视角下的行走特征集合,并将若干个监控视角下的行走特征集合组合形成所述行走特征数据库。
可以理解地,可以采用人工标注或者现有的检测算法从不同视角下的监控视频中计算每个行人的行走序列,以及采用现有的特征提取方法对行走序列提取行走特征,不影响本发明取得的有益效果。
S2、对所述行走特征数据库中的每一所述行走特征,执行特征向量筛选操作,以更新每一所述行走特征,得到更新后的行走特征数据库;其中,所述特征向量筛选操作包括:依次获取当前的行走特征中的每一特征向量,作为第一特征向量;在获取所述第一特征向量之后,依次获取所述当前的行走特征中不为所述第一特征向量的特征向量,作为第二特征向量;当所述第一特征向量与所述第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除。
进一步地,为了避免监控视频中行人与行人之间的相互干扰,导致提取的行走序列中存在模糊、遮挡的序列帧,降低了行走特征的判别性,限制了重识别的精度的问题,在本发明实施例中,通过对数据库中的每一所述行走特征进行特征向量的筛选操作。通过计算所述行走特征中的每两个特征向量之间的特征距离,并将特征距离与预设的阈值作比较,判断两个特征向量之间的相似度,进而删除掉重复、遮挡的特征向量,保留符合要求的特征向量组成新的行走特征。
S3、根据所述更新后的行走特征数据库,对待识别行人的行走特征进行行人重识别,得到行人重识别结果。
将更新后的行走特征组合形成同一监控视角下新的行走特征集合,对每一监控视角下的行走特征集合均进行更新,以此得到更新后的行走特征数据库。将待识别行人的行走特征与更新后的行走特征数据库进行对比,找到与所述待识别行人的行走特征匹配的行走特征,以得到行人重识别结果。
本发明实施例一提供了一种行人重识别的方法,在获取行走特征数据库之后,通过对所述行走特征数据库中的每一所述行走特征,执行特征向量筛选操作,当存在第一特征向量与第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除,以此更新每一所述行走特征,得到更新后的行走特征数据库,进而对待识别行人的行走特征进行行人重识别,得到行人重识别结果。采用本发明实施例的技术手段,基于特征向量的特征距离对行走特征进行直接筛选和更新,克服了现有技术不能筛查模糊、遮挡和重复序列帧的问题,有效地提高了每一行走特征的判别性,使得在行人相互遮挡的监控视频中也能获得更高精度的行人重识别结果,提高行人重识别的准确性。
作为优选的实施方式,参见图2,是本发明实施例二中更新行走特征集合的步骤示意图。本发明实施例二在实施例一的基础上进一步实施。
在步骤S2中,所述当所述第一特征向量与所述第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除,具体包括:
计算所述第一特征向量与所述第二特征向量的余弦相似度;当所述第一特征向量与所述第二特征向量的余弦相似度处于预设的阈值范围内时,将所述第二特征向量在所述当前的行走特征中删除。
具体地,对所述行走特征数据库中的所有行走特征集合,判断是否还有行走特征集合没有更新得到新行走特征集合。若是,选定一个没有得到新行走特征集合的行走特征集合,判断该行走序列集合中是否还存在没有筛选特征向量的行走特征,若存在,在该行走特征集合中,选定一个没有筛选特征向量的行走特征,获取特征向量的个数。获取第一特征向量,设置当前个数为1,判断当前个数是否大于特征向量的个数,若是,重新判断该行走序列集合中是否还存在没有筛选特征向量的行走特征,若否,获取第二特征向量,设置循环个数为1,判断循环个数是否大于特征向量的个数,若是,当前个数加1,重新判断当前个数是否大于特征向量的个数,若否,计算当前个数对应的特征向量(第一特征向量)与循环个数对应的特征向量(第二特征向量)的余弦相似度,若余弦相似度处于预设的阈值范围内,则在行走特征中删除循环个数对应的特征向量,循环个数加1,重新执行判断循环个数是否大于特征向量的个数,否则,循环个数加1,执重新执行判断循环个数是否大于特征向量的个数。以此遍历完所述行走特征中的每一个特征向量,实现对行走特征的更新。
优选地,通过以下计算公式,计算所述第一特征向量与所述第二特征向量的余弦相似度:
Figure BDA0002980144740000091
其中,θ为所述第一特征向量与所述第二特征向量的余弦相似度,X为所述第一特征向量,Y为所述第二特征向量,T表示转置操作。
优选地,所述预设的阈值范围为:小于0.124或大于0.328。也即,当计算得到所述第一特征向量与所述第二特征向量的余弦相似度θ<0.124或θ>0.328时,将所述第二特征向量删除。
采用本发明实施例的技术手段,通过计算行走特征中每个特性向量的余弦相似度,以表征特征向量之间的特征距离,能够有效提高特征向量之间的特征距离的衡量精度,提高特征向量筛选操作的有效性和准确性,有利于实现对行走特征的更新,提高行走特征的判别性。
作为优选的实施方式,参见图3,是本发明实施例三中提取行走序列集合的步骤示意图。本发明实施例三在实施例一或二的基础上进一步实施。所述步骤S12,具体通过步骤S121至S124执行:
S121、利用预设的检测算法,计算所述监控视频的每一视频帧中的所有行人检测区域。
在本发明实施例中,选取一监控视角下的监控视频,获取该监控视频的所有视频帧。通过预先训练完成的行人检测网络,对每一视频帧进行行人检测,输出每一所述视频帧的所有行人检测区域。
在一种可选的实施方式下,所述行人检测网络的训练过程为:
采集若干张标注有行人位置信息的图像,组成行人检测网络的训练数据集。下载行人检测网络Yolov4,所述行人检测网络Yolov4的结构依次为:第一卷积层→第二卷积层→第一残差块→第三卷积层→第二残差块→第四卷积层→第三残差块→第五卷积层→第四残差块→第六卷积层→第五残差块→池化层→全连接层→softmax层,其中:
第一残差块的结构依次为:第七卷积层→第八卷积层→第一残差层;
第二残差块包括两个串联连接的残差块,每个残差块结构依次为:第九卷积层→第十卷积层→第二残差层;
第三残差块包括8个串联连接的残差块,每个残差块的结构依次为:第十一卷积层→第十二卷积层→第三残差层;
第四残差块包括8个串联连接的残差块,每个残差块2的结构依次为:第十三卷积层→第十四卷积层→第四残差层;
第五残差块包括4个串联连接的残差块,每个残差块的结构依次为:第十五卷积层→第十六卷积层→第五残差层;
第一至第十六卷积层的卷积核大小依次设置为3、3、3、3、3、3、1、2、1、2、1、2、1、2、1、2,卷积核通道数依次设置为32、64、128、256、512、1024、32、64、64、128、128、256、256、512、512、1024,卷积核步长依次设置为1、2、2、2、2、2、1、1、1、1、1、1、1、1、1、1;全连接层的节点数设置为1000。
在[20000,25000]的范围内,任意选取一个值作为行人检测网络Yolov4的迭代次数,并将所述行人检测网络Yolov4中所有参数设置为均值0,方差1的高斯随机数,学习速率均设置为0.001。
从行人检测网络的训练数据集中随机选取多个样本,例如16个,输入行人检测网络Yolov4,输出每个样本行人的得分值和位置信息,利用下述损失函数计算公式,计算所选取的样本损失值的平均值:
Figure BDA0002980144740000101
其中,l表示行人检测网络Yolov4所选样本损失值的平均值,i表示所选样本的序号,i=1,2,…,16,f(xi;θ)表示行人检测网络Yolov4的参数为θ时对所选取样本xi的输出值,θ表示当前迭代更新前的行人检测网络Yolov4的参数值,yi表示每个样本对应的标签值。
按照下式,对行人检测网络Yolov4的参数值进行更新:
Figure BDA0002980144740000111
其中,θ′表示行人检测网络Yolov4更新后的参数值,
Figure BDA0002980144740000112
表示所选样本损失值的平均值对行人检测网络Yolov4的求导值。
当达到设置的迭代次数后,得到训练完成的行人检测网络Yolov4。
将所述监控视频的每一视频帧分别输入训练好的行人检测网络Yolov4中,得到行人检测区域,将同一视频帧对应的行人检测区域组合成该视频帧对应的行人检测区域集合。若行人检测区域集合为空,则说明该视频帧中不含有行人检测区域。
S122、利用预设的跟踪算法,计算所述监控视频的每一视频帧中的所有行人预测区域,并获取每一行人预测区域对应的预先分配的行人身份标识。
在本发明实施例中,在计算得到每一视频帧中的所有行人检测区域后,采用预设的跟踪算法,对每一视频帧进行行人区域的预测。
首先,遍历所述监控视频中的第一个视频帧对应的行人检测区域集合,为每个行人检测区域随机分配一个字符串作为行人身份标识;其中,每个字符串之间互不相同。
然后,对于所述监控视频中的第一个视频帧,为其初始化相应的行人预测区域。可选地,将该视频帧中的行人检测区域作为行人预测区域。
对于所述监控视频中的第二个及第二个以后的视频帧,根据上一视频帧的行人检测区域进行行人区域的预测。通过遍历上一视频帧的行人检测区域集合,依次将每个行人检测区域的坐标输入预设的卡尔曼滤波器中,输出相应的行人预测区域,并且将行人检测区域的行人身份标识分配给对应的行人预测区域。
最后,由所有行人预测区域和对应的行人身份标识组成当前视频帧的行人预测区域集合。
S123、将所述视频帧中的行人检测区域和行人预测区域进行匹配,并根据所述行人检测区域与对应匹配的行人预测区域,得到行人目标区域和对应的行人身份标识。
优选地,步骤S123,具体包括步骤S1231至S1235:
S1231、针对每一所述视频帧,依次获取所述视频帧中的每一所述行人检测区域,作为当前行人检测区域;
S1232、采用预设的交并比公式IOU=(A∩Bi)/(A∪Bi),计算所述当前行人检测区域与所在的视频帧中的所有的行人预测区域的重叠度IOU;其中,A为所述视频帧中的当前行人检测区域,Bi为所述视频帧中的第i个行人预测区域;i=1,2,…,n;n为所述视频帧中的行人预测区域的个数;
S1233、获取使得所述重叠度达到最大值所对应的行人预测区域,作为与所述当前行人检测区域匹配的行人预测区域。
采用本发明实施例的技术手段,对于每一视频帧,均存在所述视频帧对应的行人检测区域、行人预测区域和行人身份标识的映射关系。若存在没有匹配到对应的行人预测区域的行人检测区域,则为每个行人检测区域随机分配一个字符串作为行人身份,并且保证字符串之间互不相同。
S1234、根据所述当前行人检测区域和所述匹配的行人预测区域,计算行人目标区域;
S1235、根据所述匹配的行人预测区域对应的行人身份标识,得到所述行人目标区域对应的行人身份标识。
进一步地,将行人检测区域和对应匹配的行人预测区域输入预设的卡尔曼滤波器中,计算得到对应的行人目标区域,并且获取该行人预测区域对应的行人身份标识,建立行人目标区域和行人身份标识的绑定关系。
S124、基于每一所述视频帧中的行人目标区域和行人身份标识,得到所述监控视频中每一行人的行走序列,以得到所述监控视频对应的行走序列集合。
通过上述步骤S121和S122,得到每一视频帧对应的所有行人检测区域和所有行人预测区域。进而,将同一视频帧中的行人检测区域和行人预测区域进行匹配,以结合计算得到该视频帧中的所有行人目标区域,得到同一行人的行走序列。
采用本发明实施例的技术手段,在获取每一视频帧中的行人目标区域的过程中,不仅采用预设的检测算法,即预先训练好的行人检测网络Yolov4进行行人检测区域的计算,还通过上一视频帧检测到的行人检测区域,计算当前视频帧的行人预测区域,并根据当前视频帧的行人检测区域和对应匹配的行人预测区域,结合计算得到行人目标区域,相比于现有技术采用人工标注或采用单一的检测算法提取行人区域,能够有效提高检测行人区域的准确度,提高了提取监控视频中的行人序列的准确性。
作为优选的实施方式,参见图4,是本发明实施例四中提取行走特征集合的步骤示意图。本发明实施例四在实施例一或二的基础上进一步实施。所述步骤S13,具体通过步骤S131至S132执行:
S131、针对每一所述行走序列集合中的每一所述行走序列,依次读取所述行走序列的每一序列帧,并输入预先训练完成的特征提取模型,得到所述特征提取模型输出的每一行走特征向量。
S132、按照每一所述序列帧的输入时间顺序,对每一所述行走特征向量进行排序,得到所述行走序列的行走特征,以得到每一所述行走序列集合对应的行走特征集合。
所述行走序列集合中包括不同的行人对应的行走序列,同一行人的行走序列是由该行人在监控视频的每一视频帧中的行人目标区域组成的。在本发明实施例中,通过预先训练完成的特征提取模型,对每一行走序列的序列帧进行特征提取,输出所述序列帧对应的特征向量,按顺序组成所述行走序列对应的行走特征。进而,将同一监控视频下的所有行走特征,组成对应的行走特征集合。
作为一种可选的实施方式,所述特征提取模型的训练过程为:
下载基于图片的行人重识别数据集,并搭建重识别深度学习网络,初始化网络参数。
所述的重识别深度学习网络的结构依次为:输入层→特征提取层→最大池化层→组合模块;其中,
所述特征提取层,其包括64个特征映射图,每一个特征映射图的卷积核大小为7×7个像素,步长为2个像素;
所述的组合模块,由十六个残差模块依次连接组成,每个残差模块由三个卷积层组成,其中第三个卷积层的输出与第一个卷积层的输入相连接;
该第一残差模块、第二残差模块、第三残差模块中第一个卷积层的特征映射图均为64个,每一个特征映射图的卷积核大小均为1×1个像素,步长均为1个像素;第二个卷积层的特征映射图均为64个,每一个特征映射图的卷积核大小均为3×3个像素,步长均为1个像素;第三个卷积层的特征映射图均为256个,每一个特征映射图的卷积核大小均为1×1个像素,步长均为1个像素;
该第四残差模块、第五残差模块、第六残差模块和第七残差模块中第一个卷积层的特征映射图均为128个,每一个特征映射图的卷积核大小均为1×1个像素,步长均为2个像素;第二个卷积层的特征映射图均为128个,每一个特征映射图的卷积核大小均为3×3个像素,步长均为1个像素;第三个卷积层的特征映射图均为512个,每一个特征映射图的卷积核大小均为1×1个像素,步长均为1个像素;
该第八残差模块、第九残差模块、第十残差模块、第十一残差模块、第十二残差模块、第十三残差模块中第一个卷积层的特征映射图均为256个,每一个特征映射图的卷积核大小均为1×1个像素,步长均为2个像素;第二个卷积层的特征映射图均为256个,每一个特征映射图的卷积核大小均为3×3个像素,步长均为1个像素;第三个卷积层的特征映射图均为1024个,每一个特征映射图的卷积核大小均为1×1个像素,步长均为1个像素;
该第十四残差模块、第十五残差模块、第十六残差模块中第一个卷积层的特征映射图均为512个,每一个特征映射图的卷积核大小均为1×1个像素,步长均为2个像素;第二个卷积层的特征映射图均为512个,每一个特征映射图的卷积核大小均为3×3个像素,步长均为1个像素;第三个卷积层的特征映射图均为2048个,每一个特征映射图的卷积核大小均为1×1个像素,步长均为1个像素。
将基于图片的行人重识别数据集的训练集输入到重识别深度学习网络,采用随机梯度下降方法,对重识别深度学习网络进行多次训练,得到训练好的重识别深度学习网络。训练次数可以设置为120次。
所述梯度下降方法的步骤如下:
第1步,确定重识别深度学习网络的迭代次数,例如120次,将重识别深度学习网络中所有参数设置为均值0,方差1的高斯随机数,学习速率设置为0.0005。
第2步,从基于图片的行人重识别数据集的训练集中随机选取多个样本图像,例如128个。
第3步,将样本图像输入检测深度学习网络,输出每个样本图像的得分值和身份信息。
第4步,利用下述损失函数计算公式,计算所有选取的样本损失值的平均值:
Figure BDA0002980144740000151
其中,l表示所选样本损失值的平均值,i表示所选样本的序号,i=1,2,…,128;f(xi;θ)-yi表示重识别深度学习网络的参数为θ时对样本xi的输出值,xi表示所选取的样本,θ表示当前迭代更新前的重识别深度学习网络的参数值,yi表示每个样本对应的标签值。
第5步,按照下式,计算深度学习参数的更新值:
Figure BDA0002980144740000152
其中,θ′表示重识别深度学习网络参数当前迭代更新后的值,
Figure BDA0002980144740000161
表示所选样本损失值的平均值对重识别深度学习网络参数的求导值。
第6步,判断是否达到重识别深度学习网络的迭代次数,若是,得到训练好的重识别深度学习网络,否则,执行所述梯度下降方法的第2步。
采用本发明实施例的技术手段,预先训练一个深度学习网络作为特征提取模型,并对每一序列帧进行特征向量的提取,得到每一所述行走序列对应的行走特征,有效地提高了行走特征提取的准确性。
作为优选的实施方式,在实施例一至四任一实施例的基础上,所述步骤S3具体包括步骤S31至S33:
S31、依次获取所述更新后的行走特征数据库中的每一行走特征,作为候选行走特征;
S32、计算所述待识别行人的行走特征与每一所述候选行走特征的特征距离;
S33、获取使得所述特征距离达到最大值所对应的候选行走特征,得到行人重识别结果。
在得到更新后的行走特征数据库后,将待识别行人的行走特征与更新后的行走特征数据库中的每一行走特征进行特征距离的计算。
优选地,通过计算待识别行人的行走特征与更新后的行走特征数据库中的行走特征的余弦相似度,以表征特征向量之间的特征距离。所述余弦相似度的计算公式满足:
Figure BDA0002980144740000162
其中,θ为所述余弦相似度,X为所述待识别行人的行走特征,Y为更新后的行走特征数据库中的行走特征,T表示转置操作。
获取使得所述余弦相似度达到最大值所对应的行走特征,作为目标行走特征。并根据该目标行走特征对应绑定的行人身份标识,得到行人重识别结果。
采用本发明实施例的技术手段,通过计算待识别行人的行走特征与候选行走特征的余弦相似度,能够有效提高行走特征之间的特征距离的衡量精度,从而提高行人重识别的准确性。
参见图5,是本发明实施例五提供的一种行人重识别的装置的结构示意图。本发明实施例提供的一种行人重识别的装置50,包括:数据库获取模块51、数据库更新模块52和行人重识别模块53。其中,
所述数据库获取模块51,用于获取若干个监控视角下的行走特征集合,作为行走特征数据库;其中,所述行走特征集合包括同一监控视角下所监控到的行人对应的行走特征;所述行走特征由若干个特征向量组成;
所述数据库更新模块52,用于对所述行走特征数据库中的每一所述行走特征,执行特征向量筛选操作,以更新每一所述行走特征,得到更新后的行走特征数据库;
其中,所述特征向量筛选操作包括:依次获取当前的行走特征中的每一特征向量,作为第一特征向量;在获取所述第一特征向量之后,依次获取所述当前的行走特征中不为所述第一特征向量的特征向量,作为第二特征向量;当所述第一特征向量与所述第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除;
所述行人重识别模块53,用于根据所述更新后的行走特征数据库,对待识别行人的行走特征进行行人重识别,得到行人重识别结果。
需要说明的是,本发明实施例提供的一种行人重识别的装置用于执行上述实施例一至四任一实施例所提供的一种行人重识别的方法的所有流程步骤,两者的工作原理和有益效果一一对应,因而不再赘述。
本发明实施例五提供了一种行人重识别的装置,在通过数据库获取模块获取行走特征数据库之后,通过数据库更新模块对所述行走特征数据库中的每一所述行走特征,执行特征向量筛选操作,当存在第一特征向量与第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除,以此更新每一所述行走特征,得到更新后的行走特征数据库,进而通过行人重识别模块对待识别行人的行走特征进行行人重识别,得到行人重识别结果。采用本发明实施例的技术手段,基于特征向量的特征距离对行走特征进行直接筛选和更新,克服了现有技术不能筛查模糊、遮挡和重复序列帧的问题,有效地提高了每一行走特征的判别性,使得在行人相互遮挡的监控视频中也能获得更高精度的行人重识别结果,提高行人重识别的准确性。
参见图6,是本发明实施例六提供的一种行人重识别的装置的结构示意图,本发明实施例还提供了另一种行人重识别的装置60,包括处理器61、存储器62以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如上述实施例一至四任意一实施例所述的行人重识别的方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (10)

1.一种行人重识别的方法,其特征在于,包括:
获取若干个监控视角下的行走特征集合,作为行走特征数据库;其中,所述行走特征集合包括同一监控视角下所监控到的行人对应的行走特征;所述行走特征由若干个特征向量组成;
对所述行走特征数据库中的每一所述行走特征,执行特征向量筛选操作,以更新每一所述行走特征,得到更新后的行走特征数据库;其中,所述特征向量筛选操作包括:依次获取当前的行走特征中的每一特征向量,作为第一特征向量;在获取所述第一特征向量之后,依次获取所述当前的行走特征中不为所述第一特征向量的特征向量,作为第二特征向量;当所述第一特征向量与所述第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除;
根据所述更新后的行走特征数据库,对待识别行人的行走特征进行行人重识别,得到行人重识别结果。
2.如权利要求1所述的行人重识别的方法,其特征在于,所述当所述第一特征向量与所述第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除,具体包括:
计算所述第一特征向量与所述第二特征向量的余弦相似度;
当所述第一特征向量与所述第二特征向量的余弦相似度处于预设的阈值范围内时,将所述第二特征向量在所述当前的行走特征中删除。
3.如权利要求2所述的行人重识别的方法,其特征在于,通过以下计算公式,计算所述第一特征向量与所述第二特征向量的余弦相似度:
Figure FDA0002980144730000021
其中,θ为所述第一特征向量与所述第二特征向量的余弦相似度,X为所述第一特征向量,Y为所述第二特征向量,T表示转置操作。
4.如权利要求1所述的行人重识别的方法,其特征在于,所述获取若干个监控视角下的行走特征集合,作为行走特征数据库,具体包括:
采集若干个监控视角下的监控视频;
提取每一所述监控视频对应的行走序列集合;其中,所述行走序列集合由所述监控视频中的每一行人对应的行走序列组成;
提取每一所述行走序列集合对应的行走特征集合,得到所述行走特征数据库。
5.如权利要求4所述的行人重识别的方法,其特征在于,所述提取每一所述监控视频对应的行走序列集合,具体包括:
利用预设的检测算法,计算所述监控视频的每一视频帧中的所有行人检测区域;
利用预设的跟踪算法,计算所述监控视频的每一视频帧中的所有行人预测区域,并获取每一行人预测区域对应的预先分配的行人身份标识;
将所述视频帧中的行人检测区域和行人预测区域进行匹配,并根据所述行人检测区域与对应匹配的行人预测区域,得到行人目标区域和对应的行人身份标识;
基于每一所述视频帧中的行人目标区域和行人身份标识,得到所述监控视频中每一行人的行走序列,以得到所述监控视频对应的行走序列集合。
6.如权利要求5所述的行人重识别的方法,其特征在于,所述将每一所述视频帧中的行人检测区域和行人预测区域进行匹配,并根据所述行人检测区域与对应匹配的行人预测区域,得到行人目标区域和对应的行人身份标识,具体包括:
针对每一所述视频帧,依次获取所述视频帧中的每一所述行人检测区域,作为当前行人检测区域;
采用预设的交并比公式IOU=(A∩Bi)/(A∪Bi),计算所述当前行人检测区域与所在的视频帧中的所有的行人预测区域的重叠度IOU;其中,A为所述视频帧中的当前行人检测区域,Bi为所述视频帧中的第i个行人预测区域;i=1,2,…,n;n为所述视频帧中的行人预测区域的个数;
获取使得所述重叠度达到最大值所对应的行人预测区域,作为与所述当前行人检测区域匹配的行人预测区域;
根据所述当前行人检测区域和所述匹配的行人预测区域,计算行人目标区域;
根据所述匹配的行人预测区域对应的行人身份标识,得到所述行人目标区域对应的行人身份标识。
7.如权利要求4所述的行人重识别的方法,其特征在于,所述提取每一所述行走序列集合对应的行走特征集合,具体包括:
针对每一所述行走序列集合中的每一所述行走序列,依次读取所述行走序列的每一序列帧,并输入预先训练完成的特征提取模型,得到所述特征提取模型输出的每一行走特征向量;
按照每一所述序列帧的输入时间顺序,对每一所述行走特征向量进行排序,得到所述行走序列的行走特征,以得到每一所述行走序列集合对应的行走特征集合。
8.如权利要求1所述的行人重识别的方法,其特征在于,所述根据所述更新后的行走特征数据库,对待识别行人的行走特征进行行人重识别,得到行人重识别结果,具体包括:
依次获取所述更新后的行走特征数据库中的每一行走特征,作为候选行走特征;
计算所述待识别行人的行走特征与每一所述候选行走特征的特征距离;
获取使得所述特征距离达到最大值所对应的候选行走特征,得到行人重识别结果。
9.一种行人重识别的装置,其特征在于,包括:
数据库获取模块,用于获取若干个监控视角下的行走特征集合,作为行走特征数据库;其中,所述行走特征集合包括同一监控视角下所监控到的行人对应的行走特征;所述行走特征由若干个特征向量组成;
数据库更新模块,用于对所述行走特征数据库中的每一所述行走特征,执行特征向量筛选操作,以更新每一所述行走特征,得到更新后的行走特征数据库;其中,所述特征向量筛选操作包括:依次获取当前的行走特征中的每一特征向量,作为第一特征向量;在获取所述第一特征向量之后,依次获取所述当前的行走特征中不为所述第一特征向量的特征向量,作为第二特征向量;当所述第一特征向量与所述第二特征向量的特征距离满足预设的阈值条件时,将所述第二特征向量在所述当前的行走特征中删除;
行人重识别模块,用于根据所述更新后的行走特征数据库,对待识别行人的行走特征进行行人重识别,得到行人重识别结果。
10.一种行人重识别的装置,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至8中任意一项所述的行人重识别的方法。
CN202110285142.7A 2021-03-17 2021-03-17 一种行人重识别的方法和装置 Active CN112926487B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110285142.7A CN112926487B (zh) 2021-03-17 2021-03-17 一种行人重识别的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110285142.7A CN112926487B (zh) 2021-03-17 2021-03-17 一种行人重识别的方法和装置

Publications (2)

Publication Number Publication Date
CN112926487A true CN112926487A (zh) 2021-06-08
CN112926487B CN112926487B (zh) 2022-02-11

Family

ID=76174871

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110285142.7A Active CN112926487B (zh) 2021-03-17 2021-03-17 一种行人重识别的方法和装置

Country Status (1)

Country Link
CN (1) CN112926487B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114694184A (zh) * 2022-05-27 2022-07-01 电子科技大学 一种基于多模板特征更新的行人重识别方法及系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106205624A (zh) * 2016-07-15 2016-12-07 河海大学 一种基于dbscan算法的声纹识别方法
CN106295482A (zh) * 2015-06-11 2017-01-04 中国移动(深圳)有限公司 一种人脸数据库的更新方法及装置
CN107423297A (zh) * 2016-05-23 2017-12-01 中兴通讯股份有限公司 图片的筛选方法及装置
CN108921204A (zh) * 2018-06-14 2018-11-30 平安科技(深圳)有限公司 电子装置、图片样本集生成方法和计算机可读存储介质
CN110032940A (zh) * 2019-03-13 2019-07-19 华中科技大学 一种视频行人重识别的方法和系统
CN110222589A (zh) * 2019-05-16 2019-09-10 五邑大学 一种行人再识别方法及其系统、装置、存储介质
CN110263697A (zh) * 2019-06-17 2019-09-20 哈尔滨工业大学(深圳) 基于无监督学习的行人重识别方法、装置及介质
CN111783568A (zh) * 2020-06-16 2020-10-16 厦门市美亚柏科信息股份有限公司 一种基于置信学习的行人重识别方法、装置及存储介质
CN111860147A (zh) * 2020-06-11 2020-10-30 北京市威富安防科技有限公司 行人重识别模型优化处理方法、装置和计算机设备
CN112183155A (zh) * 2019-07-02 2021-01-05 北京新唐思创教育科技有限公司 动作姿态库建立、动作姿态生成、识别方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295482A (zh) * 2015-06-11 2017-01-04 中国移动(深圳)有限公司 一种人脸数据库的更新方法及装置
CN107423297A (zh) * 2016-05-23 2017-12-01 中兴通讯股份有限公司 图片的筛选方法及装置
CN106205624A (zh) * 2016-07-15 2016-12-07 河海大学 一种基于dbscan算法的声纹识别方法
CN108921204A (zh) * 2018-06-14 2018-11-30 平安科技(深圳)有限公司 电子装置、图片样本集生成方法和计算机可读存储介质
CN110032940A (zh) * 2019-03-13 2019-07-19 华中科技大学 一种视频行人重识别的方法和系统
CN110222589A (zh) * 2019-05-16 2019-09-10 五邑大学 一种行人再识别方法及其系统、装置、存储介质
CN110263697A (zh) * 2019-06-17 2019-09-20 哈尔滨工业大学(深圳) 基于无监督学习的行人重识别方法、装置及介质
CN112183155A (zh) * 2019-07-02 2021-01-05 北京新唐思创教育科技有限公司 动作姿态库建立、动作姿态生成、识别方法及装置
CN111860147A (zh) * 2020-06-11 2020-10-30 北京市威富安防科技有限公司 行人重识别模型优化处理方法、装置和计算机设备
CN111783568A (zh) * 2020-06-16 2020-10-16 厦门市美亚柏科信息股份有限公司 一种基于置信学习的行人重识别方法、装置及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHIHONG YAO等: "Feature Selection and PedeBased on Sparse Representationstrian Detection", 《PLOS ONE》 *
杨应华 等: "基于人工免疫结合余弦相似度的病毒特征提取算法", 《计算机应用与软件》 *
陈建宇 等: "基于时空注意力机制的行为识别方法", 《中国体视学与图像分析》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114694184A (zh) * 2022-05-27 2022-07-01 电子科技大学 一种基于多模板特征更新的行人重识别方法及系统
CN114694184B (zh) * 2022-05-27 2022-10-14 电子科技大学 一种基于多模板特征更新的行人重识别方法及系统

Also Published As

Publication number Publication date
CN112926487B (zh) 2022-02-11

Similar Documents

Publication Publication Date Title
CN111259850B (zh) 一种融合随机批掩膜和多尺度表征学习的行人重识别方法
Xie et al. Multilevel cloud detection in remote sensing images based on deep learning
CN108509859B (zh) 一种基于深度神经网络的无重叠区域行人跟踪方法
Shi et al. Cloud detection of remote sensing images by deep learning
CN112750140B (zh) 基于信息挖掘的伪装目标图像分割方法
CN107609485B (zh) 交通标志的识别方法、存储介质、处理设备
CN113065558A (zh) 一种结合注意力机制的轻量级小目标检测方法
CN109255317B (zh) 一种基于双网络的航拍图像差异检测方法
CN111767882A (zh) 一种基于改进yolo模型的多模态行人检测方法
CN108596102B (zh) 基于rgb-d的室内场景物体分割分类器构造方法
CN113076802B (zh) 基于缺少断开图像样本的变电站开关分合状态图像识别方法
CN109271990A (zh) 一种针对rgb-d图像的语义分割方法及装置
CN109711416B (zh) 目标识别方法、装置、计算机设备和存储介质
CN103093198B (zh) 一种人群密度监测方法及装置
Krajník et al. Image features and seasons revisited
CN111046789A (zh) 一种行人重识别方法
CN111666860A (zh) 一种车牌信息与车辆特征融合的车辆轨迹跟踪方法
CN108875500B (zh) 行人再识别方法、装置、系统及存储介质
CN115063447A (zh) 一种基于视频序列的目标动物运动追踪方法及相关设备
CN114332644B (zh) 一种基于视频卫星数据的大视场交通密度获取方法
Kadim et al. Deep-learning based single object tracker for night surveillance.
CN112926487B (zh) 一种行人重识别的方法和装置
CN108509826B (zh) 一种遥感影像的道路识别方法及其系统
Lee et al. Fast object localization using a CNN feature map based multi-scale search
CN113033523B (zh) 跌倒判断模型的构建方法及系统、跌倒判断方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant