CN112989911A - 一种行人再识别方法及系统 - Google Patents
一种行人再识别方法及系统 Download PDFInfo
- Publication number
- CN112989911A CN112989911A CN202011458203.7A CN202011458203A CN112989911A CN 112989911 A CN112989911 A CN 112989911A CN 202011458203 A CN202011458203 A CN 202011458203A CN 112989911 A CN112989911 A CN 112989911A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- features
- feature
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 54
- 230000004927 fusion Effects 0.000 claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000005286 illumination Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000000513 principal component analysis Methods 0.000 claims description 4
- 238000007499 fusion processing Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 2
- 238000003860 storage Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Abstract
本发明公开了一种行人再识别方法及系统,包括如下步骤:获取待识别的行人图像并进行处理得到行人区域图像;将所述行人区域图像输入至少两个不同架构的神经网络训练模型,以分别获得所述行人区域图像中行人的全局特征和局部特征;将所述行人的所述全局特征和所述局部特征进行特征融合,获得所述行人的融合特征;将所述融合特征与行人特征库中的特征比对,进行识别。本发明通过将融合特征与行人特征库中的特征比对,删除行人数据库中不合理的id,缩小数据库中的查找范围,提高了行人识别效率和精度,大大提高了行人再识别的鲁棒性。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种行人再识别方法及系统。
背景技术
行人再识别(Person re-identification)也称行人重识别,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术,通过给定一个监控行 人图像,检索跨设备下的该行人图像,旨在弥补固定的摄像头的视觉局限,可 泛应用于智能视频监控、智能安保等领域。
行人再识别是计算机视觉研究的热门方向,主要解决跨摄像头跨场景下行 人的识别与检索,例如根据在某一摄像头或者某一场景下拍摄到的行人数据, 须要通过另一摄像头或者在另一场景下将其识别出来。该技术能够根据行人的 穿着、体态、发型等信息认知行人。
现有技术行人再识别技术一般采用深度学习的单模型技术,即通过海量的 数据去学习到行人的特征分布,进而获取某个行人的特征,再根据行人的特征 进行大库检索。
然而,上述现有技术方法存在一定弊端,比如对光照、图像清晰度等比较 敏感,且由于人体本身是一个非刚体,导致学习到的特征鲁棒性不好,容易搜 索出来错误的行人,导致识别效率低,且识别不准确。
上述背景技术内容的公开仅用于辅助理解本发明的发明构思及技术方案, 其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本 专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的 新颖性和创造性。
发明内容
本发明的目的在于提供一种行人再识别方法及系统,以解决上述背景技术 问题中的至少一种问题。
为达到上述目的,本发明实施例的技术方案是这样实现的:
一种行人再识别方法,包括如下步骤:
获取待识别的行人图像并进行处理得到行人区域图像;
将所述行人区域图像输入至少两个不同架构的神经网络训练模型,以分别 获得所述行人区域图像中行人的全局特征和局部特征;
将所述行人的所述全局特征和所述局部特征进行特征融合,获得所述行人 的融合特征;
将所述融合特征与行人特征库中的特征比对,进行识别。
进一步的,还包括步骤:
对所述行人区域图像进行处理得到预处理图像。
进一步的,所述对所述行人区域图像进行处理包括:
对所述行人区域图像进行光照增强和/或模糊增强处理,其中,根据如下公 式对所述行人区域图像进行亮度和对比度随机增强处理:
g(x)=αf(x)+β
其中,f(x)为源图像像素,g(x)为处理后输出的图像像素,α为对比度系 数,β为亮度系数。
进一步的,所述将所述行人区域图像输入至少两个不同架构的神经网络训 练模型,以分别获得所述行人区域图像中行人的全局特征和局部特征包括:
将所述行人区域图像输入至一个全局神经网络训练模型进行处理,提取所 述全局特征;同时,将所述行人区域图像分割为多个图像区域,并将所述多个 图像区域分别输入至不同的局部神经网络训练模型进行处理,提取出多个不同 局部特征。
进一步的,所述将所述行人的所述全局特征和所述局部特征进行特征融合, 获得所述行人的融合特征包括:
将所述全局特征与所述多个不同的局部特征输入全连接层,进行特征融合 处理,得到所述融合特征。
进一步的,还包括步骤:对不同的特征合并进行特征融合后,通过主成分 分析算法对融合后的特征进行降维,使得所述融合特征与行人特征库中的行人 特征维度一致。
本发明实施例另一技术方案为:
一种行人再识别系统,包括图像获取模块、图像特征提取模块、特征融合 模块、以及特征比对识别模块;其中,
所述图像获取模块用于获取待识别的行人图像并进行处理得到行人区域图 像;
所述图像特征提取模块用于将所述行人区域图像输入至少两个不同架构的 神经网络训练模型,以分别获得所述行人区域图像中行人的全局特征和局部特 征;
所述特征比对识别模块用于将所述融合特征与行人特征库中的特征比对, 进行识别。
进一步的,还包括有图像预处理模块,以用于对所述行人区域图像进行处 理得到预处理图像。
进一步的,所述图像预处理模块包括有光照增强处理单元和/或模糊增强处 理单元,以用于对所述行人区域图像进行光照增强处理和/或模糊增强处理。
进一步的,所述特征比对识别模块包括有特征比对单元和时空信息比对单 元;其中,所述特征比对单元用于对所述融合特征中的特征与行人特征库中的 特征进行相似度比对;所述时空信息比对单元用于读取所述行人区域图像的时 间信息和空间信息,对于行人特征库中相似度高的id,进一步进行时间信息和 空间信息比对。
本发明技术方案的有益效果是:
相较于现有技术,本发明行人再识别方法及系统通过将融合特征与行人特 征库中的特征比对,删除行人数据库中不合理的id,缩小数据库中的查找范围, 提高了行人识别效率和精度,大大提高了行人再识别的鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施 例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述 中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付 出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明一个实施例行人再识别方法的流程示意图;
图2是根据本发明一个实施例行人再识别方法的架构图示;
图3是根据本发明另一个实施例行人再识别系统的示意图。
具体实施方式
为了使本发明实施例所要解决的技术问题、技术方案及有益效果更加清楚 明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此 处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,当元件被称为“固定于”或“设置于”另一个元件,它可 以直接在另一个元件上或者间接在该另一个元件上。当一个元件被称为是“连 接于”另一个元件,它可以是直接连接到另一个元件或间接连接至该另一个元 件上。另外,连接即可以是用于固定作用也可以是用于电路连通作用。
需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、 “左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指 示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本 发明实施例和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的 方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗 示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、 “第二”的特征可以明示或者隐含地包括一个或者更多该特征。在本发明实施 例的描述中,“多个”的含义是两个或两个以上,除非另有明确具体地限定。
图1为根据本发明实施例提供的一种行人再识别方法的流程示意图,方法 包括如下步骤:
获取待识别的行人图像并进行处理得到行人区域图像;
将所述行人区域图像输入至少两个不同架构的神经网络训练模型,以分别 获得所述行人区域图像中行人的全局特征和局部特征;
将所述行人的所述全局特征和所述局部特征进行特征融合,获得所述行人 的融合特征;
将所述融合特征与行人特征库中的特征比对,进行识别。
具体地,通过行人检测算法将包含有背景区域信息的行人图像进行处理, 得到行人区域图像。在一个实施例中,通过采集设备采集到待识别的行人图像, 所述行人图像可以为彩色图像、红外图像、以及深度图像。其中,采集设备可 以为基于结构光、双目、TOF(时间飞行算法)技术的深度相机。在一个实施例中, 采集设备包括结构光深度相机与彩色相机,以用于采集深度图像、红外图像及 彩色图像。其中,深度图像、红外图像及彩色图像的采集频率可以相同也可以 不同,根据具体地功能需求进行相应的设定,比如以60FPS的频率交叉采集深 度图像、红外图像及彩色图像,或者分别获取30FPS的深度图像、红外图像及彩色图像。
在一个实施例中,对采集设备所采集到彩色图像、红外图像及深度图像进 行配准,即通过配准算法找到深度图像、红外图像及彩色图像中各个像素之间 的对应关系,以消除彩色图像、红外图像及深度图像三者之间由于空间位置不 同所产生的视差。需要说明的是,配准可以由采集设备中专用处理器来完成, 也可以由外部处理器完成。
在一个实施例中,待识别的行人图像为预先存储在存储设备中,通过控制 与处理器直接访问存储设备,读取待识别的行人图像。
在一个实施例中,对所获取的行人图像进行抠图处理,去除行人图像中的 背景区域信息,以得到行人区域图像。须要说明的是,可以采用现有的抠图处 理技术进行抠图处理,在本实施例中不作特别限定。
在一个实施例中,还包括步骤:
对行人区域图像进行处理得到预处理图像;具体地,对行人区域图像进行 光照增强处理,根据如下公式对行人区域图像进行亮度和对比度随机增强处理:
g(x)=αf(x)+β
其中,f(x)为源图像像素,g(x)为处理后输出的图像像素,α为对比度系 数,用于控制调节图像的对比度;β为亮度系数,用于控制调节图像的亮度。
在一个实施例,对行人区域图像进行处理还包括:对行人区域图像进行模 糊增强处理,对行人区域图像进行随机模糊增强。其中,可以随机采用中值滤 波、高斯滤波、双边滤波等来模糊化图像。通过对图像进行模糊处理,可以使 整个处理系统也适用于模糊图像,即使采集的图像很模糊,系统也可以进行识 别。
在一个实施例中,将预处理图像输入至少两个不同架构的神经网络训练模 型处理以提取不同特征,对所述不同特征合并进行特征融合,得到融合特征; 其中,所提取到的不同特征包括有全局特征和局部特征;在一个实施例中,所 述局部特征至少为两个。
在一个实施例中,将预处理图像输入一个全局神经网络训练模型进行处理, 提取全局特征,同时,将预处理图像水平等分为三个区域,分别输入三个局部 神经网络训练模型进行处理,提取不同局部特征,获得三个不同的局部特征。
在一个实施例中,参照图2所示,将经过模糊增强处理的图像输入神经网 络A训练模型进行处理,获得全局特征A;同时,将经过模糊增强处理的图像 进行分割,分割为多个图像区域。以下以水平等分为三个区域为例进行说明, 参照图2所示,将图像水平等分为三个图像区域,将三个图像区域分别输入神 经网络B训练模型、神经网络C训练模型、以及神经网络D训练模型,分别得 到局部特征B、局部特征C、以及局部特征D。
需要说明的是,模糊增强处理并不是本发明实施例中的必需步骤,在一些 实施例也可以不经过模糊增强处理,对于不经过模糊增强处理的情形,直接将 经过光照增强处理的图像输入神经网络A训练模型进行处理或者直接进行分割, 得到分割后的多个图像区域。
在一个实施例中,将图像的全局特征以及多个局部特征进行融合得到融合 特征,其中融合特征与行人具有唯一相关性。参照图2所示,将全局特征A、 局部特征B、局部特征C、局部特征D进行特征融合,融合方法采用连接的方 法。具体地,将特征输入全连接层,其中,全连接层由多个神经元构成,与每 个神经网络的最后一个卷积层连接,利用全连接层将上述特征连接生成一个与 神经元数量相同的维度的特征向量。在图2所示实施例中,将全局特征与三个 不同的局部特征输入全连接层,进行特征融合处理,得到融合特征。
在一些实施例中,对不同的特征合并进行特征融合后,还通过主成分分析(Principal Component Analysis,PCA)算法对融合后的特征进行降维,使所得到的 融合特征与行人特征库中的行人特征维度一致,以便提高特征比对的效率。
在一些实施例中,得到融合特征后,通过融合特征中的特征与行人特征库 中的每一个特征比对相似度,完成识别。在一些实施例中,读取每个行人区域 图像的时间信息和空间信息(坐标信息),通过特征比对、时间信息比对以及空 间信息比对,从而以提高识别的精确度。
在一些实施例中,通过融合特征中的特征与行人特征库中的每一个特征比 对相似度,对该相似度进行排序,找到最相似的前十个id;根据最相似的前十 个id的时间信息t1-t10和空间信息s1-s10,比对待检索的行人图像的时间信息 tu和空间信息su,因为行人的速度是有限的,在一个合理的范围内,若行人的 速度v=(si-su)/(ti-tu)不在合理的行人速度范围内,即删除该id。按照相似度从高 到低,逐个比对合理性,删除掉不合理的id,从而以提高识别精度。
需要说明的是,本发明创作方案并不能直接将待识别行人从行人数据库中 定位出来,但是通过删除行人数据库中不合理的ID,进而缩小行人查找范围, 可以提高行人识别的速度和效率,以及鲁棒性。
图3为本发明另一实施例一种行人再识别系统的示意图,系统300包括: 图像获取模块301、图像预处理模块302、图像特征提取模块303、特征融合模 块304、以及特征比对识别模块305;其中,图像获取模块301用于获取待识别 的行人图像并进行处理得到行人区域图像;图像预处理模块302用于对行人区 域图像进行处理得到预处理图像;图像特征提取模块303用于将行人区域图像 输入至少两个不同架构的神经网络训练模型,以分别获得行人区域图像中行人 的全局特征、局部特征;特征融合模块304用于将行人的全局特征、局部特征 进行特征融合,获得行人的融合特征;特征比对识别模块305用于将融合特征 与行人特征库中的特征比对,进行识别。
具体的,图像特征提取模块303包括有至少两种不同的神经网络架构,通 过搭建不同的神经网络架构对预处理图像进行不同特征提取以获得全局特征图 和局部特征图。
在一个实施例中,图像预处理模块302包括有光照增强处理单元3021,以 用于对行人区域图像进行光照增强处理。
在一个实施例中,图像预处理模块302还包括有模糊增强处理单元3022, 以用于对行人区域图像进行模糊增强处理,通过对图像进行模糊处理,可以使 整个处理系统也适用于模糊图像,即使采集的图像很模糊,系统也可以进行识 别。
在一个实施例中,特征比对识别模块305包括有特征比对单元3051,以用 对融合特征图中的特征与行人特征库中的每一个特征进行相似度比对。
在一个实施例中,特征比对识别模块305包括有时空信息比对单元3052, 以用于读取行人区域图像的时间信息和空间信息,对于行人特征库中相似度高 的id,进一步进行时间信息和空间信息比对,从而提高识别的精确度。
在一个实施例中,还包括有存储单元,以用于存储所获取的行人区域图像 以及行人区域图像的时间信息和空间信息。
需要说明的是,本发明实施例行人再识别系统用于执行前述实施例行人再 识别方法,各模块的具体功能详细描述参见行人再识别方法实施例中的描述, 在此不再赘述。
本发明还提出了一种计算机可读存储介质,计算机刻度存储介质存储有计 算机程序,该计算机程序被处理器执行时实现上述实施例方案的行人再识别方 法。所述存储介质可以由任何类型的易失性或非易失性存储设备、或者它们的 组合来实现。
本发明的实施例可以包括或利用包括计算机硬件的专用或通用计算机,如 下面更详细讨论的。在本发明的范围内的实施例还包括用于携带或存储计算机 可执行指令和/或数据结构的物理和其他计算机可读介质。这样的计算机可读介 质可以是可以被通用或专用计算机系统访问的任何可用介质。存储计算机可执 行指令的计算机可读介质是物理存储介质。携带计算机可执行指令的计算机可 读介质是传输介质。因此,作为示例而非限制,本发明的实施例可以包括至少 两种截然不同的计算机可读介质:物理计算机可读存储介质和传输计算机可读 介质。
本申请实施例还提供一种计算机设备,所述计算机设备包括存储器、处理 器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其中,所 述处理器执行所述计算机程序时至少实现前述实施例方案中所述的行人再识别 方法。
可以理解的是,以上内容是结合具体/优选的实施方式对本发明所作的进一 步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属 技术领域的普通技术人员来说,在不脱离本发明构思的前提下,其还可以对这 些已描述的实施方式做出若干替代或变型,而这些替代或变型方式都应当视为 属于本发明的保护范围。在本说明书的描述中,参考术语“一种实施例”、“一 些实施例”、“优选实施例”、“示例”、“具体示例”、或“一些示例”等的描述意 指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的 至少一个实施例或示例中。
在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或 示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施 例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术 人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征 进行结合和组合。尽管已经详细描述了本发明的实施例及其优点,但应当理解, 在不脱离由所附权利要求限定的范围的情况下,可以在本文中进行各种改变、 替换和变更。
此外,本发明的范围不旨在限于说明书中所述的过程、机器、制造、物质 组成、手段、方法和步骤的特定实施例。本领域普通技术人员将容易理解,可 以利用执行与本文所述相应实施例基本相同功能或获得与本文所述实施例基本 相同结果的目前存在的或稍后要开发的上述披露、过程、机器、制造、物质组 成、手段、方法或步骤。因此,所附权利要求旨在将这些过程、机器、制造、 物质组成、手段、方法或步骤包含在其范围内。
Claims (10)
1.一种行人再识别方法,其特征在于,包括如下步骤:
获取待识别的行人图像并进行处理得到行人区域图像;
将所述行人区域图像输入至少两个不同架构的神经网络训练模型,以分别获得所述行人区域图像中行人的全局特征和局部特征;
将所述行人的所述全局特征和所述局部特征进行特征融合,获得所述行人的融合特征;
将所述融合特征与行人特征库中的特征比对,进行识别。
2.如权利要求1所述的行人再识别方法,其特征在于,还包括步骤:
对所述行人区域图像进行处理得到预处理图像。
3.如权利要求2所述的行人再识别方法,其特征在于,所述对所述行人区域图像进行处理包括:
对所述行人区域图像进行光照增强和/或模糊增强处理,其中,根据如下公式对所述行人区域图像进行亮度和对比度随机增强处理:
g(x)=αf(x)+β
其中,f(x)为源图像像素,g(x)为处理后输出的图像像素,α为对比度系数,β为亮度系数。
4.如权利要求1所述的行人再识别方法,其特征在于,所述将所述行人区域图像输入至少两个不同架构的神经网络训练模型,以分别获得所述行人区域图像中行人的全局特征和局部特征包括:
将所述行人区域图像输入至一个全局神经网络训练模型进行处理,提取所述全局特征;同时,将所述行人区域图像分割为多个图像区域,并将所述多个图像区域分别输入至不同的局部神经网络训练模型进行处理,提取出多个局部特征。
5.如权利要求1所述的行人再识别方法,其特征在于,所述将所述行人的所述全局特征和所述局部特征进行特征融合,获得所述行人的融合特征包括:
将所述全局特征与所述多个局部特征输入全连接层,进行特征融合处理,得到所述融合特征。
6.如权利要求5所述的行人再识别方法,其特征在于,还包括步骤:对不同的特征合并进行特征融合后,通过主成分分析算法对融合后的特征进行降维,使得所述融合特征与行人特征库中的行人特征维度一致。
7.一种行人再识别系统,其特征在于:包括图像获取模块、图像特征提取模块、特征融合模块、以及特征比对识别模块;其中,
所述图像获取模块用于获取待识别的行人图像并进行处理得到行人区域图像;
所述图像特征提取模块用于将所述行人区域图像输入至少两个不同架构的神经网络训练模型,以分别获得所述行人区域图像中行人的全局特征和局部特征;
所述特征融合模块将所述行人的所述全局特征和所述局部特征进行特征融合,获得所述行人的融合特征;
所述特征比对识别模块用于将所述融合特征与行人特征库中的特征比对,进行识别。
8.如权利要求7所述的行人再识别系统,其特征在于:还包括有图像预处理模块,以用于对所述行人区域图像进行处理得到预处理图像。
9.如权利要求7所述的行人再识别系统,其特征在于:所述图像预处理模块包括有光照增强处理单元和/或模糊增强处理单元,以用于对所述行人区域图像进行光照增强处理和/或模糊增强处理。
10.如权利要求7所述的行人再识别系统,其特征在于:所述特征比对识别模块包括有特征比对单元和时空信息比对单元;其中,所述特征比对单元用于对所述融合特征与行人特征库中的特征进行相似度比对;所述时空信息比对单元用于读取所述行人区域图像的时间信息和空间信息,对于行人特征库中相似度高的id,进一步进行时间信息和空间信息比对。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011458203.7A CN112989911A (zh) | 2020-12-10 | 2020-12-10 | 一种行人再识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011458203.7A CN112989911A (zh) | 2020-12-10 | 2020-12-10 | 一种行人再识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112989911A true CN112989911A (zh) | 2021-06-18 |
Family
ID=76344936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011458203.7A Pending CN112989911A (zh) | 2020-12-10 | 2020-12-10 | 一种行人再识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112989911A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113724307A (zh) * | 2021-09-02 | 2021-11-30 | 深圳大学 | 基于特征自校准网络的图像配准方法、装置及相关组件 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389562A (zh) * | 2015-11-13 | 2016-03-09 | 武汉大学 | 一种时空约束的监控视频行人重识别结果的二次优化方法 |
CN107545256A (zh) * | 2017-09-29 | 2018-01-05 | 上海交通大学 | 一种结合时空和网络一致性的摄像机网络行人重识别方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN108108674A (zh) * | 2017-12-08 | 2018-06-01 | 浙江捷尚视觉科技股份有限公司 | 一种基于关节点分析的行人再识别方法 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
CN110399879A (zh) * | 2019-06-14 | 2019-11-01 | 华南理工大学 | 一种基于注意力机制的文本行单字分割方法 |
CN110738625A (zh) * | 2019-10-21 | 2020-01-31 | Oppo广东移动通信有限公司 | 图像重采样方法、装置、终端及计算机可读存储介质 |
CN110852219A (zh) * | 2019-10-30 | 2020-02-28 | 广州海格星航信息科技有限公司 | 一种多行人跨摄像头在线跟踪系统 |
-
2020
- 2020-12-10 CN CN202011458203.7A patent/CN112989911A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389562A (zh) * | 2015-11-13 | 2016-03-09 | 武汉大学 | 一种时空约束的监控视频行人重识别结果的二次优化方法 |
CN107545256A (zh) * | 2017-09-29 | 2018-01-05 | 上海交通大学 | 一种结合时空和网络一致性的摄像机网络行人重识别方法 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN108108674A (zh) * | 2017-12-08 | 2018-06-01 | 浙江捷尚视觉科技股份有限公司 | 一种基于关节点分析的行人再识别方法 |
CN110163110A (zh) * | 2019-04-23 | 2019-08-23 | 中电科大数据研究院有限公司 | 一种基于迁移学习和深度特征融合的行人重识别方法 |
CN110399879A (zh) * | 2019-06-14 | 2019-11-01 | 华南理工大学 | 一种基于注意力机制的文本行单字分割方法 |
CN110738625A (zh) * | 2019-10-21 | 2020-01-31 | Oppo广东移动通信有限公司 | 图像重采样方法、装置、终端及计算机可读存储介质 |
CN110852219A (zh) * | 2019-10-30 | 2020-02-28 | 广州海格星航信息科技有限公司 | 一种多行人跨摄像头在线跟踪系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113724307A (zh) * | 2021-09-02 | 2021-11-30 | 深圳大学 | 基于特征自校准网络的图像配准方法、装置及相关组件 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111209810B (zh) | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 | |
Dai et al. | TIRNet: Object detection in thermal infrared images for autonomous driving | |
CN111046880B (zh) | 一种红外目标图像分割方法、系统、电子设备及存储介质 | |
WO2019169816A1 (zh) | 一种用于精细化识别车辆属性的深度神经网络及训练方法 | |
Yousif et al. | Fast human-animal detection from highly cluttered camera-trap images using joint background modeling and deep learning classification | |
CN103295016B (zh) | 基于深度与rgb信息和多尺度多方向等级层次特征的行为识别方法 | |
JP7026826B2 (ja) | 画像処理方法、電子機器および記憶媒体 | |
EP3499414B1 (en) | Lightweight 3d vision camera with intelligent segmentation engine for machine vision and auto identification | |
CN110210276A (zh) | 一种移动轨迹获取方法及其设备、存储介质、终端 | |
Patil et al. | Fggan: A cascaded unpaired learning for background estimation and foreground segmentation | |
Lee et al. | Place recognition using straight lines for vision-based SLAM | |
Varghese et al. | An efficient algorithm for detection of vacant spaces in delimited and non-delimited parking lots | |
Khan et al. | A deep survey on supervised learning based human detection and activity classification methods | |
CN112101195B (zh) | 人群密度预估方法、装置、计算机设备和存储介质 | |
Wang et al. | When pedestrian detection meets nighttime surveillance: A new benchmark | |
Chen et al. | An integrated deep learning framework for occluded pedestrian tracking | |
Chen et al. | A lightweight CNN model for refining moving vehicle detection from satellite videos | |
Fan et al. | Complementary tracking via dual color clustering and spatio-temporal regularized correlation learning | |
CN111723773A (zh) | 遗留物检测方法、装置、电子设备及可读存储介质 | |
CN112200841A (zh) | 一种基于行人体态的跨域多摄像头跟踪方法和装置 | |
CN115100732A (zh) | 钓鱼检测方法、装置、计算机设备及存储介质 | |
CN112989911A (zh) | 一种行人再识别方法及系统 | |
e Souza et al. | Survey on visual rhythms: A spatio-temporal representation for video sequences | |
CN114387670A (zh) | 基于时空特征融合的步态识别方法、装置及存储介质 | |
CN114387496A (zh) | 一种目标检测方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |