CN110705345A - 一种基于深度学习的行人重识别方法及系统 - Google Patents
一种基于深度学习的行人重识别方法及系统 Download PDFInfo
- Publication number
- CN110705345A CN110705345A CN201910775166.3A CN201910775166A CN110705345A CN 110705345 A CN110705345 A CN 110705345A CN 201910775166 A CN201910775166 A CN 201910775166A CN 110705345 A CN110705345 A CN 110705345A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- feature vector
- pedestrian target
- target
- specified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的行人重识别方法及系统,该方法包括:获取视频画面中存在的全部行人目标;指定某一视频画面中的一行人目标作为指定行人目标;利用预设算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组;将所述行人目标的特征向量组与所述指定行人目标的特征向量组进行匹配,计算匹配度值;判断所述匹配度值是否大于阈值;如果所述匹配度值大于阈值,则所述行人目标属于指定行人目标。该方法利用深度学习进行行人重识别,根据权重平均值与阈值的大小判断来识别行人目标,能够对指定行人目标进行准确识别,提高图像的识别率。
Description
技术领域
本发明涉及计算机识别技术领域,具体是一种基于深度学习的行人重识别方法及系统。
背景技术
目前,在很多公共场所中配置多个监控摄像头,用于拍摄途经监控区域的行人,监控摄像头可以生成包含行人的视频画面,视频画面中可能包含一个或者很多个行人目标。
行人重识别指的是从多个监控摄像头拍摄的全部视频画面中,识别其中的一个或者很多个行人目标是否属于指定行人目标,具体来说是从一个监控摄像头拍摄的一帧视频画面中指定某一行人目标作为指定行人目标,提取指定行人目标的图像特征,然后从其它监控摄像头拍摄的其它段视频画面中识别人物目标并提取其图像特征,与所述指定行人目标的图像特征进行比对,如果匹配则确定该行人目标属于指定行人目标。
从而,在行人重识别的基础上,可以从视频画面中将包含指定行人目标的视频画面截取出来。行人重识别技术可以用于犯罪嫌疑人通缉、走失人口找寻、可疑人物跟踪等很多场景。
由于光线差异、监控摄像头拍摄视角差异、行人姿势的改变、视频画面中干扰因素的影响(例如背景对行人目标的影响),行人之间的相互影响(例如遮挡等),同一个行人目标在不同监控摄像头所拍摄的多个视频画面中,也会分别呈现出不同的图像特征。
在这种情况下,利用指定行人目标的图像特征,往往不能从全部监控摄像头拍摄的全部视频画面中视识别出属于该指定行人目标的行人目标,即便该指定行人目标确实存在于这些视频画面之中。
因此,如何准确识别指定行人目标的图像特征、提高图像识别率是本领域技术人员亟待解决的问题。
发明内容
鉴于上述问题,本发明实施例提供一种基于深度学习的行人重识别方法,包括:
获取视频画面中存在的全部行人目标;
指定某一视频画面中的一行人目标作为指定行人目标;
利用预设算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组;
将所述行人目标的特征向量组与所述指定行人目标的特征向量组进行匹配,计算匹配度值;
判断所述匹配度值是否大于阈值;如果所述匹配度值大于阈值,则所述行人目标属于指定行人目标。
在一个实施例中,利用预设算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组,包括:
利用经过训练的深度学习算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组。
在一个实施例中,所述经过训练的深度学习算法,包括:
对行人目标进行自适应区域划分,提取所述行人目标的整体特征向量与每个区域的区域特征向量;
根据所述整体特征向量与所述区域特征向量,生成所述全部行人目标的特征向量组与指定行人目标的特征向量组。
在一个实施例中,对行人目标进行自适应区域划分,提取所述行人目标的整体特征向量与每个区域的区域特征向量,包括:
所述行人目标的图像输入卷积神经网络的区域划分模块,生成不同区域的掩模图;
将所述不同区域的掩模图与所述行人目标的图像进行叠加,获取所述行人目标的不同区域;
将所述行人目标的图像与所述人物目标的不同区域分别输入卷积神经网络的特征提取模块,提取所述行人目标的整体特征向量与每个区域的区域特征向量。
在一个实施例中,所述行人目标的特征向量组与所述指定行人目标的特征向量组进行匹配,计算匹配度值,包括:
分别计算所述行人目标的特征向量组与所述指定行人目标的特征向量组中对应特征向量的余弦距离;
计算所述余弦距离的权重平均值,生成匹配度值。
第二方面,本发明还提供一种基于深度学习的行人重识别系统,包括:
获取模块,用于获取视频画面中存在的全部行人目标;
指定模块,用于指定某一视频画面中的一行人目标作为指定行人目标;
提取模块,用于利用预设算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组;
计算模块,用于将所述行人目标的特征向量组与所述指定行人目标的特征向量组进行匹配,计算匹配度值;
判断模块,用于判断所述匹配度值是否大于阈值;如果所述匹配度值大于阈值,则所述行人目标属于指定行人目标。
在一个实施例中,,所述提取模块,包括:
利用经过训练的深度学习算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组。
在一个实施例中,所述提取模块中,所述经过训练的深度学习算法,包括:
提取子模块,用于对行人目标进行自适应区域划分,提取所述行人目标的整体特征向量与每个区域的区域特征向量;
生成子模块,用于根据所述整体特征向量与所述区域特征向量,生成所述全部行人目标的特征向量组与指定行人目标的特征向量组。
在一个实施例中,所述提取子模块,包括:
生成单元,用于所述行人目标的图像输入卷积神经网络的区域划分模块,生成不同区域的掩模图;
获取单元,用于将所述不同区域的掩模图与所述行人目标的图像进行叠加,获取所述行人目标的不同区域;
提取单元,用于将所述行人目标的图像与所述人物目标的不同区域分别输入卷积神经网络的特征提取模块,提取所述行人目标的整体特征向量与每个区域的区域特征向量。
在一个实施例中,所述计算模块,包括:
计算子模块,用于分别计算所述行人目标的特征向量组与所述指定行人目标的特征向量组中对应特征向量的余弦距离;
生成子模块,用于计算所述余弦距离的权重平均值,生成匹配度值。
本发明实施例提供的上述技术方案的有益效果至少包括:
本发明实施例提供的一种基于深度学习的行人重识别方法,该方法通过深度学习,将行人图像的不同区域输入卷积神经网络,并且设置不同区域的权重值,通过区域图像的权重值与阈值进行比较,选定质量较好的图像,提高了对行人重识别的准确率,并且,该算法简单,能够提高行人重识别的速度,减少运算量,减少硬件资源消耗。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例提供的基于深度学习的行人重识别方法的流程图;
图2为本发明实施例提供的步骤S103的流程图;
图3为本发明实施例提供的步骤S1031的流程图;
图4为本发明实施例提供的步骤S104的流程图;
图5为本发明实施例提供的基于深度学习的行人重识别系统的框图;
图6为本发明实施例提供的提取模块53的框图;
图7为本发明实施例提供的计算模块54的框图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
参照图1所示,本发明实施例提供的一种基于深度学习的行人重识别方法,该方法包括:步骤S101~S105;
S101、获取视频画面中存在的全部行人目标;
S102、指定某一视频画面中的一行人目标作为指定行人目标;
S103、利用预设算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组;
所述预设算法为经过训练的深度学习算法;
S104、将所述行人目标的特征向量组与所述指定行人目标的特征向量组进行匹配,计算匹配度值;
S105、判断所述匹配度值是否大于阈值;如果所述匹配度值大于阈值,则所述行人目标属于指定行人目标。
本实施例中,该方法通过深度学习,设置不同区域的权重值,即匹配度值,能够很好的避免因为外界因素对采集的行人图像而造成的影响,更加客观的对行人图像进行判断,并且通过区域图像的权重值与阈值进行比较,选定质量较好的图像,提高了对行人重识别的准确率。
在一个实施例中,参照图2所示,上述步骤S103,包括:
S1031、对行人目标进行自适应区域划分,提取所述行人目标的整体特征向量与每个区域的区域特征向量;
S1032、根据所述整体特征向量与所述区域特征向量,生成所述全部行人目标的特征向量组与指定行人目标的特征向量组。
在一个实施例中,参照图3所示,上述步骤S1031,包括:
S10311、所述行人目标的图像输入卷积神经网络的区域划分模块,生成不同区域的掩模图;
S10312、将所述不同区域的掩模图与所述行人目标的图像进行叠加,获取所述行人目标的不同区域;
S10313、将所述行人目标的图像与所述人物目标的不同区域分别输入卷积神经网络的特征提取模块,提取所述行人目标的整体特征向量与每个区域的区域特征向量。
本实施例中,将行人目标的图像即不同区域的图像输入卷积神经网络,能够较大程度的保留原始图像的特征,并且从卷积神经网络中提取特征向量,能够对行人的图像进行准确提取,提高了提取精度。
在一个实施例中,参照图4所示,上述步骤S104,包括:
S1041、分别计算所述行人目标的特征向量组与所述指定行人目标的特征向量组中对应特征向量的余弦距离;
S1042、计算所述余弦距离的权重平均值,生成匹配度值。
下面通过一个完整的实施例来一种基于深度学习的行人重识别方法的。
实施例1:
具体的,基于深度学习的行人重识别方法步骤如下:
1、根据每个监控摄像头拍摄的每个视频画面,执行步骤S101,确定其中存在的全部行人目标;
2、执行步骤S102,从其中一个监控摄像头拍摄的一帧视频画面中,指定某一行人目标作为指定行人目标;
3、执行步骤S103,利用经过训练的深度学习算法,提取该指定行人目标的特征向量组;针对其它视频画面中的其它全部行人目标,利用该经过训练的深度学习算法,提取其特征向量组;
具体的,深度学习算法包括以下过程:
(1)、如步骤S1031,对行人目标的自适应区域划分;比如,将每个行人目标自适应划分为头部、上半身、下半身三个区域,表示为R1、R2、R3;
进一步的,执行步骤S10311,将行人目标的图像输入到一个卷积神经网络的头部区域划分模块,获得头部区域掩模图,执行步骤S10312,再将头部区域掩膜图与该行人目标图像叠加,取得头部区域R1;
进一步的,将行人目标的图像输入到一个卷积神经网络的上半身区域划分模块,获得上半身区域掩模图,再将上半身区域掩膜图与该行人目标图像叠加,取得上半身区域R2;
进一步的,将行人目标的图像输入到一个卷积神经网络的下半身区域划分模块,获得下半身区域掩模图,再将下半身区域掩膜图与该行人目标图像叠加,取得下半身区域R3;
(2)、执行步骤S10313,将每个行人目标的图像以及前述头部区域R1、上半身区域R2、下半身区域R3分别输入一个卷积神经网络的特征提取模块,提取行人目标的一个整体特征向量Xa和头部区域特征向量XR1、上半身区域特征向量XR2、下半身区域特征向量XR3,组成所述特征向量组<Xa,XR1,XR2,XR3>;
(3)、执行步骤S1032,对于指定行人目标,由深度学习算法计算其特征向量组为<X'a,X'R1,X'R2,X'R3>;
4、执行步骤S104,即将行人目标的特征向量组<Xa,XR1,XR2,XR3>与所述指定行人目标的特征向量组<X'a,X'R1,X'R2,X'R3>进行匹配,计算匹配度值,具体过程如下:
(1)、如步骤S1041,计算行人目标的特征向量组<Xa,XR1,XR2,XR3>与所述指定行人目标的特征向量组<X'a,X'R1,X'R2,X'R3>的中对应特征向量的余弦距离即整体特征向量的余弦距离Da、头部区域特征向量的余弦距离DR1、上半身区域特征向量的余弦距离DR2、下半身区域特征向量的余弦距离DR3,具体计算公式如下所示:
(2)、如步骤S1042,根据上述余弦距离Da、DR1、DR2、DR3,计算余弦距离的权重平均值,作为匹配度值,具体计算公式如下所示:
权重平均值=Wa*Da+WR1*DR1+WR2*DR2+WR3*DR3
其中,Wa、表示全部区域的权重值、WR1表示头部区域的权重值、WR2表示上半身区域的权重值、WR3表示下半身区域的权重值。
5、执行步骤S105、判断匹配度值是否大于阈值,如果大于阈值,则认为该行人目标属于指定行人目标,从而实现行人重识别。
本发明提供的基于深度学习的行人重识别方法,该方法通过深度学习,将行人图像的不同区域输入卷积神经网络,并且设置不同区域的权重值,通过区域图像的权重值与阈值进行比较,选定质量较好的图像,提高了对行人重识别的准确率,并且,该算法简单,能够提高行人重识别的速度,减少运算量,减少硬件资源消耗。
基于同一发明构思,本发明还提供一种基于深度学习的行人重识别系统,由于该系统所解决问题的原理与前述基于深度学习的行人重识别方法相似,因此该系统的实施可以参见前述方法的实施,重复之处不再赘述。
参照图5所示,本发明提供一种基于深度学习的行人重识别系统,包括:
获取模块51,用于获取视频画面中存在的全部行人目标;
指定模块52,用于指定某一视频画面中的一行人目标作为指定行人目标;
提取模块53,用于利用预设算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组;
计算模块54,用于将所述行人目标的特征向量组与所述指定行人目标的特征向量组进行匹配,计算匹配度值;
判断模块55,用于判断所述匹配度值是否大于阈值;如果所述匹配度值大于阈值,则所述行人目标属于指定行人目标。
在一个实施例中,所述提取模块53,包括:
利用经过训练的深度学习算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组。
在一个实施例中,参照图6所示,所述提取模块53中,所述经过训练的深度学习算法,包括:
提取子模块531,用于对行人目标进行自适应区域划分,提取所述行人目标的整体特征向量与每个区域的区域特征向量;
生成子模块532,用于根据所述整体特征向量与所述区域特征向量,生成所述全部行人目标的特征向量组与指定行人目标的特征向量组。
在一个实施例中,参照图6所示,所述提取子模块531,包括:
生成单元5311,用于所述行人目标的图像输入卷积神经网络的区域划分模块,生成不同区域的掩模图;
获取单元5312,用于将所述不同区域的掩模图与所述行人目标的图像进行叠加,获取所述行人目标的不同区域;
提取单元5313,用于将所述行人目标的图像与所述人物目标的不同区域分别输入卷积神经网络的特征提取模块,提取所述行人目标的整体特征向量与每个区域的区域特征向量。
在一个实施例中,参照图7所示,所述计算模块54,包括:
计算子模块541,用于分别计算所述行人目标的特征向量组与所述指定行人目标的特征向量组中对应特征向量的余弦距离;
生成子模块542,用于计算所述余弦距离的权重平均值,生成匹配度值。
在一个实施例中,提取模块53利用经过训练的深度学习算法,提取该指定行人目标的特征向量组;针对其它视频画面中的其它全部行人目标,利用该经过训练的深度学习算法,提取其特征向量组;
具体的,深度学习算法包括以下过程:
(1)、提取子模块531对行人目标的自适应区域划分;比如,将每个行人目标自适应划分为头部、上半身、下半身三个区域,表示为R1、R2、R3;
生成单元5311将行人目标的图像输入到一个卷积神经网络的头部区域划分模块,获得头部区域掩模图;
获取单元5312将头部区域掩膜图与该行人目标图像叠加,取得头部区域R1;
同理,根据上述步骤取得上半身区域R2与下半身区域R3;
(2)、提取单元5313将每个行人目标的图像以及前述头部区域R1、上半身区域R2、下半身区域R3分别输入一个卷积神经网络的特征提取模块,提取行人目标的一个整体特征向量Xa和头部区域特征向量XR1、上半身区域特征向量XR2、下半身区域特征向量XR3,组成所述特征向量组〈Xa,XR1,XR2,XR3>;
(3)、生成子模块532对于指定行人目标,由深度学习算法计算其特征向量组为<X'a,X'R1,X'R2,X'R3>;
在一个实施例中,将行人目标的特征向量组<Xa,XR1,XR2,XR3>与所述指定行人目标的特征向量组<X'a,X'R1,X'R2,X'R3>进行匹配,计算匹配度值,具体过程如下:
(1)、计算子模块541,计算行人目标的特征向量组<Xa,XR1,XR2,XR3>与所述指定行人目标的特征向量组<X'a,X'R1,X'R2,X'R3>的中对应特征向量的余弦距离,即整体特征向量的余弦距离Da、头部区域特征向量的余弦距离DR1、上半身区域特征向量的余弦距离DR2、下半身区域特征向量的余弦距离DR3,具体计算公式如下所示:
(2)、生成子模块542根据上述余弦距离Da、DR1、DR2、DR3,计算余弦距离的权重平均值,作为匹配度值,具体计算公式如下所示:
权重平均值=Wa*Da+WR1*DR1+WR2*DR2+WR3*DR3
其中,Wa、表示全部区域的权重值、WR1表示头部区域的权重值、WR2表示上半身区域的权重值、WR3表示下半身区域的权重值。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种基于深度学习的行人重识别方法,其特征在于,包括:
获取视频画面中存在的全部行人目标;
指定某一视频画面中的一行人目标作为指定行人目标;
利用预设算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组;
将所述行人目标的特征向量组与所述指定行人目标的特征向量组进行匹配,计算匹配度值;
判断所述匹配度值是否大于阈值;如果所述匹配度值大于阈值,则所述行人目标属于指定行人目标。
2.如权利要求1所述的一种基于深度学习的行人重识别方法,其特征在于,利用预设算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组,包括:
利用经过训练的深度学习算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组。
3.如权利要求2所述的一种基于深度学习的行人重识别方法,其特征在于,所述经过训练的深度学习算法,包括:
对行人目标进行自适应区域划分,提取所述行人目标的整体特征向量与每个区域的区域特征向量;
根据所述整体特征向量与所述区域特征向量,生成所述全部行人目标的特征向量组与指定行人目标的特征向量组。
4.如权利要求3所述的一种基于深度学习的行人重识别方法,其特征在于,对行人目标进行自适应区域划分,提取所述行人目标的整体特征向量与每个区域的区域特征向量,包括:
所述行人目标的图像输入卷积神经网络的区域划分模块,生成不同区域的掩模图;
将所述不同区域的掩模图与所述行人目标的图像进行叠加,获取所述行人目标的不同区域;
将所述行人目标的图像与所述人物目标的不同区域分别输入卷积神经网络的特征提取模块,提取所述行人目标的整体特征向量与每个区域的区域特征向量。
5.如权利要求1所述的一种基于深度学习的行人重识别方法,其特征在于,所述行人目标的特征向量组与所述指定行人目标的特征向量组进行匹配,计算匹配度值,包括:
分别计算所述行人目标的特征向量组与所述指定行人目标的特征向量组中对应特征向量的余弦距离;
计算所述余弦距离的权重平均值,生成匹配度值。
6.一种基于深度学习的行人重识别系统,其特征在于,所述系统包括:
获取模块,用于获取视频画面中存在的全部行人目标;
指定模块,用于指定某一视频画面中的一行人目标作为指定行人目标;
提取模块,用于利用预设算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组;
计算模块,用于将所述行人目标的特征向量组与所述指定行人目标的特征向量组进行匹配,计算匹配度值;
判断模块,用于判断所述匹配度值是否大于阈值;如果所述匹配度值大于阈值,则所述行人目标属于指定行人目标。
7.如权利要求6所述的一种基于深度学习的行人重识别系统,其特征在于,所述提取模块,包括:
利用经过训练的深度学习算法,提取所述指定行人目标的特征向量组以及所述全部行人目标的特征向量组。
8.如权利要求7所述的一种基于深度学习的行人重识别系统,其特征在于,所述提取模块中,所述经过训练的深度学习算法,包括:
提取子模块,用于对行人目标进行自适应区域划分,提取所述行人目标的整体特征向量与每个区域的区域特征向量;
生成子模块,用于根据所述整体特征向量与所述区域特征向量,生成所述全部行人目标的特征向量组与指定行人目标的特征向量组。
9.如权利要求8所述的一种基于深度学习的行人重识别系统,其特征在于,所述提取子模块,包括:
生成单元,用于所述行人目标的图像输入卷积神经网络的区域划分模块,生成不同区域的掩模图;
获取单元,用于将所述不同区域的掩模图与所述行人目标的图像进行叠加,获取所述行人目标的不同区域;
提取单元,用于将所述行人目标的图像与所述人物目标的不同区域分别输入卷积神经网络的特征提取模块,提取所述行人目标的整体特征向量与每个区域的区域特征向量。
10.如权利要求6所述的一种基于深度学习的行人重识别系统,其特征在于,所述计算模块,包括:
计算子模块,用于分别计算所述行人目标的特征向量组与所述指定行人目标的特征向量组中对应特征向量的余弦距离;
生成子模块,用于计算所述余弦距离的权重平均值,生成匹配度值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910775166.3A CN110705345A (zh) | 2019-08-21 | 2019-08-21 | 一种基于深度学习的行人重识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910775166.3A CN110705345A (zh) | 2019-08-21 | 2019-08-21 | 一种基于深度学习的行人重识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110705345A true CN110705345A (zh) | 2020-01-17 |
Family
ID=69193322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910775166.3A Pending CN110705345A (zh) | 2019-08-21 | 2019-08-21 | 一种基于深度学习的行人重识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110705345A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626156A (zh) * | 2020-05-14 | 2020-09-04 | 电子科技大学 | 一种基于行人掩模和多尺度判别的行人生成方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778464A (zh) * | 2016-11-09 | 2017-05-31 | 深圳市深网视界科技有限公司 | 一种基于深度学习的行人重识别方法和装置 |
CN108229492A (zh) * | 2017-03-29 | 2018-06-29 | 北京市商汤科技开发有限公司 | 提取特征的方法、装置及系统 |
CN109190470A (zh) * | 2018-07-27 | 2019-01-11 | 北京市商汤科技开发有限公司 | 行人重识别方法及装置 |
-
2019
- 2019-08-21 CN CN201910775166.3A patent/CN110705345A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778464A (zh) * | 2016-11-09 | 2017-05-31 | 深圳市深网视界科技有限公司 | 一种基于深度学习的行人重识别方法和装置 |
CN108229492A (zh) * | 2017-03-29 | 2018-06-29 | 北京市商汤科技开发有限公司 | 提取特征的方法、装置及系统 |
CN109190470A (zh) * | 2018-07-27 | 2019-01-11 | 北京市商汤科技开发有限公司 | 行人重识别方法及装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626156A (zh) * | 2020-05-14 | 2020-09-04 | 电子科技大学 | 一种基于行人掩模和多尺度判别的行人生成方法 |
CN111626156B (zh) * | 2020-05-14 | 2023-05-09 | 电子科技大学 | 一种基于行人掩模和多尺度判别的行人生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110147721B (zh) | 一种三维人脸识别方法、模型训练方法和装置 | |
CN110598610B (zh) | 一种基于神经选择注意的目标显著性检测方法 | |
CN110070010B (zh) | 一种基于行人重识别的人脸属性关联方法 | |
CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
CN110378838B (zh) | 变视角图像生成方法,装置,存储介质及电子设备 | |
CN103020992B (zh) | 一种基于运动颜色关联的视频图像显著性检测方法 | |
CN109919977B (zh) | 一种基于时间特征的视频运动人物跟踪与身份识别方法 | |
JP5127067B2 (ja) | 画像検索装置及び画像検索方法 | |
CN110059642B (zh) | 人脸图像筛选方法与装置 | |
CN107346414B (zh) | 行人属性识别方法和装置 | |
EP2335405A2 (en) | Pixel-level based micro-feature extraction | |
WO2014080613A1 (ja) | 色補正装置、色補正方法および色補正用プログラム | |
CN103530599A (zh) | 一种真实人脸和图片人脸的区别方法和系统 | |
CN110264493A (zh) | 一种针对运动状态下的多目标对象追踪方法和装置 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
CN109725721B (zh) | 用于裸眼3d显示系统的人眼定位方法及系统 | |
JP2013065119A (ja) | 顔認証装置及び顔認証方法 | |
CN109816694A (zh) | 目标跟踪方法、装置及电子设备 | |
CN114783024A (zh) | 基于YOLOv5的公共场所戴口罩的人脸识别系统 | |
CN111260687B (zh) | 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法 | |
CN113065568A (zh) | 目标检测、属性识别与跟踪方法及系统 | |
CN109785439B (zh) | 人脸素描图像生成方法及相关产品 | |
CN108647605B (zh) | 一种结合全局颜色与局部结构特征的人眼凝视点提取方法 | |
CN110705345A (zh) | 一种基于深度学习的行人重识别方法及系统 | |
US9286707B1 (en) | Removing transient objects to synthesize an unobstructed image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |