CN104915643A - 一种基于深度学习的行人再标识方法 - Google Patents
一种基于深度学习的行人再标识方法 Download PDFInfo
- Publication number
- CN104915643A CN104915643A CN201510277708.6A CN201510277708A CN104915643A CN 104915643 A CN104915643 A CN 104915643A CN 201510277708 A CN201510277708 A CN 201510277708A CN 104915643 A CN104915643 A CN 104915643A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- degree
- network
- depth
- study
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/231—Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了一种基于深度学习的行人再标识方法,包括下述步骤:S1、提出一个适用于行人再标识的深度网络结构,从原始图像的裸像素获得他们的相似度得分;S2、提出一个学习排序算法,用于引导深度网络的学习;S3、对训练样本进行排序单元的采样,训练深度网络使用随机梯度下降算法;S4、深度网络训练完成后,对于一个镜头下的行人,网络直接计算它与另一个镜头下的候选人图像的相似度得分,获得匹配结果。本发明通过深度卷积神经网络的方法来建立原始图像对到对应相似度得分的映射,网络的输入是原始图像的像素值,不需要任何预处理和设计手工特征,并能够利用大规模的数据学习出更具判别性和表达性的特征,大大改善了行人再标识的效果。
Description
技术领域
本发明涉及行人再标识的研究领域,特别涉及一种基于深度卷积神经网络进行特征表达和相似度测度学习的行人再标识的方法。
背景技术
目前,大规模视频监控网络已经在各大公共场合得到普及,例如火车站、医院、飞机场等地方正是视频监控的重点地带。然而,由于成本控制、隐私权等方面的因素,监控网络没有全面覆盖到所有区域,即监控的区域是不连续的。这给跨摄像头视频分析(如,跨摄像头行人跟踪,异常行为检测和人流分析等)带来极大的挑战性。若要通过视频监控技术来挖掘摄像机网络之内的行人高层语义信息,一个关键前提就是,将不同摄像头下的同一个行人关联起来,即行人再标识问题。
行人再标识问题是一个极具挑战性的问题。受不同的摄像头参数、角度、分辨率变化,以及环境光照和行人姿态变化的影响,同一个行人处于不同摄像头下的外观会发生剧烈改变。这个问题吸引了很多研究团队的关注,已有了很多较好的算法。近几年来对这一问题的研究主要可以归为以下2类:第一类方法是设计更加鲁棒的特征描述子。由于同一个行人在不同摄像机下表观差异很大,手工设计的特征和描述子并不具有很强的判别性,使得识别效果不佳。第二类方法是通过距离学习(metric learning),最小化类内差异,最大化类间差异。第二类方法利用了标记样本进行有监督学习,效果通常优于第一类方法,但是依然存在3个主要缺陷:(1)这类方法首先提取特征,然后对提取的特征学习距离度量,因此,学习的距离度量的性能很大程度受到手工设计的特征表达性和判别性的限制;(2)这类方法孤立地看待特征提取和距离学习这两个重要的模块,通常只能获得一个次优的解;(3)这类方法学习到的距离度量是特别针对当前场景的,迁移到另一个新的场景时,匹配的效果会大幅度地降低。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种基于深度卷积神经网络进行特征表达和相似度测度学习的行人再标识的方法,引导深度卷积神经网络的训练,学习出从一对行人图像到对应相似度得分的映射,不需要依赖于任何假设、预处理和特征设计,能够取得很好的效果。
为了达到上述目的,本发明采用以下技术方案:
一种基于深度学习的行人再标识方法,包括下述步骤:
S1、提出一个适用于行人再标识的深度网络结构,所述深度网络结构采用八层的结构,包含五层卷积层和三层全连接层,深度网络以一对行人的图像为输入,直接从原始图像的裸像素获得他们的相似度得分;
S2、提出一个学习排序算法,用于引导深度网络的学习,所述学习排序算法不依赖于任何假设,从排序的本质出发,直接惩罚排序的错乱,使得深度网络经过学习后趋于给正确匹配的样本对分配最高的相似度得分;
S3、对训练样本进行排序单元的采样,训练深度网络使用随机梯度下降算法,所述深度网络的训练方法为:随机初始化网络参数,每次迭代随机选取多个排序单元,输入网络中,采用反向传播算法更新网络的参数;所述一个排序单元一个排序单元包含x、它的正确匹配x+和G-的子集Rx;学习排序算法引导深度网络的学习,迭代直到网络在验证集上收敛;
S4、深度网络训练完成后,对于一个镜头下的行人,直接将它与另一个镜头下的候选人图像输入网络,得到对应的相似度得分,根据获得的得分由大到小排列,返回本次查询的排序结果。
优选的,所述前五层卷积层的卷积核看作可以看作是多个局部特征检测器,从输入图像的裸像素开始,提取得到对光照、姿态、摄像机角度变化鲁棒的特征,所述的全连接层融合前面卷积层提取的局部特征,并且进行特征维数的压缩,以获得更鲁棒和紧致的特征表达,最后一层的全连接层只有一个神经元,输出对应的相似度得分。
优选的,步骤S2中的学习排序算法具体为:
假定给定训练集其中是第i个行人被摄像机A和B拍摄到的图像,N为训练集的人数,对于特定的行人图像x,在另一个摄像机中存在一个正确的匹配x+,其余的样本都被视为负样本,记为G-,算法的目标是得到一个映射f(·,·),输入一对行人的图像,输出他们的相似度得分,最理想的情况是
所以相对于G-,x的排序为
其中I(·)为符号函数,首先,我们希望把x+排在最前,即学习的f(·,·)使得f(x,x+)最大,因此,rank(x|G-)必须尽可能地小;其次,对于两个错误的匹配,没有足够的信息知道哪个错误的匹配跟当前的x更相似,所以直接忽略G-内部的排序,基于以上两点考虑,通过最小化以下的损失函数来求解f(·,·)
为了方便求解,引入一个可导的函数σ(x)=log2(1+2-x),它是符号函数I(·<0)的上界,所以问题可以转化为最小化以下的方程
优选的,步骤S3具体为:学习排序算法通过深度卷积神经网络来求解,定义损失函数为
采用随机梯度下降的算法,迭代更新网络的参数,训练完毕后,整个深度网络刻画了图像对到相似度表达的映射f(·,·),即输入一对图像就可以直接获得它们的相似度得分。
优选的,提出排序单元采样的算法,每次迭代只考虑使用G-的一个随机采样的子集来代替G-,在训练中慢慢地增加Rx的元素个数,由于Rx是随机采样的子集,所以在迭代次数足够多的时候,可以近似地看作对于整个G-做优化;同时,不需要将所有的数据导入内存,适合于大规模学习
优选的,步骤S4中,将查询的行人图像与待匹配样本集中的图像逐对输入训练好的深度网络,计算得到它们的相似度得分,排序后返回检索的结果。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明针对已有方法的不足,通过深度卷积神经网络的方法来建立原始图像对到对应相似度得分的映射,网络的输入是原始图像的像素值,不需要任何预处理和设计手工特征。这种方法能够利用大规模的数据学习出更具判别性和表达性的特征,大大改善了行人再标识的效果。
2、本发明提出一个简单有效的学习排序算法,跟深度网络结合在一起,形成一个完整统一的框架。它不依赖于对数据分布等的任何假设,有更强的适用性。因此,在跨数据库的场景下,虽然没有对深度网络进行重新训练,依然能够取得较理想的匹配效果,这是传统的方法不能做到的。
3、本发明的方法跟传统方法有很强的互补性,更传统的方法结合之后,能够取得更加理想的效果。
附图说明
图1为本发明方法的算法流程图。
图2为本发明的深度网络结构图。
图3为本发明的排序单元采样方法的示意图。
图4(a)为本发明测试使用的VIPeR数据集的部分示意图像;图4(b)为本发明测试使用的CUHK01数据集的部分示意图像;示意图中每一行对应同一个摄像机,每一列对应同一个行人。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本发明基于深度卷积神经网络的行人再标识方法,包括下述步骤:
S1、提出一个适用于行人再标识的深度网络结构,所述深度网络结构采用八层的结构,包含五层卷积层和三层全连接层,深度网络以一对行人的图像为输入,直接从原始图像的裸像素获得他们的相似度得分。不需要对原始图像做任何预处理,也不需要手工设计复杂的特征和描述子。
如图2所示,所述前五层卷积层的卷积核看作可以看作是多个局部特征检测器,从输入图像的裸像素开始,提取得到对光照、姿态、摄像机角度变化等鲁棒的特征。所述的全连接层融合前面卷积层提取的局部特征,并且进行特征维数的压缩,以获得更鲁棒和紧致的特征表达,最后一层的全连接层只有一个神经元,输出对应的相似度得分。
S2、提出一个学习排序算法,用于引导深度网络的学习,所述学习排序算法不依赖于任何假设,从排序的本质出发,直接惩罚排序的错乱,使得深度网络经过学习后趋于给正确匹配的样本对分配最高的相似度得分,如图1所示。
上述学习排序算法具体为:
假定给定训练集其中是第i个行人被摄像机A和B拍摄到的图像,N为训练集的人数,对于特定的行人图像x,在另一个摄像机中存在一个正确的匹配x+,其余的样本都被视为负样本,记为G-,算法的目标是得到一个映射f(·,·),输入一对行人的图像,输出他们的相似度得分,最理想的情况是
所以相对于G-,x的排序为
其中I(·)为符号函数,首先,我们希望把x+排在最前,即学习的f(·,·)使得f(x,x+)最大,因此,rank(x|G-)必须尽可能地小;其次,对于两个错误的匹配,没有足够的信息知道哪个错误的匹配跟当前的x更相似,所以直接忽略G-内部的排序,基于以上两点考虑,通过最小化以下的损失函数来求解f(·,·)
为了方便求解,引入一个可导的函数σ(x)=log2(1+2-x),它是符号函数I(·<0)的上界,所以问题可以转化为最小化以下的方程
S3、对训练样本进行排序单元的采样,训练深度网络使用随机梯度下降算法,所述深度网络的训练方法为:随机初始化网络参数,每次迭代随机选取多个排序单元,输入网络中,采用反向传播算法更新网络的参数;所述一个排序单元一个排序单元包含x、它的正确匹配x+和G-的子集Rx,如图3所示。学习排序算法引导深度网络的学习,迭代直到网络在验证集上收敛。
学习排序算法通过深度卷积神经网络来求解,定义损失函数为
采用随机梯度下降的算法,迭代更新网络的参数,训练完毕后,整个深度网络刻画了图像对到相似度表达的映射f(·,·),即输入一对图像就可以直接获得它们的相似度得分。
S4、深度网络训练完成后,将查询的行人图像与待匹配样本集中的图像逐对输入训练好的深度网络,计算得到它们的相似度得分,排序后返回检索的结果。
本实施例还提出排序单元采样的算法,每次迭代只考虑使用G-的一个随机采样的子集来代替G-,在训练中慢慢地增加Rx的元素个数。这样做的好处是,由于Rx是随机采样的子集,所以在迭代次数足够多的时候,可以近似地看作对于整个G-做优化;同时,不需要将所有的数据导入内存,更适合于大规模学习。
本发明通过以下实验对本发明的效果进行说明:如图4(a)和图4(b)所示,实验选择两个公共数据集VIPeR和CUHK01,采用单对单的测试协议(single-shot),比较10次测试的平均CMC曲线。为了体现本发明提出的算法的优越性,我们比较了本发明和近几年效果较好的算法,包括2类算法:基于描述子的方法和基于距离学习的方法。如图表1和表2所示,本发明的方法取得了最佳的效果,尤其是在训练样本充足的前提下(CUHK01数据集的结果,如表2所示)。
表1:VIPeR数据集的实验结果
算法 | r=1 | r=5 | r=10 | r=20 |
ELF | 12.00 | 41.50 | 59.50 | 74.50 |
SDALF | 19.87 | 38.89 | 49.37 | 65.73 |
CPS | 21.84 | 44.00 | 57.21 | 71.00 |
RDC | 15.66 | 38.42 | 53.86 | 70.09 |
aPRDC | 16.14 | 37.72 | 50.98 | 65.95 |
RankSVM | 14.00 | 37.00 | 51.00 | 67.00 |
KISSME | 19.60 | 48.00 | 62.20 | 77.00 |
PCCA | 19.27 | 48.89 | 64.91 | 80.28 |
rPCCA | 21.96 | 54.78 | 70.97 | 85.29 |
eBiCov | 20.66 | 42.00 | 56.18 | 68.00 |
LMNN-R | 20.00 | 49.00 | 66.00 | 79.00 |
eSDC | 26.31 | 46.61 | 58.86 | 72.77 |
SalMatch | 30.16 | 52.31 | 65.54 | 79.15 |
MLF | 29.11 | 52.34 | 65.95 | 79.87 |
LF | 24.18 | 52.00 | 67.12 | 82.00 |
LADF | 29.34 | 61.04 | 75.98 | 88.10 |
MFA | 32.24 | 65.99 | 79.66 | 90.64 |
kLFDA | 32.33 | 65.78 | 79.72 | 90.95 |
SCNCD | 37.80 | 68.67 | 81.01 | 90.51 |
Ours | 38.37 | 69.22 | 81.33 | 90.43 |
MLF+LDAF | 43.39 | 73.04 | 84.87 | 93.70 |
Ours+kLFDA | 52.85 | 81.96 | 90.51 | 95.73 |
表2:CUHK-01数据集的实验结果
算法 | r=1 | r=5 | r=10 | r=20 |
L1-norm | 10.33 | 20.64 | 26.34 | 33.52 |
L2-norm | 9.84 | 19.84 | 26.42 | 33.13 |
SDALF | 9.90 | 22.57 | 30.33 | 41.03 |
eSDC | 19.67 | 32.72 | 40.29 | 50.58 |
LMNN | 13.45 | 31.33 | 42.25 | 54.11 |
ITML | 15.98 | 35.22 | 45.60 | 59.81 |
Generic Metric | 20.00 | 43.58 | 56.04 | 69.27 |
SalMatch | 28.45 | 45.85 | 55.67 | 67.95 |
MLF | 34.30 | 55.06 | 64.96 | 74.94 |
kLFDA | 32.76 | 59.01 | 69.63 | 79.18 |
Ours | 50.41 | 75.93 | 84.07 | 91.32 |
Ours+kLFDA | 57.28 | 81.07 | 88.44 | 93.46 |
最后,通过上述实验可以看到,本发明的方法与传统的基于低层特征的距离学习的方法(如kLFDA,具体M.Sugiyama,“Dimensionality reduction ofmultimodal labeled data by local fisher discriminant analysis,”The Journal ofMachine Learning Research,vol.8,pp.1027–1061,2007.)具有较强的互补性,结合kLFDA之后效果又有了明显的提升。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.一种基于深度学习的行人再标识方法,其特征在于,包括下述步骤:
S1、提出一个适用于行人再标识的深度网络结构,所述深度网络结构采用八层的结构,包含五层卷积层和三层全连接层,深度网络以一对行人的图像为输入,直接从原始图像的裸像素获得他们的相似度得分;
S2、提出一个学习排序算法,用于引导深度网络的学习,所述学习排序算法不依赖于任何假设,从排序的本质出发,直接惩罚排序的错乱,使得深度网络经过学习后趋于给正确匹配的样本对分配最高的相似度得分;
S3、对训练样本进行排序单元的采样,训练深度网络使用随机梯度下降算法,所述深度网络的训练方法为:随机初始化网络参数,每次迭代随机选取多个排序单元,输入网络中,采用反向传播算法更新网络的参数;所述一个排序单元一个排序单元包含x、它的正确匹配x+和G-的子集Rx;学习排序算法引导深度网络的学习,迭代直到网络在验证集上收敛;
S4、深度网络训练完成后,对于一个镜头下的行人,直接将它与另一个镜头下的候选人图像输入网络,得到对应的相似度得分,根据获得的得分由大到小排列,返回本次查询的排序结果。
2.根据权利要求1所述的基于深度学习的行人再标识方法,其特征在于,所述前五层卷积层的卷积核看作可以看作是多个局部特征检测器,从输入图像的裸像素开始,提取得到对光照、姿态、摄像机角度变化鲁棒的特征,所述的全连接层融合前面卷积层提取的局部特征,并且进行特征维数的压缩,以获得更鲁棒和紧致的特征表达,最后一层的全连接层只有一个神经元,输出对应的相似度得分。
3.根据权利要求1所述的基于深度学习的行人再标识方法,其特征在于,步骤S2中的学习排序算法具体为:
假定给定训练集 其中是第i个行人被摄像机A和B拍摄到的图像,N为训练集的人数,对于特定的行人图像x,在另一个摄像机中存在一个正确的匹配x+,其余的样本都被视为负样本,记为G-,算法的目标是得到一个映射输入一对行人的图像,输出他们的相似度得分,最理想的情况是
所以相对于G-,x的排序为
其中I(·)为符号函数,首先,我们希望把x+排在最前,即学习的使得f(x,x+)最大,因此,rank(x|G-)必须尽可能地小;其次,对于两个错误的匹配,没有足够的信息知道哪个错误的匹配跟当前的x更相似,所以直接忽略G-内部的排序,基于以上两点考虑,通过最小化以下的损失函数来求解
为了方便求解,引入一个可导的函数σ(x)=log2(1+2-x),它是符号函数I(·<0)的上界,所以问题可以转化为最小化以下的方程
4.根据权利要求1所述的基于深度学习的行人再标识方法,其特征在于,步骤S3具体为:学习排序算法通过深度卷积神经网络来求解,定义损失函数为
采用随机梯度下降的算法,迭代更新网络的参数,训练完毕后,整个深度网络刻画了图像对到相似度表达的映射即输入一对图像就可以直接获得它们的相似度得分。
5.根据权利要求1所述的基于深度学习的行人再标识方法,其特征在于,提出排序单元采样的算法,每次迭代只考虑使用G-的一个随机采样的子集来代替G-,在训练中慢慢地增加Rx的元素个数,由于Rx是随机采样的子集,所以在迭代次数足够多的时候,可以近似地看作对于整个G-做优化;同时,不需要将所有的数据导入内存,适合于大规模学习。
6.根据权利要求1所述的基于深度学习的行人再标识方法,其特征在于,步骤S4中,将查询的行人图像与待匹配样本集中的图像逐对输入训练好的深度网络,计算得到它们的相似度得分,排序后返回检索的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510277708.6A CN104915643B (zh) | 2015-05-26 | 2015-05-26 | 一种基于深度学习的行人再标识方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510277708.6A CN104915643B (zh) | 2015-05-26 | 2015-05-26 | 一种基于深度学习的行人再标识方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104915643A true CN104915643A (zh) | 2015-09-16 |
CN104915643B CN104915643B (zh) | 2018-06-22 |
Family
ID=54084695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510277708.6A Active CN104915643B (zh) | 2015-05-26 | 2015-05-26 | 一种基于深度学习的行人再标识方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104915643B (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631413A (zh) * | 2015-12-23 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于深度学习的跨场景行人搜索方法 |
CN105808732A (zh) * | 2016-03-10 | 2016-07-27 | 北京大学 | 一种基于深度度量学习的一体化目标属性识别与精确检索方法 |
CN105956606A (zh) * | 2016-04-22 | 2016-09-21 | 中山大学 | 一种基于不对称变换的行人再标识方法 |
CN106326985A (zh) * | 2016-08-18 | 2017-01-11 | 北京旷视科技有限公司 | 神经网络训练方法和装置及数据处理方法和装置 |
CN106407352A (zh) * | 2016-09-06 | 2017-02-15 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于深度学习的交通图像检索方法 |
CN106778604A (zh) * | 2015-12-15 | 2017-05-31 | 西安电子科技大学 | 基于匹配卷积神经网络的行人再识别方法 |
CN106778464A (zh) * | 2016-11-09 | 2017-05-31 | 深圳市深网视界科技有限公司 | 一种基于深度学习的行人重识别方法和装置 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
CN107330355A (zh) * | 2017-05-11 | 2017-11-07 | 中山大学 | 一种基于正样本平衡约束的深度行人再标识方法 |
CN107480631A (zh) * | 2017-08-11 | 2017-12-15 | 中山大学 | 一种基于视角关联与深度网络学习的行人再识别方法 |
CN107480178A (zh) * | 2017-07-01 | 2017-12-15 | 广州深域信息科技有限公司 | 一种基于图像与视频跨模态比对的行人重识别方法 |
CN107729805A (zh) * | 2017-09-01 | 2018-02-23 | 北京大学 | 用于行人再识别的神经网络和基于深度学习的行人再识别算法 |
WO2018076130A1 (zh) * | 2016-10-24 | 2018-05-03 | 中国科学院自动化研究所 | 物体识别模型的建立方法及物体识别方法 |
CN108352072A (zh) * | 2016-08-08 | 2018-07-31 | 松下知识产权经营株式会社 | 物体跟踪方法、物体跟踪装置以及程序 |
CN108509963A (zh) * | 2017-02-28 | 2018-09-07 | 株式会社日立制作所 | 基于深度学习的目标差异性检测方法和目标差异性检测设备 |
CN108764269A (zh) * | 2018-04-03 | 2018-11-06 | 华南理工大学 | 一种基于时空约束增量学习的跨数据集行人再识别方法 |
CN108829441A (zh) * | 2018-05-14 | 2018-11-16 | 中山大学 | 一种分布式深度学习的参数更新优化系统 |
CN108960331A (zh) * | 2018-07-10 | 2018-12-07 | 重庆邮电大学 | 一种基于行人图像特征聚类的行人再识别方法 |
CN109784186A (zh) * | 2018-12-18 | 2019-05-21 | 深圳云天励飞技术有限公司 | 一种行人重识别方法、装置、电子设备及计算机可读存储介质 |
CN110070120A (zh) * | 2019-04-11 | 2019-07-30 | 清华大学 | 基于判别采样策略的深度度量学习方法及系统 |
CN111291605A (zh) * | 2018-12-07 | 2020-06-16 | 财团法人交大思源基金会 | 人流分析系统及人流分析方法 |
CN111488891A (zh) * | 2019-01-25 | 2020-08-04 | 中国移动通信有限公司研究院 | 图像标识处理方法、装置、设备及计算机可读存储介质 |
CN112560720A (zh) * | 2020-12-21 | 2021-03-26 | 奥比中光科技集团股份有限公司 | 一种行人识别方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014205231A1 (en) * | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
CN104537356A (zh) * | 2015-01-12 | 2015-04-22 | 北京大学 | 利用瑞士轮排序进行步态识别的行人再标识方法和装置 |
-
2015
- 2015-05-26 CN CN201510277708.6A patent/CN104915643B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014205231A1 (en) * | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
CN104537356A (zh) * | 2015-01-12 | 2015-04-22 | 北京大学 | 利用瑞士轮排序进行步态识别的行人再标识方法和装置 |
Non-Patent Citations (2)
Title |
---|
GUAN-WEN ZHANG ET AL: "Multi-stage deep convolutional learning for people re-identification", 《COMPUT SYST SCI & ENG》 * |
WEI LI ET AL: "DeepReID: Deep Filter Pairing Neural Network for Person Re-Identification", 《CVPR2014》 * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778604A (zh) * | 2015-12-15 | 2017-05-31 | 西安电子科技大学 | 基于匹配卷积神经网络的行人再识别方法 |
CN105631413A (zh) * | 2015-12-23 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于深度学习的跨场景行人搜索方法 |
CN105808732A (zh) * | 2016-03-10 | 2016-07-27 | 北京大学 | 一种基于深度度量学习的一体化目标属性识别与精确检索方法 |
CN105808732B (zh) * | 2016-03-10 | 2019-05-17 | 北京大学 | 一种基于深度度量学习的一体化目标属性识别与精确检索方法 |
CN105956606A (zh) * | 2016-04-22 | 2016-09-21 | 中山大学 | 一种基于不对称变换的行人再标识方法 |
CN105956606B (zh) * | 2016-04-22 | 2019-09-10 | 中山大学 | 一种基于不对称变换的行人再标识方法 |
CN108352072B (zh) * | 2016-08-08 | 2023-11-03 | 松下知识产权经营株式会社 | 物体跟踪方法、物体跟踪装置以及记录介质 |
CN108352072A (zh) * | 2016-08-08 | 2018-07-31 | 松下知识产权经营株式会社 | 物体跟踪方法、物体跟踪装置以及程序 |
CN106326985A (zh) * | 2016-08-18 | 2017-01-11 | 北京旷视科技有限公司 | 神经网络训练方法和装置及数据处理方法和装置 |
CN106407352B (zh) * | 2016-09-06 | 2019-09-10 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于深度学习的交通图像检索方法 |
CN106407352A (zh) * | 2016-09-06 | 2017-02-15 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 基于深度学习的交通图像检索方法 |
WO2018076130A1 (zh) * | 2016-10-24 | 2018-05-03 | 中国科学院自动化研究所 | 物体识别模型的建立方法及物体识别方法 |
CN106778464A (zh) * | 2016-11-09 | 2017-05-31 | 深圳市深网视界科技有限公司 | 一种基于深度学习的行人重识别方法和装置 |
CN108509963A (zh) * | 2017-02-28 | 2018-09-07 | 株式会社日立制作所 | 基于深度学习的目标差异性检测方法和目标差异性检测设备 |
CN107330355B (zh) * | 2017-05-11 | 2021-01-26 | 中山大学 | 一种基于正样本平衡约束的深度行人再标识方法 |
CN107330355A (zh) * | 2017-05-11 | 2017-11-07 | 中山大学 | 一种基于正样本平衡约束的深度行人再标识方法 |
CN107330396B (zh) * | 2017-06-28 | 2020-05-19 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
CN107480178A (zh) * | 2017-07-01 | 2017-12-15 | 广州深域信息科技有限公司 | 一种基于图像与视频跨模态比对的行人重识别方法 |
CN107480178B (zh) * | 2017-07-01 | 2020-07-07 | 暗物智能科技(广州)有限公司 | 一种基于图像与视频跨模态比对的行人重识别方法 |
CN107480631A (zh) * | 2017-08-11 | 2017-12-15 | 中山大学 | 一种基于视角关联与深度网络学习的行人再识别方法 |
CN107480631B (zh) * | 2017-08-11 | 2020-06-05 | 中山大学 | 一种基于视角关联与深度网络学习的行人再识别方法 |
CN107729805A (zh) * | 2017-09-01 | 2018-02-23 | 北京大学 | 用于行人再识别的神经网络和基于深度学习的行人再识别算法 |
CN107729805B (zh) * | 2017-09-01 | 2019-09-13 | 北京大学 | 用于行人再识别的神经网络和基于深度学习的行人再识别算法 |
CN108764269A (zh) * | 2018-04-03 | 2018-11-06 | 华南理工大学 | 一种基于时空约束增量学习的跨数据集行人再识别方法 |
CN108829441A (zh) * | 2018-05-14 | 2018-11-16 | 中山大学 | 一种分布式深度学习的参数更新优化系统 |
CN108960331A (zh) * | 2018-07-10 | 2018-12-07 | 重庆邮电大学 | 一种基于行人图像特征聚类的行人再识别方法 |
CN111291605A (zh) * | 2018-12-07 | 2020-06-16 | 财团法人交大思源基金会 | 人流分析系统及人流分析方法 |
CN109784186A (zh) * | 2018-12-18 | 2019-05-21 | 深圳云天励飞技术有限公司 | 一种行人重识别方法、装置、电子设备及计算机可读存储介质 |
CN111488891B (zh) * | 2019-01-25 | 2023-04-07 | 中国移动通信有限公司研究院 | 图像标识处理方法、装置、设备及计算机可读存储介质 |
CN111488891A (zh) * | 2019-01-25 | 2020-08-04 | 中国移动通信有限公司研究院 | 图像标识处理方法、装置、设备及计算机可读存储介质 |
CN110070120A (zh) * | 2019-04-11 | 2019-07-30 | 清华大学 | 基于判别采样策略的深度度量学习方法及系统 |
CN110070120B (zh) * | 2019-04-11 | 2021-08-27 | 清华大学 | 基于判别采样策略的深度度量学习方法及系统 |
CN112560720A (zh) * | 2020-12-21 | 2021-03-26 | 奥比中光科技集团股份有限公司 | 一种行人识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104915643B (zh) | 2018-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104915643A (zh) | 一种基于深度学习的行人再标识方法 | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN110414368B (zh) | 一种基于知识蒸馏的无监督行人重识别方法 | |
CN108764065B (zh) | 一种行人重识别特征融合辅助学习的方法 | |
Zhang et al. | Ppr-fcn: Weakly supervised visual relation detection via parallel pairwise r-fcn | |
CN107330396B (zh) | 一种基于多属性和多策略融合学习的行人再识别方法 | |
Yi et al. | Deep metric learning for person re-identification | |
CN111783831B (zh) | 基于多源多标签共享子空间学习的复杂图像精确分类方法 | |
CN107506793B (zh) | 基于弱标注图像的服装识别方法及系统 | |
CN110598543B (zh) | 基于属性挖掘和推理的模型训练方法及行人再识别方法 | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN113076994B (zh) | 一种开集域自适应图像分类方法及系统 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN109492528A (zh) | 一种基于高斯和深度特征的行人再识别方法 | |
CN110390308B (zh) | 一种基于时空对抗生成网络的视频行为识别方法 | |
CN112800876A (zh) | 一种用于重识别的超球面特征嵌入方法及系统 | |
CN112232395B (zh) | 一种基于联合训练生成对抗网络的半监督图像分类方法 | |
CN106845513A (zh) | 基于条件随机森林的人手检测器及方法 | |
CN111079847A (zh) | 一种基于深度学习的遥感影像自动标注方法 | |
Li et al. | Dating ancient paintings of Mogao Grottoes using deeply learnt visual codes | |
Cui et al. | Face recognition via convolutional neural networks and siamese neural networks | |
CN112766378A (zh) | 一种专注细粒度识别的跨域小样本图像分类模型方法 | |
CN116012653A (zh) | 一种注意力残差单元神经网络高光谱图像分类方法及系统 | |
CN111310820A (zh) | 基于交叉验证深度cnn特征集成的地基气象云图分类方法 | |
CN111046213A (zh) | 一种基于图像识别的知识库构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210830 Address after: 510700 room 2001-1, floor 20, building F, No. 98, Xiangxue 8th Road, Huangpu District, Guangzhou, Guangdong Province (office only) Patentee after: Guangzhou ziweiyun Technology Co.,Ltd. Address before: 510275 No. 135 West Xingang Road, Guangdong, Guangzhou Patentee before: SUN YAT-SEN University |
|
TR01 | Transfer of patent right |