CN109102025A - 基于深度学习联合优化的行人重识别方法 - Google Patents
基于深度学习联合优化的行人重识别方法 Download PDFInfo
- Publication number
- CN109102025A CN109102025A CN201810932825.5A CN201810932825A CN109102025A CN 109102025 A CN109102025 A CN 109102025A CN 201810932825 A CN201810932825 A CN 201810932825A CN 109102025 A CN109102025 A CN 109102025A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- module
- network
- deep learning
- verifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明公开了一种基于深度学习联合优化的行人重识别方法,步骤为:步骤1、采集筛选数量均衡的正负行人样本对,构建数据集;步骤2、构建深度学习的Siamese神经网络结构模型,包括两路前端卷积神经网络和多层级特征融合模块,将正负行人样本输入模型,提取得到两路不同的行人的Hyper特征;步骤3、将两路不同行人的Hyper特征送入分类网络和验证网络,联合分类网络和验证网络,联合分类损失函数和验证损失函数,优化神经网络结构模型参数。该方法联合采用深度卷积神经网络和HyperNet网络,提取多尺度的特征增强对行人目标的检测能力,联合验证模型和分类模型优化网络结构,得到性能优越的行人重识别神经网络结构模型。
Description
技术领域
本发明属于计算机视觉中的行人重识别技术领域,具体涉及一种基于深度学习联合优化的行人重识别方法。
背景技术
行人重识别是计算机视觉和模式识别领域中的重要课题之一,其中行人重识别是指在多摄像头内检索给定行人目标,并将检索结果进行关联匹配,用以快速、准确地发现目标行人在多摄像头下的活动画面和轨迹。由于其在智能视频监控、多目标追踪等领域具有重要的意义,近年来受到越来越多相关领域科研工作人员及政府、公安部门广泛的关注。
行人重识别主要研究使用视觉特征来匹配行人目标。但由于同一行人在不同摄像头视域之间通常存在非常大的视角、照明条件和摄像头设置的变化,这些都给基于外观的跨视域多摄像下的行人图像匹配带来了巨大的挑战。针对这些问题,行人重识别的研究工作主要分为基于表征学习的行人重识别方法、基于度量学习行人重识别方法以及基于深度学习的行人重识别方法。
近年来,当前最佳的行人重识别方法都是基于深度卷积神经网络的,卷积神经网络能够学习到优于传统手工特征的具有区分性的特征,如果采用HyperNet网络能够端到端地从原始的场景图像中得到Hyper特征。另外,目前基于深度学习的行人重识别网络结构主要分为验证模型和分类模型,两种模型在训练过程中的输入数据、特征提取和损失函数等都有很大不同,但各有各的优缺点。2017年,Zheng融合了两种神经网络模型提取更具有鲁棒性的行人特征,但是方法仍存在不足:图像中目标遮挡导致的部分特征丢失,不同视角、光照条件等导致同一目标的特征差异,以及不同目标衣服颜色的近似、特征近似都会导致区分度下降,在行人重识别中的性能下降。基于上述三个问题,主要的解决方案可以聚焦在两个关键点,一是提取良好的特征,二是选择合适的距离度量函数。本发明提出了提取多尺度的、目标检测能力强的Hyper特征和一种基于深度学习的Siamese神经网络结构模型,结合样本对类别信息和相似度联合优化网路模型参数。
经过对现有技术的检索,发现已有的行人重识别方法没有一种采用深度卷积神经网络和HyperNet网络结合,并联合验证模型和分类模型以及多种损失函数的系统的识别方法。深度卷积神经网络相较于传统方法特征学习能力更佳,而HyperNet网络能够获取多尺度的特征,联合两种损失函数能够得到更好的优化网络模型参数,这些都会在行人重识别的应用研究中产生优越的性能。
发明内容
本发明的目的在于:解决现有的行人重识别方法特征提取存在丢失和差异,以及特征区分度下降的不足,导致行人重识别中的性能下降的问题,提出基于深度学习联合优化的行人重识别方法,联合采用深度卷积神经网络和HyperNet网络,提取多尺度的特征,增强对行人目标的检测能力,联合验证模型和分类模型、联合多损失函数优化网络结构,得到性能优越的行人重识别神经网络结构模型。
本发明采用的技术方案如下:
基于深度学习联合优化的行人重识别方法,方法步骤如下:
步骤1、采集筛选数量均衡的正负行人样本对,构建数据集;
步骤2、构建深度学习的Siamese神经网络结构模型,包括两路由5个卷积模块构成的前端卷积神经网络和多层级特征融合模块,将数据集中的正负行人样本输入模型,提取得到两路不同的行人的Hyper特征;
步骤3、将步骤2得到的两路Hyper特征分别送入两个分类网络,将两路Hyper特征差值送入验证网络,联合分类网络和验证网络,联合分类损失函数和验证损失函数,训练优化步骤2构建的神经网络结构模型参数,得到优化后的行人重识别的深度学习的Siamese神经网络结构模型。
进一步,所述步骤2包括:
步骤2.1、构建深度学习的Siamese神经网络结构模型,包括两路由5个卷积模块构成的前端卷积神经网络和多层级特征融合模块,将数据集中的正负行人样本分别输入模型的两路,得到具有层级的行人特征图,不同层级的特征图具有不同的隐含特征;
步骤2.2、分别提取两路卷积模块1、卷积模块3、卷积模块5的特征图,采用局部响应归一化多个特征图,将之处理融合统一到一个空间内形成行人的Hyper特征,得到两路不同的行人的Hyper特征。
进一步,所述步骤2中前端卷积神经网络基本结构来自于VGG-16网络,包括5个卷积模块:卷积模块1、2各包括两个卷积层和修正线性单元层、一个池化层,卷积模块3包括三个卷积层和修正线性单元层、一个池化层,卷积模块4、5各包括三个卷积层和修正线性单元层;多层级特征融合模块包括3路层级特征的提取、融合模块,3路层级特征的提取模块包括:添加最大池化模块执行下采样的卷积模块1、添加反卷积模块执行上采样的卷积模块5和卷积模块3;3路层级特征的融合模块包括:添加在卷积模块1、卷积模块3、卷积模块5后的反卷积模块,每一路通过反卷积模块后做特征融合,形成行人的Hyper特征。
进一步,所述步骤3包括:
步骤3.1、将步骤2得到的两路Hyper特征分别送入两个分类网络,将两路Hyper特征差值送入验证网络;
步骤3.2、分类网络和验证网络的反向传播过程中使用随机梯度下降法联合一个验证损失函数和两个分类损失函数优化网络结构参数,得到优化验证后行人重识别的深度学习的Siamese神经网络结构模型。
进一步,所述分类损失函数采用基于多分类建模的随机选择采样Softmax损失函数,验证损失函数采用基于验证损失的二分类Softmax损失函数。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1、本发明中,方法采用深度学习的Siamese神经网络结构模型,提取多层级的特征,增强对行人目标的检测能力,联合验证模型和分类模型、联合多损失函数优化网络结构,得到准确率高,性能优越的行人重识别神经网络结构模型,能够有效地解决行人重识别中的背景复杂、姿态多样的问题,最终得到良好的目标行人识别的结果;
2、本发明中,由于有效训练多分类模型需要大规模、多视角、多样性的数据集来学习大的分类矩阵,且训练验证网络的关键也在于构建的正负样本的质量和数目,采用的数据集样本来源于Market-1501和CUHK-SYSU裁剪出的行人,通过一个在线采样层选取和筛选出合适的正负的样本对构成训练测试集,能够保证正负样本的质量和数目均衡;
3、本发明中,深度学习的Siamese神经网络结构模型的两路由5个卷积模块构成的前端卷积神经网络提取多层级特征,多层级特征融合模块对于不同的卷积模块采用不同的采样策略来融合行人图像的多层级特征,从而生成Hyper特征向量,正负样本对中提取得到的Hyper特征向量被视为正负实例,并用于生成类向量,这不仅提取了行人图像本身的特征,还融合了行人图像多尺度、多层级的特征,最终得到的变换特征向量将包括更多的层级特征,从而可以更好的描述样本;
4、本发明中,损失函数可以比较行人图像样本对的相似度,而且分别对得到的两路行人特征图进行多分类的强标签信息监督学习,能够有效地解决行人重识别中的背景复杂、姿态多样的问题,最终得到良好的目标行人识别的结果;
5、本发明中,分类损失函数采用基于多分类建模的随机选择采样Softmax损失函数,验证损失函数采用基于验证损失的二分类Softmax损失函数,能够适应行人目标稀疏又缺乏多样性的特点,且基于多分类建模的随机选择采样Softmax(RSS)损失能够适应行人重识别网络里的类别数多,类别数量又大的情况,相对于原始的Softmax损失来说,RSS对于类别较多的分类任务能更快的收敛网络,训练出更好的模型。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例一方法中采集样本对的流程;
图2为本发明实施例一方法中深度学习的Siamese神经网络结构模型的结构;
图3为本发明实施例一方法中分类损失和验证损失的应用过程。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,术语“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
基于深度学习联合优化的行人重识别方法,方法联合采用深度学习的卷积神经网络和HyperNet网络,提取多尺度的特征增强对行人目标的检测能力,联合验证模型和分类模型、联合多损失函数优化网络结构,得到准确率高,性能优越的行人重识别神经网络结构模型,能够有效地解决行人重识别中的背景复杂、姿态多样的问题,最终得到良好的目标行人识别的结果。方法步骤如下:
步骤1、采集筛选数量均衡的正负行人样本对,构建数据集。数据集中需采集足够多的正负行人样本对,且应保证得到的正负样本对的质量和数量的均衡。
步骤2、构建深度学习的Siamese神经网络结构模型,其主要目的是作为提取行人样本对的Hyper特征,包括两路由5个卷积模块构成的前端卷积神经网络和多层级特征融合模块,将数据集中的正负行人样本输入模型,首先图像经过卷积神经网络来提取图像的特征,得到具有层级的行人特征图;再抽取指定层级的特征图,进行多尺度信息特征的融合,从而形成行人图像的Hyper特征,提取得到两路不同的行人的Hyper特征;
步骤3、将步骤2得到的两路Hyper特征分别送入两个分类网络,将两路Hyper特征差值送入验证网络,联合分类网络和验证网络,联合分类损失函数和验证损失函数,优化步骤2构建的神经网络结构模型参数,得到优化后的行人重识别的深度学习的Siamese神经网络结构模型。通过Siamese神经网络结构模型的损失函数可以比较行人图像样本对的相似度,而且分别对得到的两路行人特征图进行多分类的强标签信息监督学习。多分类过程中构造的目标函数,影响着整个网络参数的优化过程以及训练出行人重识别网络的性能。
所述步骤1包括:
步骤1.1、通过在线采样层选取输入的行人样本图片;
步骤1.2、在行人样本图片中筛选正/负样本对对应标签,得到数量均衡的正负行人样本对构成数据集。
进一步,所述步骤1中数据集包括Market-1501和CUHK-SYSU,数据集中包括5532类的行人图像。由于检测器会出现误检的情况,可在数据集中加入一个背景类,作为第5533个类,选取输入的行人样本图片的时候,从前5532类里面抽取,在筛选得到另一个正/负样本时在5533个类里去抽取,用于区别不同的行人和背景。
在正负样本对的选取过程中,每次从其中随机抽取一张图片,同时随机抽取一个正/负样本对,保证正负样本的均衡,将所有的5532类的行人图像构造出均衡的正负样本的行人图像作为Siamese神经网络结构模型的输入,传入网络并经前向传播提取行人的Hyper特征。基于验证模型和多分类模型的行人重识别的深度神经网络训练测试数据集具有多分类的强标签信息监督学习和二分类的弱标签信息监督学习的特点,在行人重识别的验证模型中,输入样本对的标签要有一定的相关性,而分类模型一般要训练的样本个数有限且类别很大。因此,选用合适的数据集对网络结构的训练和测试十分的重要。采用的数据集样本来源于Market-1501和CUHK-SYSU裁剪出的行人,通过一个在线采样层选取和筛选出合适的正负的样本对构成训练测试集,能够保证正负样本的质量和数目均衡。
所述步骤2包括:
步骤2.1、构建深度学习的Siamese神经网络结构模型,包括两路由5个卷积模块构成的前端卷积神经网络和多层级特征融合模块,将数据集中的正负行人样本分别输入模型的两路,得到具有层级的行人特征图,不同层级的特征图具有不同的隐含特征;
步骤2.2、分别提取两路卷积模块1、卷积模块3、卷积模块5的特征图,将之处理融合统一到一个空间内形成行人的Hyper特征,得到两路不同的行人的Hyper特征。
进一步,所述步骤2.2中采用局部响应归一化多个特征图,将得到的每一个特征图融合联结得到一个多维的行人的Hyper特征。
进一步,所述步骤2中前端卷积神经网络基本结构来自于VGG-16网络,包括5个卷积模块:卷积模块1、2各包括两个卷积层和修正线性单元层、一个池化层,卷积模块3包括三个卷积层和修正线性单元层、一个池化层,卷积模块4、5各包括三个卷积层和修正线性单元层;
进一步,所述步骤2中多层级特征融合模块包括3路层级特征的提取、融合模块,3路层级特征的提取模块包括:添加最大池化模块执行下采样的卷积模块1、添加反卷积模块执行上采样的卷积模块5和卷积模块3;3路层级特征的融合模块包括:添加在卷积模块1、卷积模块3、卷积模块5后的反卷积模块,每一路通过反卷积模块后做特征融合,形成行人的Hyper特征。
深度学习的Siamese神经网络结构模型的两路由5个卷积模块构成的前端卷积神经网络提取多层级特征,在卷积神经网络的子采样和池化操作过程中,不同卷积层得到的分辨率也不一样,为了以相同的分辨率融合多级特征,多层级特征融合模块对于不同的卷积模块采用不同的采样策略来融合行人图像的多层级特征,每个采样后添加一个反卷积模块来提高信息特征和映射特征到一个统一的特征空间中,采用局部响应归一化多个特征映射将它们联结到一个多维的Hyper特征,从而生成Hyper特征向量,正负样本对中提取得到的Hyper特征向量被视为正负实例,并用于生成类向量,这不仅提取了行人图像本身的特征,还融合了行人图像多尺度、多层级的特征,最终得到的变换特征向量将包括更多的层级特征,从而可以更好的描述样本。
所述步骤3包括:
步骤3.1、将步骤2得到的两路Hyper特征分别送入两个分类网络,将两路Hyper特征差值送入验证网络;
步骤3.2、分类网络和验证网络的反向传播过程中使用随机梯度下降法(SGD)联合一个验证损失函数和两个分类损失函数优化网络结构参数,得到优化验证后行人重识别的深度学习的Siamese神经网络结构模型。
损失函数可以比较行人图像样本对的相似度,而且分别对得到的两路行人特征图进行多分类的强标签信息监督学习,能够有效地解决行人重识别中的背景复杂、姿态多样的问题,最终得到良好的目标行人识别的结果。
进一步,数据集CUHK-SYSU中待训练的行人类别有5532类,但待训练的每样本的个数非常小,针对行人目标稀疏又缺乏多样性的特点,所述分类损失函数采用基于多分类建模的随机选择采样Softmax损失,验证损失函数采用基于验证损失的二分类Softmax交叉熵损失函数,且基于多分类建模的随机选择采样Softmax(RSS)损失能够适应行人重识别网络里的类别数多,类别样本不均衡的情况,相对于原始的Softmax损失来说,RSS对于类别较多的分类任务能更快的收敛网络,训练出更好的模型。
验证损失函数使用二分类Softmax交叉熵损失函数,行人的多分类损失函数使用随机采样的Softmax损失函数,构造的随机采样目标函数可表示成:
其中,K表示从行人的C+1个类别中随机地选择的K个维度的x和t计算损失和梯度,假定被选中的是{i1,i2,...,iK},那么被选中的分类得分和标签分别记做和
对于步骤3其实就是对构建的网络模型的训练过程,可以用以下过程描述训练过程,过程包括:
(1)网络初始化:使用在数据集上预训练的网络的参数作为本方法前端网络的初始值,多层特征提取模块中的卷积层和全连接层前面的卷积层均由标准高斯分布进行参数初始化;
(2)训练:以联合分类损失和验证损失作为损失函数,采用小批量随机梯度下降法更新网络参数。
以下结合实施例对本发明的特征和性能作进一步的详细描述。
实施例1
本发明较佳实施例提供的一种基于深度学习联合优化的行人重识别方法,方法步骤为:
步骤1、采集筛选数量均衡的正负行人样本对,构建数据集。具体为:
步骤1.1、通过在线采样层随机选取输入的行人样本图片;
步骤1.2、在行人样本图片中筛选正/负样本对对应标签,得到数量均衡的正负行人样本对构成数据集。
图1示出了本方法采集样本对的流程,包括在线采样层输入图片的选取流程图和筛选正/负样本对对应标签pairlabel的流程图。用于网络结构训练的数据集包括Market-1501和CUHK-SYSU,其中用于本网络的CUHK-SYSU样本是来自于训练集上载剪的行人框和背景框。为了保证正负样本的数量近似相等,我们每次从其中随机抽取一张图片,同时随机抽取一个正/负样本对,保证正负样本的均衡。另外,由于检测器会出现误检的情况,我们在数据集中加入一个背景类,作为第5533个类。每次选取输入的行人样本图片的时候,从前5532类里面抽取,在得到另一个正/负样本时我们则需要在5533个类里去抽取,因为我们需要区别不同的行人和背景。
步骤2、构建深度学习的Siamese神经网络结构模型来提取行人样本对的Hyper特征,包括两路由5个卷积模块构成的前端卷积神经网络和多层级特征融合模块,将数据集中的正负行人样本输入模型,首先图像经过卷积神经网络来提取图像的特征,得到具有层级的行人特征图;再抽取指定层级的特征图,进行多尺度信息特征的融合,从而形成行人图像的Hyper特征,提取得到两路不同的行人的Hyper特征。具体为:
步骤2.1、构建深度学习的Siamese神经网络结构模型,包括两路由5个卷积模块构成的前端卷积神经网络和多层级特征融合模块,将数据集中的正负行人样本分别输入模型的两路,得到具有层级的行人特征图,不同层级的特征图具有不同的隐含特征;
步骤2.2、分别提取两路卷积模块1、卷积模块3、卷积模块5的特征图,将之处理融合统一到一个空间内形成行人的Hyper特征,得到两路不同的行人的Hyper特征。
所述步骤2中前端卷积神经网络基本结构来自于VGG-16网络,包括5个卷积模块:卷积模块1、2各包括两个卷积层和修正线性单元层、一个池化层,卷积模块3包括三个卷积层和修正线性单元层、一个池化层,卷积模块4、5各包括三个卷积层和修正线性单元层;
所述步骤2中多层级特征融合模块包括3路层级特征的提取、融合模块,3路层级特征的提取模块包括:添加最大池化模块执行下采样的卷积模块1、添加反卷积模块执行上采样的卷积模块5和卷积模块3;3路层级特征的融合模块包括:添加在卷积模块1、卷积模块3、卷积模块5后的反卷积模块,每一路通过反卷积模块后做特征融合,采用局部响应归一化多个特征图并做特征融合,将得到的每一个特征图融合联结得到一个多维的行人的Hyper特征。
图2示出了本方法深度学习的Siamese神经网络结构模型的结构。
步骤3将步骤2得到的两路Hyper特征分别送入两个分类网络,将两路Hyper特征差值送入验证网络,联合分类网络和验证网络,联合分类损失函数和验证损失函数,训练优化步骤2构建的神经网络结构模型参数,得到优化后的行人重识别的深度学习的Siamese神经网络结构模型。具体为:
步骤3.1、将步骤2得到的两路Hyper特征分别送入两个分类网络,将两路Hyper特征差值送入验证网络;
步骤3.2、分类网络和验证网络的反向传播过程中使用小批量随机梯度下降法(SGD)联合一个验证损失函数和两个分类损失函数更新优化网络结构参数,训练周期设置为75,初始学习率设置为0.001,最后的5个周期的学习率设置为0.0001,得到优化验证后的行人重识别的深度学习的Siamese神经网络结构模型。
图3示出了本方法分类损失和验证损失的应用过程。网络末端要进行两路特征的比对,所以样本对的输入在特征提取部分会共享权重。两个分支经过卷积模块5后会分别得到一个1×2048维的特征,之后通过全连接层得到feat1和feat2。feat层之后是用于分类的全连接层。对于两个分类任务的fc1和fc2层,维度均为5533,用于对5532个行人目标和一个背景类进行分类,这就完成了分类网络的功能。
同时我们的验证网络需要判断两个输入是否属于同一类,具体的实现是由feat层实现。该层的可计算两个输入特征向量的欧式距离,表示了两个特征向量之间的相似性,得到了与feat1和feat2相同维度的特征,之后连接到用于二分类的fc层。feat层的实现公式如下:
feat=(feat1-feat2)2
由于行人类别数多,而且每个类别的样本数量又比较少,Siamese网络可用来度量样本对的相似性,这里我们使用Softmax交叉熵损失函数度量,其表示形式为:
其中yi为二分类的标签,t为对应类别的得分。
另外,我们采用另一种多分类的强标签信息监督学习可使用Softmax交叉熵损失函数作为目标函数。针对行人重识别网络里的类别数多,类别数量又大的情况,我们使用一种随机采样Softmax(Random Sampling Softmax,RSS)损失函数。相对于原始的Softmax损失来说,RSS对于类别较多的分类任务能更快的收敛网络,训练出更好的模型。
假设行人类别数目是1~C+1种,其中C+1属于背景类,1~C属于行人类别,定义一个每个数据样本{x,t}。其中x∈RC+1,表示类别的得分,f是代表C+1个分类的标签。原始的Softmax损失函数可以表示为:
对比上述损失函数定义,RSS可随机地从C+1个分类中选择K维的x和t计算损失和梯度。假设被选中的是{i1,i2,..,iK},那么被选中的分类得分和标签分别记做和RSS损失函数的表示为:
假设我们本次输入的数据标签为c,获得这K个样本的规则表述如下:
1.令i1=c;
2.若c=C+1,从{1,...,C}中均匀采样出i2,...,iK;
3.若c≠C+1,则令i1=C+1,再从{1,...,C}\c中均匀采样出i3,...,iK。
这样的规则保证了背景类每次都会被选到,有利于训练一个具有背景辨别能力的网络模型。这里我们的设置参数,选取K=100。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于深度学习联合优化的行人重识别方法,其特征在于:方法步骤如下:
步骤1、采集筛选数量均衡的正负行人样本对,构建数据集;
步骤2、构建深度学习的Siamese神经网络结构模型,包括两路前端卷积神经网络和多层级特征融合模块,将数据集中的正负行人样本输入模型,提取得到两路不同的行人的Hyper特征;
步骤3、将步骤2得到的两路Hyper特征分别送入两个分类网络,将两路Hyper特征差值送入验证网络,联合分类网络和验证网络,联合分类损失函数和验证损失函数,优化步骤2构建的神经网络结构模型参数,得到优化后的行人重识别的深度学习的Siamese神经网络结构模型。
2.根据权利要求1所述的基于深度学习联合优化的行人重识别方法,其特征在于:所述步骤2包括:
步骤2.1、构建深度学习的Siamese神经网络结构模型,包括两路由5个卷积模块构成的前端卷积神经网络和多层级特征融合模块,将数据集中的正负行人样本分别输入模型的两路,得到具有层级的行人特征图,不同层级的特征图具有不同的隐含特征;
步骤2.2、分别提取两路卷积模块1、卷积模块3、卷积模块5的特征图,采用局部响应归一化多个特征图,将之处理融合统一到一个空间内形成行人的Hyper特征,得到两路不同的行人的Hyper特征。
3.根据权利要求1或2所述的基于深度学习联合优化的行人重识别方法,其特征在于:所述前端卷积神经网络基本结构来自于VGG-16网络,所述中多层级特征融合模块包括3路层级特征的提取、融合模块,3路层级特征的提取模块包括:添加最大池化模块执行下采样的卷积模块1、添加反卷积模块执行上采样的卷积模块5和卷积模块3;3路层级特征的融合模块包括:添加在卷积模块1、卷积模块3、卷积模块5后的反卷积模块,每一路通过反卷积模块后做特征融合,形成行人的Hyper特征。
4.据权利要求1所述的基于深度学习联合优化的行人重识别方法,其特征在于:所述步骤3包括:
步骤3.1、将步骤2得到的两路Hyper特征分别送入神经网络中的两个分类网络,将两路Hyper特征差值送入神经网络中的验证网络;
步骤3.2、分类网络和验证网络的反向传播过程中使用随机梯度下降法联合一个验证损失函数和两个分类损失函数优化网络结构参数,得到优化验证后行人重识别的深度学习的Siamese神经网络结构模型。
5.根据权利要求1或4所述的基于深度学习联合优化的行人重识别方法,其特征在于:所述分类损失函数采用基于多分类建模的随机选择采样Softmax损失函数,验证损失函数采用基于验证损失的二分类Softmax损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810932825.5A CN109102025A (zh) | 2018-08-15 | 2018-08-15 | 基于深度学习联合优化的行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810932825.5A CN109102025A (zh) | 2018-08-15 | 2018-08-15 | 基于深度学习联合优化的行人重识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109102025A true CN109102025A (zh) | 2018-12-28 |
Family
ID=64850066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810932825.5A Pending CN109102025A (zh) | 2018-08-15 | 2018-08-15 | 基于深度学习联合优化的行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109102025A (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800710A (zh) * | 2019-01-18 | 2019-05-24 | 北京交通大学 | 行人重识别系统及方法 |
CN109886141A (zh) * | 2019-01-28 | 2019-06-14 | 同济大学 | 一种基于不确定性优化的行人再辨识方法 |
CN109947963A (zh) * | 2019-03-27 | 2019-06-28 | 山东大学 | 一种基于深度学习的多尺度哈希检索方法 |
CN110084202A (zh) * | 2019-04-29 | 2019-08-02 | 东南大学 | 一种基于高效三维卷积的视频行为识别方法 |
CN110490174A (zh) * | 2019-08-27 | 2019-11-22 | 电子科技大学 | 基于特征融合的多尺度行人检测方法 |
CN110533119A (zh) * | 2019-09-04 | 2019-12-03 | 北京迈格威科技有限公司 | 标识识别方法及其模型的训练方法、装置及电子系统 |
CN111222534A (zh) * | 2019-11-15 | 2020-06-02 | 重庆邮电大学 | 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法 |
CN111274922A (zh) * | 2020-01-17 | 2020-06-12 | 山东师范大学 | 基于多层次深度学习网络的行人重识别方法及系统 |
CN111310821A (zh) * | 2020-02-11 | 2020-06-19 | 佛山科学技术学院 | 多视图特征融合方法、系统、计算机设备及存储介质 |
CN111523470A (zh) * | 2020-04-23 | 2020-08-11 | 苏州浪潮智能科技有限公司 | 特征融合块、卷积神经网络、行人重识别方法及相关设备 |
CN111754546A (zh) * | 2020-06-18 | 2020-10-09 | 重庆邮电大学 | 一种基于多特征图融合的目标跟踪方法、系统及存储介质 |
CN111814845A (zh) * | 2020-03-26 | 2020-10-23 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN111855500A (zh) * | 2020-07-30 | 2020-10-30 | 华北电力大学(保定) | 一种基于深度学习的复合绝缘子老化程度智能检测方法 |
CN111898622A (zh) * | 2019-05-05 | 2020-11-06 | 阿里巴巴集团控股有限公司 | 信息处理、信息显示与模型训练方法、系统及设备 |
CN112052819A (zh) * | 2020-09-15 | 2020-12-08 | 浙江智慧视频安防创新中心有限公司 | 一种行人重识别方法、装置、设备及存储介质 |
CN112381178A (zh) * | 2020-12-07 | 2021-02-19 | 西安交通大学 | 一种基于多损失特征学习的医学影像分类方法 |
CN112949458A (zh) * | 2021-02-26 | 2021-06-11 | 北京达佳互联信息技术有限公司 | 目标跟踪分割模型的训练方法和目标跟踪分割方法及装置 |
CN113221796A (zh) * | 2021-05-24 | 2021-08-06 | 厦门市美亚柏科信息股份有限公司 | 一种基于向量神经元的行人属性识别方法和系统 |
CN113242547A (zh) * | 2021-04-02 | 2021-08-10 | 浙江大学 | 一种基于深度学习的无线信号中用户行为隐私的滤除方法、系统及无线信号收发装置 |
CN113505648A (zh) * | 2021-06-10 | 2021-10-15 | 深圳市优必选科技股份有限公司 | 行人检测方法、装置、终端设备及存储介质 |
CN114036264A (zh) * | 2021-11-19 | 2022-02-11 | 四川大学 | 一种基于小样本学习的电子邮件作者身份归属识别方法 |
TWI757668B (zh) * | 2019-01-15 | 2022-03-11 | 中國大陸商北京市商湯科技開發有限公司 | 網路優化方法及裝置、圖像處理方法及裝置、儲存媒體 |
US11281227B2 (en) | 2019-08-20 | 2022-03-22 | Volkswagen Ag | Method of pedestrian activity recognition using limited data and meta-learning |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944049A (zh) * | 2017-12-19 | 2018-04-20 | 北京工业大学 | 一种基于深度学习的电影推荐方法 |
CN108171184A (zh) * | 2018-01-03 | 2018-06-15 | 南京理工大学 | 基于Siamese网络的用于行人重识别的方法 |
-
2018
- 2018-08-15 CN CN201810932825.5A patent/CN109102025A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944049A (zh) * | 2017-12-19 | 2018-04-20 | 北京工业大学 | 一种基于深度学习的电影推荐方法 |
CN108171184A (zh) * | 2018-01-03 | 2018-06-15 | 南京理工大学 | 基于Siamese网络的用于行人重识别的方法 |
Non-Patent Citations (4)
Title |
---|
TAO KONG 等: "HyperNet: Towards Accurate Region Proposal Generation and Joint Object Detection", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
TONG XIAO 等: "End-to-End Deep Learning for Person Search", 《ARXIV:1604.01850V1》 * |
YANGLIU KUAI 等: "Hyper-Siamese network for robust visual tracking", 《SIGNAL, IMAGE AND VIDEO PROCESSING》 * |
公安部第三研究所: "《多摄像机协同关注目标检测跟踪技术》", 30 June 2017, 南京:东南大学出版社 * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI757668B (zh) * | 2019-01-15 | 2022-03-11 | 中國大陸商北京市商湯科技開發有限公司 | 網路優化方法及裝置、圖像處理方法及裝置、儲存媒體 |
US11416703B2 (en) | 2019-01-15 | 2022-08-16 | Beijing Sensetime Technology Development Co., Ltd. | Network optimization method and apparatus, image processing method and apparatus, and storage medium |
CN109800710A (zh) * | 2019-01-18 | 2019-05-24 | 北京交通大学 | 行人重识别系统及方法 |
CN109800710B (zh) * | 2019-01-18 | 2021-04-06 | 北京交通大学 | 行人重识别系统及方法 |
CN109886141A (zh) * | 2019-01-28 | 2019-06-14 | 同济大学 | 一种基于不确定性优化的行人再辨识方法 |
CN109886141B (zh) * | 2019-01-28 | 2023-06-06 | 同济大学 | 一种基于不确定性优化的行人再辨识方法 |
CN109947963A (zh) * | 2019-03-27 | 2019-06-28 | 山东大学 | 一种基于深度学习的多尺度哈希检索方法 |
CN110084202A (zh) * | 2019-04-29 | 2019-08-02 | 东南大学 | 一种基于高效三维卷积的视频行为识别方法 |
CN111898622B (zh) * | 2019-05-05 | 2022-07-15 | 阿里巴巴集团控股有限公司 | 信息处理、信息显示与模型训练方法、系统及设备 |
CN111898622A (zh) * | 2019-05-05 | 2020-11-06 | 阿里巴巴集团控股有限公司 | 信息处理、信息显示与模型训练方法、系统及设备 |
US11281227B2 (en) | 2019-08-20 | 2022-03-22 | Volkswagen Ag | Method of pedestrian activity recognition using limited data and meta-learning |
CN110490174A (zh) * | 2019-08-27 | 2019-11-22 | 电子科技大学 | 基于特征融合的多尺度行人检测方法 |
CN110533119A (zh) * | 2019-09-04 | 2019-12-03 | 北京迈格威科技有限公司 | 标识识别方法及其模型的训练方法、装置及电子系统 |
CN111222534A (zh) * | 2019-11-15 | 2020-06-02 | 重庆邮电大学 | 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法 |
CN111274922A (zh) * | 2020-01-17 | 2020-06-12 | 山东师范大学 | 基于多层次深度学习网络的行人重识别方法及系统 |
CN111274922B (zh) * | 2020-01-17 | 2022-11-29 | 山东师范大学 | 基于多层次深度学习网络的行人重识别方法及系统 |
CN111310821A (zh) * | 2020-02-11 | 2020-06-19 | 佛山科学技术学院 | 多视图特征融合方法、系统、计算机设备及存储介质 |
CN111310821B (zh) * | 2020-02-11 | 2023-11-21 | 佛山科学技术学院 | 多视图特征融合方法、系统、计算机设备及存储介质 |
CN111814845A (zh) * | 2020-03-26 | 2020-10-23 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN111814845B (zh) * | 2020-03-26 | 2022-09-20 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN111523470A (zh) * | 2020-04-23 | 2020-08-11 | 苏州浪潮智能科技有限公司 | 特征融合块、卷积神经网络、行人重识别方法及相关设备 |
CN111523470B (zh) * | 2020-04-23 | 2022-11-18 | 苏州浪潮智能科技有限公司 | 一种行人重识别方法、装置、设备及介质 |
CN111754546A (zh) * | 2020-06-18 | 2020-10-09 | 重庆邮电大学 | 一种基于多特征图融合的目标跟踪方法、系统及存储介质 |
CN111855500A (zh) * | 2020-07-30 | 2020-10-30 | 华北电力大学(保定) | 一种基于深度学习的复合绝缘子老化程度智能检测方法 |
CN112052819A (zh) * | 2020-09-15 | 2020-12-08 | 浙江智慧视频安防创新中心有限公司 | 一种行人重识别方法、装置、设备及存储介质 |
CN112381178A (zh) * | 2020-12-07 | 2021-02-19 | 西安交通大学 | 一种基于多损失特征学习的医学影像分类方法 |
CN112949458A (zh) * | 2021-02-26 | 2021-06-11 | 北京达佳互联信息技术有限公司 | 目标跟踪分割模型的训练方法和目标跟踪分割方法及装置 |
CN113242547B (zh) * | 2021-04-02 | 2022-10-04 | 浙江大学 | 一种基于深度学习的无线信号中用户行为隐私的滤除方法、系统及无线信号收发装置 |
CN113242547A (zh) * | 2021-04-02 | 2021-08-10 | 浙江大学 | 一种基于深度学习的无线信号中用户行为隐私的滤除方法、系统及无线信号收发装置 |
CN113221796B (zh) * | 2021-05-24 | 2022-07-01 | 厦门市美亚柏科信息股份有限公司 | 一种基于向量神经元的行人属性识别方法和系统 |
CN113221796A (zh) * | 2021-05-24 | 2021-08-06 | 厦门市美亚柏科信息股份有限公司 | 一种基于向量神经元的行人属性识别方法和系统 |
CN113505648A (zh) * | 2021-06-10 | 2021-10-15 | 深圳市优必选科技股份有限公司 | 行人检测方法、装置、终端设备及存储介质 |
CN113505648B (zh) * | 2021-06-10 | 2023-12-19 | 深圳市优必选科技股份有限公司 | 行人检测方法、装置、终端设备及存储介质 |
CN114036264A (zh) * | 2021-11-19 | 2022-02-11 | 四川大学 | 一种基于小样本学习的电子邮件作者身份归属识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109102025A (zh) | 基于深度学习联合优化的行人重识别方法 | |
CN110263697A (zh) | 基于无监督学习的行人重识别方法、装置及介质 | |
CN110084151B (zh) | 基于非局部网络深度学习的视频异常行为判别方法 | |
CN105512640B (zh) | 一种基于视频序列的人流量统计方法 | |
CN105512680B (zh) | 一种基于深度神经网络的多视sar图像目标识别方法 | |
CN107330396A (zh) | 一种基于多属性和多策略融合学习的行人再识别方法 | |
CN111368690B (zh) | 基于深度学习的海浪影响下视频图像船只检测方法及系统 | |
CN108229338A (zh) | 一种基于深度卷积特征的视频行为识别方法 | |
CN105975929A (zh) | 一种基于聚合通道特征的快速行人检测方法 | |
CN109063768A (zh) | 车辆重识别方法、装置及系统 | |
CN104850845A (zh) | 一种基于非对称卷积神经网络的交通标志识别方法 | |
CN108447080A (zh) | 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质 | |
CN108520226A (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
CN106897738A (zh) | 一种基于半监督学习的行人检测方法 | |
CN108921107A (zh) | 基于排序损失和Siamese网络的行人再识别方法 | |
CN108764269A (zh) | 一种基于时空约束增量学习的跨数据集行人再识别方法 | |
CN104504395A (zh) | 基于神经网络实现人车分类的方法和系统 | |
CN108647595A (zh) | 基于多属性深度特征的车辆重识别方法 | |
CN109492528A (zh) | 一种基于高斯和深度特征的行人再识别方法 | |
Khan et al. | Deep cnn based data-driven recognition of cricket batting shots | |
CN109919045A (zh) | 基于级联卷积网络的小尺度行人检测识别方法 | |
CN110263712A (zh) | 一种基于区域候选的粗精行人检测方法 | |
Tang et al. | Object localization based on proposal fusion | |
CN113239801B (zh) | 基于多尺度特征学习和多级域对齐的跨域动作识别方法 | |
CN112990282B (zh) | 一种细粒度小样本图像的分类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181228 |