CN107944399A - 一种基于卷积神经网络目标中心模型的行人重识别方法 - Google Patents

一种基于卷积神经网络目标中心模型的行人重识别方法 Download PDF

Info

Publication number
CN107944399A
CN107944399A CN201711212317.1A CN201711212317A CN107944399A CN 107944399 A CN107944399 A CN 107944399A CN 201711212317 A CN201711212317 A CN 201711212317A CN 107944399 A CN107944399 A CN 107944399A
Authority
CN
China
Prior art keywords
pedestrian
image
pedestrian image
target
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711212317.1A
Other languages
English (en)
Inventor
杨钊
刘国明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou University
Original Assignee
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou University filed Critical Guangzhou University
Priority to CN201711212317.1A priority Critical patent/CN107944399A/zh
Publication of CN107944399A publication Critical patent/CN107944399A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络目标中心模型的行人重识别方法,包括以下步骤:从不同摄像头的视频流中获取行人图像,所述行人图像包括目标行人图像和参考行人图像;利用反向传播算法训练卷积神经网络;利用训练好的卷积神经网络分割行人图像的前景区域和背景区域,从而得到目标中心;提取行人图像特征;通过建立相似性度量函数,判别两个不同摄像头的行人图像是否属于同一个人。本方法有效降低图像背景、噪声等无关变量对相似性判别的影响,从而提高行人重识别准确率。

Description

一种基于卷积神经网络目标中心模型的行人重识别方法
技术领域
本发明涉及一种行人重识别方法,尤其是一种基于卷积神经网络目标中心模型的行人重识别方法。
背景技术
行人重识别是指给定一个待查询的目标行人图像,需要在另外一个监控中查找出该行人的相关图像。由于监控摄像头的低分辨率和不确定的视角导致了技术相对成熟的人脸识别技术无法应用于行人重识别中。另外,同一行人在不同的摄像头下存在姿态、视角和光照的差异。即使在同一规格的摄像机下,人的外观也可能随光照、姿态、遮挡等因素而产生变化。所有这些问题使得行人重识别的研究工作变得具有挑战性。
发明内容
为了解决现有技术所存在的问题,本发明提出了一种基于卷积神经网络目标中心模型的行人重识别方法,本方法有效降低图像背景、噪声等无关变量对相似性判别的影响,从而提高行人重识别准确率。
本发明采用如下技术方案来实现:一种基于卷积神经网络目标中心模型的行人重识别方法,包括以下步骤:
S1、从不同摄像头的视频流中获取行人图像,所述行人图像包括目标行人图像和参考行人图像;
S2、利用反向传播算法训练卷积神经网络;
S3、利用训练好的卷积神经网络分割行人图像的前景区域和背景区域,从而得到目标中心;
S4、提取行人图像特征;
S5、建立相似性度量函数,判别不同摄像头的行人图像是否属于同一个人。
优选地,所述步骤S2的训练过程为:首先,随机初始化卷积神经网络的卷积核和偏置;将目标行人图像和参考行人图像分成M×N块,把每一块区域输入所述卷积神经网络,进行前向传播,输出结果;通过输出结果与实际值之间的误差建立代价函数,并利用反向传播算法求代价函数关于卷积核和偏置的梯度;利用梯度下降法更新卷积核和偏置的值;通过迭代上述过程,求取使代价函数最小化时所对应的卷积核和偏置。
优选地,所述步骤S3的分割过程为:首先归一化目标行人图像和参考行人图像,然后将目标行人图像和参考行人图像分块,得到行人图像的块区域,对块区域进行加零值填充,填充后的块区域每个像素点作为一个神经元;把每一块区域输入所述卷积神经网络,进行前向传播从而获得该块区域的类别;将目标行人图像中类别为前景区域的块区域连接起来,得到目标行人图像的前景区域;将目标行人图像中类别为背景区域的块区域连接起来,得到目标行人图像的背景区域;将参考行人图像中类别为前景区域的块区域连接起来,得到参考行人图像的前景区域;将参考行人图像中类别为背景区域的块区域连接起来,得到参考行人图像的背景区域。
优选地,所述卷积神经网络包括:输入层、多个卷积层、多个池化层、全连接层及输出层;其中:
所述输入层指行人图像的块区域;对所述的块区域进行加零值填充,使得卷积层的特征映射图大小和输入特征图像大小一致;填充后的块区域每个像素点作为一个神经元;
所述卷积层由多个特征映射图组成,每个特征映射图由多个独立的神经元组成;所述卷积层的运算包括:利用多个卷积核在块区域的局部区域滑动,计算块区域的局部区域和卷积核对应位置神经元的乘积,把相乘的结果相加得到卷积特征图;卷积特征图加上偏置,通过激活函数输出,得到卷积层的特征映射图;
所述池化层由多个特征映射图组成,每个特征映射图由多个独立的神经元组成;池化运算包括:利用滤波器在卷积层的特征映射图滑动,寻找每个区域的最大值作为池化层的特征映射图神经元的值;
所述全连接层利用一维向量连接上一层输出的特征映射图;所述一维向量的每个元素代表一个神经元,该一维向量每个神经元都与上一层输出的特征映射图的每个神经元连接;
所述输出层将最后一层池化层的特征映射图进行向量化,利用sigmoid函数对全连接层的一维向量进行分类,分别对应前景区域和背景区域;将行人图像中类别为前景区域的块区域连接起来,得到行人图像的前景区域;将行人图像中类别为背景区域的块区域连接起来,得到行人图像的背景区域。
优选地,所述步骤S4的过程为:
S41、将目标行人图像的背景区域进行白色填充,收集进行填充后的目标行人图像,得到目标行人图像集合A;
S42、将参考行人图像的背景区域进行白色填充,收集进行填充后的参考行人图像,得到参考行人图像集合B;
S43、利用颜色特征描述子和纹理特征描述子分别对集合A、B中的每张行人图像进行处理;统计处理后的特征向量,得到对应的特征直方图;
S44、通过融合多种特征,并进行降维处理得到行人图像的一维特征向量。
优选地,步骤S5所述相似性度量函数,指充分利用已标记的先验信息来学习距离模型,使得相似图像之间的距离小于不相似图像之间的距离。
优选地,步骤S5采用马氏距离度量方法,计算目标行人图像集合和参考行人图像集合中任意两个行人图像之间的距离:式中,xi为目标行人图像集合第i个行人图像的一维特征向量,yj为参考行人图像集合第j个行人图像的一维特征向量,M为半正定矩阵;分别建立正、负样本对集合,正、负样本对集合的一半用于训练参数M,另一半用于测试行人重识别的准确率。
与现有技术相比,本发明具有如下优点和有益效果:
本发明采用训练好的卷积神经网络分割前景区域和背景区域,从而得到目标中心,即行人区域;再通过提取行人区域特征并建立相似性度量函数,判别两个不同摄像头的行人图像是否属于同一个人。本方法有效降低图像背景、噪声等无关变量对相似性判别的影响,从而提高行人重识别准确率。
附图说明
图1为本发明实施例中利用训练好的卷积神经网络分割前景区域和背景区域的流程图;
图2为本发明实施例中提取行人图像特征的流程图;
图3为本发明实施例中S2池化层的6个特征映射图的不同组合与C3卷积层的16个特征映射图的对应关系图;
图4为本发明实施例中S4池化层的16个特征映射图的不同组合与C5卷积层的64个特征映射图的对应关系图。
具体实施方式
下面结合附图和实施例,对本发明做进一步详细的描述,但本发明的实施方式不限于此。
实施例
本实施例中,基于卷积神经网络目标中心模型的行人重识别方法,包括以下步骤:
S1、从不同摄像头的视频流中获取行人图像;
所述行人图像包括目标行人图像和参考行人图像。摄像头设有两组,第一组摄像头的视频流中获取的行人图像为目标行人图像,第二组摄像头的视频流中获取的行人图像为参考行人图像。
利用HOG特征描述子对第一组摄像头的视频流进行行人检测,得到对应的目标行人图像;收集目标行人图像,得到目标行人图像集合:P={p1,p2,p3,…,pi},pi代表目标行人图像集合的第i张行人图像。
利用HOG特征描述子对第二组摄像头的视频流进行行人检测,得到对应的参考行人图像;收集参考行人图像,得到参考行人图像集合:G={g1,g2,g3,…,gj},gj代表参考行人图像集合的第j张行人图像。
S2、利用反向传播算法训练卷积神经网络;
首先,随机初始化卷积神经网络的卷积核和偏置;将目标行人图像和参考行人图像分成M×N块(如6×6块),把每一块区域输入所述卷积神经网络,进行前向传播,输出结果;通过输出结果与实际值之间的误差建立代价函数,并利用反向传播算法求代价函数关于卷积核和偏置的梯度;利用梯度下降法更新卷积核和偏置的值;通过迭代上述过程,求取使代价函数最小化时所对应的卷积核和偏置。至此,卷积神经网络的训练结束。
S3、利用训练好的卷积神经网络分割行人图像的前景区域和背景区域,从而得到目标中心(行人区域);
本步骤首先归一化目标行人图像和参考行人图像,然后将目标行人图像和参考行人图像分块,得到行人图像的块区域,对块区域进行加零值填充,填充后的块区域每个像素点作为一个神经元;把每一块区域输入所述卷积神经网络,进行前向传播从而获得该块区域的类别;将目标行人图像中类别为前景区域的块区域连接起来,得到目标行人图像的前景区域;将目标行人图像中类别为背景区域的块区域连接起来,得到目标行人图像的背景区域;将参考行人图像中类别为前景区域的块区域连接起来,得到参考行人图像的前景区域;将参考行人图像中类别为背景区域的块区域连接起来,得到参考行人图像的背景区域。在前向传播过程中,对行人图像的特征图进行卷积运算得到多个卷积层,对卷积层进行池化运算得到对应的池化层。卷积神经网络包括:输入层、多个卷积层、多个池化层、全连接层及输出层。其中:
所述输入层指行人图像的块区域;对所述的块区域进行加零值填充,使得卷积层的特征映射图大小和输入特征图像大小一致;填充后的块区域每个像素点作为一个神经元。
所述卷积层由多个特征映射图组成,每个特征映射图由多个独立的神经元组成;卷积层运算包括:利用多个卷积核在块区域的局部区域滑动,计算块区域的局部区域和卷积核对应位置神经元的乘积,把相乘的结果相加得到卷积特征图;卷积特征图加上偏置,通过激活函数ReLU(Rectified Linear Units)输出,得到卷积层的特征映射图;通过卷积运算,使得原始行人图像特征增强,并且降低噪声。所述激活函数指f(x)=max(0,x)。
所述池化层由多个特征映射图组成,每个特征映射图由多个独立的神经元组成;池化运算包括:利用滤波器在卷积层的特征映射图滑动,寻找每个区域的最大值作为池化层的特征映射图神经元的值。通过池化运算,一方面减少训练参数的数量,简化网络计算复杂度,另一方面进行特征压缩,提取主要特征。
所述全连接层利用一维向量连接上一层输出的特征映射图;所述一维向量的每个元素代表一个神经元,该一维向量每个神经元都与上一层输出的特征映射图的每个神经元连接。
所述输出层将最后一层池化层的特征映射图进行向量化,利用sigmoid函数对全连接层的一维向量进行分类,分别对应前景区域和背景区域;将行人图像中类别为前景区域的块区域连接起来,得到行人图像的前景区域;将行人图像中类别为背景区域的块区域连接起来,得到行人图像的背景区域。
图1为本实施例利用训练好的卷积神经网络分割前景区域和背景区域的流程图,包括以下步骤:
(1)将行人图像归一化为144×96像素,然后把行人图像平均分成6×6块,一共得到36个块区域,每个块区域大小为24×16像素,每个像素作为一个神经元。
(2)对第一个块区域进行加零值填充,把填充后的块区域与6个不同的卷积核进行卷积运算,得到卷积特征图;所述卷积核的大小均为3×3像素;卷积特征图加上偏置,通过激活函数ReLU(Rectified Linear Units)输出,得到C1卷积层的6个特征映射图,每个特征映射图由24×16个独立的神经元组成。
(3)利用大小为2×2的滤波器分别在C1卷积层的6个特征映射图滑动,寻找每个区域的最大值作为S2池化层的特征映射图神经元的值,最后得到S2池化层的6个特征映射图,每个特征映射图由12×8个独立的神经元组成。
(4)对S2池化层的6个特征映射图进行加零值填充,把填充后的6个特征映射图与16个不同的卷积核进行卷积运算,得到卷积特征图;所述卷积核的大小均为3×3像素;卷积特征图加上偏置,通过激活函数ReLU(Rectified Linear Units)输出,得到C3卷积层的16个特征映射图,每个特征映射图由12×8个独立的神经元组成。其中,C3卷积层的每个特征映射图是与S2池化层的6个特征映射图中的几个特征映射图连接;连接关系如图3所示,C3卷积层的第1个特征映射图是与S2池化层的第1、2、3个特征映射图连接;C3卷积层的第2个特征映射图是与S2池化层的第2、3、4个特征映射图连接,以此类推。
(5)利用大小为2×2的滤波器分别在C3卷积层的16个特征映射图滑动,寻找每个区域的最大值作为S4池化层的特征映射图神经元的值,最后得到S4池化层的16个特征映射图,每个特征映射图由6×4个独立的神经元组成。
(6)对S4池化层的16个特征映射图进行加零值填充,把填充后的16个特征映射图与64个不同的卷积核进行卷积运算,得到卷积特征图;所述卷积核的大小均为3×3像素;卷积特征图加上偏置,通过激活函数ReLU(Rectified Linear Units)输出,得到C5卷积层的64个特征映射图,每个特征映射图由6×4个独立的神经元组成。其中,C5卷积层的每个特征映射图是与S4池化层的16个特征映射图中的几个特征映射图连接;连接关系如图4所示,C5卷积层的第1个特征映射图是与S4池化层的第1、2、3、4、5、6、7、8个特征映射图连接;C5卷积层的第2个特征映射图是与S4池化层的第2、3、4、5、6、7、8、9个特征映射图连接,以此类推。
(7)利用大小为2×2的滤波器分别在C5卷积层的64个特征映射图滑动,寻找每个区域的最大值作为S6池化层的特征映射图神经元的值,最后得到S6池化层的64个特征映射图,每个特征映射图由3×2个独立的神经元组成。
(8)F7全连接层有81个神经元,每个神经元都与S6池化层的64个特征映射图的所有神经元连接。
(9)F7全连接层的81个神经元分别作为自变量输入,通过sigmoid函数,得到对应的因变量;若因变量的值大于0.5,定义该类别为1:前景区域;若因变量的值小于0.5,定义该类别为0:背景区域。
(10)把所述行人图像所有类别为前景区域的块区域连接起来,得到行人图像的前景区域;把所述行人图像所有类别为背景区域的块区域连接起来,得到行人图像的背景区域。
S4、提取行人图像特征;
图2为本实施例中提取行人图像特征、马氏距离学习并利用学习的度量函数计算任意两幅图像距离的流程图,包括以下步骤:
(1)将目标行人图像的背景区域进行白色填充,收集进行填充后的目标行人图像,得到目标行人图像集合:A={a1,a2,a3,…,ai},ai代表目标行人图像集合的第i张行人图像。
(2)将参考行人图像的背景区域进行白色填充,收集进行填充后的参考行人图像,得到参考行人图像集合:B={b1,b2,b3,…,bj},bj代表目标行人图像集合的第j张行人图像。
(3)利用颜色特征描述子和纹理特征描述子分别对集合A、B中的每张行人图像进行处理;统计处理后的特征向量,得到对应的特征直方图。其中,特征描述子包括:颜色特征描述子和纹理特征描述子等。颜色特征描述子包括:HSV、Lab、YcbCr等;纹理特征描述子包括:Gabor、LBP、HOG等。
(4)通过融合多种特征,并进行降维处理得到行人图像的一维特征向量。
S5、建立相似性度量函数,判别不同摄像头的行人图像是否属于同一个人。
所述相似性度量函数,指充分利用已标记的先验信息来学习距离模型,使得相似图像之间的距离小于不相似图像之间的距离。对于所述距离模型的学习,马氏距离是一个很好的函数表达式,它在许多机器学习问题中是具有较好的泛化能力的一个函数。
本实施例采用马氏距离度量方法,计算目标行人图像集合和参考行人图像集合中任意两个行人图像之间的距离:式中,xi为目标行人图像集合第i个行人图像的一维特征向量,yj为参考行人图像集合第j个行人图像的一维特征向量,M为半正定矩阵;分别建立正、负样本对集合,正、负样本对集合的一半用于训练参数M,另一半用于测试行人重识别的准确率。求用于测试的目标行人图像集合和参考行人图像集合中任意两个元素之间的距离,并把所求得的距离按照由低到高的顺序进行排序,排序越靠前的样本对,相似度越高,为同一个行人的可能性越大。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于卷积神经网络目标中心模型的行人重识别方法,其特征在于,包括以下步骤:
S1、从不同摄像头的视频流中获取行人图像,所述行人图像包括目标行人图像和参考行人图像;
S2、利用反向传播算法训练卷积神经网络;
S3、利用训练好的卷积神经网络分割行人图像的前景区域和背景区域,从而得到目标中心;
S4、提取行人图像特征;
S5、建立相似性度量函数,判别不同摄像头的行人图像是否属于同一个人。
2.根据权利要求1所述的基于卷积神经网络目标中心模型的行人重识别方法,其特征在于,所述步骤S2的训练过程为:首先,随机初始化卷积神经网络的卷积核和偏置;将目标行人图像和参考行人图像分成M×N块,把每一块区域输入所述卷积神经网络,进行前向传播,输出结果;通过输出结果与实际值之间的误差建立代价函数,并利用反向传播算法求代价函数关于卷积核和偏置的梯度;利用梯度下降法更新卷积核和偏置的值;通过迭代上述过程,求取使代价函数最小化时所对应的卷积核和偏置。
3.根据权利要求1所述的基于卷积神经网络目标中心模型的行人重识别方法,其特征在于,所述步骤S3的分割过程为:首先归一化目标行人图像和参考行人图像,然后将目标行人图像和参考行人图像分块,得到行人图像的块区域,对块区域进行加零值填充,填充后的块区域每个像素点作为一个神经元;把每一块区域输入所述卷积神经网络,进行前向传播从而获得该块区域的类别;将目标行人图像中类别为前景区域的块区域连接起来,得到目标行人图像的前景区域;将目标行人图像中类别为背景区域的块区域连接起来,得到目标行人图像的背景区域;将参考行人图像中类别为前景区域的块区域连接起来,得到参考行人图像的前景区域;将参考行人图像中类别为背景区域的块区域连接起来,得到参考行人图像的背景区域。
4.根据权利要求3所述的基于卷积神经网络目标中心模型的行人重识别方法,其特征在于,所述卷积神经网络包括:输入层、多个卷积层、多个池化层、全连接层及输出层;其中:
所述输入层指行人图像的块区域;对所述的块区域进行加零值填充,使得卷积层的特征映射图大小和输入特征图像大小一致;填充后的块区域每个像素点作为一个神经元;
所述卷积层由多个特征映射图组成,每个特征映射图由多个独立的神经元组成;所述卷积层的运算包括:利用多个卷积核在块区域的局部区域滑动,计算块区域的局部区域和卷积核对应位置神经元的乘积,把相乘的结果相加得到卷积特征图;卷积特征图加上偏置,通过激活函数输出,得到卷积层的特征映射图;
所述池化层由多个特征映射图组成,每个特征映射图由多个独立的神经元组成;池化运算包括:利用滤波器在卷积层的特征映射图滑动,寻找每个区域的最大值作为池化层的特征映射图神经元的值;
所述全连接层利用一维向量连接上一层输出的特征映射图;所述一维向量的每个元素代表一个神经元,该一维向量每个神经元都与上一层输出的特征映射图的每个神经元连接;
所述输出层将最后一层池化层的特征映射图进行向量化,利用sigmoid函数对全连接层的一维向量进行分类,分别对应前景区域和背景区域;将行人图像中类别为前景区域的块区域连接起来,得到行人图像的前景区域;将行人图像中类别为背景区域的块区域连接起来,得到行人图像的背景区域。
5.根据权利要求1所述的基于卷积神经网络目标中心模型的行人重识别方法,其特征在于,所述步骤S4的过程为:
S41、将目标行人图像的背景区域进行白色填充,收集进行填充后的目标行人图像,得到目标行人图像集合A;
S42、将参考行人图像的背景区域进行白色填充,收集进行填充后的参考行人图像,得到参考行人图像集合B;
S43、利用颜色特征描述子和纹理特征描述子分别对集合A、B中的每张行人图像进行处理;统计处理后的特征向量,得到对应的特征直方图;
S44、通过融合多种特征,并进行降维处理得到行人图像的一维特征向量。
6.根据权利要求1所述的基于卷积神经网络目标中心模型的行人重识别方法,其特征在于,步骤S5所述相似性度量函数,指充分利用已标记的先验信息来学习距离模型,使得相似图像之间的距离小于不相似图像之间的距离。
7.根据权利要求6所述的基于卷积神经网络目标中心模型的行人重识别方法,其特征在于,步骤S5采用马氏距离度量方法,计算目标行人图像集合和参考行人图像集合中任意两个行人图像之间的距离:式中,xi为目标行人图像集合第i个行人图像的一维特征向量,yj为参考行人图像集合第j个行人图像的一维特征向量,M为半正定矩阵;分别建立正、负样本对集合,正、负样本对集合的一半用于训练参数M,另一半用于测试行人重识别的准确率。
8.根据权利要求1所述的基于卷积神经网络目标中心模型的行人重识别方法,其特征在于,步骤S1所述摄像头设有两组,第一组摄像头的视频流中获取的行人图像为目标行人图像,第二组摄像头的视频流中获取的行人图像为参考行人图像。
9.根据权利要求8所述的基于卷积神经网络目标中心模型的行人重识别方法,其特征在于,步骤S1中,利用HOG特征描述子对第一组摄像头的视频流进行行人检测,得到对应的目标行人图像;利用HOG特征描述子对第二组摄像头的视频流进行行人检测,得到对应的参考行人图像。
CN201711212317.1A 2017-11-28 2017-11-28 一种基于卷积神经网络目标中心模型的行人重识别方法 Pending CN107944399A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711212317.1A CN107944399A (zh) 2017-11-28 2017-11-28 一种基于卷积神经网络目标中心模型的行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711212317.1A CN107944399A (zh) 2017-11-28 2017-11-28 一种基于卷积神经网络目标中心模型的行人重识别方法

Publications (1)

Publication Number Publication Date
CN107944399A true CN107944399A (zh) 2018-04-20

Family

ID=61950167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711212317.1A Pending CN107944399A (zh) 2017-11-28 2017-11-28 一种基于卷积神经网络目标中心模型的行人重识别方法

Country Status (1)

Country Link
CN (1) CN107944399A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921140A (zh) * 2018-08-07 2018-11-30 安徽云森物联网科技有限公司 行人再识别方法
CN108985168A (zh) * 2018-06-15 2018-12-11 江南大学 一种基于最小归一化距离学习的视频人脸识别方法
CN109711358A (zh) * 2018-12-28 2019-05-03 四川远鉴科技有限公司 神经网络训练方法、人脸识别方法及系统和存储介质
CN110263604A (zh) * 2018-05-14 2019-09-20 桂林远望智能通信科技有限公司 一种基于像素级别分离行人图片背景的方法及装置
CN110464611A (zh) * 2019-07-23 2019-11-19 苏州国科视清医疗科技有限公司 一种数字化弱视增强训练装置和系统及其相关算法
CN110738077A (zh) * 2018-07-19 2020-01-31 杭州海康慧影科技有限公司 一种异物检测方法及装置
CN111008992A (zh) * 2019-11-28 2020-04-14 驭势科技(南京)有限公司 目标跟踪方法、装置和系统及存储介质
CN111062904A (zh) * 2019-12-09 2020-04-24 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、电子设备和可读存储介质
CN111105369A (zh) * 2019-12-09 2020-05-05 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、电子设备和可读存储介质
WO2020098158A1 (zh) * 2018-11-14 2020-05-22 平安科技(深圳)有限公司 行人重识别方法、装置及计算机可读存储介质
CN111781993A (zh) * 2020-06-28 2020-10-16 联想(北京)有限公司 一种信息处理方法、系统及计算机可读存储介质
CN113221796A (zh) * 2021-05-24 2021-08-06 厦门市美亚柏科信息股份有限公司 一种基于向量神经元的行人属性识别方法和系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105224937A (zh) * 2015-11-13 2016-01-06 武汉大学 基于人体部件位置约束的细粒度语义色彩行人重识别方法
US20160048741A1 (en) * 2014-08-12 2016-02-18 Siemens Aktiengesellschaft Multi-layer aggregation for object detection
CN105354548A (zh) * 2015-10-30 2016-02-24 武汉大学 一种基于ImageNet检索的监控视频行人重识别方法
CN104067314B (zh) * 2014-05-23 2017-03-08 银河水滴科技(北京)有限公司 人形图像分割方法
CN106778682A (zh) * 2017-01-11 2017-05-31 厦门中控生物识别信息技术有限公司 一种卷积神经网络模型的训练方法及其设备
CN106778705A (zh) * 2017-02-04 2017-05-31 中国科学院自动化研究所 一种行人个体分割方法及装置
CN106919909A (zh) * 2017-02-10 2017-07-04 华中科技大学 一种行人重识别的度量学习方法和系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104067314B (zh) * 2014-05-23 2017-03-08 银河水滴科技(北京)有限公司 人形图像分割方法
US20160048741A1 (en) * 2014-08-12 2016-02-18 Siemens Aktiengesellschaft Multi-layer aggregation for object detection
CN105354548A (zh) * 2015-10-30 2016-02-24 武汉大学 一种基于ImageNet检索的监控视频行人重识别方法
CN105224937A (zh) * 2015-11-13 2016-01-06 武汉大学 基于人体部件位置约束的细粒度语义色彩行人重识别方法
CN106778682A (zh) * 2017-01-11 2017-05-31 厦门中控生物识别信息技术有限公司 一种卷积神经网络模型的训练方法及其设备
CN106778705A (zh) * 2017-02-04 2017-05-31 中国科学院自动化研究所 一种行人个体分割方法及装置
CN106919909A (zh) * 2017-02-10 2017-07-04 华中科技大学 一种行人重识别的度量学习方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
朱贵良等: "基于指纹连通性的灰度方差分割算法", 《微计算机信息》 *
杨钊: "面向图像分类和识别的视觉特征表达与学习的研究", 《中国博士学位论文全文数据库信息科技辑》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263604A (zh) * 2018-05-14 2019-09-20 桂林远望智能通信科技有限公司 一种基于像素级别分离行人图片背景的方法及装置
CN108985168B (zh) * 2018-06-15 2022-05-24 江南大学 一种基于最小归一化距离学习的视频人脸识别方法
CN108985168A (zh) * 2018-06-15 2018-12-11 江南大学 一种基于最小归一化距离学习的视频人脸识别方法
CN110738077A (zh) * 2018-07-19 2020-01-31 杭州海康慧影科技有限公司 一种异物检测方法及装置
CN110738077B (zh) * 2018-07-19 2023-08-08 杭州海康慧影科技有限公司 一种异物检测方法及装置
CN108921140A (zh) * 2018-08-07 2018-11-30 安徽云森物联网科技有限公司 行人再识别方法
WO2020098158A1 (zh) * 2018-11-14 2020-05-22 平安科技(深圳)有限公司 行人重识别方法、装置及计算机可读存储介质
CN109711358A (zh) * 2018-12-28 2019-05-03 四川远鉴科技有限公司 神经网络训练方法、人脸识别方法及系统和存储介质
CN110464611A (zh) * 2019-07-23 2019-11-19 苏州国科视清医疗科技有限公司 一种数字化弱视增强训练装置和系统及其相关算法
CN111008992A (zh) * 2019-11-28 2020-04-14 驭势科技(南京)有限公司 目标跟踪方法、装置和系统及存储介质
CN111008992B (zh) * 2019-11-28 2024-04-05 驭势科技(浙江)有限公司 目标跟踪方法、装置和系统及存储介质
CN111105369A (zh) * 2019-12-09 2020-05-05 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、电子设备和可读存储介质
CN111062904B (zh) * 2019-12-09 2023-08-11 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、电子设备和可读存储介质
CN111062904A (zh) * 2019-12-09 2020-04-24 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、电子设备和可读存储介质
CN111781993B (zh) * 2020-06-28 2022-04-22 联想(北京)有限公司 一种信息处理方法、系统及计算机可读存储介质
CN111781993A (zh) * 2020-06-28 2020-10-16 联想(北京)有限公司 一种信息处理方法、系统及计算机可读存储介质
CN113221796A (zh) * 2021-05-24 2021-08-06 厦门市美亚柏科信息股份有限公司 一种基于向量神经元的行人属性识别方法和系统
CN113221796B (zh) * 2021-05-24 2022-07-01 厦门市美亚柏科信息股份有限公司 一种基于向量神经元的行人属性识别方法和系统

Similar Documents

Publication Publication Date Title
CN107944399A (zh) 一种基于卷积神经网络目标中心模型的行人重识别方法
Li et al. Deep feature fusion via two-stream convolutional neural network for hyperspectral image classification
Reddy et al. Spontaneous facial micro-expression recognition using 3D spatiotemporal convolutional neural networks
WO2022036777A1 (zh) 基于卷积神经网络的人体动作姿态智能估计方法及装置
CN104063719B (zh) 基于深度卷积网络的行人检测方法及装置
Shoieb et al. Computer-aided model for skin diagnosis using deep learning
JP6788264B2 (ja) 表情認識方法、表情認識装置、コンピュータプログラム及び広告管理システム
CN108615010A (zh) 基于平行卷积神经网络特征图融合的人脸表情识别方法
Yan et al. Multi-attributes gait identification by convolutional neural networks
CN103942577B (zh) 视频监控中基于自建立样本库及混合特征的身份识别方法
Gouda et al. Skin cancer classification using ResNet
CN107729872A (zh) 基于深度学习的人脸表情识别方法及装置
CN109344693A (zh) 一种基于深度学习的人脸多区域融合表情识别方法
CN106446872A (zh) 一种低照度下的视频人脸检测识别方法
CN107862249A (zh) 一种分叉掌纹识别方法及装置
CN106529578A (zh) 一种基于深度学习的车辆品牌型号精细识别方法与系统
CN106897673A (zh) 一种基于retinex算法和卷积神经网络的行人再识别方法
CN104484658A (zh) 一种基于多通道卷积神经网络的人脸性别识别方法及装置
CN106529504B (zh) 一种复合时空特征的双模态视频情感识别方法
CN109033994A (zh) 一种基于卷积神经网络的人脸表情识别方法
CN110532850B (zh) 一种基于视频关节点和混合分类器的跌倒检测方法
Sabrol et al. Fuzzy and neural network based tomato plant disease classification using natural outdoor images
CN107844780A (zh) 一种融合zed视觉的人体健康特征大数据智慧计算方法与装置
CN104298974A (zh) 一种基于深度视频序列的人体行为识别方法
CN113610046B (zh) 一种基于深度视频联动特征的行为识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180420