CN107704811A - 一种基于模糊鲁棒特征的行人再识别方法及模块装置 - Google Patents

一种基于模糊鲁棒特征的行人再识别方法及模块装置 Download PDF

Info

Publication number
CN107704811A
CN107704811A CN201710829662.3A CN201710829662A CN107704811A CN 107704811 A CN107704811 A CN 107704811A CN 201710829662 A CN201710829662 A CN 201710829662A CN 107704811 A CN107704811 A CN 107704811A
Authority
CN
China
Prior art keywords
mrow
fuzzy
pedestrian
image
fuzzy core
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710829662.3A
Other languages
English (en)
Inventor
陶大鹏
杜烨宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central Ship Heavy Industry (kunming) Linghu Environmental Intelligent Sensing Technology Co Ltd
Yunnan University YNU
Original Assignee
Central Ship Heavy Industry (kunming) Linghu Environmental Intelligent Sensing Technology Co Ltd
Yunnan University YNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central Ship Heavy Industry (kunming) Linghu Environmental Intelligent Sensing Technology Co Ltd, Yunnan University YNU filed Critical Central Ship Heavy Industry (kunming) Linghu Environmental Intelligent Sensing Technology Co Ltd
Priority to CN201710829662.3A priority Critical patent/CN107704811A/zh
Publication of CN107704811A publication Critical patent/CN107704811A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Fuzzy Systems (AREA)
  • Computational Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Pure & Applied Mathematics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于模糊鲁棒特征的行人再识别方法,该方法包括以下步骤:(a)将公开的大规模人脸图像数据库中的所有图像通过模糊核进行模糊化处理,以获得与行人图像质量接近的大规模图像数据;(b)通过已处理好的人脸图像数据来训练深度卷积神经网络模型;(c)通过现有的小规模行人图像数据库对预训练的深度卷积神经网络模型进行参数微调;(d)对行人图像进行特征提取,通过特征比对进行图像再识别。本发明的有益效果为,使预训练的深度卷积神经网络模型对行人图像具有模糊鲁棒性;使预训练的深度卷积神经网络模型具有较强的泛化能力;该方法在不同规模,不同类型的行人再识别图像数据库上都能达到较好的效果。

Description

一种基于模糊鲁棒特征的行人再识别方法及模块装置
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于模糊鲁棒特征的行人再识别方法和模块装置,解决摄像头下待识别行人图像模糊和训练样本数量少的问题。
背景技术
随着科学技术的发展,视频监控系统已经在通信、安全、交通等行业得到了广泛的应用,其在维护社会治安中起到重要作用,并逐渐向大众化、智能化发展。当前,摄像机网络已经覆盖到了大多数公共场所,比如机场、火车站、地铁、超市和公路等。公共摄像机网络的建设,在打击犯罪、维护治安稳定的实践中正发挥着越来越重要的作用。行人再识别技术是基于计算机视觉的一个研究领域,旨在非重叠的多摄像机网络下,找到相同的感兴趣目标。行人再识别技术广泛的应用在视频监控系统中,其在公共安全,维护社会治安、客户行为分析等领域起到重要作用,因此研究行人再识别技术具有非常重要的意义与应用价值。
在实际条件下,现有的行人重验证数据库规模很小,每一个识别目标在摄像头下出现的次数较少,因而导致可用的训练样本数据比较少,使得训练的深度学习识别模型存在严重过拟合的问题。与此同时,监控摄像头质量的限制和行人的运动性还导致了行人图像分辨率较低和抖动模糊,严重的降低了行人图像的质量,这些都很容易造成对最终目标的错误识别。
发明内容
本发明正是为了解决所述问题缺陷,提供一种基于模糊鲁棒特征的行人再识别方法。
本发明采用如下技术方案实现。
一种基于模糊鲁棒特征的行人再识别方法,本发明的再识别方法包括以下步骤:(a)将公开的大规模人脸图像数据库中的所有图像通过模糊核进行模糊化处理,以获得与行人图像质量接近的大规模图像数据;
(b)通过已处理好的人脸图像数据来训练深度卷积神经网络模型,学习到对模糊鲁棒的初步模型;
(c)通过现有的小规模行人图像数据库对预训练的深度卷积神经网络模型进行参数微调;
(d)对行人图像进行特征提取,通过特征比对进行图像再识别。
本发明所述步骤(a)中对原始人脸图像进行模糊化处理的公式表示为:
Iv=ψb[φ(αIs*k+n)] (1)
其中,未处理人脸图像为Is,获取的模糊人脸图像为Iv,*表示卷积操作,k为模糊核。
所述公式(1)中,α为动态阈值,其作用为去掉图像中超过摄像机传感器动态范围的数值。α随机地从{1.00,1.05,1.10,1.15}中取一个数值。
所述公式(1)中,n表示高斯白噪声,其数值随机地从{0,0.0002,0.0005,0.0007}中取一个值。
所述公式(1)中,φ()是图像去饱和函数,满足φ(z)=min(z,zmax),其中zmax取值为255。
所述公式(1)中,ψb()是图像下采样函数,函数的下采样尺度值随机从{0.3,0.5,0.7,0.9}中取一个数值。
本发明所述的公式(1)中,模糊核k包含抖动模糊核km公式如下:
所述公式(2)中,(i,j)为图像坐标轴中的坐标数值,L为抖动模糊核的大小,表示图像曝光时的抖动距离,θ为图像抖动的角度。
所述公式(2)中,模糊核L的大小取值随机从{7,9,11}中取一个值,角度θ随机从中取一个数值。抖动模糊核km共有3*4=12种随机组合。
本发明所述的公式(1)中,模糊核k包含扩散模糊核ko;公式如下:
所述公式(3)中,σ和R分别表示扩散模糊核的幅度和角度。C是一个常数。
所述公式(3)中,模糊核幅度σ的大小取值随机从{1.5,3.0}中取一个值,模糊核幅度R的取值为9。扩散模糊核ko共有2*1=2种随机组合。本发明所述的公式(1)中,模糊核k由两个模糊核组成,分别是抖动模糊核km和扩散模糊核ko
模糊核k为随机将抖动模糊核km和扩散模糊核ko进行随机组合,可以得到12*2=24种组合模糊核处理。模糊核k总共有24+12+2=38种随机模糊核选择的组成。
本发明所述步骤(b)中的深度卷积神经网络模型为现有的深度学习神经网络GoogLeNet。
本发明所述步骤(c)中模型训练的学习速率小于步骤(b)中训练的学习速率。
本发明所述步骤(d)中,将行人图片输入到已训练好的深度卷积神经网络模型中,提取对模糊具有鲁棒性的特征;通过欧式距离度量特征间的相似度,按相似度排序,挑选排序最靠前的图像作为匹配结果输出。
一种基于模糊鲁棒特征的行人再识别模块装置,该再识别模块包括以下四个功能模块:
(1)模糊化模块:将公开的大规模人脸图像数据库中的所有图像通过模糊核进行模糊化处理,以获得与行人图像质量接近的大规模图像数据;
(2)模型构建模块:通过已处理好的人脸图像数据来训练深度卷积神经网络模型,学习到对模糊鲁棒的初步模型;
(3)模型优化模块:通过现有的小规模行人图像数据库对预训练的深度卷积神经网络模型进行参数微调;
(4)行人图像再识别模块:将行人图片输入到已训练好的深度卷积神经网络模型中,提取对模糊具有鲁棒性的特征;通过欧式距离度量特征间的相似度,按相似度排序,挑选排序最靠前的图像作为匹配结果输出。
本发明所述的四个功能模块的联接结构为,模糊化模块依序与模型构建模块、行人图像再识别模块联接;模型构建模块还与模型优化模块联接。
本发明的有益效果为,
1、本发明提出的一种将图像模糊化的方法,对公开的大规模人脸图像数据库的图像进行模糊化处理,使预训练的深度卷积神经网络模型对行人图像具有模糊鲁棒性。
2、本发明的方法预训练深度卷积神经网络模型时,所采用的人脸图像与行人图像具有较高的相关性,使预训练的深度卷积神经网络模型具有较强的泛化能力。
3、本发明的方法解决了已有的行人再识别图像数据库因样本量过小,而导致训练出来大规模的深度学习网络过拟合的问题。
4、本发明的方法采用程序化、步骤化的方式进行,加工成相关功能模块可以进行更为直接的利用和推广。
5、本发明提出的模糊的行人图像再识别方法及其模块,经过实验模拟验证后,具有更好的鲁棒性、较强的自适应能力和泛化能力。除了在已有的行人再识别图像数据库上达到了较高的准确率,该方法在不同规模,不同类型的行人再识别图像数据库上都能达到较好的效果。
下面结合附图和具体实施方式本发明做进一步解释。
附图说明
图1是本发明整体流程图。
图2是本发明深度卷积神经网络模型的网络结构图。
图3是本发明清晰的人脸图像(a)和模糊处理后的人脸图像(b)的对比图。
具体实施方式
见图1所示,一种基于模糊鲁棒特征的行人再识别方法,本发明的再识别方法包括以下步骤:(a)将公开的大规模人脸图像数据库中的所有图像通过模糊核进行模糊化处理,以获得与行人图像质量接近的大规模图像数据,如图3所示;
(b)通过已处理好的人脸图像数据来训练深度卷积神经网络模型,学习到对模糊鲁棒的初步模型,如图2所示;
(c)通过现有的小规模行人图像数据库对预训练的深度卷积神经网络模型进行参数微调;
(d)对行人图像进行特征提取,通过特征比对进行图像再识别。
本发明步骤(a)中公开的人脸图像数据库已公开的大型人脸图像数据库。如公开的人脸图像数据库为中国科学院自动化研究所所公布的CASIA-WebFace数据库,其包含了10575的不同的人,共有494414张人脸图像。
所述步骤(a)中对原始人脸图像进行模糊化处理的公式表示为:
Iv=ψb[φ(αIs*k+n)] (1)
其中,未处理人脸图像为Is,获取的模糊人脸图像为Iv,*表示卷积操作,k为模糊核。
所述公式(1)中,α为动态阈值,其作用为去掉图像中超过摄像机传感器动态范围的数值。α随机地从{1.00,1.05,1.10,1.15}中取一个数值。
所述公式(1)中,n表示高斯白噪声,其数值随机地从{0,0.0002,0.0005,0.0007}中取一个值。
所述公式(1)中,φ()是图像去饱和函数,满足φ(z)=min(z,zmax),其中zmax取值为255。
所述公式(1)中,ψb()是图像下采样函数,函数的下采样尺度值随机从{0.3,0.5,0.7,0.9}中取一个数值。
本发明所述的公式(1)中,模糊核k包含抖动模糊核km公式如下:
所述公式(2)中,(i,j)为图像坐标轴中的坐标数值,L为抖动模糊核的大小,表示图像曝光时的抖动距离,θ为图像抖动的角度。
所述公式(2)中,模糊核L的大小取值随机从{7,9,11}中取一个值,角度θ随机从中取一个数值。抖动模糊核km共有3*4=12种随机组合。
本发明所述的公式(1)中,模糊核k包含扩散模糊核ko;公式如下:
所述公式(3)中,σ和R分别表示扩散模糊核的幅度和角度。C是一个常数。
所述公式(3)中,模糊核幅度σ的大小取值随机从{1.5,3.0}中取一个值,模糊核幅度R的取值为9。扩散模糊核ko共有2*1=2种随机组合。本发明所述的公式(1)中,模糊核k由两个模糊核组成,分别是抖动模糊核km和扩散模糊核ko
模糊核k为随机将抖动模糊核km和扩散模糊核ko进行随机组合,可以得到12*2=24种组合模糊核处理。模糊核k总共有24+12+2=38种随机模糊核选择的组成。
本发明所述步骤(b)中的深度卷积神经网络模型为现有的深度学习神经网络GoogLeNet。
本发明所述步骤(c)中模型训练的学习速率小于步骤(b)中训练的学习速率。
本发明所述步骤(d)中,将行人图片输入到已训练好的深度卷积神经网络模型中,提取对模糊具有鲁棒性的特征;通过欧式距离度量特征间的相似度,按相似度排序,挑选排序最靠前的图像作为匹配结果输出。
一种基于模糊鲁棒特征的行人再识别模块装置,该再识别模块包括以下四个功能模块:
(1)模糊化模块:将公开的大规模人脸图像数据库中的所有图像通过模糊核进行模糊化处理,以获得与行人图像质量接近的大规模图像数据;
(2)模型构建模块:通过已处理好的人脸图像数据来训练深度卷积神经网络模型,学习到对模糊鲁棒的初步模型;
(3)模型优化模块:通过现有的小规模行人图像数据库对预训练的深度卷积神经网络模型进行参数微调;
(4)行人图像再识别模块:将行人图片输入到已训练好的深度卷积神经网络模型中,提取对模糊具有鲁棒性的特征;通过欧式距离度量特征间的相似度,按相似度排序,挑选排序最靠前的图像作为匹配结果输出。
本发明所述的四个功能模块的联接结构为,模糊化模块依序与模型构建模块、行人图像再识别模块联接;模型构建模块还与模型优化模块联接。

Claims (10)

1.一种基于模糊鲁棒特征的行人再识别方法,其特征在于,该方法包括以下步骤:(a)将公开的大规模人脸图像数据库中的所有图像通过模糊核进行模糊化处理,以获得与行人图像质量接近的大规模图像数据;
(b)通过已处理好的人脸图像数据来训练深度卷积神经网络模型;
(c)通过现有的小规模行人图像数据库对预训练的深度卷积神经网络模型进行参数微调;
(d)对行人图像进行特征提取,通过特征比对进行图像再识别。
2.根据权利要求1所述的一种基于模糊鲁棒特征的行人再识别方法,其特征在于,
所述步骤(a)中对原始人脸图像进行模糊化处理的公式表示为:
Iv=ψb[φ(αIs*k+n)] (1)
其中,未处理人脸图像为Is,获取的模糊人脸图像为Iv,*表示卷积操作,k为模糊核;
所述公式(1)中,α为动态阈值;α随机地从{1.00,1.05,1.10,1.15}中取一个数值;
所述公式(1)中,n表示高斯白噪声,其数值随机地从{0,0.0002,0.0005,0.0007}中取一个值;
所述公式(1)中,φ()是图像去饱和函数,满足φ(z)=min(z,zmax),其中zmax取值为255;
所述公式(1)中,ψb()是图像下采样函数,函数的下采样尺度值随机从{0.3,0.5,0.7,0.9}中取一个数值。
3.根据权利要求2所述的一种基于模糊鲁棒特征的行人再识别方法,其特征在于,所述的公式(1)中,模糊核k包含抖动模糊核km公式如下:
<mrow> <msub> <mi>k</mi> <mi>m</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>,</mo> <mi>L</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mfrac> <mn>1</mn> <mi>L</mi> </mfrac> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <msqrt> <mrow> <msup> <mi>i</mi> <mn>2</mn> </msup> <mo>+</mo> <msup> <mi>j</mi> <mn>2</mn> </msup> </mrow> </msqrt> <mo>&amp;le;</mo> <mfrac> <mi>L</mi> <mn>2</mn> </mfrac> <mi>a</mi> <mi>n</mi> <mi>d</mi> <mfrac> <mi>i</mi> <mi>j</mi> </mfrac> <mo>&amp;le;</mo> <mo>-</mo> <mi>t</mi> <mi>a</mi> <mi>n</mi> <mi>&amp;theta;</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
所述公式(2)中,(i,j)为图像坐标轴中的坐标数值,L为抖动模糊核的大小,表示图像曝光时的抖动距离,θ为图像抖动的角度;
所述公式(2)中,模糊核L的大小取值随机从{7,9,11}中取一个值,角度θ随机从中取一个数值;抖动模糊核km共有3*4=12种随机组合。
4.根据权利要求2所述的一种基于模糊鲁棒特征的行人再识别方法,其特征在于,所述的公式(1)中,模糊核k包含扩散模糊核ko;公式如下:
<mrow> <msub> <mi>k</mi> <mi>o</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>C</mi> <mo>&amp;CenterDot;</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <msup> <mi>i</mi> <mn>2</mn> </msup> <mo>+</mo> <msup> <mi>j</mi> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> <mi>i</mi> <mo>&amp;le;</mo> <mfrac> <mi>R</mi> <mn>2</mn> </mfrac> <mi>a</mi> <mi>n</mi> <mi>d</mi> <mi>j</mi> <mo>&amp;le;</mo> <mfrac> <mi>R</mi> <mn>2</mn> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
所述公式(3)中,σ和R分别表示扩散模糊核的幅度和角度;C是一个常数;
所述公式(3)中,模糊核幅度σ的大小取值随机从{1.5,3.0}中取一个值,模糊核幅度R的取值为9;扩散模糊核ko共有2*1=2种随机组合。
5.根据权利要求2所述的一种基于模糊鲁棒特征的行人再识别方法,其特征在于,所述的公式(1)中,
模糊核k由两个模糊核组成,分别是抖动模糊核km和扩散模糊核ko
模糊核k为随机将抖动模糊核km和扩散模糊核ko进行随机组合,可以得到12*2=24种组合模糊核处理;模糊核k总共有24+12+2=38种随机模糊核选择的组成。
6.根据权利要求1所述的一种基于模糊鲁棒特征的行人再识别方法,其特征在于,所述步骤(b)中的深度卷积神经网络模型为现有的深度学习神经网络GoogLeNet。
7.根据权利要求1所述的一种基于模糊鲁棒特征的行人再识别方法,其特征在于,所述步骤(c)中模型训练的学习速率小于步骤(b)中训练的学习速率。
8.根据权利要求1所述的一种基于模糊鲁棒特征的行人再识别方法,其特征在于,所述步骤(d)中,将行人图片输入到已训练好的深度卷积神经网络模型中,提取对模糊具有鲁棒性的特征;通过欧式距离度量特征间的相似度,按相似度排序,挑选排序最靠前的图像作为匹配结果输出。
9.一种基于模糊鲁棒特征的行人再识别模块装置,其特征在于,该再识别模块包括以下四个功能模块:
(1)模糊化模块:将公开的大规模人脸图像数据库中的所有图像通过模糊核进行模糊化处理,以获得与行人图像质量接近的大规模图像数据;
(2)模型构建模块:通过已处理好的人脸图像数据来训练深度卷积神经网络模型;
(3)模型优化模块:通过现有的小规模行人图像数据库对预训练的深度卷积神经网络模型进行参数微调;
(4)行人图像再识别模块:将行人图片输入到已训练好的深度卷积神经网络模型中,提取对模糊具有鲁棒性的特征;通过欧式距离度量特征间的相似度,按相似度排序,挑选排序最靠前的图像作为匹配结果输出。
10.如权利要求9所述的一种基于模糊鲁棒特征的行人再识别模块装置,其特征在于,所述的四个功能模块的联接结构为,模糊化模块依序与模型构建模块、行人图像再识别模块联接;模型构建模块还与模型优化模块联接。
CN201710829662.3A 2017-09-14 2017-09-14 一种基于模糊鲁棒特征的行人再识别方法及模块装置 Pending CN107704811A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710829662.3A CN107704811A (zh) 2017-09-14 2017-09-14 一种基于模糊鲁棒特征的行人再识别方法及模块装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710829662.3A CN107704811A (zh) 2017-09-14 2017-09-14 一种基于模糊鲁棒特征的行人再识别方法及模块装置

Publications (1)

Publication Number Publication Date
CN107704811A true CN107704811A (zh) 2018-02-16

Family

ID=61172669

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710829662.3A Pending CN107704811A (zh) 2017-09-14 2017-09-14 一种基于模糊鲁棒特征的行人再识别方法及模块装置

Country Status (1)

Country Link
CN (1) CN107704811A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070075A (zh) * 2019-05-07 2019-07-30 中国科学院宁波材料技术与工程研究所 基于群对称理论的行人重识别方法
WO2020108075A1 (zh) * 2018-11-29 2020-06-04 上海交通大学 结合人脸与外观的两阶段行人搜索方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102708550A (zh) * 2012-05-17 2012-10-03 浙江大学 一种基于自然图像统计特性的盲去模糊算法
US20130343642A1 (en) * 2012-06-21 2013-12-26 Siemens Corporation Machine-learnt person re-identification
US20150363636A1 (en) * 2014-06-12 2015-12-17 Canon Kabushiki Kaisha Image recognition system, image recognition apparatus, image recognition method, and computer program
US20160012279A1 (en) * 2013-02-28 2016-01-14 Bundesdruckerei Gmbh Device for capturing person-specific data
CN105354548A (zh) * 2015-10-30 2016-02-24 武汉大学 一种基于ImageNet检索的监控视频行人重识别方法
CN106203506A (zh) * 2016-07-11 2016-12-07 上海凌科智能科技有限公司 一种基于深度学习技术的行人检测方法
CN106951872A (zh) * 2017-03-24 2017-07-14 江苏大学 一种基于无监督深度模型与层次属性的行人再识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102708550A (zh) * 2012-05-17 2012-10-03 浙江大学 一种基于自然图像统计特性的盲去模糊算法
US20130343642A1 (en) * 2012-06-21 2013-12-26 Siemens Corporation Machine-learnt person re-identification
US20160012279A1 (en) * 2013-02-28 2016-01-14 Bundesdruckerei Gmbh Device for capturing person-specific data
US20150363636A1 (en) * 2014-06-12 2015-12-17 Canon Kabushiki Kaisha Image recognition system, image recognition apparatus, image recognition method, and computer program
CN105354548A (zh) * 2015-10-30 2016-02-24 武汉大学 一种基于ImageNet检索的监控视频行人重识别方法
CN106203506A (zh) * 2016-07-11 2016-12-07 上海凌科智能科技有限公司 一种基于深度学习技术的行人检测方法
CN106951872A (zh) * 2017-03-24 2017-07-14 江苏大学 一种基于无监督深度模型与层次属性的行人再识别方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CHANGXING DING等: ""Trunk-Branch Ensemble Convolutional Neural Networks for Video-based Face Recognition"", 《ARXIV:1607.05427V2》 *
GUO Y.等: ""Deep Similarity Feature Learning for Person Re-identification"", 《PCM 2016: ADVANCES IN MULTIMEDIA INFORMATION PROCESSING》 *
LI XU等: ""Deep convolutional neural network for image deconvolution"", 《PROCEEDINGS OF THE 27TH INTERNATIONAL CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS》 *
R. HONG等: ""Understanding Blooming Human Groups in Social Networks"", 《IEEE TRANSACTIONS ON MULTIMEDIA》 *
VASILJEVIC I. 等: ""Examining the Impact of Blur on Recognition by Convolutional Networks"", 《ARXIV:1611.05760V2》 *
焦旭辉: ""基于深度学习的行人再识别技术研究"", 《中国优秀硕士学位论文全文数据库·信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020108075A1 (zh) * 2018-11-29 2020-06-04 上海交通大学 结合人脸与外观的两阶段行人搜索方法
US11017215B2 (en) 2018-11-29 2021-05-25 Shanghai Jiao Tong University Two-stage person searching method combining face and appearance features
CN110070075A (zh) * 2019-05-07 2019-07-30 中国科学院宁波材料技术与工程研究所 基于群对称理论的行人重识别方法

Similar Documents

Publication Publication Date Title
CN107506740A (zh) 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法
CN104978580B (zh) 一种用于无人机巡检输电线路的绝缘子识别方法
CN105956560B (zh) 一种基于池化多尺度深度卷积特征的车型识别方法
CN108229338A (zh) 一种基于深度卷积特征的视频行为识别方法
CN103927534B (zh) 一种基于卷积神经网络的喷码字符在线视觉检测方法
CN108830252A (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN104881662B (zh) 一种单幅图像行人检测方法
CN106650786A (zh) 基于多列卷积神经网络模糊评判的图像识别方法
CN108154102A (zh) 一种道路交通标志识别方法
CN107506722A (zh) 一种基于深度稀疏卷积神经网络人脸情感识别方法
CN107194418B (zh) 一种基于对抗特征学习的水稻蚜虫检测方法
CN107742107A (zh) 人脸图像分类方法、装置及服务器
CN109902806A (zh) 基于卷积神经网络的噪声图像目标边界框确定方法
CN107341452A (zh) 基于四元数时空卷积神经网络的人体行为识别方法
CN107169415A (zh) 基于卷积神经网络特征编码的人体动作识别方法
CN107463892A (zh) 一种结合上下文信息和多级特征的图像中行人检测方法
CN108399435B (zh) 一种基于动静特征的视频分类方法
CN107679462A (zh) 一种基于小波的深度多特征融合分类方法
CN105608446A (zh) 一种视频流异常事件的检测方法及装置
CN106127164A (zh) 基于显著性检测和卷积神经网络的行人检测方法及装置
CN107808376B (zh) 一种基于深度学习的举手检测方法
CN107844795A (zh) 基于主成分分析的卷积神经网络特征提取方法
CN108985252A (zh) 改进的脉冲深度神经网络的图像分类方法
CN108268871A (zh) 一种基于卷积神经网络的端到端的车牌识别方法和系统
CN106991147A (zh) 一种植物识别系统及识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180216

WD01 Invention patent application deemed withdrawn after publication