CN107273804A - 基于支持向量机和深度特征的行人识别方法 - Google Patents

基于支持向量机和深度特征的行人识别方法 Download PDF

Info

Publication number
CN107273804A
CN107273804A CN201710351391.5A CN201710351391A CN107273804A CN 107273804 A CN107273804 A CN 107273804A CN 201710351391 A CN201710351391 A CN 201710351391A CN 107273804 A CN107273804 A CN 107273804A
Authority
CN
China
Prior art keywords
mrow
msub
pedestrian
window
mtr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710351391.5A
Other languages
English (en)
Inventor
张云洲
周博强
纪鹏
吴成东
陈锦涛
商艳丽
张凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201710351391.5A priority Critical patent/CN107273804A/zh
Publication of CN107273804A publication Critical patent/CN107273804A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

一种基于支持向量机和深度特征的行人识别方法,包括如下步骤:制作训练样本,包括设定姿态下和采集的真实场景视频中的正样本与负样本。该行人特征描述子主要分为两部分,一部分用来刻画局部深度信息的变化特征,另一部分用来刻画局部深度信息的大小特征;对得到的训练样本使用LibSVM选取RBF核作为SVM的核函数针对深度信息特征来对行人分类器进行训练;根据分类器在运动目标区域以滑动窗口的方式检测运动目标区域中的行人,使用非极大值抑制的办法来剔除冗余的检测窗口,输出行人检测图像。本方法使用深度特征描述子作为SVM的特征向量进行行人识别,在保证实时性的同时,能够有效减缓相互遮挡、相互粘连等情况,提高了行人识别的准确率。

Description

基于支持向量机和深度特征的行人识别方法
技术领域
本发明属于图像处理技术领域,涉及一种基于支持向量机和深度特征的行人识别。
背景技术
目前,基于单目视觉的行人目标检测与跟踪技术已广泛应用于实际,在一定程度上解决了现在一般行人检测系统对其的技术需求。但是,由于单目视觉主要是基于对像素的彩色和灰度信息进行分析与应用,达到目标检测与跟踪的目的,所以还是存在很多缺陷。首先是光照变化,像素的彩色和灰度信息对光照很敏感,一点点的光照变化反映在像素的彩色和灰度值上都变得显著,这使得基于单目的运动目标检测与跟踪系统很难在光照变化复杂的室外条件下工作。其次是类运动目标的干扰,典型的类行人目标就是阴影。运动目标的阴影由于其在几何形状、运动规律等方面和真正的目标十分相似,在只有像素点的彩色和灰度信息的条件下很难很好的区分两者,这使得提取的行人目标质量受到影响,给后续的跟踪带来一定的干扰。由于行人目标形变十分多样,运动姿态、衣着变化、摄像机视角、行人间的相互遮挡等都会对最后检测出来的行人目标的外观产生影响,这使得传统的一些基于单目视觉的目标检测与跟踪算法准确度下降甚至失效。
为了提高行人检测系统的准确性和鲁棒性,克服光照变化、类行人目标干扰、外观变化等因素对行人目标检测与跟踪的影响,本课题针对俯视场景下的行人检测与跟踪问题进行了研究。针对基于单目的行人目标检测与跟踪技术中存在的问题,本发明引入了双目立体视觉。双目立体视觉较单目来说,在保留像素的彩色和灰度信息的同时,增加了像素点深度这一关键信息。像素点的深度信息更加稳定,不易受光照变化的干扰,通过结合像素点的深度信息,可以更准确更细致的检测和区分目标,提高行人目标检测与跟踪的准确度和抗干扰能力。本发明在单目视觉的基础上,结合双目的深度信息,在充分考虑了行人检测系统在理论上和实践上面临的各种困难后,试图构建一个能对实际场景中的行人进行准确、快速检测和跟踪、具有稳定性和鲁棒性的行人检测系统。
行人目标检测与跟踪技术作为计算机视觉领域当前的研究热点,牵涉到诸如图像传感器、图像处理算法、机器学习算法等诸多学科领域。本发明主要的研究内容是基于双目的运动目标检测与跟踪技术,是计算机视觉的一个研究重点,具有很高的学术价值。另一方面,目前计算机视觉的商业开发越来越多,而作为重要分支之一的就是行人目标检测系统,也有着丰富的应用场景。
发明内容
本发明提供一种基于支持向量机和深度特征的行人识别,该方法采用机器学习的方法使用基于深度特征描述子与SVM的行人分类器进行行人检测。本发明基于设定姿态和电梯下的真是场景视频制作正负样本集合,使用基于深度信息的特征描述子,通过制作的训练样本使用LibSVM选取RBF核作为SVM的核函数针对深度信息特征来对行人分类器进行训练,学习得到训练模型后,最终以滑动窗口的方式检测运动目标区域中的行人。
本发明将深度信息特征描述子分为局部深度信息变化特征和局部深度信息大小特征,使用LibSVM选取RBF核作为SVM的核函数针对深度信息特征来对行人分类器进行训练,得出判别模型。由于依靠行人的运动属性或者行人在图像中的灰度属性等特征不能推断出它描述的是一个真正的行人还是其他和行人具有类似运动规律的非行人目标,因此采用基于深度信息的特征描述子利用SVM进行判别训练,得到准确的行人检测模型。
基于支持向量机和深度特征的行人识别方法,包括如下步骤:
步骤一:制作训练样本,构造设定姿态下和搜集的真实场景视频中的正样本与负样本;
步骤二:一种基于深度信息的特征描述子,用以描述行人(俯视视角下)在深度图中的特征。该行人特征描述子主要分为两部分,一部分用来刻画局部深度信息的变化特征,另一部分用来刻画局部深度信息的大小特征。
对于深度图中的一点(x,y),首先计算它跟邻域像素在x方向和在y方向上的差值Δx和Δy:
Δx=d(x+1,y)-d(x-1,y) (1)
Δy=d(x,y+1)-d(x,y-1) (2)
其中,d(x,y)表示点(x,y)的深度值。之后,对得到的Δx和Δy进行量化编码:
式中Td是一阈值。那么对于深度图中一点(x,y),其在局部深度信息的变化特征就定义为(tx,ty)。它有3×3=9种组合形式,每种组合形式就描述了一种深度信息的变化情况,如当取值为(1,1),则表示在点(x,y)的四领域内右上角最高;当取值为(-1,0)时则表示深度在y方向上变化不大,而在x方向上减小。
有了每个像素点的大小变化特征(tx,ty),就可以通过统计直方图来获得9种不同变化的分布情况,从而更精确的刻画一个局部区域的深度变化特征了。具体说,以(tx,ty)的9种可能的组合形式作为直方图的9个bin,取一统计单元统计每种情况的频数。得到的每个bin的频数组合起来,就是该统计单元的9维深度特征。
有了局部深度度信息的变化特征还是不够的,由定义我们知道,它只能反映局部深度信息的相对大小,而无法反映局部深度的绝对大小。所以用局部深度信息的均值来描述该区域的深度信息的绝对大小。但是,考虑到在立体匹配的过程中会产生误匹配点,这些误匹配点的深度将被赋值为零。它们不能正确反映该位置真正的深度信息,会降低局部区域的均值。所以对于这些误匹配点应在计算均值的时候将其剔除,即:
其中,B表示待统计的局部区域,x表示B内的像素点,dx表示其深度值,N是B内所有像素点的个数,而N0是深度值为零的无效像素点。求得的就是区域B的深度大小的特征描述。
本发明选取9×9大小的窗口作为特征提取单元。将9×9的特征提取单元进一步划分为互不重叠的9个3×3大小的区块,每个小区块如中的小红框所示。在每个小红框中,计算中心像素的深度信息变化特征(tx,ty),这样就得到了9组深度信息变化特征。之后,计算特征提取单元81个像素的有效平均值最为特征提取单元的深度信息的大小特征。选取27×27大小的窗口作为特征统计单元。统计共计81个深度信息变化特征的分布情况,作为统计单元的前9个特征维度。对于表征深度信息绝对大小的均值特征,依次按从左到右、从上到下的顺序作为统计单元的后9个特征维度。每个特征提取单元深度大小的特征之外,也保留了这些深度大小特征的空间分布情况。最后,选取108×108大小的检测窗口。在本发明的应用场景下,该大小的窗口基本能覆盖待检测的行人轮廓。同样,为了表征特征统计单元的空间分布情况,本发明将16个特征统计单元串联起来,一次按照从左到右、从上到下的顺序组合起来,就获得了检测窗口完整的深度信息描述子,共计18×16=288维。
步骤三:对得到的训练样本使用LibSVM选取RBF核作为SVM的核函数针对深度信息特征来对行人分类器进行训练;
步骤四:根据分类器在运动目标区域以滑动窗口的方式检测运动目标区域中的行人,使用非极大值抑制的办法来剔除冗余的检测窗口;
得到训练好的行人分类器之后,就可以在运动目标区域以滑动窗口的方式检测运动目标区域中的行人了。行人分类器在运动目标区域滑动过程中,会对存在同一行人的区域输出多个检测结果窗口,这是不必要。
对于运动目标区域中检测到的所以窗口根据置信概率进行排序,从置信度最高的检测窗口开始处理。计算其与剩余窗口的重叠面积,若面积大于阈值T,则认为它们描述的是同一行人目标,将其剔除;否则,将其保留。当遍历完除最大置信概率的检测窗口后,再计算除当前窗口和剔除窗口后剩余窗口中置信概率最大的检测窗口,如此循环直至处理完窗口。
步骤五:得到输出图像。
本发明的方法有效能够有效减缓相互遮挡、相互粘连等情况,从而提高了行人识别的准确率,获得较好的检测效果。
附图说明
图1是本发明的方法流程图。
图2是本发明的部分正样本示意图。
图3是本发明的部分负样本示意图。
图4是本发明的深度变化特征统计直方图示意图。
图5是本发明的基于非极大值抑制的冗余检测窗口消除算法流程图。
图6是本发明具体实施方式的冗余检测窗口消除实验结果。
具体实施方式
本实施方式的方法,软件环境为WINDOWS 7系统,仿真环境为MATLAB2008a,流程如图1所示:
步骤一:制作训练样本,制作设定姿态下和采集的真实场景视频中的正样本与负样本;
训练样本的准备是构建行人识别分类器的第一步。由于本发明需要识别的行人是基于深度信息的,没有现成的数据库,所以需要手动制作训练样本。训练样本主要分为正样本和负样本。不论是正样本还是负样本,都需要尽量覆盖各种可能出现的情况。
样本的尺寸统一为108×108像素大小,基本可以覆盖目标行人的头肩部。正样本的构建主要分为两部分,一部分是设定姿态下的采样,另一部分是采集真实场景的视频,然后根据背景减除法获得的运动目标区域进行扫描采样,并手动进行标记。设定姿态下,主要考虑头部相对与肩部的位置变化、行人朝向变化、视角变化、行人身高变化等变化因素,尽量覆盖所以可能的变化情况。一部分正样本的示例如图2所示。负样本的采集同样分为两部分,一部分是设定的负样本,另一部分是来自真实场景的运动区域扫描采集的负样本。部分负样本的实例如图3所示。
步骤二:使用一种基于深度信息的特征描述子,用以描述行人(俯视视角下)在深度图中的特征。该行人特征描述子主要分为两部分,一部分用来刻画局部深度信息的变化特征,另一部分用来刻画局部深度信息的大小特征。
步骤三:一种基于深度信息的特征描述子,用以描述行人(俯视视角下)在深度图中的特征。该行人特征描述子主要分为两部分,一部分用来刻画局部深度信息的变化特征,另一部分用来刻画局部深度信息的大小特征。
有了每个像素点的大小变化特征(tx,ty),就可以通过统计直方图来获得9种不同变化的分布情况,从而更精确的刻画一个局部区域的深度变化特征了。具体说,以(tx,ty)的9种可能的组合形式作为直方图的9个bin,取一统计单元统计每种情况的频数。得到的每个bin的频数组合起来,就是该统计单元的9维深度特征了,其示意图如图4所示。
步骤四:得到训练好的行人分类器之后,就可以在运动目标区域以滑动窗口的方式检测运动目标区域中的行人了。行人分类器在运动目标区域滑动过程中,会对存在同一行人的区域输出多个检测结果窗口,这是不必要的,我们仅需获得一个最准确描述行人的检测窗口。可以使用非极大值抑制的办法来剔除冗余的检测窗口,其流程图如图5所示。
对于运动目标区域中检测到的所以窗口根据置信概率进行排序,从置信度最高的检测窗口开始处理。计算其与剩余窗口的重叠面积,若面积大于阈值T,则认为它们描述的是同一行人目标,将其剔除;否则,将其保留。当遍历完除最大置信概率的检测窗口后,再计算除当前窗口和剔除窗口后剩余窗口中置信概率最大的检测窗口,如此循环直至处理完所以窗口。实验结果如下图6所示。
综上所述,基于支持向量机和深度特征的行人识别方法实现了行人识别的过程。该方法能够有效减缓相互遮挡、相互粘连等情况,并且兼顾算法实时性,从而大幅度提高了算法的实时性和灵活性。

Claims (1)

1.一种基于支持向量机和深度特征的行人识别方法,其特征包括如下步骤:
步骤一:制作训练样本,构造设定姿态下和搜集的真实场景视频中的正样本与负样本;
步骤二:建立一种基于深度信息的特征描述子,用以描述行人在深度图中的特征;该行人特征描述子主要分为两部分,一部分用来刻画局部深度信息的变化特征,另一部分用来刻画局部深度信息的大小特征;
深度图中的一点(x,y),首先计算它跟邻域像素在x方向和在y方向上的差值Δx和Δy:
Δx=d(x+1,y)-d(x-1,y) (1)
Δy=d(x,y+1)-d(x,y-1) (2)
其中,d(x,y)表示点(x,y)的深度值;对得到的Δx和Δy进行量化编码:
<mrow> <msub> <mi>t</mi> <mi>x</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> <mi>&amp;Delta;</mi> <mi>x</mi> <mo>&amp;GreaterEqual;</mo> <msub> <mi>T</mi> <mi>d</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> <mo>|</mo> <mi>&amp;Delta;</mi> <mi>x</mi> <mo>|</mo> <mo>&lt;</mo> <msub> <mi>T</mi> <mi>d</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mn>1</mn> <mo>,</mo> <mi>&amp;Delta;</mi> <mi>x</mi> <mo>&amp;le;</mo> <mo>-</mo> <msub> <mi>T</mi> <mi>d</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>t</mi> <mi>y</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> <mi>&amp;Delta;</mi> <mi>y</mi> <mo>&amp;GreaterEqual;</mo> <msub> <mi>T</mi> <mi>d</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> <mi>&amp;Delta;</mi> <mi>y</mi> <mo>&lt;</mo> <msub> <mi>T</mi> <mi>d</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mn>1</mn> <mo>,</mo> <mi>&amp;Delta;</mi> <mi>y</mi> <mo>&amp;le;</mo> <mo>-</mo> <msub> <mi>T</mi> <mi>d</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
式中Td是一阈值;深度图中一点(x,y),其在局部深度信息的变化特征定义为(tx,ty);
这些误匹配点在计算均值的时候将其剔除,即:
<mrow> <msub> <mover> <mi>d</mi> <mo>&amp;OverBar;</mo> </mover> <mi>B</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>x</mi> <mo>&amp;Element;</mo> <mi>B</mi> </mrow> </munder> <msub> <mi>d</mi> <mi>x</mi> </msub> </mrow> <mrow> <mi>N</mi> <mo>-</mo> <msub> <mi>N</mi> <mn>0</mn> </msub> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中,B表示待统计的局部区域,x表示B内的像素点,dx表示其深度值,N是B内所有像素点的个数,而N0是深度值为零的无效像素点;求得的就是区域B的深度大小的特征描述;计算提出的深度描述子的维度,将特征统计单元串联起来,一次按照从左到右、从上到下的顺序组合起来,就获得了检测窗口完整的深度信息描述子;
步骤三:对得到的训练样本使用LibSVM选取RBF核作为SVM的核函数针对深度信息特征来对行人分类器进行训练;
步骤四:根据分类器在运动目标区域以滑动窗口的方式检测运动目标区域中的行人,使用非极大值抑制的办法来剔除冗余的检测窗口;得到训练好的行人分类器之后,就在运动目标区域以滑动窗口的方式检测运动目标区域中的行人;
对于运动目标区域中检测到的所以窗口根据置信概率进行排序,从置信度最高的检测窗口开始处理;计算其与剩余窗口的重叠面积,若面积大于阈值T,则认为它们描述的是同一行人目标,将其剔除;否则,将其保留;当遍历完除最大置信概率的检测窗口后,再计算除当前窗口和剔除窗口后剩余窗口中置信概率最大的检测窗口,如此循环直至处理完窗口;得到输出图像。
CN201710351391.5A 2017-05-18 2017-05-18 基于支持向量机和深度特征的行人识别方法 Pending CN107273804A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710351391.5A CN107273804A (zh) 2017-05-18 2017-05-18 基于支持向量机和深度特征的行人识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710351391.5A CN107273804A (zh) 2017-05-18 2017-05-18 基于支持向量机和深度特征的行人识别方法

Publications (1)

Publication Number Publication Date
CN107273804A true CN107273804A (zh) 2017-10-20

Family

ID=60065127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710351391.5A Pending CN107273804A (zh) 2017-05-18 2017-05-18 基于支持向量机和深度特征的行人识别方法

Country Status (1)

Country Link
CN (1) CN107273804A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052946A (zh) * 2017-12-11 2018-05-18 国网上海市电力公司 一种基于卷积神经网络的高压机柜开关自动识别方法
CN109993128A (zh) * 2019-04-04 2019-07-09 北京航空航天大学 一种行人图像属性特征量化的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103208006A (zh) * 2012-01-17 2013-07-17 株式会社理光 基于深度图像序列的对象运动模式识别方法和设备
US20140294295A1 (en) * 2009-06-05 2014-10-02 Samsung Electronics Co., Ltd. Apparatus and method for video sensor-based human activity and facial expression modeling and recognition
CN104715238A (zh) * 2015-03-11 2015-06-17 南京邮电大学 一种基于多特征融合的行人检测方法
CN106599785A (zh) * 2016-11-14 2017-04-26 深圳奥比中光科技有限公司 人体3d特征身份信息库的建立方法及设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140294295A1 (en) * 2009-06-05 2014-10-02 Samsung Electronics Co., Ltd. Apparatus and method for video sensor-based human activity and facial expression modeling and recognition
CN103208006A (zh) * 2012-01-17 2013-07-17 株式会社理光 基于深度图像序列的对象运动模式识别方法和设备
CN104715238A (zh) * 2015-03-11 2015-06-17 南京邮电大学 一种基于多特征融合的行人检测方法
CN106599785A (zh) * 2016-11-14 2017-04-26 深圳奥比中光科技有限公司 人体3d特征身份信息库的建立方法及设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MICHAEL RAUTER 等: "Reliable Human Detection and Tracking in Top-View Depth Images", 《2013 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS》 *
SHIQI YU 等: "SLTP:A Fast Descriptor for People Detection in Depth Images", 《2012 IEEE NINTH INTERNATIONAL CONFERENCE ON ADVANCED VIDEO AND SIGNAL-BASED SURVEILLANCE》 *
苏松志 等: "《行人检测:理论与实践》", 31 March 2016 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052946A (zh) * 2017-12-11 2018-05-18 国网上海市电力公司 一种基于卷积神经网络的高压机柜开关自动识别方法
CN109993128A (zh) * 2019-04-04 2019-07-09 北京航空航天大学 一种行人图像属性特征量化的方法

Similar Documents

Publication Publication Date Title
CN103035013B (zh) 一种基于多特征融合的精确运动阴影检测方法
CN106682601B (zh) 一种基于多维信息特征融合的驾驶员违规通话检测方法
CN107491762B (zh) 一种行人检测方法
CN102609686B (zh) 一种行人检测方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN102214291B (zh) 一种快速准确的基于视频序列的人脸检测跟踪方法
CN103020992B (zh) 一种基于运动颜色关联的视频图像显著性检测方法
CN104978567B (zh) 基于场景分类的车辆检测方法
CN103473571B (zh) 一种人体检测方法
CN102867188B (zh) 一种基于级联结构的会场内座位状态检测方法
CN105046206B (zh) 基于视频中运动先验信息的行人检测方法及装置
KR20160143494A (ko) 현저성 정보 취득 장치 및 현저성 정보 취득 방법
CN102915433B (zh) 基于字符组合的车牌定位和识别方法
CN103955949B (zh) 基于Mean-shift算法的运动目标检测方法
CN103605953A (zh) 基于滑窗搜索的车辆兴趣目标检测方法
CN104123529A (zh) 人手检测方法及系统
CN103473551A (zh) 基于sift算子的台标识别方法及系统
CN104484680B (zh) 一种多模型多阈值组合的行人检测方法
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
CN103714181A (zh) 一种层级化的特定人物检索方法
CN106503748A (zh) 一种基于s‑sift特征和svm训练器的车型识别算法
CN105069816B (zh) 一种进出口人流量统计的方法及系统
CN103679704A (zh) 一种基于光照补偿的视频运动阴影检测方法
CN103198319A (zh) 用于矿山井筒环境下的模糊图像角点提取方法
CN104318266A (zh) 一种图像智能分析处理预警方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20171020