CN109034125A - 基于场景复杂度的行人检测方法与系统 - Google Patents

基于场景复杂度的行人检测方法与系统 Download PDF

Info

Publication number
CN109034125A
CN109034125A CN201811006043.5A CN201811006043A CN109034125A CN 109034125 A CN109034125 A CN 109034125A CN 201811006043 A CN201811006043 A CN 201811006043A CN 109034125 A CN109034125 A CN 109034125A
Authority
CN
China
Prior art keywords
image
pedestrian
data
detected
threshold value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811006043.5A
Other languages
English (en)
Other versions
CN109034125B (zh
Inventor
张文利
杨堃
郭向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201811006043.5A priority Critical patent/CN109034125B/zh
Publication of CN109034125A publication Critical patent/CN109034125A/zh
Application granted granted Critical
Publication of CN109034125B publication Critical patent/CN109034125B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于场景复杂度的行人检测方法与系统,方法包括数据读取、图像预处理、基于场景复杂度自动调整DPM行人检测阈值以及行人检测组成。通过计算所述的场景复杂度得到最适合此场景的行人检测阈值。随后将待检测图片与计算得到的行人检测阈值输入至DPM算法对行人进行检测,DPM算法将输出检测结果以及检测得分,通过设定行人检测阈值可以将检测得分较低的非行人目标区分剔除,提高检测结果的准确程度。本方法可适应多种监控场景,不再需要使用者根据场景手动调整行人检测阈值,并且计算方式相对简单,不会大幅增加检测算法的复杂度,减轻监控系统需要承担的计算量。本发明提出的行人检测方法使用相对简便,具有良好的检测结果。

Description

基于场景复杂度的行人检测方法与系统
技术领域
本发明属于目标识别技术领域,具体涉及一种基于场景复杂度的行人检测方法与系统。
背景技术
现如今,视频监控系统已经被广泛安装在各个公共场所中,这些场所包括但不限于广场、户外森林公园道路、住宅楼入口等处,如何检测多场景图像中的行人一直是近年来研究的热点。
在对图像中的行人进行检测时,图像场景中的景物会干扰行人检测算法的精度(例如树木的枝干或树叶相互组合形成与行人非常相似的非行人目标,容易被行人检测算法误检为行人)。图像场景的不同将导致行人检测结果的不同,这直接决定了行人检测算法检测精度的高低。因此评测图像场景的复杂度十分重要。
图像场景复杂度可使用特定的图像处理技术得到该图像景物信息(例如边缘信息、纹理信息等),从而对图像场景复杂度进行计算。
由此可知,当待检测图像场景中没有过多景物时(例如广场),此时场景复杂度较低;当待检测图像场景中有大量的景物时(例如户外森林公园道路),此时场景复杂度较高。
近年来,有许多行人检测方法被研究人员提出,其中,可形变部位模型行人检测算法(Deformable Part Model,DPM)是较为流行的行人检测算法。该算法首先提取待检测图像改进的HOG特征,随后计算待检测图像窗口区域内的特征与预先训练得到的行人模型的特征的内积以及模型匹配的位置来得到响应得分,通过设置行人检测阈值与响应得分比较来判别目标是否为行人,其原理可参见以下论文:
Felzenszwalb P,Girshick R,McAllester D,et al.Object detection withdiscriminatively trainedpart basedmodels[J].IEEE Trans.on Pattern Analysisand Machine Intelligence,2009,32(9):1627-1645.
Felzenszwalb P,Girshick R,McAllester D.Cascade object detection withdeformable part models[A].In Proc.IEEE CVPR[C],2010
DPM算法可以快速筛选出行人目标区域,在一定程度上解决了人体姿势的变化对行人检测的影响,对于一些公开的行人数据集,DPM算法能得到较好的检测结果。但是DPM算法只设定了单一的行人检测阈值来判别行人目标,当场景复杂度较低时,DPM算法易出现行人漏检现象(图像中的行人目标没有被DPM算法标记为行人目标);当场景复杂度较高时,DPM算法易出现行人错检现象(图像中的非行人目标被DPM算法标记为行人目标)。为了适应多种场景,使用者需要提前手动调整DPM算法行人检测阈值以达到最好的检测结果。但是手动调整行人检测阈值将耗费大量的人力物力,这制约了DPM算法的应用范围。
现有代表性技术如下:
发明名称:一种多模型多阈值组合的行人检测方法(申请号:CN201410503998.7)本发明公开了一种多模型多阈值组合的行人检测方法,通过联合两种不同检测手段,选择不同检测模型(DPM算法以及ICF算法)和检测阈值,形成多个检测子模块,组成并联检测结构,同时检测1个图像,检测结果形成一个合集,作为候选集;再按可信度的方法去除误判和合并相同检测。实现了平均检测率提高约20%,达到85%以上,同时平均误报率<10%;相较于单独使用DPM或ICF进行检测,若检测率达到85%,则平均误报率>30%的检测效率来说,实现来检测效率上的极大提升。
但此检测方法设置的行人检测阈值多依靠于使用者的经验,导致设置的行人检测阈值不能适合所有场景。并且该方法需要对一张图像使用多模型多阈值重复检测,这将显著的增加计算复杂度,增加检测时间,降低了行人检测系统的实时性。
发明内容
本发明要解决的技术问题为:使用DPM算法对行人进行检测时,系统能够根据不同场景复杂度自动设置DPM算法的最佳行人检测阈值。
本发明实现了一种通过计算场景复杂度来自动调整阈值的行人检测方法,所述方法包括数据读取、图像预处理、基于场景复杂度自动调整DPM行人检测阈值以及行人检测组成。
其中场景复杂度由以下几种方式计算:
(1)提取场景的边缘信息,计算图像边缘信息像素占图像总体像素的比值得到场景复杂度。
(2)提取场景的边缘信息,通过像素连通域概念计算图像中的边缘条数,从而得到场景复杂度。连通域概念定义为若像素周围8个方向与本像素相同,以上两个像素视为连通。
(3)通过统计场景的颜色信息,计算该统计场景下的颜色个数来计算场景复杂度。
本发明采用的技术方案为一种基于场景复杂度的行人检测方法,包括以下步骤:
步骤1,读取待检测数据。
从摄像装置或存储设备中读取得到待检测数据,判断待检测数据类型并根据其数据类型使用不同的方法将得到的待检测数据以图像形式保存在计算机存储设备中。保存得到的待检测图像将作为步骤2以及步骤4的输入。读取待检测数据的步骤如下:
步骤1.1,读取摄像装置或存储设备中的待检测数据,判断待检测数据类型。若待检测数据类型为视频类型,则进行步骤1.2;若待检测数据类型为图像类型,则进行步骤1.3。
步骤1.2,若待检测数据为视频数据,对视频数据进行分帧处理,将视频数据转换为图像数据,将转化后得到的图像数据保存在计算机或存储设备中。
步骤1.3,若待检测数据为图像数据,将读取得到的图像数据保存在计算机或存储设备中。
步骤2,待检测图像预处理。
将步骤1中保存的待检测图像数据作为输入,根据选取的场景复杂度计算方式对待检测图像进行预处理。以场景复杂度计算方式(1)为例,首先转化待检测图像的像素值类型,并将待检测图像转化为灰度图像。然后提取灰度图像边缘信息并将其转化为二值化图像。该二值化图像将作为步骤3的输入,待检测图像预处理的步骤如下:
步骤2.1,将待检测图像的像素值从整数(int类型)转化为小数(double类型),并将待检测图像转化为灰度图像。分别提取待检测图像RGB三通道像素值,然后通过公式Fgray=0.2989*R+0.5870*G+0.1140*B计算灰度图像每一个像素点的灰度像素值。
步骤2.2,将步骤2.1中转化的灰度图像作为输入,提取该灰度图像的边缘信息并将其转化为二值化图像。将图像的每一个点都用sobel算子做卷积,得到该点灰度数值后与matlab软件中edge函数计算的自适应阈值比较,若该点灰度大小高于阈值,设定该点像素值为255(白色);若该点灰度大小小于阈值,设定该点像素值为0(黑色),在所有灰度数值与阈值比较后输出二值化图像。
步骤3,计算待检测图像的场景复杂度。
将步骤2输出的二值化图像作为输入,根据该二值化图像以及场景复杂度计算方式计算得到待检测图像场景复杂度,并根据待检测图像场景复杂度设置行人检测阈值,设置的行人检测阈值将作为步骤4的输入,计算待检测图像的场景复杂度的步骤如下:
步骤3.1,遍历步骤S20输出的二值化图像,统计整幅图像中的白色像素个数W以及总像素个数All来计算场景复杂度。
步骤3.2,根据步骤3.1得到的场景复杂度GC设置行人检测阈值。
步骤4,使用DPM算法对行人进行检测。
将步骤1中保存的待检测图像数据以及步骤3中设置的行人检测阈值作为输入,将上述待检测图像数据以及设置的行人检测阈值输入至DPM算法中进行行人检测,使用DPM算法对行人进行检测的步骤如下:
步骤4.1,读取DPM行人模型。训练模型时,设定部件模型个数为8,使用INRIA行人样本库进行训练。最终得到1个行人根滤波器以及8个行人部件滤波器。
步骤4.2,提取改进的HOG图像特征。首先,只提取无符号的HOG特征,将会产生4*9=36维特征,分别将每一行特征相加,并且分别将每一列特征相加,得到4+9=13个特征向量,然后提取有符号的HOG特征,将会产生4*18=72维特征,分别将每一列特征相加,得到18个特征向量,一共产生13+18=31个梯度向量,改进的HOG特征由上述31个梯度向量构成。
步骤4.3,在待检测图像上设置并滑动检测窗口,与步骤4.1读取的DPM行人模型(共9个滤波器)进行匹配,得到9个滤波器响应值。
步骤4.4,综合步骤4.3得到的9个滤波器响应值,计算得到检测窗口的响应得分。目标响应得分可以根据金字塔每一层根滤波器响应值加上部件滤波器响应值之和计算得到。
步骤4.5,判断步骤4.4得到的目标响应得分是否大于步骤3设置的行人检测阈值。若目标响应得分大于设置的行人检测阈值,则进行步骤4.6;若目标响应得分小于设置的行人检测阈值,则进行步骤4.7。
步骤4.6,标记此目标为行人并在检测结果中保存此目标位置。
步骤4.7,标记此目标为非行人目标并在检测结果中删除此目标位置。
本发明还提供了一种基于场景复杂度的行人检测系统,该系统包括数据读取模块、图像预处理模块、基于场景复杂度的行人检测阈值设置模块以及行人检测模块,其中:
所述的数据读取模块,用于从摄像装置或存储设备中读取得到待检测数据,并根据待检测数据类型使用不同的方法将读取得到的待检测数据转换为图像数据保存在计算机存储设备中。
所述的图像预处理模块,用于根据选取的场景复杂度计算方式对数据读取模块保存的待检测图像进行预处理,为场景复杂度的计算做准备。
所述的基于场景复杂度的行人检测阈值设置模块,用于根据图像预处理模块得到的图像数据计算得到待检测图像场景复杂度,并根据待检测图像场景复杂度设置行人检测阈值。
所述的行人检测模块,用于将数据读取模块保存的待检测图像数据以及基于场景复杂度的行人检测阈值设置模块设置的行人检测阈值输入至DPM算法中,对待检测图像中的行人目标进行检测。DPM算法流程如下:首先读取训练得到的行人模型并提取待检测图像改进的HOG特征,然后设置并滑动检测窗口得到滤波器响应值,随后使用滤波器响应值计算目标得分,比较检测目标得分与设置的行人检测阈值来确定行人目标。
本发明原理是通过计算所述的场景复杂度得到最适合此场景的行人检测阈值。随后将待检测图片与计算得到的行人检测阈值输入至DPM算法对行人进行检测,DPM算法将输出检测结果以及检测得分,通过设定行人检测阈值可以将检测得分较低的非行人目标区分剔除,提高检测结果的准确程度。
与现有技术相比较,本发明提出的检测方法可适应多种监控场景,不再需要使用者根据场景手动调整行人检测阈值,并且本发明提出的场景复杂度计算方式相对简单,不会大幅增加检测算法的复杂度,减轻监控系统需要承担的计算量。本发明提出的行人检测方法使用相对简便,具有良好的检测结果。
附图说明
图1本发明的基于场景复杂度的行人检测方法实施例的流程图。
图2本发明的基于场景复杂度的行人检测方法实施例步骤S10的子流程图。
图3本发明的基于场景复杂度的行人检测方法实施例步骤S20的子流程图。
图4本发明的基于场景复杂度的行人检测方法实施例步骤S30的子流程图。
图5本发明的基于场景复杂度的行人检测方法实施例步骤S40的子流程图。
图6本发明的基于场景复杂度的行人检测方法实施例步骤S400需要读取的DPM行人模型。
图7本发明的基于场景复杂度的行人检测方法实施例步骤S410提取改进的HOG图像特征的流程图。
图8本发明的基于场景复杂度的行人检测系统实施例的组成框图。
具体实施方式
为了能够更加清楚的说明本发明的方法流程,下面结合具体实施例进行进一步描述,所说明的实施例仅用于说明本发明的技术方案,实施例设置的参数数值并非限定本发明。
本发明实施方式的流程图如图1所示,包括以下步骤:
步骤S10,读取待检测数据;
步骤S20,待检测图像预处理;
步骤S30,计算待检测图像的场景复杂度;
步骤S40,使用DPM算法对行人进行检测。
实施方式的读取待检测数据调整步骤S10还包括以下步骤,实施步骤如图2所示:
步骤S100,读取摄像装置或存储设备中的待检测数据,判断输入的待检测数据为视频类型还是图像类型。若待检测数据是视频类型,则进行步骤S110;若待检测数据是图像类型,则进行步骤S120。
步骤S110,若待检测数据为视频数据,对视频数据进行分帧处理,将视频数据转换为图像数据,将转化后得到的图像数据保存在计算机或存储设备中。
步骤S120,若待检测数据为图像数据,将读取得到的图像数据保存在计算机或存储设备中。
实施方式的待检测图像预处理调整步骤S20还包括以下步骤,实施步骤如图3所示:
步骤S200,将待检测图像的像素值从整数(int类型)转化为小数(double类型),并将待检测图像转化为灰度图像。分别提取待检测图像RGB三通道像素值,然后通过公式Fgray=0.2989*R+0.5870*G+0.1140*B计算灰度图像每一个像素点的灰度像素值。
步骤S210,提取灰度图像边缘信息并将其转化为二值化图像。将图像的每一个点都用sobel算子做卷积,得到该点灰度数值后与matlab软件中edge函数计算的自适应阈值比较,若该点灰度大小高于阈值,设定该点像素值为255(白色);若该点灰度大小小于阈值,设定该点像素值为0(黑色),在所有灰度数值与阈值比较后输出二值化图像。
实施方式的计算待检测图像的场景复杂度调整步骤S30还包括以下步骤,实施步骤如图4所示:
步骤S300,遍历步骤S20输出的二值化图像,统计整幅图像中的白色像素个数W以及总像素个数All来计算场景复杂度。场景复杂度GC的计算方式如公式(1)所示:
步骤S310,根据步骤S300得到的场景复杂度GC设置行人检测阈值。当GC>16%时,行人检测阈值设置为-0.15;当8%≤GC≤16%时,行人检测阈值设置为-0.35;当GC<8%时,行人检测阈值设置为-0.55。
实施方式的使用DPM算法对行人进行检测调整步骤S40还包括以下步骤,实施步骤如图5所示:
步骤S400,读取DPM行人模型。训练模型时,设定部件模型个数为8,使用INRIA行人样本库进行训练。最终得到1个行人根滤波器以及8个行人部件滤波器,训练得到的行人模型如图6所示。
步骤S410,提取改进的HOG图像特征。提取一个8*8像素单元的改进HOG图像特征过程如图7所示。首先,只提取无符号的HOG特征,将会产生4*9=36维特征,分别将每一行特征相加,并且分别将每一列特征相加,得到4+9=13个特征向量,然后提取有符号的HOG特征,将会产生4*18=72维特征,分别将每一列特征相加,得到18个特征向量,一共产生13+18=31个梯度向量,改进的HOG特征由上述31个梯度向量构成。
步骤S420,在待检测图像上设置并滑动检测窗口,与步骤S400读取的DPM行人模型(共9个滤波器)进行匹配,得到9个滤波器响应值。
步骤S430,综合S420得到的9个滤波器响应值,计算得到检测窗口的响应得分。响应得分可以根据金字塔每一层根滤波器响应值加上部件滤波器响应值之和计算得到,计算方法如公式(2)所示:
其中,(x0,y0)表示在金字塔第l0层特征图上根滤波器左上角的位置,vi表示根滤波器相对于部件滤波器i在该层金字塔位置的偏移量,2(x0,y0)+vi表示部件滤波器i在形变前中心点的绝对坐标,λ表示需要下降的图层的数量。
步骤S440,判断目标响应得分是否大于步骤S310设置的行人检测阈值。若目标响应得分大于行人检测阈值,则进行步骤S450;若目标响应得分小于行人检测阈值,则进行步骤S460。
步骤S450,标记此目标为行人并在检测结果中保存此目标位置。
步骤S460,标记此目标为非行人目标并在检测结果中删除此目标位置。
上述基于场景复杂度的行人检测流程是本发明给出的方法实施例,相应地,本发明还给出了基于场景复杂度的行人检测的系统实施例。参见附图8,本系统500实施例包括:数据读取模块510、图像预处理模块520、基于场景复杂度的行人检测阈值设置模块530和行人检测模块540,其中:
数据读取模块510,用于从摄像装置或存储设备中读取得到待检测数据,并根据待检测数据类型使用不同的方法将读取得到的待检测数据转换为图像数据保存在计算机存储设备中。
图像预处理模块520,用于根据选取的场景复杂度计算方式对数据读取模块510保存的待检测图像进行预处理,为场景复杂度的计算做准备。
基于场景复杂度的行人检测阈值设置模块530,用于根据图像预处理模块520得到的图像数据计算得到待检测图像场景复杂度,并根据待检测图像场景复杂度设置行人检测阈值。
行人检测模块540,用于将数据读取模块510保存的待检测图像数据以及基于场景复杂度的行人检测阈值设置模块530设置的行人检测阈值输入至DPM算法中,对待检测图像中的行人目标进行检测。DPM算法流程如下:首先读取训练得到的行人模型并提取待检测图像改进的HOG特征,然后设置并滑动检测窗口得到滤波器响应值,随后使用滤波器响应值计算目标得分,比较检测目标得分与设置的行人检测阈值来确定行人目标。
上述系统实施例500的工作过程是:先由数据读取模块510读取摄像装置或存储设备中的待检测数据,并根据待检测数据类型使用不同的方法将读取得到的待检测数据转换为图像数据保存在计算机存储设备中,随后将保存的图像数据传输给图像预处理模块520以及行人检测模块540。图像预处理模块520根据选取的场景复杂度计算方式对数据读取模块510保存的待检测图像进行预处理,本实施例以场景复杂度计算方式(1)为例,首先转化待检测图像的像素值类型,并将待检测图像转化为灰度图像,然后提取灰度图像边缘信息并将其转化为二值化图像并将此二值化图像传输至基于场景复杂度的行人检测阈值设置模块530中。基于场景复杂度的行人检测阈值设置模块530先根据图像预处理模块520得到的图像数据计算得到待检测图像场景复杂度,然后通过待检测图像场景复杂度设置行人检测阈值,并将行人检测阈值传输给行人检测模块540。行人检测模块540接收数据读取模块510保存得到的待检测图像以及基于场景复杂度的行人检测阈值设置模块530设置的行人检测阈值输入至DPM算法中,对待检测图像中的行人目标进行检测。DPM算法流程如下:首先读取训练得到的行人模型并提取待检测图像改进的HOG特征,然后设置并滑动检测窗口得到滤波器响应值,随后使用滤波器响应值计算目标得分,比较检测目标得分与设置的行人检测阈值来确定行人目标。该系统实施例同样取得了上述方法实施例的技术效果,为避免重复,此处不再赘述。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在发明的保护范围之内。

Claims (3)

1.基于场景复杂度的行人检测方法,其特征在于:包括以下步骤:
步骤1,读取待检测数据;
从摄像装置或存储设备中读取得到待检测数据,判断待检测数据类型并根据其数据类型使用不同的方法将得到的待检测数据以图像形式保存在计算机存储设备中;保存得到的待检测图像将作为步骤2以及步骤4的输入;读取待检测数据的步骤如下:
步骤1.1,读取摄像装置或存储设备中的待检测数据,判断待检测数据类型;若待检测数据类型为视频类型,则进行步骤1.2;若待检测数据类型为图像类型,则进行步骤1.3;
步骤1.2,若待检测数据为视频数据,对视频数据进行分帧处理,将视频数据转换为图像数据,将转化后得到的图像数据保存在计算机或存储设备中;
步骤1.3,若待检测数据为图像数据,将读取得到的图像数据保存在计算机或存储设备中;
步骤2,待检测图像预处理;
将步骤1中保存的待检测图像数据作为输入,根据选取的场景复杂度计算方式对待检测图像进行预处理;场景复杂度计算方式中,首先转化待检测图像的像素值类型,并将待检测图像转化为灰度图像;然后提取灰度图像边缘信息并将其转化为二值化图像;该二值化图像将作为步骤3的输入,待检测图像预处理的步骤如下:
步骤2.1,将待检测图像的像素值从整数即int类型转化为小数即double类型,并将待检测图像转化为灰度图像;分别提取待检测图像RGB三通道像素值,然后通过公式Fgray=0.2989*R+0.5870*G+0.1140*B计算灰度图像每一个像素点的灰度像素值;
步骤2.2,将步骤2.1中转化的灰度图像作为输入,提取该灰度图像的边缘信息并将其转化为二值化图像;将图像的每一个点都用sobel算子做卷积,得到该点灰度数值后与matlab软件中edge函数计算的自适应阈值比较,若该点灰度大小高于阈值,设定该点像素值为255即白色;若该点灰度大小小于阈值,设定该点像素值为0即黑色,在所有灰度数值与阈值比较后输出二值化图像;
步骤3,计算待检测图像的场景复杂度;
将步骤2输出的二值化图像作为输入,根据该二值化图像以及场景复杂度计算方式计算得到待检测图像场景复杂度,并根据待检测图像场景复杂度设置行人检测阈值,设置的行人检测阈值将作为步骤4的输入,计算待检测图像的场景复杂度的步骤如下:
步骤3.1,遍历步骤S20输出的二值化图像,统计整幅图像中的白色像素个数W以及总像素个数All来计算场景复杂度;
步骤3.2,根据步骤3.1得到的场景复杂度GC设置行人检测阈值;
步骤4,使用DPM算法对行人进行检测;
将步骤1中保存的待检测图像数据以及步骤3中设置的行人检测阈值作为输入,将上述待检测图像数据以及设置的行人检测阈值输入至DPM算法中进行行人检测,使用DPM算法对行人进行检测的步骤如下:
步骤4.1,读取DPM行人模型;训练模型时,设定部件模型个数为8,使用INRIA行人样本库进行训练;最终得到1个行人根滤波器以及8个行人部件滤波器;
步骤4.2,提取改进的HOG图像特征;首先,只提取无符号的HOG特征,将会产生4*9=36维特征,分别将每一行特征相加,并且分别将每一列特征相加,得到4+9=13个特征向量,然后提取有符号的HOG特征,将会产生4*18=72维特征,分别将每一列特征相加,得到18个特征向量,一共产生13+18=31个梯度向量,改进的HOG特征由上述31个梯度向量构成;
步骤4.3,在待检测图像上设置并滑动检测窗口,与步骤4.1读取的DPM行人模型即共9个滤波器进行匹配,得到9个滤波器响应值;
步骤4.4,综合步骤4.3得到的9个滤波器响应值,计算得到检测窗口的响应得分;目标响应得分根据金字塔每一层根滤波器响应值加上部件滤波器响应值之和计算得到;
步骤4.5,判断步骤4.4得到的目标响应得分是否大于步骤3设置的行人检测阈值;若目标响应得分大于设置的行人检测阈值,则进行步骤4.6;若目标响应得分小于设置的行人检测阈值,则进行步骤4.7;
步骤4.6,标记此目标为行人并在检测结果中保存此目标位置;
步骤4.7,标记此目标为非行人目标并在检测结果中删除此目标位置。
2.基于场景复杂度的行人检测系统,其特征在于:该系统包括数据读取模块、图像预处理模块、基于场景复杂度的行人检测阈值设置模块以及行人检测模块,其中:
所述的数据读取模块,用于从摄像装置或存储设备中读取得到待检测数据,并根据待检测数据类型使用不同的方法将读取得到的待检测数据转换为图像数据保存在计算机存储设备中;
所述的图像预处理模块,用于根据选取的场景复杂度计算方式对数据读取模块保存的待检测图像进行预处理,为场景复杂度的计算做准备;
所述的基于场景复杂度的行人检测阈值设置模块,用于根据图像预处理模块得到的图像数据计算得到待检测图像场景复杂度,并根据待检测图像场景复杂度设置行人检测阈值;
所述的行人检测模块,用于将数据读取模块保存的待检测图像数据以及基于场景复杂度的行人检测阈值设置模块设置的行人检测阈值输入至DPM算法中,对待检测图像中的行人目标进行检测;DPM算法流程如下:首先读取训练得到的行人模型并提取待检测图像改进的HOG特征,然后设置并滑动检测窗口得到滤波器响应值,随后使用滤波器响应值计算目标得分,比较检测目标得分与设置的行人检测阈值来确定行人目标。
3.根据权利要求2所述的基于场景复杂度的行人检测系统,其特征在于:通过计算所述的场景复杂度得到最适合此场景的行人检测阈值;随后将待检测图片与计算得到的行人检测阈值输入至DPM算法对行人进行检测,DPM算法将输出检测结果以及检测得分,通过设定行人检测阈值将检测得分较低的非行人目标区分剔除,提高检测结果的准确程度。
CN201811006043.5A 2018-08-30 2018-08-30 基于场景复杂度的行人检测方法与系统 Active CN109034125B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811006043.5A CN109034125B (zh) 2018-08-30 2018-08-30 基于场景复杂度的行人检测方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811006043.5A CN109034125B (zh) 2018-08-30 2018-08-30 基于场景复杂度的行人检测方法与系统

Publications (2)

Publication Number Publication Date
CN109034125A true CN109034125A (zh) 2018-12-18
CN109034125B CN109034125B (zh) 2021-12-03

Family

ID=64626324

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811006043.5A Active CN109034125B (zh) 2018-08-30 2018-08-30 基于场景复杂度的行人检测方法与系统

Country Status (1)

Country Link
CN (1) CN109034125B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378830A (zh) * 2021-05-06 2021-09-10 北京工业大学 一种基于域适应的可自主学习数据标签生成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102810161A (zh) * 2012-06-07 2012-12-05 江苏物联网研究发展中心 一种用于拥挤场景下的多个行人检测方法
CN103778435A (zh) * 2014-01-16 2014-05-07 大连理工大学 一种基于视频的行人快速检测方法
CN104484680A (zh) * 2014-09-26 2015-04-01 徐晓晖 一种多模型多阈值组合的行人检测方法
US20150178557A1 (en) * 2013-12-19 2015-06-25 Institute For Information Industry Pedestrian detection system and method
CN107038416A (zh) * 2017-03-10 2017-08-11 华南理工大学 一种基于二值图像改进型hog特征的行人检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102810161A (zh) * 2012-06-07 2012-12-05 江苏物联网研究发展中心 一种用于拥挤场景下的多个行人检测方法
US20150178557A1 (en) * 2013-12-19 2015-06-25 Institute For Information Industry Pedestrian detection system and method
CN103778435A (zh) * 2014-01-16 2014-05-07 大连理工大学 一种基于视频的行人快速检测方法
CN104484680A (zh) * 2014-09-26 2015-04-01 徐晓晖 一种多模型多阈值组合的行人检测方法
CN107038416A (zh) * 2017-03-10 2017-08-11 华南理工大学 一种基于二值图像改进型hog特征的行人检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PEDRO F. FELZENSZWALB等: "Cascade object detection with deformable part models", 《2010 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378830A (zh) * 2021-05-06 2021-09-10 北京工业大学 一种基于域适应的可自主学习数据标签生成方法
CN113378830B (zh) * 2021-05-06 2024-05-28 北京工业大学 一种基于域适应的可自主学习数据标签生成方法

Also Published As

Publication number Publication date
CN109034125B (zh) 2021-12-03

Similar Documents

Publication Publication Date Title
CN109461168B (zh) 目标对象的识别方法和装置、存储介质、电子装置
CN104166841B (zh) 一种视频监控网络中指定行人或车辆的快速检测识别方法
CN101493980B (zh) 一种基于多特征融合的快速视频火焰探测方法
CN110378931A (zh) 一种基于多摄像头的行人目标移动轨迹获取方法及系统
CN101563710B (zh) 识别由视频监视摄像机检测到的对象的特性的方法及装置
CN103632158B (zh) 森林防火监控方法及森林防火监控系统
CN109145708B (zh) 一种基于rgb和d信息融合的人流量统计方法
CN109635875A (zh) 一种基于深度学习的端到端网口检测方法
CN109409190A (zh) 基于梯度直方图和Canny边缘检测器的行人检测方法
CN107392885A (zh) 一种基于视觉对比机制的红外弱小目标检测方法
TW201118804A (en) Method and system for object detection
CN109118548A (zh) 一种综合智能水质识别方法
CN103617414B (zh) 一种基于最大间距准则的火灾颜色模型的火灾火焰和烟雾识别方法
CN109271932A (zh) 基于颜色匹配的行人再识别方法
CN112149543B (zh) 一种基于计算机视觉的建筑扬尘识别系统与方法
CN109711322A (zh) 一种基于rfcn的人车分离方法
KR101953626B1 (ko) 다중 히스토그램을 이용한 객체 추적 방법 및 이를 이용한 객체 추적 시스템
CN104951742A (zh) 敏感视频的检测方法和系统
CN112862757A (zh) 一种基于计算机视觉技术的重量评估系统及实现方法
CN109886146B (zh) 基于机器视觉检测的洪灾信息遥感智能采集方法及设备
CN105243356A (zh) 一种建立行人检测模型的方法及装置及行人检测方法
CN108256588A (zh) 一种几何图像识别特征提取方法及系统
US20220128358A1 (en) Smart Sensor Based System and Method for Automatic Measurement of Water Level and Water Flow Velocity and Prediction
CN101316371A (zh) 火焰侦测方法及装置
CN115620212A (zh) 一种基于监控视频的行为识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant