CN106778633B - 一种基于区域分割的行人识别方法 - Google Patents

一种基于区域分割的行人识别方法 Download PDF

Info

Publication number
CN106778633B
CN106778633B CN201611198248.9A CN201611198248A CN106778633B CN 106778633 B CN106778633 B CN 106778633B CN 201611198248 A CN201611198248 A CN 201611198248A CN 106778633 B CN106778633 B CN 106778633B
Authority
CN
China
Prior art keywords
region
similarity
pedestrian
regions
adjacent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611198248.9A
Other languages
English (en)
Other versions
CN106778633A (zh
Inventor
吕楠
张丽秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Abd Smart Eye Electronics Co ltd
Original Assignee
Abd Smart Eye Electronics Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Abd Smart Eye Electronics Co ltd filed Critical Abd Smart Eye Electronics Co ltd
Priority to CN201611198248.9A priority Critical patent/CN106778633B/zh
Publication of CN106778633A publication Critical patent/CN106778633A/zh
Application granted granted Critical
Publication of CN106778633B publication Critical patent/CN106778633B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Abstract

本发明提供了基于区域分割的行人识别方法,包括以下步骤:获取监控区域的视频流图像作为输入图像;基于边界图像分割技术获得输入图像的初始化区域集R,初始化区域集R包含若干分割区域;结合至少一种相似度策略计算所述初始化区域集R中相邻的分割区域的相似度,形成相似度集S;从相似度集S中筛选出最大相似度值max(S),并将最大相似度值max(S)所对应的相邻的分割区域进行合并,更新初始化区域集R和相似度集S,直到相似度集S为空;根据更新后的初始化区域集R′中分割区域所匹配的最小外接椭圆筛选出候选行人区域rk;利用头肩投影模型从候选行人区域rk中识别出行人目标。通过本发明,提高了视频图像中各种干扰情况下行人识别的准确率和效率。

Description

一种基于区域分割的行人识别方法
技术领域
本发明属于视频图像处理及识别技术领域,特别涉及一种基于区域分割的行人识别方法。
背景技术
随着社会的快速进步及计算机技术的日益发展,迫切需要用计算机来代替人,实现真正的智能化。其中,如何实现对图像和视频中目标对象的准确检测,是民用或军事领域智能视频监控中一个重要的任务。而视频中行人检测在计算机视觉领域中也已成为一个重要的热点问题,它在辅助驾驶、视频监控场景中的智能化识别、远距离的身份识别、人机交互及人流量的统计等领域都有着广泛的应用前景。
所谓视频中的行人检测就是判断视频图像中是否有行人,如果有则准确定位出行人在视频图像中的位置及区域,并统计出行人的数量。精确、鲁棒的行人视频监控是安全领域中主要的一种技术手段,在现代的安全体系中发挥不可替代的作用。
目前,行人目标检测方法主要有基于模型的方法、基于特征信息的方法和基于统计学习的方法等。但由于行人的非刚性和形态多样性、复杂的周围场景以及行人之间的相互遮挡与自我遮挡等,导致这些方法在实时性或准确性方面总是不能称心如意,这使得行人检测系统处于缓慢发展中。
有鉴于此,有必要对现有技术中视频图像中的行人识别方法予以改进,以解决上述问题。
发明内容
本发明的目的在于提供一种基于区域分割的行人识别方法,该方法可以有效地提高视频监控中行人识别的准确度。
为实现上述发明目的,本发明提供了一种基于区域分割的行人识别方法,包括以下步骤:
S1、获取监控区域的视频流图像作为输入图像;
S2、基于边界图像分割技术获得输入图像的初始化区域集R,所述初始化区域集R包含若干分割区域;
S3、结合至少一种相似度策略计算所述初始化区域集R中相邻的分割区域的相似度,形成相似度集S;
S4、从相似度集S中筛选出最大相似度值max(S),并将最大相似度值max(S)所对应的相邻的分割区域进行合并,更新初始化区域集R和相似度集S,直到相似度集S为空;
S5、根据更新后的初始化区域集R′中分割区域所匹配的最小外接椭圆筛选出候选行人区域rk
S6、利用头肩投影模型从候选行人区域rk中识别出行人目标。
作为本发明的进一步改进,所述步骤S2具体包括以下子步骤:
S21、以设定规格的扫描窗口对输入图像进行扫描,计算扫描窗口中的中间像素点与其相邻的相邻像素点之间的颜色值差异作为两个相邻像素点间的权值w((vi,vj)),所述两个相邻像素点间的权值w((vi,vj))的计算公式为:
w((vi,vj))=|R(vi)-R(vj)|+|G(vi)-G(vj)|+|B(vi-B(vj)|,
其中,R(vi)、G(vi)和B(vi)分别表示输入图像的RGB颜色通道在像素点vi处的颜色值;R(vj)、G(vj)和B(vj)分别表示输入图像的RGB颜色通道在像素点vj处的颜色值;
S22、判断相邻像素点之间是否存在边界,并将不存在边界的相邻像素点执行至少一次合并操作,以形成分割区域,直至没有像素点可以被合并,从而形成包含若干分割区域的初始化区域集R={r1,…,rn}。
作为本发明的进一步改进,所述步骤S3具体为:结合颜色相似度策略计算相邻的分割区域的颜色相似度scolour(ri,rj),结合纹理相似度策略计算相邻的分割区域的纹理相似度stexture(ri,rj),结合分割区域大小相似度策略计算相邻的分割区域的大小相似度ssize(ri,rj),给合吻合相似度策略计算相邻的分割区域的吻合相似度sfill(ri,rj),并最终计算相邻的分割区域之间的相似度s(ri,rj),并将其添加到相似度集S中;所述相邻的分割区域的相似度s(ri,rj)的计算公式为:
s(ri,rj)=a1scolour(ri,rj)+a2stexture(ri,rj)+a3ssize(ri,rj)+a4sfill(ri,rj);
其中,a1、a2、a3、a4是系数,均设为0.25。
作为本发明的进一步改进,所述结合颜色相似度策略计算相邻的分割区域的颜色相似度scolour(ri,rj)具体为:对每个分割区域,计算RGB颜色通道中所含的25个区间的直方图,以形成包含75维的向量
Figure GSB0000162607000000031
所述颜色相似度scolour(ri,rj)的计算公式为:
Figure GSB0000162607000000032
其中,m=75;scolour(ri,rj)表示第i、j个分割区域ri和rj的颜色相似度,
Figure GSB0000162607000000033
表示第i个分割区域的颜色直方图中第k个区间的值;
所述结合纹理相似度策略计算相邻的分割区域的纹理相似度stexture(ri,rj)具体为:基于SIFT-Like特征,对RGB颜色通道计算8个方向的方差σ=1的高斯微分和含10个区间的直方图,以形成包含240维的向量
Figure GSB0000162607000000034
所述纹理相似度stexture(ri,rj)的计算公式为:
Figure GSB0000162607000000035
其中,n=240;stexture(ri,rj)表示第i、j个分割区域ri和rj的纹理相似度,
Figure GSB0000162607000000041
表示第i个分割区域的纹理直方图中第k个区间的值;
所述结合分割区域大小相似度策略计算相邻的分割区域的大小相似度ssize(ri,rj)具体为:将相邻的分割区域中按照分割区域的面积按照从小到大的秩序,顺序地执行分割区域的合并操作,所述大小相似度ssize(ri,rj)的计算公式为:
Figure GSB0000162607000000042
其中,size(ri)为分割区域ri中包含的像素点的个数,size(rj)为分割区域rj中包含的像素点的个数,size(img)为输入图像的像素点的个数;
所述给合吻合相似度策略计算相邻的分割区域的吻合相似度sfill(ri,rj)具体为:先将相邻的分割区域中按照吻合度指标从高到低的秩序,顺序地执行分割区域的合并操作,所述吻合度指标是合并后所形成的区域的最小外接椭圆;所述吻合相似度的计算公式为:
Figure GSB0000162607000000043
其中,BBij是分割区域i与分割区域j合并后形成的区域的最小外接椭圆。
作为本发明的进一步改进,所述步骤S4具体包括以下子步骤:
S41、从相似度集S中选出最大相似度值max(S),将该最大相似度值max(S)对应的分割区域ri与分割区域rj合并为一个区域rt
S42、从相似度集S中删除原先与分割区域ri及分割区域rj相邻的分割区域的相似度,并计算分割区域rt与其相邻的分割区域的相似度,将相似度添加的到相似度集S中,以对相似度集S作更新;
S43、将分割区域rt添加到初始化区域集R中,以形成更新后的初始化区域集R′。
作为本发明的进一步改进,所述步骤S5具体为:计算更新后的初始化区域集R′中的每个分割区域的最小外接椭圆,获得所述最小外接椭圆的长轴b、短轴a及长轴b与竖直方向的夹角θ;
若最小外接椭圆的椭圆参数同时满足要求a>Pmin、b>2a及θ<40°的指标,则认为该最小外接椭圆所对应的区域是候选行人区域;
其中,Pmin为候选行人区域rk的最小宽度阈值,Pmin=50像素。
作为本发明的进一步改进,所述步骤S5还包括:根据更新后的初始化区域集R′中分割区域中的像素点的分布情况对步骤S5中所获取的候选行人区域rk,进行进一步的过滤,并具体为:
根据候选行人区域rk中的像素点的分布情况,计算候选行人区域rk的重心centre(rk)及垂直高度h(rk),并以候选行人区域rk的重心centre(rk)为中心、h(rk)为长轴、
Figure GSB0000162607000000051
为短轴,获得椭圆区域Ellip,将椭圆区域Ellip中属于候选行人区域rk中的像素点个数size(Ellip∩rk)与候选行人区域rk中全部的像素点个数size(rk)进行比较;
如果size(Ellip∩rk)∈[0.5×size(rk),1.2×size(rk)],则判定该椭圆区域Ellip为包含行人目标的候选行人区域rk;否则,过滤该椭圆区域Ellip;所述候选行人区域rk的重心centre(rk)的坐标计算公式为:
Figure GSB0000162607000000052
其中,(xi,yi)是候选行人区域rk中的像素点的坐标位置信息。
作为本发明的进一步改进,所述步骤S6具体为:针对步骤S5中获取的候选行人区域rk,以其最小外界椭圆的长轴b所在方向为中心轴,截取顶部高度为
Figure GSB0000162607000000061
的区域作为候选行人区域rk中的头肩区域,沿着长轴b方向垂直等分为九个区域,计算每个区域的像素点个数;如果九个区域的像素点符合Ω模型结构,则判定该候选行人区域rk为行人目标。
作为本发明的进一步改进,所述Ω模型结构中,第1个区域与第9个区域的像素点个数、第2个区域与第8个区域的像素点个数、第3个区域与第7个区域的像素点个数、第4个区域与第6个区域的像素点个数与第5个区域的像素点个数的比值分别在0.1~0.3、0.2~0.4、0.6~0.8、0.8~1内。
与现有技术相比,本发明的有益效果是:首先,从颜色、纹理、大小等多种角度,进行基于区域的图像分割;然后,根据人体特征,通过评估区域的最小外接椭圆特性,及以其重心为中心的椭圆区域是否聚集了该区域的大多数像素点,来获得行人候选区域;最后,通过头肩投影模型九个区域的像素点分布情况,进一步实现了准确的从行人候选区域中识别出行人目标,从而有效提高了视频图像中存在各种干扰情况下对行人进行识别的准确性与效率。
附图说明
图1为本发明一种基于区域分割的行人识别方法的流程示意图;
图2为图1所示的获取监控区域的视频流图像的工作原理示意图;
图3为本发明所示的图像像素点与相邻像素计算权值的示意图;
图4a为本发明所示的根据多种相似度策略,将两个分割区域合并为一个分割区域的示意图;
图4b为本发明所示的根据多种策略分割出的分割区域示意图;
图5a为本发明所示的分割区域最小外接椭圆的示意图;
图5b为本发明所示的识别行人候选区域时使用的最小外接椭圆参数的示意图;
图5c为本发明所示的过滤行人候选区域时像素点分布情况的示意图;
图6a为本发明所示的计算头肩部分投影的示意图;
图6b为本发明所示的根据头肩部分投影分布识别行人的示意图。
具体实施方式
下面结合附图所示的各实施方式对本发明进行详细说明,但应当说明的是,这些实施方式并非对本发明的限制,本领域普通技术人员根据这些实施方式所作的功能、方法、或者结构上的等效变换或替代,均属于本发明的保护范围之内。
参图1所示,图1为本发明一种基于区域分割的行人识别方法的流程示意图。在本实施方式中,一种基于区域分割的行人识别方法,所述行人识别方法包括以下步骤:
首先,执行步骤S1、获取监控区域的视频流图像作为输入图像。
参图2所示,该步骤S1具体为:通过摄像机10获取监控区域30的视频流图像作为输入图像,所述监控区域30位于摄像机10的下方并且将摄像机10设置呈倾斜拍摄的角度。所述输入图像为三通道彩色图像(即包含RGB三个颜色通道)。
具体的,摄像机10设置在出入口20的正上方,行人可沿着箭头201的方向上在出入口20中来回走动。摄像机10所获取的监控区域30可完全覆盖出入口20的全部区域。该出入口20可设置在要对行人进行识别的商场、车库、银行、道路等需要重点监控场所的大门口、走廊或者道路中。
在本实施方式中,该监控区域30为矩形;当然也可以为正方形或圆形或者其他形状。摄像机10倾斜地对着监控区域30,与中心点301的连线与水平面成30度的角度。摄相机10的镜头焦距是12mm,在摄相机垂直高度为3米的情况下,可以确保摄像机10的覆盖宽度为6至7米。如此,可以保证从监控区域30获取的图像中行人的宽度大于50像素。
然后,执行步骤S2、基于边界图像分割技术获得输入图像的初始化区域集R,所述初始化区域集R包含若干分割区域。
图像的图表示为G=(V,E),每个像素点代表图的一个顶点vi∈V,相邻的两个像素点构成一条边(vi,vj)∈E,像素颜色值的差异构成边(vi,vj)的权值w((vi,vj))。相邻的像素点,可以是像素的4邻域也可以是8邻域。
参图3所示,在本实施方式中,该初始化区域集R的获取过程具体包括以下子步骤:
首先,执行子步骤S21、以设定规格的扫描窗口对输入图像进行扫描,计算扫描窗口中的中间像素点与其相邻的相邻像素点之间的颜色值差异作为两个相邻像素点间的权值w((vi,vj)),所述两个相邻像素点间的权值w((vi,vj))的计算公式为:
w((vi,vj))=|R(vi)-R(vj)|+|G(vi)-G(vj)|+|B(vi)-B(vj)|,
其中,R(vi)、G(vi)和B(vi)分别表示输入图像的RGB颜色通道在像素点vi处的颜色值;R(vj)、G(vj)和B(vj)分别表示输入图像的RGB颜色通道在像素点vj处的颜色值。
如果权值w((vi,vj))越小,表示相邻像素点之间的相似度越高,从而表明相邻像素点之间不存在边界,并可以执行后续的合并操作,以形成分割区域;如果权值w((vi,vj))越大,表示相邻像素点之间的相似度越低,从而表明相邻像素点之间不存在边界,并不可以执行后续的合并操作,从而无法形成分割区域。
需要说明的是,在初始状态中,既可以将单个像素点视为一个分割区域,也可将包含若干像素点的某个区域与另一个包含若干像素点的某个区域进行相邻区域间权值的计算,以在后续的子步骤S22中合并形成一个分割区域;或者,也可将包含若干像素点的某个区域与其相邻的一个像素点执行上述子步骤S21,以在后续的子步骤S22中合并形成一个分割区域。
参图3所示,具体的,在本实施方式中,对输入图像进行扫描的扫描窗口的规格3×3(单位:像素点)。中间像素点fc与其左、右、上、下、左上、右上、左下、右下的八个像素点形成八领域。然后计算中间像素点fc和其右上、右、右下、下方的4个相邻像素点之间的颜色差值,将其作为两个像素点间的权值w((vi,vj)),用它来衡量是否有明显边界。权值越小,表示中间像素点fc和其右上、右、右下、下方的4个相邻像素点之间的相似度就越高,表示没有明显边界。反之,权值越大,则表示中间像素点fc和其右上、右、右下、下方的4个相邻像素点存在明显边界。
然后,执行子步骤S22、判断相邻像素点之间是否存在边界,并将不存在边界的相邻像素点执行至少一次合并操作,以形成分割区域,直至没有像素点可以被合并,从而形成包含若干分割区域的初始化区域集R={r1,…,rn},并进一步,在子步骤S22之后还可包括:循环执行上述子步骤S22,直至没有像素点(也可是由若干像素点所构成的区域)可以被合并,从而形成包含若干分割区域的初始化区域集R={r1,…,rn}。
在本实施方式中,作为最初被合并的区域,选取单个像素点作为被执行合并操作的两个单元区域。如果相邻的两个像素点之间存在明显的边界则不执行合并操作,如果相邻的两个像素点之间不存在明显的边界则执行合并操作。像素点的合并也可选用采用设定图像尺寸的子区域的合并方式。例如采用包含4个像素点的子区域与该子区域相邻的单个像素点或者相同规格的包含4个像素点的子区域采用上述方式进行是否有明显存在边界的判断,以进行逐级合并的操作,从而降低计算开销,并提高计算效率。
在本实施方式中,判断两个分割区域之间是否有明显边界的方法具体如下:首先,假设一个分割区域rk包含若干个像素点(分割区域rk中的像素点数量可为一个,也可为四个或者九个),任意两个相邻像素点vi,vj∈rk之间构成一条连接边(vi,vj)∈E,且其权值为w((vi,vj))。则分割区域rk的内部差就是指分割区域rk中包含的最大权值。所述分割区域rk的内部差的计算公式为:
Figure GSB0000162607000000101
其次,分割区域rk之间的差别是指两个分割区域rk之间相互连接的像素点间权值的最小值。所述分割区域rk之间的差别计算公式为:
Figure GSB0000162607000000102
最后,判断两个分割区域之间是否有明显的边界,主要是将两个分割区域之间的差别Dif(r1,r2)与两个分割区域内部差中的最小值进行比较。如果前者小于后者,则表示两个分割区域之间没有明显边界,将其合并为一个分割区域。否则,不进行任何操作。所述判断两个分割区域是否合并的计算公式如下所示:
Figure GSB0000162607000000103
子步骤S22中的“判断相邻区域之间是否存在边界”具体为:将相邻两个分割区域r1和分割区域r2之间的差别Dif(r1,r2)与这两个分割区域中的最小内部差min(Int(r1),Int(r2))进行比较,将差别Dif(r1,r2)小于最小内部差min(Int(r1),Int(r2))的相邻的分割区域r1和分割区域r2判定为不存在边界,并进一步合并为一个分割区域。
所述分割区域r1的内部差的计算公式为:
Figure GSB0000162607000000104
所述分割区域r2的内部差的计算公式为:
Figure GSB0000162607000000105
分割区域r1和分割区域r2之间的差别是指,分割区域r1和分割区域r2之间相互连接的像素点间权值的最小值。具体的,该分割区域r1和分割区域r2之间的差别计算公式为:
Figure GSB0000162607000000111
然后,执行步骤S3、结合至少一种相似度策略计算所述初始化区域集R中相邻的分割区域的相似度,形成相似度集S。
通常,原始的输入图像包含的图像信息非常丰富。输入图像中所包含的物体有不同的形状、尺寸、颜色、纹理。要想从输入图像中识别出一个物体及物体在图像中的位置,非常的难。所以,在对输入图像中的行人目标进行识别的过程中,不能通过单一的策略来区分不同的物体,需要充分考虑图像物体的多样性。
在本实施方式中,步骤S3具体为:结合颜色相似度策略计算相邻的分割区域的颜色相似度scolour(ri,rj),结合纹理相似度策略计算相邻的分割区域的纹理相似度stexture(ri,rj),结合分割区域大小相似度策略计算相邻的分割区域的大小相似度ssize(ri,rj),给合吻合相似度策略计算相邻的分割区域的吻合相似度sfill(ri,rj),并最终计算相邻的分割区域之间的相似度s(ri,rj),并将其添加到相似度集S中;所述相邻的分割区域的相似度s(ri,rj)的计算公式为:
s(ri,rj)=a1scolour(ri,rj)+a2stexture(ri,rj)+a3ssize(ri,rj)+a4sfill(ri,rj);
其中,a1、a2、a3、a4是系数,均设为0.25。
具体的,在步骤S3中,结合颜色相似度策略计算相邻的分割区域的颜色相似度scolour(ri,rj)具体为:对每个分割区域,计算RGB颜色通道(三个颜色通道)中所含的25个区间的直方图,以形成包含75维的向量
Figure GSB0000162607000000112
所述颜色相似度scolour(ri,rj)的计算公式为:
Figure GSB0000162607000000113
其中,m=75;scolour(ri,rj)表示第i个分割区域ri与第j个分割区域rj的颜色相似度;
Figure GSB0000162607000000121
表示第i个分割区域的颜色直方图中第k个区间的值。
具体的,在步骤S3中,结合纹理相似度策略计算相邻的分割区域的纹理相似度stexture(ri,rj)具体为:基于SIFT-Like特征,对RGB颜色通道(三个颜色通道)计算8个方向的方差σ=1的高斯微分和含10个区间的直方图,以形成包含240维的向量
Figure GSB0000162607000000122
所述纹理相似度stexture(ri,rj)的计算公式为:
Figure GSB0000162607000000123
其中,n=240;stexture(ri,rj)表示第i个分割区域ri与第j个分割区域rj的纹理相似度;
Figure GSB0000162607000000124
表示第i个分割区域的纹理直方图中第k个区间的值。
具体的,在步骤S3中,结合分割区域大小相似度策略计算相邻的分割区域的大小相似度ssize(ri,rj)具体为:将相邻的分割区域中按照分割区域的面积按照从小到大的秩序,顺序地执行分割区域的合并操作,所述大小相似度ssize(ri,rj)的计算公式为:
Figure GSB0000162607000000125
其中,size(ri)为分割区域ri中包含的像素点的个数,size(rj)为分割区域rj中包含的像素点的个数,size(img)为输入图像的像素点的个数。
具体的,在步骤S3中,给合吻合相似度策略计算相邻的分割区域的吻合相似度sfill(ri,rj)具体为:先将相邻的分割区域中按照吻合度指标从高到低的秩序,顺序地执行分割区域的合并操作,所述吻合度指标是合并后所形成的区域的最小外接椭圆;所述吻合相似度的计算公式为:
Figure GSB0000162607000000126
其中,BBij是分割区域i与分割区域j合并后形成的区域的最小外接椭圆。
优选的,在本实施方式中,区域合并过程中,合并后新区域的颜色直方图计算公式为:
Figure GSB0000162607000000131
其中,合并后的区域rt的大小的计算公式为:size(rt)=size(ri)+size(rj)。此外,合并之后新区域的纹理特征计算方法和颜色特征计算方法相同。
然后,执行步骤S4、从相似度集S中筛选出最大相似度值max(S),并将最大相似度值max(S)所对应的相邻的分割区域进行合并,更新初始化区域集R和相似度集S,直到相似度集S为空。
输入图像中物体的布局有一定的层次关系,考虑这种关系能够更好地对物体的类别进行区分。
参图4a及与4b所示,在本实施方式中,该初始化区域集R和相似度集S的更新过程具体包括以下子步骤:
S41、从相似度集S中选出最大相似度值max(S),该最大相似度值max(S)对应的两个分割区域为ri和分割区域rj,即s(ri,rj)=max(S),将这两个分割区域合并为一个新的分割区域rt,即rt=ri∪rj
S42、从相似度集S中删除原先与分割区域ri和分割区域rj相邻的分割区域的相似度,并计算rt与其相邻区域(原先与分割区域ri或分割区域rj相邻的分割区域)的相似度,将结果添加的到相似度集S中;
S43、将分割区域rt添加到初始化区域集R中,以形成更新后的初始化区域集R′。将新的分割区域rt添加到初始化区域集R中,以形成更新后的初始化区域集,即R′=R∪rt;重复以上操作,直到相似度集S为空,即S=Φ。
然后,执行步骤S5、根据更新后的初始化区域集R′中分割区域所匹配的最小外接椭圆筛选出候选行人区域rk
参图5a、5b和5c所示,在本实施方式中,该从更新后的初始化区域集R′中筛选行人候选区域的过程具体为:
计算更新后的初始化区域集R′中的每个分割区域的最小外接椭圆,获得所述最小外接椭圆的长轴b、短轴a及长轴b与竖直方向的夹角θ;
若最小外接椭圆的椭圆参数同时满足要求a>Pmin、b>2a及θ<40°的指标,则认为该最小外接椭圆所对应的区域是候选行人区域;
其中,Pmin为候选行人区域rk的最小宽度阈值,Pmin=50像素。
为了进一步提步骤S5对更新后的初始化区域集R′中候选行人进行检测的准确性,在本实施方式中,步骤S5还包括:根据更新后的初始化区域集R′中分割区域中的像素点的分布情况对步骤S5中所获取的候选行人区域rk,进行进一步的过滤,并具体为:
根据候选行人区域rk中的像素点的分布情况,计算候选行人区域rk的重心centre(rk)及垂直高度h(rk),并以候选行人区域rk的重心centre(rk)为中心、h(rk)为长轴、
Figure GSB0000162607000000141
为短轴,获得椭圆区域Ellip,将椭圆区域Ellip中属于候选行人区域rk中的像素点个数size(Ellip∩rk)与候选行人区域rk中全部的像素点个数size(rk)进行比较;
如果size(Ellip∩rk)∈[0.5×size(rk),1.2×size(rk)],则判定该椭圆区域Ellip为包含行人目标的候选行人区域rk;否则,过滤该椭圆区域Ellip;所述候选行人区域rk的重心centre(rk)的坐标计算公式为:
Figure GSB0000162607000000142
其中,(xi,yi)是候选行人区域rk中的像素点的坐标位置信息。
最后,执行步骤S6、利用头肩投影模型从候选行人区域rk中识别出行人目标。
结合图2所示,在倾斜安装的监控视频的应用环境中,行人目标的头肩部位会呈现出类似于符合“Ω”形状的轮廓特征(即“Ω模型结构”)。这种情况下,采用头肩检测确定从候选行人区域rk中确定出的行人目标的可信度较高。
参图6a和6b所示,在本实施方式中,该头肩投影模型识别行人目标的具体过程为:针对步骤S5中获取的候选行人区域rk,以其最小外界椭圆的长轴b所在方向为中心轴,截取顶部高度为
Figure GSB0000162607000000151
的区域作为候选行人区域rk中的头肩区域,沿着长轴b方向垂直等分为九个区域,计算每个区域的像素点个数;如果九个区域的像素点符合Ω模型结构,则判定该候选行人区域rk为行人目标。
如果九个区域的像素点符合“Ω”模型结构,即如果第1个区域与第9个区域的像素点个数、第2个区域与第8个区域的像素点个数、第3个区域与第7个区域的像素点个数、第4个区域与第6个区域的像素点个数与第5个区域的像素点个数的比值分别在0.1~0.3、0.2~0.4、0.6~0.8、0.8~1内,则认为该候选行人区域rk确实为行人区域并包括一个行人目标。最终,候选行人区域rk的外接矩形中心就是该视频图像中的行人目标所在的位置,外接矩形的长宽就是输入图像中行人目标对应的尺寸。
综上,在本实施方式中,首先,从颜色、纹理、大小等多种角度,进行基于区域的图像分割;然后,根据人体特征,通过评估区域的最小外接椭圆特性,及以其重心为中心的椭圆区域是否聚集了该区域的大多数像素点,来获得行人候选区域;最后,通过头肩投影模型九个区域的像素点分布情况,进一步实现了准确的从行人候选区域中识别出行人目标,从而有效提高了视频图像中存在各种干扰情况下对行人进行识别的准确性与效率。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施方式或变更均应包含在本发明的保护范围之内。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (8)

1.一种基于区域分割的行人识别方法,其特征在于,包括以下步骤:
S1、获取监控区域的视频流图像作为输入图像;
S2、基于边界图像分割技术获得输入图像的初始化区域集R,所述初始化区域集R包含若干分割区域;
S3、结合至少一种相似度策略计算所述初始化区域集R中相邻的分割区域的相似度,形成相似度集S;
S4、从相似度集S中筛选出最大相似度值max(S),并将最大相似度值max(S)所对应的相邻的分割区域进行合并,更新初始化区域集R和相似度集S,直到相似度集S为空;
S5、根据更新后的初始化区域集R'中分割区域所匹配的最小外接椭圆筛选出候选行人区域rk
S6、利用头肩投影模型从候选行人区域rk中识别出行人目标;
所述步骤S2具体包括以下子步骤:
S21、以设定规格的扫描窗口对输入图像进行扫描,计算扫描窗口中的中间像素点与其相邻的相邻像素点之间的颜色值差异作为初始状态下相邻像素点间的权值w(vi,vj),两个像素点之间权值w(vi,vj)的计算公式为:
w(vi,vj)=|R(vi)-R(vj)|+|G(vi)-G(vj)|+|B(vi)-B(vj)|,
其中,R(vi)、G(vi)和B(vi)分别表示输入图像的RGB颜色通道在像素点vi处的颜色值;R(vj)、G(vj)和B(vj)分别表示输入图像的RGB颜色通道在像素点vj处的颜色值;
S22、判断相邻相素点之间是否存在边界,并将不存在边界的相邻相素点执行至少一次的合并操作,以形成分割区域,直至没有像素点可以被合并,从而形成包含若干分割区域的初始化区域集R={r1,…,rn},判断两个分割区域之间是否有明显的边界,主要是将两个分割区域之间的差别与两个分割区域内部差中的最小值进行比较,如果前者小于后者,则表示两个相邻区域之间没有明显边界,将其合并为一个区域,否则,不进行任何操作。
2.根据权利要求1所述的行人识别方法,其特征在于,所述步骤S3具体为:结合颜色相似度策略计算相邻的分割区域的颜色相似度scolour(ri,rj),结合纹理相似度策略计算相邻的分割区域的纹理相似度stexture(ri,rj),结合分割区域大小相似度策略计算相邻的分割区域的大小相似度ssize(ri,rj),给合吻合相似度策略计算相邻的分割区域的吻合相似度sfill(ri,rj),并最终计算相邻的分割区域之间的相似度s(ri,rj),并将其添加到相似度集S中;所述相邻的分割区域的相似度s(ri,rj)的计算公式为:
s(ri,rj)=a1scolour(ri,rj)+a2stexture(ri,rj)+a3ssize(ri,rj)+a4sfill(ri,rj);
其中,a1、a2、a3、a4是系数,均设为0.25。
3.根据权利要求2所述的行人识别方法,其特征在于,所述结合颜色相似度策略计算相邻的分割区域的颜色相似度scolour(ri,rj)具体为:对每个分割区域,计算RGB三个颜色通道中所含的25个区间的直方图,以形成包含75维的向量
Figure FDA0002495027490000031
所述颜色相似度scolour(ri,rj)的计算公式为:
Figure FDA0002495027490000032
其中,m=75;scolour(ri,rj)表示第i、j个分割区域ri和rj的颜色相似度;
Figure FDA0002495027490000033
表示第i个分割区域的颜色直方图中第k个区间的值;
所述结合纹理相似度策略计算相邻的分割区域的纹理相似度stexture(ri,rj)具体为:基于SIFT-Like特征,对RGB三个颜色通道计算8个方向的方差σ=1的高斯微分和含10个区间的直方图,以形成包含240维的向量
Figure FDA0002495027490000034
所述纹理相似度stexture(ri,rj)的计算公式为:
Figure FDA0002495027490000035
其中,n=240;stexture(ri,rj)表示第i、j个分割区域ri和rj的纹理相似度;
Figure FDA0002495027490000036
表示第i个分割区域的纹理直方图中第k个区间的值;
所述结合分割区域大小相似度策略计算相邻的分割区域的大小相似度ssize(ri,rj)具体为:将相邻的分割区域中按照分割区域的面积按照从小到大的秩序,顺序地执行分割区域的合并操作,所述大小相似度ssize(ri,rj)的计算公式为:
Figure FDA0002495027490000037
其中,size(ri)为分割区域ri中包含的像素点的个数,size(rj)为分割区域rj中包含的像素点的个数,size(img)为输入图像的像素点的个数;
所述给合吻合相似度策略计算相邻的分割区域的吻合相似度sfill(ri,rj)具体为:先将相邻的分割区域中按照吻合相似度指标从高到低的秩序,顺序地执行分割区域的合并操作,所述吻合相似度指标是合并后所形成的区域的最小外接椭圆;所述吻合相似度的计算公式为:
Figure FDA0002495027490000041
其中,BBij是分割区域i与分割区域j合并后形成的区域的最小外接椭圆。
4.根据权利要求3所述的行人识别方法,其特征在于,所述步骤S4具体包括以下子步骤:
S41、从相似度集S中选出最大相似度值max(S),将该最大相似度值max(S)对应的分割区域ri与分割区域rj合并为一个区域rt
S42、从相似度集S中删除原先与分割区域ri及分割区域rj相邻的分割区域的相似度,并计算分割区域rt与其相邻的分割区域的相似度,将相似度添加的到相似度集S中,以对相似度集S作更新;
S43、将分割区域rt添加到初始化区域集R中,以形成更新后的初始化区域集R'。
5.根据权利要求1所述的行人识别方法,其特征在于,所述步骤S5具体为:计算更新后的初始化区域集R'中的每个分割区域的最小外接椭圆,获得所述最小外接椭圆的长轴b、短轴a及长轴b与竖直方向的夹角θ;
若最小外接椭圆的椭圆参数同时满足要求a>Pmin、b>2a及θ<40°的指标,则认为该最小外接椭圆所对应的区域是候选行人区域;
其中,Pmin为候选行人区域rk的最小宽度阈值,Pmin=50像素。
6.根据权利要求5所述的行人识别方法,其特征在于,所述步骤S5还包括:根据更新后的初始化区域集R'中分割区域中的像素点的分布情况对步骤S5中所获取的候选行人区域rk,进行进一步的过滤,并具体为:
根据候选行人区域rk中的像素点的分布情况,计算候选行人区域rk的重心centre(rk)及垂直高度h(rk),并以候选行人区域rk的重心centre(rk)为中心、h(rk)为长轴、
Figure FDA0002495027490000051
为短轴,获得椭圆区域Ellip,将椭圆区域Ellip中属于候选行人区域rk中的像素点个数size(Ellip∩rk)与候选行人区域rk中全部的像素点个数size(rk)进行比较;
如果size(Ellip∩rk)∈[0.5×size(rk),1.2×size(rk)],则判定该椭圆区域Ellip为包含行人目标的候选行人区域rk;否则,过滤该椭圆区域Ellip;所述候选行人区域rk的重心centre(rk)的坐标计算公式为:
Figure FDA0002495027490000052
其中,(xi,yi)是候选行人区域rk中的像素点的坐标位置信息。
7.根据权利要求1所述的行人识别方法,其特征在于,所述步骤S6具体为:针对步骤S5中获取的候选行人区域rk,以其最小外界椭圆的长轴b所在方向为中心轴,截取顶部高度为
Figure FDA0002495027490000061
的区域作为候选行人区域rk中的头肩区域,沿着长轴b方向垂直等分为九个区域,计算每个区域的像素点个数;如果九个区域的像素点符合Ω模型结构,则判定该候选行人区域rk为行人目标。
8.根据权利要求7所述的行人识别方法,其特征在于,所述Ω模型结构中,第1个区域与第9个区域的像素点个数、第2个区域与第8个区域的像素点个数、第3个区域与第7个区域的像素点个数、第4个区域与第6个区域的像素点个数与第5个区域的像素点个数的比值分别在0.1~0.3、0.2~0.4、0.6~0.8、0.8~1内。
CN201611198248.9A 2016-12-19 2016-12-19 一种基于区域分割的行人识别方法 Active CN106778633B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611198248.9A CN106778633B (zh) 2016-12-19 2016-12-19 一种基于区域分割的行人识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611198248.9A CN106778633B (zh) 2016-12-19 2016-12-19 一种基于区域分割的行人识别方法

Publications (2)

Publication Number Publication Date
CN106778633A CN106778633A (zh) 2017-05-31
CN106778633B true CN106778633B (zh) 2020-07-07

Family

ID=58899426

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611198248.9A Active CN106778633B (zh) 2016-12-19 2016-12-19 一种基于区域分割的行人识别方法

Country Status (1)

Country Link
CN (1) CN106778633B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108284793A (zh) * 2018-01-10 2018-07-17 深圳市鑫汇达机械设计有限公司 一种车辆辅助控制装置
CN108416295B (zh) * 2018-03-08 2021-10-15 天津师范大学 一种基于局部嵌入深度特征的行人再识别方法
CN108711156A (zh) * 2018-05-10 2018-10-26 江苏澳特丝生物科技有限公司 一种图像分割复杂性测度方法
CN108830240A (zh) * 2018-06-22 2018-11-16 广州通达汽车电气股份有限公司 疲劳驾驶状态检测方法、装置、计算机设备和存储介质
CN109102036A (zh) * 2018-09-26 2018-12-28 云南电网有限责任公司电力科学研究院 一种用于输电线路故障识别的图像标记方法及装置
CN112470893A (zh) * 2020-11-24 2021-03-12 珠海格力电器股份有限公司 浇水方法、装置、浇水机器人及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663411A (zh) * 2012-02-29 2012-09-12 宁波大学 一种目标人体识别方法
CN104077605A (zh) * 2014-07-18 2014-10-01 北京航空航天大学 一种基于颜色拓扑结构的行人搜索识别方法
CN104732521A (zh) * 2015-02-02 2015-06-24 北京理工大学 一种基于权重组相似活动轮廓模型的相似目标分割方法
CN105005760A (zh) * 2015-06-11 2015-10-28 华中科技大学 一种基于有限混合模型的行人再识别方法
CN105023008A (zh) * 2015-08-10 2015-11-04 河海大学常州校区 基于视觉显著性及多特征的行人再识别方法
CN105718841A (zh) * 2014-08-18 2016-06-29 无锡慧眼电子科技有限公司 一种对行人分类器实现动态更新的人数统计方法
CN106127780A (zh) * 2016-06-28 2016-11-16 华南理工大学 一种曲面表面缺陷自动检测方法及其装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663411A (zh) * 2012-02-29 2012-09-12 宁波大学 一种目标人体识别方法
CN104077605A (zh) * 2014-07-18 2014-10-01 北京航空航天大学 一种基于颜色拓扑结构的行人搜索识别方法
CN105718841A (zh) * 2014-08-18 2016-06-29 无锡慧眼电子科技有限公司 一种对行人分类器实现动态更新的人数统计方法
CN104732521A (zh) * 2015-02-02 2015-06-24 北京理工大学 一种基于权重组相似活动轮廓模型的相似目标分割方法
CN105005760A (zh) * 2015-06-11 2015-10-28 华中科技大学 一种基于有限混合模型的行人再识别方法
CN105023008A (zh) * 2015-08-10 2015-11-04 河海大学常州校区 基于视觉显著性及多特征的行人再识别方法
CN106127780A (zh) * 2016-06-28 2016-11-16 华南理工大学 一种曲面表面缺陷自动检测方法及其装置

Also Published As

Publication number Publication date
CN106778633A (zh) 2017-05-31

Similar Documents

Publication Publication Date Title
CN106778633B (zh) 一种基于区域分割的行人识别方法
CN108304798B (zh) 基于深度学习及运动一致性的街面秩序事件视频检测方法
WO2017190574A1 (zh) 一种基于聚合通道特征的快速行人检测方法
CN109033950B (zh) 基于多特征融合级联深度模型的车辆违停检测方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
US9286678B2 (en) Camera calibration using feature identification
RU2484531C2 (ru) Устройство обработки видеоинформации системы охранной сигнализации
CN109598794B (zh) 三维gis动态模型的构建方法
CN106845364B (zh) 一种快速自动目标检测方法
CN104200521B (zh) 基于模型先验的高分辨率sar图像建筑物目标三维重建方法
US20090309966A1 (en) Method of detecting moving objects
CN106682586A (zh) 一种复杂光照条件下基于视觉的实时车道线检测的方法
CN108305260B (zh) 一种图像中角点的检测方法、装置及设备
CN102598057A (zh) 自动对象识别、然后根据对象形状进行对象跟踪的方法和系统
WO2013186662A1 (en) Multi-cue object detection and analysis
CN112084869A (zh) 一种基于紧致四边形表示的建筑物目标检测方法
CN105893946A (zh) 一种正面人脸图像的检测方法
CN104715244A (zh) 一种基于肤色分割和机器学习的多视角人脸检测方法
CN111915583B (zh) 复杂场景中基于车载红外热像仪的车辆和行人检测方法
CN106778540B (zh) 停车检测准确的基于双层背景的停车事件检测方法
CN106778742B (zh) 一种基于Gabor滤波器背景纹理抑制的车标检测方法
CN113111722A (zh) 基于改进Mask R-CNN的自动驾驶目标识别方法
CN110738076A (zh) 一种图像中的人数统计方法及系统
CN102142090B (zh) 车辆检测方法和系统
CN102682291B (zh) 一种场景人数统计方法、装置和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant