CN102663411B - 一种目标人体识别方法 - Google Patents
一种目标人体识别方法 Download PDFInfo
- Publication number
- CN102663411B CN102663411B CN201210050622.6A CN201210050622A CN102663411B CN 102663411 B CN102663411 B CN 102663411B CN 201210050622 A CN201210050622 A CN 201210050622A CN 102663411 B CN102663411 B CN 102663411B
- Authority
- CN
- China
- Prior art keywords
- field picture
- human object
- image
- object region
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种目标人体识别方法,首先通过对两个包含同一人体对象的图像序列进行分割处理,获得每帧图像中的人体对象区域,然后根据两个图像序列中的每帧图像中的人体对象区域,分别计算两个图像序列的空间颜色特征相似度和局部特征相似度,再利用颜色特征相似度和局部特征相似度训练SVM分类器,最后利用SVM分类器对待识别的两个图像序列进行目标人体识别,由于本发明方法充分利用空间颜色特征和局部特征来识别目标人体,因此能够有效提高识别率,且本发明方法的计算复杂度较低。
Description
技术领域
本发明涉及一种目标对象识别技术,尤其是涉及一种目标人体识别方法。
背景技术
随着人们安全意识的增强以及安全形势的需要,越来越多的公共场所安装了视频监控系统。在这些视频监控系统中都有这样一类功能需求,即判别当前视频中出现的人是否与其它视频中我们感兴趣的人为同一个人。该功能需求为非重叠的多摄像系统中的人体重现(Person Re-identification)问题,或称之为目标人体识别。与人体检测、跟踪等视频监控中常见的任务相比,目标人体识别(人体重现)属于事件检测的内容,属于智能视频监控中更高层的目标,其实现的难度更大。
在大多数视频监控系统中,由于视频质量方面的问题,包括分辨率低、光线变化大以及姿态、着装的影响,使得目标人体识别无法应用基于生物特征的识别方法来完成。因此,研究人员提出了一种基于表观特征(如颜色、纹理统计特征以及局部特征)的目标人体识别方法。这种基于表观特征的目标人体识别方法来自以下考虑:首先,在众多视频或图像序列中,包括来自公共场所的监控视频,无法获得人脸的正面图像,或者图像的质量无法为人脸识别、步态识别等等提供可靠的保障,该环境下也无法有效地进行指纹、虹膜识别;其次,应用是在已知目标对象的前提下,希望通过视频分析与识别,为人们查找该目标对象在相近的一段时间内(着装不发生改变)出现在其他场所提供线索;最后,在非重叠的多摄像系统中,在系统覆盖的区域内跨越多个摄像机间的人体跟踪也需要同样的人体识别技术。
在基于表观特征的目标人体识别方法中被使用较多的一类特征是全局表观特征,如各种颜色直方图、基于特定滤波器的各种纹理特征等。为消除光线的影响,O.Javed等人(O.Javed,et al.Appearance modeling for tracking in multiple non-overlapping cameras.InIEEE Conference on Computer Vision and Pattern Recognition,2005,多重非重叠摄像中的基于表观模型的追踪,计算机视觉与模式识别国际会议,2005)提出了一种亮度转换函数方法消除不同摄像机间由于光线变化带来的差异,但需要通过校正的目标对象进行学习。由于缺乏空间结构信息,因此颜色/纹理特征对姿态变化以及部分遮挡等问题缺乏鲁棒性。随着各种局部不变特征的提出,能编码空间结构信息以及对部分遮挡具有鲁棒性的局部不变特征被应用在了目标人体识别中。O.Hamdoun等人(O Hamdoun,et al.Personre-identification in multi-camera system by signature based on interest point descriptorscollected on short video sequences.ICDSC-08,基于视频序列中兴趣点特征的多摄像系统中的人体识别,国际科学史会议,2008)提出了一种改进SURF(Speeded-Up RobustFeature)的局部描述子特征,并通过建立局部描述子的K维树进行特征匹配。L.F.Teixeira等人(L.F.Teixeira,et al.Video object matching across multiple independent views usinglocal descriptors and adaptive learning.Pattern Recognition Letters,2009,基于局部描述和自适应学习的多重独立视角下的视频对象的匹配,模式识别杂志,2009)通过层次K均值聚类方法建立基于局部描述子的视觉词汇树,并对比了基于局部描述子的视觉词汇法(bag-of-features)与基于主要颜色直方图方法的识别效果。O.Hamdoun等人与L.F.Teixeira等人提出的方法都通过预先建立并存储大量要查询的人体对象,进而完成快速人体对象识别,但只依靠局部特征的方法,并没有明显提高目标人体识别效果。D.Gray等人(D.Gray,H.Tao.Viewpoint Invariant Pedestrian Recognition with an Ensemble ofLocalized Features,.ECCV2008,基于局部特征整合的视角不变的人体识别,欧洲计算机视觉国际会议,2008)通过在图像局部区域上提取一组底层特征(包括颜色与纹理特征),再利用Adaboost从中选择出最具视觉不变性的描述,结果显示颜色信息在最终的视觉不变性的描述中占有最大的比重。局部特征一般都建立在兴趣点检测基础上,而在较低分辨率的图像或视频中只能提取很少的兴趣点,在粗糙的分割情况下会影响匹配的可靠性。上海交通大学的刘坤、杨杰等人(Kun Liu,Jie Yang.Recognition of peoplereoccurrences using bag-of-features representation and support vector machine,CCPR2009,使用特征词袋法和支持向量机的人体识别,中国模式识别会议,2009)将上述两种特征合并构成更高维的特征,在一定程度上改进了识别效果。中科院自动化所的蔡莹皓、黄凯奇等人(Yinghao Cai,Kaiqi Huang and Tieniu Tan.Human Appearance Matching AcrossMultiple Non-overlapping Cameras.ICPR2008,多重非重叠摄像条件下的人体表观特征的匹配,国际模式识别会议,2008)则使用canny算子提取人体边缘,结合基于边缘上采样点周围的局部特征与几何约束信息建立对象描述,该方法在人体轮廓清晰,背景较简单的图像序列上能够取得一定的识别效果。
发明内容
本发明所要解决的技术问题是提供一种计算复杂度低,且能够有效提高识别率的基于空间颜色特征和局部特征的目标人体识别方法。
本发明解决上述技术问题所采用的技术方案为:一种目标人体识别方法,其特征在于包括以下步骤:
①从非重叠的多摄像系统中采集两个包含人体对象的图像序列,每个图像序列包括多帧图像,两个图像序列中的图像的帧数相同;
②对两个图像序列中的每帧图像进行分割处理,得到每帧图像中的人体对象区域;
③根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的空间颜色特征相似度,具体过程为:
③-1、计算两个图像序列中的每帧图像中的人体对象区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的R颜色通道的颜色均值记为将每帧图像中的人体对象区域的G颜色通道的颜色均值记为将每帧图像中的人体对象区域的B颜色通道的颜色均值记为
③-2、对两个图像序列中的每帧图像中的人体对象区域进行水平划分,平均划分为N个子区域,然后计算每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的各个子区域的R颜色通道的颜色均值记为将每帧图像中的人体对象区域的各个子区域的G颜色通道的颜色均值记为将每帧图像中的人体对象区域的各个子区域的B颜色通道的颜色均值记为其中,N>1;
③-3、采用基于各个颜色通道的灰度归一化方法对两个图像序列中的每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理,得到和对应的归一化处理后的颜色均值,分别记为和 然后将由每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理后的颜色均值形成的一个长度为3×N的向量作为该帧图像的空间颜色特征;
③-4、根据两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,构造一个大小为2m×2m的关系矩阵W,将关系矩阵W中第i行第j列的元素记为Wij,其中,m表示每个图像序列中的图像的帧数,1≤i≤2m,1≤j≤2m,exp()表示以自然对数e为底的指数函数,d(xi,xj)表示两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,xik表示空间颜色特征xi的第k个分量,xjk表示空间颜色特征xj的第k个分量,
③-5、对关系矩阵W进行归一化处理,得到规范化谱矩阵P,将规范化谱矩阵P中第i行第j列的元素记为Pij,Pij=Wij Dii,其中,然后采用谱分解方法对规范化谱矩阵P进行谱分解,得到规范化谱矩阵P的2m个维数为2m的特征向量及对应的特征值;
③-6、对规范化谱矩阵P的2m个特征值进行排序,选择按特征值从大到小排序之后第二和第三大的两个特征值对应的特征向量构造两个图像序列中的每帧图像在二维空间的可视化描述,具体过程为:a、将按特征值从大到小排序之后第二和第三大的两个特征值对应的特征向量分别记为和b、将由和中对应位置的前m个分量构成的m个坐标位置作为第一个图像序列中的m帧图像在二维空间的可视化描述,将由和中对应位置的后m个分量构成的m个坐标位置作为第二个图像序列中的m帧图像在二维空间的可视化描述;
③-7、根据两个图像序列中的每帧图像在二维空间的可视化描述,计算两个图像序列的空间颜色特征相似度,记为J,其中,t={1,2},min()为取最小值函数,X表示二维空间上的一个坐标位置,St表示第t个图像序列中的m帧图像在二维空间上的坐标位置的集合,“||||”为欧氏距离计算符号,Mt表示St中的所有坐标位置的均值,Nt表示St中所包含的坐标位置的个数;
④根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的局部特征相似度,具体过程为:
④-1、采用尺度不变特征转换方法提取两个图像序列中的每帧图像中的人体对象区域的局部特征集合,将第一个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为X,X={x1,x2,...,xu,...,xm},将第二个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为Y,Y={y1,y2,...,yv,...,ym},其中,x1表示第一个图像序列中的第1帧图像中的人体对象区域的局部特征集合,x2表示第一个图像序列中的第2帧图像中的人体对象区域的局部特征集合,xu表示第一个图像序列中的第u帧图像中的人体对象区域的局部特征集合,xm表示第一个图像序列中的第m帧图像中的人体对象区域的局部特征集合,y1表示第二个图像序列中的第1帧图像中的人体对象区域的局部特征集合,y2表示第二个图像序列中的第2帧图像中的人体对象区域的局部特征集合,yv表示第二个图像序列中的第v帧图像中的人体对象区域的局部特征集合,ym表示第二个图像序列中的第m帧图像中的人体对象区域的局部特征集合,1≤u≤m,1≤v≤m;
④-3、对和分别进行L+1级尺度直方图生成,得到对应的L+1级尺度下的尺度直方图集合和对应的L+1级尺度下的尺度直方图集合,分别记为和 其中,0≤q≤L,表示在第0级尺度下的尺度直方图,表示在第1级尺度下的尺度直方图,表示在第q级尺度下的尺度直方图,表示在第L级尺度下的尺度直方图,表示在第0级尺度下的尺度直方图,表示在第1级尺度下的尺度直方图,表示在第q级尺度下的尺度直方图,表示在第L级尺度下的尺度直方图,和的柱体宽度均为2q,和的柱体的个数均为d表示或中的各个局部特征集合中的每个局部特征的维度,或中的各个局部特征集合中的每个局部特征的维度一致,D表示包含或中的所有局部特征集合的球体的直径;
④-4、对和在各级相同尺度下的尺度直方图进行相似度匹配,得到和在各级相同尺度下的尺度直方图的相似度,对于和在第q级尺度下的尺度直方图的相似度,将其记为Iq,其中,min()为取最小值函数,表示的第s个柱体的数值,表示的第s个柱体的数值;
④-5、分别计算和在前后两级尺度下的尺度直方图的相似度的差值,然后根据和在前后两级尺度下的尺度直方图的相似度的差值、和计算两个图像序列的局部特征相似度,记为KΔ,其中,ωq为权值,ωq=2-q,Nq表示和在第q级尺度下的尺度直方图的相似度Iq与和在第q-1级尺度下的尺度直方图的相似度Iq-1的差值,
⑤根据两个图像序列的空间颜色特征相似度和局部特征相似度训练SVM分类器,再利用SVM分类器对待识别的两个图像序列进行目标人体识别,具体过程为:
⑤-1、选取一些由两个包含同一人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为正样本;
⑤-2、选取一些由两个包含不同人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为负样本;
⑤-3、利用正样本和负样本训练二维平面上的SVM分类器,训练得到的SVM分类器为二维平面上的一条分界线;
⑤-4、依照步骤②至步骤④相同的操作,计算待识别的两个图像序列的空间颜色特征相似度和局部特征相似度,并将两者的组合视为二维平面上的坐标点(x*,y*),再利用训练好的SVM分类器对待识别的两个图像序列进行目标人体识别,如果(x*,y*)落在分界线正样本所在一侧,则判定待识别的两个图像序列中的人体对象为同一个人,如果(x*,y*)落在分界线负样本所在一侧,则判定待识别的两个图像序列中的人体对象不为同一个人。
所述的步骤②中分割处理采用GrabCut方法。
与现有技术相比,本发明的优点在于首先通过对两个包含同一人体对象的图像序列进行分割处理,获得每帧图像中的人体对象区域,然后根据两个图像序列中的每帧图像中的人体对象区域,分别计算两个图像序列的空间颜色特征相似度和局部特征相似度,再利用颜色特征相似度和局部特征相似度训练SVM分类器,最后利用SVM分类器对待识别的两个图像序列进行目标人体识别,由于本发明方法充分利用空间颜色特征和局部特征来识别目标人体,因此能够有效提高识别率,且本发明方法的计算复杂度较低。
附图说明
图1为本发明方法的流程框图;
图2c为图2a所示的尺度直方图与图2b所示的尺度直方图相交得到的尺度直方图;
图3a为两个人体(着装)差异较大的图像序列及其经过本发明方法处理后得到的空间颜色特征相似度;
图3b为两个着装部分相似的人体图像序列及其经过本发明方法处理后得到的空间颜色特征相似度;
图3c为同一人体对象在不同环境下通过不同摄像机获取的两个图像序列及其经过本发明方法处理后得到的空间颜色特征相似度;
图4a为待识别的目标图像序列;
图4b为候选的与目标图像序列进行匹配的图像序列一;
图4c为候选的与目标图像序列进行匹配的图像序列二;
图4d为候选的与目标图像序列进行匹配的图像序列三。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种目标人体识别方法,其流程框图如图1所示,其包括以下步骤:
①从非重叠的多摄像系统中采集两个包含人体对象的图像序列,每个图像序列包括多帧图像,两个图像序列中的图像的帧数相同。
②采用现有的GrabCut方法(其是一种交互式图像分割方法)对两个图像序列中的每帧图像进行分割处理,得到每帧图像中的人体对象区域。
③根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的空间颜色特征相似度,具体过程为:
③-1、计算两个图像序列中的每帧图像中的人体对象区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的R颜色通道的颜色均值记为将每帧图像中的人体对象区域的G颜色通道的颜色均值记为将每帧图像中的人体对象区域的B颜色通道的颜色均值记为
③-2、人体着装的颜色特征在目标人体识别中是主要依据的表观特征,考虑到目标人体识别中,人体对应关系的建立也起着至关重要的作用,因此本发明采用了一种隐式的人体对应关系,即将空间信息融入表观特征中,空间颜色特征就是这样一种表观特征。因此,本发明对两个图像序列中的每帧图像中的人体对象区域进行水平划分,平均划分为N个子区域,然后计算每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的各个子区域的R颜色通道的颜色均值记为将每帧图像中的人体对象区域的各个子区域的G颜色通道的颜色均值记为将每帧图像中的人体对象区域的各个子区域的B颜色通道的颜色均值记为
在此具体实施例中,N>1,在实际处理过程中,一般N值不宜取太小,这是因为N值太小时会导致最终的识别结果不准确,N值也不宜取太大,这是因为N值太大时,会增加计算复杂度。
③-3、为尽量消除由于服装反射、光线亮度、摄像机设备以及环境等因素给空间颜色特征带来的影响,有必要对每帧图像中的人体对象区域的各个子区域的三个颜色通道的颜色值做颜色归一化处理。因此,本发明采用基于各个颜色通道的灰度归一化方法对两个图像序列中的每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理,得到和对应的归一化处理后的颜色均值,分别记为和 然后将由每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理后的颜色均值形成的一个长度为3×N的向量作为该帧图像的空间颜色特征即作为该帧图像的表观特征。空间颜色特征由于引入了空间信息,在一定程度上,解决了传统的颜色直方图中无法准确判别颜色的空间分布的困难,同时使得在基于表观特征计算两幅图像中人体对象的距离时,通过特征匹配隐式地建立了人体对应关系,能更准确地反映人体对象的相似性。
在此,采用基于各个颜色通道的灰,度归一化方法对两个图像序列中的每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理,可使得提取得到的颜色空间特征只对光照的色度具有不变性,不具有对光照强度的不变性,与基于色度空间的归一化方法以及基于直方图均衡化方法相比,仍然能够取得最好的人体识别率。
③-4、根据两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,构造一个大小为2m×2m的关系矩阵W,该关系矩阵W为一个基于空间颜色特征的相似性矩阵,将关系矩阵W中第i行第j列的元素记为Wij,如果空间颜色特征xi对应的图像和空间颜色特征xj对应的图像来自同一个图像序列,则Wij的值较大,反之,Wij的值较小,其中,m表示每个图像序列中的图像的帧数,1≤i≤2m,1≤j≤2m,exp()表示以自然对数e为底的指数函数,d(xi,xj)表示两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,xik表示空间颜色特征xi的第k个分量,xjk表示空间颜色特征xj的第k个分量,
③-5、对关系矩阵W进行归一化处理,得到规范化谱矩阵P,将规范化谱矩阵P中第i行第j列的元素记为Pij,Pij=Wij/Dii,其中,然后采用谱分解方法对规范化谱矩阵P进行谱分解,得到规范化谱矩阵P的2m个维数为2m的特征向量及对应的特征值。
③-6、对规范化谱矩阵P的2m个特征值进行排序,选择按特征值从大到小排序之后第二和第三大的两个特征值对应的特征向量构造两个图像序列中的每帧图像在二维空间的可视化描述,具体过程为:a、将按特征值从大到小排序之后第二和第三大的两个特征值对应的特征向量分别记为和b、将由和中对应位置的前m个分量构成的m个坐标位置作为第一个图像序列中的m帧图像在二维空间的可视化描述,将由和中对应位置的后m个分量构成的m个坐标位置作为第二个图像序列中的m帧图像在二维空间的可视化描述。
③-7、获得两个图像序列中的各帧图像在二维空间的可视化描述后,可以通过多种方式判别两个图像序列的相似性,但由于判别两个图像序列的相似性的目的不仅是能够区分差异较大的人体图像序列,而且更需要能够判别两个相似的图像序列中所包含的两个人体对象是否为同一个人。通过分析多种情况下两个图像序列在二维空间的分布情况,得出:相应的两个图像序列中的图像投影到内嵌空间,其中总有一个图像序列中的图像分布比较发散,而另一个图像序列中的图像随着两个图像序列中图像的相似程度不同而表现为不同的分布,即如果两个图像序列中的图像差异越大,则后一个图像序列中的图像分布越集中。因此,本发明根据两个图像序列中的每帧图像在二维空间的可视化描述,计算两个图像序列的空间颜色特征相似度,记为J,J值越大,则两个图像序列中的人体对象越相似,其中,t={1,2},min()为取最小值函数,X表示二维空间上的一个坐标位置,St表示第t个图像序列中的m帧图像在二维空间上的坐标位置的集合,“||||”为欧氏距离计算符号,Mt表示St中的所有坐标位置的均值,即为点集St的中心,Nt表示St中所包含的坐标位置的个数。
④根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的局部特征相似度,具体过程为:
④-1、采用尺度不变特征转换(SIFT,Scale-invariant feature transform)方法提取两个图像序列中的每帧图像中的人体对象区域的局部特征集合,将第一个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为X,X={x1,x2,...,xu,...,xm},将第二个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为Y,Y={y1,y2,...,yv,...,ym},其中,x1表示第一个图像序列中的第1帧图像中的人体对象区域的局部特征集合,x2表示第一个图像序列中的第2帧图像中的人体对象区域的局部特征集合,xu表示第一个图像序列中的第u帧图像中的人体对象区域的局部特征集合,xm表示第一个图像序列中的第m帧图像中的人体对象区域的局部特征集合,y1表示第二个图像序列中的第1帧图像中的人体对象区域的局部特征集合,y2表示第二个图像序列中的第2帧图像中的人体对象区域的局部特征集合,yv表示第二个图像序列中的第v帧图像中的人体对象区域的局部特征集合,ym表示第二个图像序列中的第m帧图像中的人体对象区域的局部特征集合,1≤u≤m,1≤v≤m。
④-3、对和分别进行L+1级尺度直方图生成,得到对应的L+1级尺度下的尺度直方图集合和对应的L+1级尺度下的尺度直方图集合,分别记为和 其中,0≤q≤L,表示在第0级尺度下的尺度直方图,表示在第1级尺度下的尺度直方图,表示在第q级尺度下的尺度直方图,表示在第L级尺度下的尺度直方图,表示在第0级尺度下的尺度直方图,表示在第1级尺度下的尺度直方图,表示在第q级尺度下的尺度直方图,表示在第L级尺度下的尺度直方图,和的柱体宽度均为2q,和的柱体的个数均为rq,d表示或中的各个局部特征集合中的每个局部特征的维度,或中的各个局部特征集合中的每个局部特征的维度一致,但两个局部特征集合中的局部特征的个数可以不一样,D表示包含或中的所有局部特征集合的球体的直径(即或中的所有局部特征集合在d维空间中最远的两个局部特征之间的距离)。
④-4、对和在各级相同尺度下的尺度直方图进行相似度匹配,得到和在各级相同尺度下的尺度直方图的相似度,对于和在第q级尺度下的尺度直方图的相似度,将其记为Iq,其中,min()为取最小值函数,表示的第s个柱体的数值,表示的第s个柱体的数值。图2a给出了在第q级尺度下的尺度直方图图2b给出了在第q级尺度下的尺度直方图图2c给出了图2a所示的尺度直方图与图2b所示的尺度直方图相交得到的尺度直方图,通过图2c所示的尺度直方图可得到和在第q级尺度下的尺度直方图的相似度Iq。
④-5、分别计算和在前后两级尺度下的尺度直方图的相似度的差值,然后根据和在前后两级尺度下的尺度直方图的相似度的差值、和计算两个图像序列的局部特征相似度,记为KΔ,其中,ωq为权值,ωq=2-q,Nq表示和在第q级尺度下的尺度直方图的相似度Iq与和在第q-1级尺度下的尺度直方图的相似度Iq-1的差值, 在此计算两个图像序列的局部特征相似度KΔ的时间复杂度为O(d×m'×logD),m'为图像对应的局部特征集合中的局部特征的个数。
在此,由于在新一级尺度下得到的匹配可能也在前一级尺度下已经得到过匹配,因此在计算新一级尺度下的有用的匹配时要相应减去上一级尺度下的匹配,否则上一级尺度下得到的匹配会被重复计算。
在此,取ωq=2-q,这样就能使得在小尺度下得到的匹配值权重较大,在大尺度下得到的匹配值权重较小。这是因为在小尺度下得到的匹配较精确,而随着尺度直方图的柱体以两倍增长所得到的新匹配精确度下降,所以权值采取的1/2倍的下降速度正好符合柱体宽度2倍的增长。
⑤根据两个图像序列的空间颜色特征相似度和局部特征相似度训练SVM分类器,再利用SVM分类器对待识别的两个图像序列进行目标人体识别,具体过程为:
⑤-1、选取一些由两个包含同一人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为正样本;
⑤-2、选取一些由两个包含不同人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为负样本;
⑤-3、利用正样本和负样本训练二维平面上的SVM分类器,即训练得到的SVM分类器为二维平面上的一条分界线。在此,选取图像序列对时对数可以根据分类器训练的需求任意选取多对。
⑤-4、依照步骤②至步骤④相同的操作,计算待识别的两个图像序列的空间颜色特征相似度和局部特征相似度,并将两者的组合视为二维平面上的坐标点(x*,y*),再利用训练好的SVM分类器对待识别的两个图像序列进行目标人体识别,如果(x*,y*)落在分界线正样本所在一侧,则判定待识别的两个图像序列中的人体对象为同一个人,如果(x*,y*)落在分界线负样本所在一侧,则判定待识别的两个图像序列中的人体对象不为同一个人。
以下为通过具体的实验来客观验证本发明方法的有效性和可行性。
实验环境:
实验中所用到的人体图像序列取自不同视频库,包括CAVIAR项目视频库以及自行建立的目标人体识别库。CAVIAR是关于动作识别的一个项目,提供了各种环境下的人体运动视频,包含较复杂的背景环境以及较大的光线变化。针对CAVIAR视频,实验中首先选择一个人在不同环境下的两个图像序列,这两个图像序列或者环境(背景与光线)差异较大,或者针对同一个人的不同姿态。这样的图像序列共提取10组(对应10个人,每组包含两个图像序列)。此外,提取了另外20个视频的人体图像序列(对应20个人,每人对应一个图像序列)。自行建立的目标人体识别测试库,针对同一个人体对象,利用两个不同的摄像机,在不同的两种环境中,获取对应的两个视频,从中提取包含完整人体的两个图像序列,形成一组。视频库中共包含有20个人的图像序列对,此外,还包含20个随机拍摄的人体图像序列。最终形成的目标人体识别库共包含100个图像序列,包含70个人体目标(有30个人体各自对应两个图像序列)。
在对图像中的人体对象区域进行水平划分时,实验中将人体对象区域水平平均划分为10个区域,分别提取每个子区域的RGB三个颜色通道的颜色值,形成一个30维的特征向量来描述该图像。
局部特征的提取是针对一个图像序列而言的,即分别提取图像序列中每一幅图像的SIFT局部特征,将这些局部特征合在一起作为该图像序列的局部特征。在此基础上,计算两个图像序列之间的相似性。这相当于将同一个人的一个图像序列合成一幅图像,然后再确定两幅图像的相似性。图像序列的局部特征匹配的好处:假设有A、B两组人体图像序列待识别,如果有特征点在图像序列A中的几幅图像中出现或者只出现一次,那么只要它在图像序列B中也出现过,这个特征就能得到匹配。
实验结果与分析:
针对空间颜色特征相似度的获取,选择三对图像序列,分别代表两个人体(着装)差异较大的图像序列、两个着装部分相似的人体图像序列以及同一人体对象在不同环境下通过不同摄像机获取的两个图像序列。图3a给出了两个人体(着装)差异较大的图像序列及其经过本发明方法处理后得到的空间颜色特征相似度(J=0.000663),图3b给出了两个着装部分相似的人体图像序列及其经过本发明方法处理后得到的空间颜色特征相似度(J=0.008906),图3c给出了同一人体对象在不同环境下通过不同摄像机获取的两个图像序列及其经过本发明方法处理后得到的空间颜色特征相似度(J=0.580242)。分析图3a至图3c,可知如果两个图像序列中的人体的相似度越大,则计算得到J的值也越大。
针对局部特征相似度的获取,选择四个图像序列,每个图像序列包含有10幅图像,以第一个图像序列为目标图像序列,分别计算该目标图像序列与后三个图像序列的相似度值。图4a给出了待识别的目标图像序列),图4b给出了候选的与目标图像序列进行匹配的图像序列一及目标图像序列与该图像序列的局部特征相似度(KΔ=377.254),图4c给出了候选的与目标图像序列进行匹配的图像序列二及目标图像序列与该图像序列的局部特征相似度(KΔ=314.854),图4d给出了候选的与目标图像序列进行匹配的图像序列三及目标序列与该图像序列的局部特征相似度(KΔ=282.914)。分析图4a至图4d,可知如果两个图像序列中的人体相似度越大,则计算得到的KΔ值也就越大。
表1列出了现有的人体识别方法与本发明方法的目标人体识别率比较。第一种方法是D.Truong Cong提出的建立基于空间颜色的图模型,然后使用谱降维,并且在降维后的二维平面内使用SVM进行分类;第二种方法是在第一种方法的降维后的基础上,使用聚类准则进行分类;第三种方法是单纯使用局部特征匹配来进行人体识别,识别率较低;最后一种为本发明方法。分析表1中所列的数据,可知本发明方法的识别效果较单纯使用空间颜色特征或局部特征更准确。
表1四种识别方法的识别率比较
识别方法 | 识别率(%) |
空间颜色特征使用特征值的谱降维 | 95 |
空间颜色谱降维聚类类准则 | 90 |
局部特征 | 78 |
本发明方法 | 96.87 |
Claims (2)
1.一种目标人体识别方法,其特征在于包括以下步骤:
①从非重叠的多摄像系统中采集两个包含人体对象的图像序列,每个图像序列包括多帧图像,两个图像序列中的图像的帧数相同;
②对两个图像序列中的每帧图像进行分割处理,得到每帧图像中的人体对象区域;
③根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的空间颜色特征相似度,具体过程为:
③-1、计算两个图像序列中的每帧图像中的人体对象区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的R颜色通道的颜色均值记为将每帧图像中的人体对象区域的G颜色通道的颜色均值记为将每帧图像中的人体对象区域的B颜色通道的颜色均值记为
③-2、对两个图像序列中的每帧图像中的人体对象区域进行水平划分,平均划分为N个子区域,然后计算每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值,将每帧图像中的人体对象区域的各个子区域的R颜色通道的颜色均值记为将每帧图像中的人体对象区域的各个子区域的G颜色通道的颜色均值记为将每帧图像中的人体对象区域的各个子区域的B颜色通道的颜色均值记为,其中,N>1;
③-3、采用基于各个颜色通道的灰度归一化方法对两个图像序列中的每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理,得到和对应的归一化处理后的颜色均值,分别记为和 然后将由每帧图像中的人体对象区域的各个子区域的R、G、B三个颜色通道的颜色均值进行归一化处理后的颜色均值形成的一个长度为3×N的向量作为该帧图像的空间颜色特征;
③-4、根据两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,构造一个大小为2m×2m的关系矩阵W,将关系矩阵W中第i行第j列的元素记为Wij,其中,m表示每个图像序列中的图像的帧数,1≤i≤2m,1≤j≤2m,exp()表示以自然对数e为底的指数函数,d(xi,xj)表示两个图像序列中的任意两帧图像的空间颜色特征的欧氏距离,xik表示空间颜色特征xi的第k个分量,xjk表示空间颜色特征xj的第k个分量,
③-5、对关系矩阵W进行归一化处理,得到规范化谱矩阵P,将规范化谱矩阵P中第i行第j列的元素记为Pij,Pij=Wij/Dii,其中,然后采用谱分解方法对规范化谱矩阵P进行谱分解,得到规范化谱矩阵P的2m个维数为2m的特征向量及对应的特征值;
③-6、对规范化谱矩阵P的2m个特征值进行排序,选择按特征值从大到小排序之后第二和第三大的两个特征值对应的特征向量构造两个图像序列中的每帧图像在二维空间的可视化描述,具体过程为:a、将按特征值从大到小排序之后第二和第三大的两个特征值对应的特征向量分别记为和b、将由和中对应位置的前m个分量构成的m个坐标位置作为第一个图像序列中的m帧图像在二维空间的可视化描述,将由和中对应位置的后m个分量构成的m个坐标位置作为第二个图像序列中的m帧图像在二维空间的可视化描述;
③-7、根据两个图像序列中的每帧图像在二维空间的可视化描述,计算两个图像序列的空间颜色特征相似度,记为J,其中,t={1,2},min()为取最小值函数,X表示二维空间上的一个坐标位置,St表示第t个图像序列中的m帧图像在二维空间上的坐标位置的集合,“||||”为欧氏距离计算符号,Mt表示St中的所有坐标位置的均值,Nt表示St中所包含的坐标位置的个数;
④根据两个图像序列中的每帧图像中的人体对象区域,计算两个图像序列的局部特征相似度,具体过程为:
④-1、采用尺度不变特征转换方法提取两个图像序列中的每帧图像中的人体对象区域的局部特征集合,将第一个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为X,X={x1,x2,...,xu,...,xm},将第二个图像序列中的每帧图像中的人体对象区域的局部特征集合构成的集合记为Y,Y={y1,y2,...,yv,...,ym},其中,x1表示第一个图像序列中的第1帧图像中的人体对象区域的局部特征集合,x2表示第一个图像序列中的第2帧图像中的人体对象区域的局部特征集合,xu表示第一个图像序列中的第u帧图像中的人体对象区域的局部特征集合,xm表示第一个图像序列中的第m帧图像中的人体对象区域的局部特征集合,y1表示第二个图像序列中的第1帧图像中的人体对象区域的局部特征集合,y2表示第二个图像序列中的第2帧图像中的人体对象区域的局部特征集合,yv表示第二个图像序列中的第v帧图像中的人体对象区域的局部特征集合,ym表示第二个图像序列中的第m帧图像中的人体对象区域的局部特征集合,1≤u≤m,1≤v≤m;
④-3、对和分别进行L+1级尺度直方图生成,得到对应的L+1级尺度下的尺度直方图集合和对应的L+1级尺度下的尺度直方图集合,分别记为和 其中,0≤q≤L,表示在第0级尺度下的尺度直方图,表示在第1级尺度下的尺度直方图,表示在第q级尺度下的尺度直方图,表示在第L级尺度下的尺度直方图,表示在第0级尺度下的尺度直方图,表示在第1级尺度下的尺度直方图,表示在第q级尺度下的尺度直方图,表示在第L级尺度下的尺度直方图,和的柱体宽度均为2q,和的柱体的个数均为d表示或中的各个局部特征集合中的每个局部特征的维度,或中的各个局部特征集合中的每个局部特征的维度一致,D表示包含或中的所有局部特征集合的球体的直径;
④-4、对和在各级相同尺度下的尺度直方图进行相似度匹配,得到和在各级相同尺度下的尺度直方图的相似度,对于和在第q级尺度下的尺度直方图的相似度,将其记为Iq,其中,min()为取最小值函数,表示的第s个柱体的数值,表示的第s个柱体的数值;
④-5、分别计算和在前后两级尺度下的尺度直方图的相似度的差值,然后根据和在前后两级尺度下的尺度直方图的相似度的差值、和计算两个图像序列的局部特征相似度,记为KΔ,其中,ωq为权值,ωq=2-q,Nq表示和在第q级尺度下的尺度直方图的相似度Iq与和在第q-1级尺度下的尺度直方图的相似度Iq-1的差值,
⑤根据两个图像序列的空间颜色特征相似度和局部特征相似度训练SVM分类器,再利用SVM分类器对待识别的两个图像序列进行目标人体识别,具体过程为:
⑤-1、选取一些由两个包含同一人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为正样本;
⑤-2、选取一些由两个包含不同人体对象的图像序列组成的图像序列对,依照步骤②至步骤④相同的操作,计算每个图像序列对的两个图像序列的空间颜色特征相似度J和局部特征相似度KΔ,并将每个图像序列对对应的J和KΔ的组合(J,KΔ)视为二维平面上的一个坐标点,然后将每个图像序列对对应的(J,KΔ)作为负样本;
⑤-3、利用正样本和负样本训练二维平面上的SVM分类器,训练得到的SVM分类器为二维平面上的一条分界线;
⑤-4、依照步骤②至步骤④相同的操作,计算待识别的两个图像序列的空间颜色特征相似度和局部特征相似度,并将两者的组合视为二维平面上的坐标点(x*,y*),再利用训练好的SVM分类器对待识别的两个图像序列进行目标人体识别,如果(x*,y*)落在分界线正样本所在一侧,则判定待识别的两个图像序列中的人体对象为同一个人,如果(x*,y*)落在分界线负样本所在一侧,则判定待识别的两个图像序列中的人体对象不为同一个人。
2.根据权利要求1所述的一种目标人体识别方法,其特征在于所述的步骤②中分割处理采用GrabCut方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210050622.6A CN102663411B (zh) | 2012-02-29 | 2012-02-29 | 一种目标人体识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210050622.6A CN102663411B (zh) | 2012-02-29 | 2012-02-29 | 一种目标人体识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102663411A CN102663411A (zh) | 2012-09-12 |
CN102663411B true CN102663411B (zh) | 2014-06-11 |
Family
ID=46772895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210050622.6A Expired - Fee Related CN102663411B (zh) | 2012-02-29 | 2012-02-29 | 一种目标人体识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102663411B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103065126B (zh) * | 2012-12-30 | 2017-04-12 | 信帧电子技术(北京)有限公司 | 不同场景对人体图像再识别的方法 |
CN103020614B (zh) * | 2013-01-08 | 2015-09-02 | 西安电子科技大学 | 基于时空兴趣点检测的人体运动识别方法 |
CN103617423B (zh) * | 2013-11-26 | 2017-01-25 | 前锦网络信息技术(上海)有限公司 | 基于色彩参数的图像拆分识别方法 |
CN103679142B (zh) * | 2013-12-02 | 2016-09-07 | 宁波大学 | 一种基于空间约束的目标人体识别方法 |
CN104077597B (zh) * | 2014-06-25 | 2017-09-05 | 小米科技有限责任公司 | 图像分类方法及装置 |
CN106611030B (zh) * | 2015-10-27 | 2020-05-19 | 杭州海康威视数字技术股份有限公司 | 基于视频的对象相似度比较方法和检索方法及其系统 |
CN106933816A (zh) * | 2015-12-29 | 2017-07-07 | 北京大唐高鸿数据网络技术有限公司 | 基于全局特征和局部特征的跨镜头目标检索系统及方法 |
CN107045520B (zh) * | 2016-11-29 | 2020-07-03 | 江南大学 | 一种基于位置信息加权词汇树的车辆图像检索方法 |
CN106778633B (zh) * | 2016-12-19 | 2020-07-07 | 江苏慧眼数据科技股份有限公司 | 一种基于区域分割的行人识别方法 |
CN108090485A (zh) * | 2017-11-28 | 2018-05-29 | 西安电子科技大学昆山创新研究院 | 基于多视角融合的图像前景自动提取方法 |
CN108427927B (zh) * | 2018-03-16 | 2020-11-27 | 深圳市商汤科技有限公司 | 目标再识别方法和装置、电子设备、程序和存储介质 |
CN109389691B (zh) * | 2018-09-29 | 2021-05-14 | 爱笔(北京)智能科技有限公司 | 基于生物信息的票务处理方法及系统、服务端、客户端 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101329765B (zh) * | 2008-07-31 | 2010-04-14 | 上海交通大学 | 多摄像机目标匹配特征融合方法 |
-
2012
- 2012-02-29 CN CN201210050622.6A patent/CN102663411B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN102663411A (zh) | 2012-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102663411B (zh) | 一种目标人体识别方法 | |
CN110084156B (zh) | 一种步态特征提取方法及基于步态特征的行人身份识别方法 | |
CN108764065B (zh) | 一种行人重识别特征融合辅助学习的方法 | |
CN108537191B (zh) | 一种基于结构光摄像头的三维人脸识别方法 | |
CN104850850B (zh) | 一种结合形状和颜色的双目立体视觉图像特征提取方法 | |
Merad et al. | Fast people counting using head detection from skeleton graph | |
CN107133601A (zh) | 一种基于生成式对抗网络图像超分辨率技术的行人再识别方法 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN102521616B (zh) | 基于稀疏表示的行人检测方法 | |
CN105023008A (zh) | 基于视觉显著性及多特征的行人再识别方法 | |
CN106991370B (zh) | 基于颜色和深度的行人检索方法 | |
CN103942577A (zh) | 视频监控中基于自建立样本库及混合特征的身份识别方法 | |
CN102609686A (zh) | 一种行人检测方法 | |
CN103761531A (zh) | 基于形状轮廓特征的稀疏编码车牌字符识别方法 | |
CN104517095A (zh) | 一种基于深度图像的人头分割方法 | |
CN108764096B (zh) | 一种行人重识别系统和方法 | |
Shah et al. | A novel biomechanics-based approach for person re-identification by generating dense color sift salience features | |
CN101131728A (zh) | 一种基于Shape Context的人脸形状匹配方法 | |
CN111460884A (zh) | 基于人体跟踪的多人脸识别方法 | |
CN108073940B (zh) | 一种非结构化环境中的3d目标实例物体检测的方法 | |
CN103905824A (zh) | 视频语义检索与压缩同步的摄像系统与方法 | |
CN112132157B (zh) | 一种基于树莓派的步态人脸融合识别方法 | |
CN104143091A (zh) | 基于改进mLBP的单样本人脸识别方法 | |
Tian et al. | Human Detection using HOG Features of Head and Shoulder Based on Depth Map. | |
CN107392953B (zh) | 基于等高线的深度图像识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140611 Termination date: 20170229 |
|
CF01 | Termination of patent right due to non-payment of annual fee |