CN103310233A - 同类行为多视图间相似度挖掘方法及行为识别方法 - Google Patents

同类行为多视图间相似度挖掘方法及行为识别方法 Download PDF

Info

Publication number
CN103310233A
CN103310233A CN2013102688844A CN201310268884A CN103310233A CN 103310233 A CN103310233 A CN 103310233A CN 2013102688844 A CN2013102688844 A CN 2013102688844A CN 201310268884 A CN201310268884 A CN 201310268884A CN 103310233 A CN103310233 A CN 103310233A
Authority
CN
China
Prior art keywords
similarity
behavior
matrix
vector
descriptor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013102688844A
Other languages
English (en)
Other versions
CN103310233B (zh
Inventor
王传旭
刘云
闫春娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Machine Vision Technology Co Ltd
Original Assignee
Qingdao University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao University of Science and Technology filed Critical Qingdao University of Science and Technology
Priority to CN201310268884.4A priority Critical patent/CN103310233B/zh
Publication of CN103310233A publication Critical patent/CN103310233A/zh
Application granted granted Critical
Publication of CN103310233B publication Critical patent/CN103310233B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种同类行为多视图间相似度挖掘方法及行为识别方法,所述行为识别方法基于所述相似度挖掘方法。所述相似度挖掘方法包括:对同类行为不同视图的视频流逐帧计算每帧灰度图像中每个像素点的Hessian矩阵响应的步骤;根据矩阵响应确定特征点的步骤;构建特征点的时空特征描述符、降维后获得姿态描述向量的步骤;以姿态描述向量为底层特征,计算相似度递归图矩阵的步骤;根据递归图矩阵获得递归性描述符的步骤以及对递归性描述符聚类的步骤。本发明通过时空特征点方法实现姿态建模,并通过递归图挖掘多视图间的递归相似度,避免了依赖于背景分割而容易导致人体姿态失真的问题,提高了相似度挖掘的精度及行为识别的鲁棒性。

Description

同类行为多视图间相似度挖掘方法及行为识别方法
技术领域
本发明属于视图图像处理技术领域,具体地说,是涉及同类行为多视图间相似度挖掘方法及基于该相似度挖掘方法的行为识别方法。
背景技术
视觉识别和理解人类行为仍然是计算机视觉中的一个活跃的研究领域,很好解决这个问题有许多应用潜力,如视频检索、大型视频结构化档案、视频监控、人机交互、手势识别和视频编辑等。近年来,行为理解已有很多不同的方法。由于人体姿态轮廓具有鲜明的语义,可以鲜明地表述行为类别,因此,人体姿态轮廓的时间转化关系常常作为有效的行为描述。在行为识别过程中,同一种行为由于摄像机的方位不同会得到不同的姿态视图。而在实际应用中,常常并不能预先知道摄像相机位置,或者云台上摄像机通常是旋转角度不断变化的,因此,一个可靠和通用的行为识别系统,应该对摄像机参数和不同视图的观察角度具有鲁棒性,也即实现视角无关性的行为识别。
申请号为200910081092.X的中国发明专利,公开了一种基于几何不变量的视角不变的行为识别方法,该方法是在轨迹数据库中选取人体关键运动部位头、手和脚的行为轨迹作为数据对象,运动轨迹由一序列的离散点在时间轴上的位置分布构成。然后,利用具有投影不变性的交比作为不同角度的同类行为的共性构造和计算轨迹点的视角不变量,然后训练支持向量机,进行行为识别。该方法存在着下述缺点:(a)提取关键人体运动部位头、手和脚的行为轨迹,会受到遮挡、光照变化、分割这些部位不准确等因素的干扰,在实际应用中会导致行为方法不具有鲁棒性,错误几率增大;(b)由于实际应用中的干扰,会导致运动部位头、手和脚的“质心”位置错误,导致行为轨迹出现偏差,使得轨迹点的交比计算也会出现较大误差,影响识别精度。
申请号为200810232110.5的中国发明专利,公开了一种视角无关的动作识别方法,该方法按照以下步骤实施:首先同步采集正面、倾斜、侧面3个方向下的人体视频数据,预处理采集到的视频数据得到二值人体轮廓信息,根据3个方向下的二值人体轮廓信息进行人体3维体态的雕刻重建;然后提取人体运动过程的动态部分形成运动动态能量体及3维体态的运动权值模型,采用3维伪Zernike矩进行比例不变、位移不变、旋转不变的特征描述;最后使用条件随机场为每一个动作建立概率图模型,并进行识别。该识别方法的缺点是:(a)在实际应用中提取二值人体轮廓的方法,会受到遮挡、光照变化等因素的干扰,使得人体轮廓失真;(b)根据正面、倾斜、侧面3个方向下的二值人体轮廓信息进行人体3维体态的雕刻重建时,需要计算三种视图间的对应配点,不仅运算量较大,而且由于对应点特征不突出,易造成匹配错误。
发明内容
本发明的目的之一是提供一种同类行为多视图间相似度挖掘方法,利用时空特征点方法实现姿态建模,并通过递归图挖掘多视图间的递归相似度,避免了依赖于背景分割而容易导致人体姿态失真的问题,提高了相似度挖掘的精度。
为实现上述发明目的,本发明采用下述技术方案予以实现:
一种同类行为多视图间相似度挖掘方法,所述方法包括下述步骤:
a1、获取同类行为不同视角下的多段视频流,每段视频流对应于一个视角下的视图,对每个视图中的每帧图像作灰度变换,获得多帧灰度图像;
a2、逐帧计算每帧灰度图像中每个像素点的Hessian矩阵,对每个Hessian矩阵计算矩阵行列式值的绝对值,作为每个像素点的Hessian矩阵响应;
a3、将Hessian矩阵响应与设定响应阈值进行比较,大于设定响应阈值的Hessian矩阵响应对应的像素点作为特征点,获得每个视图中的所有特征点;
a4、构建每个特征点的时空特征描述符,将每个视图中每帧图像所包含的所有特征点的时空特征描述符进行降维,获得该帧图像的姿态描述向量;
a5、将每个视图内每帧图像的姿态描述向量作为底层特征,根据下式计算相似度递归图矩阵                                               
Figure 2013102688844100002DEST_PATH_IMAGE002
式中,
Figure 2013102688844100002DEST_PATH_IMAGE006
Figure 2013102688844100002DEST_PATH_IMAGE008
为该同类行为下的第
Figure 966887DEST_PATH_IMAGE006
个和第
Figure 961519DEST_PATH_IMAGE008
个视图,
Figure 2013102688844100002DEST_PATH_IMAGE010
是第个或第
Figure 976979DEST_PATH_IMAGE008
个视图内第帧图像和第
Figure 2013102688844100002DEST_PATH_IMAGE014
帧图像的姿态描述向量的自相似度距离、或是第
Figure 418456DEST_PATH_IMAGE006
个视图内第
Figure 533173DEST_PATH_IMAGE012
帧图像和第
Figure 956064DEST_PATH_IMAGE008
个视图内第
Figure 218550DEST_PATH_IMAGE014
帧图像的姿态描述向量的互相似度距离,
Figure 2013102688844100002DEST_PATH_IMAGE016
Figure 2013102688844100002DEST_PATH_IMAGE018
Figure 2013102688844100002DEST_PATH_IMAGE020
为每个视图中所包含的视频帧数;
a6、以相似度递归图矩阵
Figure 339083DEST_PATH_IMAGE002
中对角线上的每个矩阵元素为圆心,依次划定半径为r的
Figure 42728DEST_PATH_IMAGE020
个半圆形邻域; 
a7、计算每个邻域内所包含的矩阵元素的梯度方向分布向量,作为一个递归性描述符,
Figure 902100DEST_PATH_IMAGE020
个半圆形邻域共获得
Figure 386302DEST_PATH_IMAGE020
个递归性描述符;
a8、按照上述步骤a5至步骤a7依次获得所有相似度递归图矩阵的递归性描述符,所有递归性描述符构成不同视图下该同类行为的相似度特征集; 
a9、对相似度特征集进行聚类,获得M个相似度特征子集合。
如上所述的相似度挖掘方法,为提高挖掘速度,简化计算过程,在所述步骤a7中,在计算每个邻域内所包含的矩阵元素的梯度方向分布向量时,首先将每个半圆形邻域划分为若干个子区域,计算每个子区域内所包含的矩阵元素的梯度方向分布向量,将360°范围内的梯度方向分为若干个方向区域,计算位于每个方向区域内的分布向量的个数与该子区域内所有矩阵元素的比值,将各比值构成一个子向量,各子区域的子向量级联为一个向量,构成该半圆形邻域的递归性描述符,
Figure 372844DEST_PATH_IMAGE020
个半圆形邻域共获得
Figure 445842DEST_PATH_IMAGE020
个递归性描述符。
优选的,在所述步骤a5中,
Figure 2013102688844100002DEST_PATH_IMAGE022
,所述相似度递归图矩阵
Figure 102214DEST_PATH_IMAGE002
为自相似度递归图矩阵。
优选的,在所述步骤a3中,首先将每帧图像划分为若干个单元区域,获得每个单元区域所含像素点的Hessian矩阵响应的极大值,并将该极大值对应的像素点作为局部极值点,然后,再将局部极值点的Hessian矩阵响应与设定响应阈值进行比较,大于设定响应阈值的Hessian矩阵响应对应的局部极值点作为特征点。
本发明的目的之一是提供一种行为识别方法,该识别方法基于上述所述的相似度挖掘方法来获得角度无关的行为描述符,提高了行为识别的鲁棒性。
为实现上述技术目的,本发明提供的行为识别方法采用下述方案来实现:
一种基于同类行为多视图间相似度挖掘方法的行为识别方法,包括利用训练样本获得分类器和分类模板的训练过程及利用分类器和分类模板识别测试样本的识别过程,所述训练过程包括下述步骤:
b1、获取已知类型的某类行为的多视图对应的训练样本视频流,挖掘该训练样本视频流多视图间的相似度特征集;
b2、对相似度特征集中的所有递归性描述符进行聚类,获得M个相似度特征子集合;
b3、采用高斯混合模型对每个相似度特征子集合建模构建分类器,共获得M个分类器;
b4、计算每一个相似度特征子集合所包含的描述符个数与相似度特征集中所有描述符总个数的比值,获得M个比值构成的向量,作为该类行为的模板;
b5、重复上述步骤b1至b4,获得其他已知类型的行为的M个分类器及模板;
所述识别过程包括下述步骤:
c1、获取一段待识别行为的测试样本视频流,挖掘该测试样本视频流多视图间的相似度特征集;
c2、利用某已知类型的行为的M个分类器对测试样本中的相似度特征集进行分类,计算每一类中所包含的描述符个数与测试样本相似度特征集中描述符总个数的比值,获得M个比值构成的向量;
c3、计算该向量与该已知类型行为的模板的匹配相似度;
c4、重复步骤c2和c3,获得测试样本视频流的向量与其他已知类型行为的模板的匹配相似度;
c5、读取多个匹配相似度中的最大值,并与设定匹配相似度阈值进行比较,根据比较结果识别出识别视频流对应的行为。
与现有技术相比,本发明的优点和积极效果是:本发明采用基于尺度不变性的时空特征点方法实现姿态建模,采用递归图分析方法,通过建立与系统原相空间等价的相空间递归图,并根据递归图对角线方向具有发育较好的混动递归线条纹理的属性挖掘同类行为不同视图间的递归相似性,实现不同视图的相似度挖掘,有效避免了现有技术中依赖于背景分割的相似度挖掘容易导致人体姿态失真的问题,提高了相似度挖掘的精度。而且,将本发明的相似度挖掘方法应用到人体行为识别中,能够实现不同视图下的同类行为的鲁棒性识别,可有效解决外界环境因素的干扰和非周期性行为的影响,且算法简单,实时性高。
结合附图阅读本发明的具体实施方式后,本发明的其他特点和优点将变得更加清楚。
附图说明
图1是本发明同类行为多视图间相似度挖掘方法一个实施例的流程图;
图2是本发明行为识别方法一个实施例训练过程的流程图;
图3是图2实施例的识别过程的流程图。
具体实施方式
下面结合附图和具体实施方式对本发明的技术方案作进一步详细的说明。
首先,简要说明本发明的设计思路和原理:
为挖掘同类行为不同视图间的相似度,首先需要获取视图中有关行为的底层运动特征,进而达到姿态分类的目的。本发明为解决现有底层运动特征获取过程中需要进行背景分割而受光照、遮挡等影响的问题,提出采用基于尺度不变性的时空特征点描述符来表征视图中的姿态描述向量、并作为底层运动特征的技术方案。经过研究和验证,相同姿态的时空特征点具有相似的分布特征,因此,为多视图间相似度挖掘提供了可靠的基础信息。
而在获取底层运动特征后,还需要进一步对底层运动特征作进一步结构化处理,以获得运动特征相关性,使得多视图间的共性特征更加突显化,并以显性特征体现出来。为此,本发明采用非线性动力学系统的递归图分析方法,通过建立与系统原相空间等价的相空间递归图,根据递归图对角线方向具有发育较好的混动递归线条纹理的属性挖掘其递归相似性。
请参考图1,该图1所示为本发明同类行为多视图间相似度挖掘方法一个实施例的流程图。
如图1所示,该实施例挖掘同类行为多视图间相似度的过程如下:
步骤101:流程开始。
步骤102:获取同类行为不同视角下的多段视频流,每段视频流对应于一个视角下的视图,对每个视图中的每帧图像作灰度变换,获得多帧灰度图像。
首先,获取同类行为的多个视图,每个视图对应着一段视频流,视频流中包含有多帧图像。为方便处理,需要将每帧图像作灰度变换,获得相应的灰度图像。图像的灰度变换为图像处理领域中的公知技术,在此不作具体描述。
步骤103:逐帧计算每帧灰度图像中每个像素点的Hessian矩阵及Hessian矩阵响应。
获取图像中时空特征点的一个关键问题是使用有效的响应函数,该实施例采用了Hessian矩阵。由于行为对应的时空特征点是时间上和空间上发生剧烈变化的点,而Hessian矩阵表征的是局部曲率,因此,利用曲率突变来捕捉这种时空上的剧烈变化准确性较高。
具体来说,采用下述公式计算每帧灰度图像中每个像素点
Figure 2013102688844100002DEST_PATH_IMAGE024
的Hessian矩阵:
Figure 2013102688844100002DEST_PATH_IMAGE028
 ,
Figure 2013102688844100002DEST_PATH_IMAGE030
其中,矩阵中的元素为二阶偏导数,例如,
Figure 2013102688844100002DEST_PATH_IMAGE032
表示对
Figure 2013102688844100002DEST_PATH_IMAGE036
Figure 699810DEST_PATH_IMAGE036
的偏导数,也即求
Figure 411414DEST_PATH_IMAGE036
的二阶偏导数,
Figure 2013102688844100002DEST_PATH_IMAGE038
表示对
Figure 353143DEST_PATH_IMAGE036
Figure 2013102688844100002DEST_PATH_IMAGE040
的偏导数,其余偏导数与之类似。
在上式中,
Figure 2013102688844100002DEST_PATH_IMAGE044
分别为像素点的设定空间尺度和设定时间尺度,可以根据实际需要或经验给出相应的设定值。或者,为保证时空特征点的尺度不变性,像素点的设定空间尺度
Figure 636705DEST_PATH_IMAGE042
和设定时间尺度
Figure 948738DEST_PATH_IMAGE044
优选分别为空间典型尺度和时间典型尺度。
具体来说,空间典型尺度和时间典型尺度可以采用下述方法来获得:
 首先,取视频流中一帧图像行数的第一设定比例及第二设定比例分别为空间尺度的最小值
Figure 2013102688844100002DEST_PATH_IMAGE046
和最大值
Figure 2013102688844100002DEST_PATH_IMAGE048
,第一设定比例小于第二设定比例,对
Figure 622427DEST_PATH_IMAGE046
Figure 994502DEST_PATH_IMAGE048
之间的数值以设定采样频率进行离散化,例如,以
Figure 2013102688844100002DEST_PATH_IMAGE050
为采用频率,获得空间尺度离散值集合;
然后,设定时间尺度的最小值
Figure 2013102688844100002DEST_PATH_IMAGE052
和最大值
Figure 2013102688844100002DEST_PATH_IMAGE054
,对
Figure 869365DEST_PATH_IMAGE054
之间的数值以设定采样频率进行离散化,例如,也以
Figure 522195DEST_PATH_IMAGE050
为采用频率,获得时间尺度离散值集合;
最后,从空间尺度离散值集合与时间尺度离散值集合中按照排列组合方式成对选择一个空间尺度和一个时间尺度来计算像素点的Hessian矩阵响应,将Hessian矩阵响应最大值对应的空间尺度和时间尺度分别作为空间典型尺度和时间典型尺度。
其中,第一设定比例、第二设定比例及
Figure 65172DEST_PATH_IMAGE052
Figure 170662DEST_PATH_IMAGE054
,可以根据视频监控设备的分辨率及经验来设定,例如,对于分辨率为240*320的视频图像,第一设定比例小于0.5%,第二设定比例为10%,
Figure 90076DEST_PATH_IMAGE052
为0.5,
Figure 597412DEST_PATH_IMAGE054
为10,以进一步保证典型尺度选择的准确性。
获得Hessian矩阵之后,计算Hessian矩阵行列式值的绝对值,将该值作为每个像素点的Hessian矩阵响应
Figure 2013102688844100002DEST_PATH_IMAGE056
,也即
Figure 2013102688844100002DEST_PATH_IMAGE058
步骤104:将大于设定响应阈值的矩阵响应对应的像素点作为特征点,获得每个视图中的所有特征点。
设定响应阈值可以根据识别精度要求、视频监控设备分辨率等因素确定,例如,选择为20。
步骤105:构建每个特征点的时空特征描述符,将每个视图中每帧图像所包含的所有特征点的时空特征描述符进行降维,获得该帧图像的姿态描述向量。
在获得特征点之后,将采用描述符的形式对特征点作进一步处理,以获得与位置相关的运动特征,更能准确表示行为的特征。具体构建过程如下:
以每个特征点为中心建立时空长方体,将长方体均分为8个子空间,对每个子空间中的所有像素点计算
Figure 2013102688844100002DEST_PATH_IMAGE060
Figure 2013102688844100002DEST_PATH_IMAGE062
Figure 2013102688844100002DEST_PATH_IMAGE064
,并求和,获得3维向量
Figure 2013102688844100002DEST_PATH_IMAGE066
,然后将8个3维向量级联为24维向量,将这24维向量作为该特征点的描述符。其中,时空长方体的长、宽、高优选为6
Figure 875072DEST_PATH_IMAGE044
、6
Figure 982705DEST_PATH_IMAGE042
、6
Figure 190964DEST_PATH_IMAGE042
,这样构成的时空长方体既充分反映了特征点的位置,又不会造成复杂的计算量。
然后,对每帧图像所包含的所有特征点的时空特征描述符进行降维,获得精简的低维向量,该向量作为该帧图像的姿态描述向量。
步骤106:将每个视图内每帧图像的姿态描述向量作为底层特征,计算相似度递归图矩阵。
对于包括有
Figure 802074DEST_PATH_IMAGE020
帧图像的各视图,相似度递归图矩阵计算公式为:
式中,
Figure 231415DEST_PATH_IMAGE006
Figure 447764DEST_PATH_IMAGE008
为该同类行为下的第
Figure 769024DEST_PATH_IMAGE006
个和第
Figure 336403DEST_PATH_IMAGE008
个视图,
Figure 135731DEST_PATH_IMAGE010
是第
Figure 460447DEST_PATH_IMAGE006
个或第
Figure 890292DEST_PATH_IMAGE008
个视图内第
Figure 741704DEST_PATH_IMAGE012
帧图像和第
Figure 344724DEST_PATH_IMAGE014
帧图像的姿态描述向量的自相似度距离,或是第
Figure 801244DEST_PATH_IMAGE006
个视图内第
Figure 198727DEST_PATH_IMAGE012
帧图像和第
Figure 740698DEST_PATH_IMAGE008
个视图内第
Figure 881830DEST_PATH_IMAGE014
帧图像的姿态描述向量的互相似度距离,
Figure 379807DEST_PATH_IMAGE016
Figure 977459DEST_PATH_IMAGE020
为每个视图中所包含的视频帧数。
也即,在计算时,如果
Figure 2013102688844100002DEST_PATH_IMAGE068
,也即第
Figure 673013DEST_PATH_IMAGE012
帧图像和第
Figure 87814DEST_PATH_IMAGE014
帧图像来自同一视图,则所计算出的
Figure 843412DEST_PATH_IMAGE002
为自相似度递归图矩阵。如果
Figure 2013102688844100002DEST_PATH_IMAGE070
,则第
Figure 156712DEST_PATH_IMAGE012
帧图像和第
Figure 577329DEST_PATH_IMAGE014
帧图像来自不同视图,所计算出的
Figure 112216DEST_PATH_IMAGE002
为互相似度递归图矩阵。在该实施例中,为简化计算过程,优选采用自相似度递归图矩阵。
在计算相似度距离时,可以采用相关系数来计算。设第
Figure 773136DEST_PATH_IMAGE012
帧图像的姿态描述向量为
Figure 2013102688844100002DEST_PATH_IMAGE072
,第帧图像的姿态描述向量为
Figure 2013102688844100002DEST_PATH_IMAGE074
,两个向量的维数均为30,则相似度距离
Figure 673407DEST_PATH_IMAGE010
采用下式来计算:
Figure 2013102688844100002DEST_PATH_IMAGE076
步骤107:以相似度递归图矩阵中对角线上的每个矩阵元素为圆心,依次划定半径为r的T个半圆形邻域。
其中,半径r实际上是时间尺度窗口参数,一般的,r越大越好,但会带来运算上的繁琐。在该实施例中,r可根据能够完整描述一个行为的视频流中的视频帧数来确定,例如,选择r=80。
步骤108:依次计算每个邻域内所包含的矩阵元素的梯度方向分布向量,一个向量作为一个递归性描述符。
可以直接计算邻域内所包含的矩阵元素的梯度方向分布向量。这样直接计算的过程比较复杂,耗时较长。在该实施例中,优选采用下述方法来计算:
首先,将每个半圆形邻域划分为若干个子区域。
然后,按照下式计算每个子区域内所包含的矩阵元素的梯度方向分布向量:
对于矩阵元素(
Figure 875849DEST_PATH_IMAGE036
Figure 160200DEST_PATH_IMAGE040
),其梯度方向分布向量为
Figure 2013102688844100002DEST_PATH_IMAGE078
Figure DEST_PATH_IMAGE080
,梯度方向是
Figure DEST_PATH_IMAGE082
Figure 323459DEST_PATH_IMAGE036
轴的夹角。
再然后,将360°范围内的梯度方向分为若干个方向区域;计算位于每个方向区域内的分布向量的个数与该子区域内所有矩阵元素的比值,实现归一化;将各比值构成一个子向量,各子区域的子向量级联为一个向量,构成该半圆形邻域的递归性描述符,
Figure 85879DEST_PATH_IMAGE020
个半圆形邻域共获得
Figure 329778DEST_PATH_IMAGE020
个递归性描述符。
例如,如果将每个半圆形邻域划分为11个子区域,360°范围内的梯度量化为8个方向区域,子向量将为一个8维的向量,11个子区域共产生11个8维的子向量。然后,将11个8维的子向量按照一定顺序进行级联,形成一个88维的向量,该向量作为一个递归性描述符,一个相似度矩阵共有
Figure 598080DEST_PATH_IMAGE020
个半圆形邻域,共获得
Figure 560219DEST_PATH_IMAGE020
个递归性描述符。
步骤109:依次获得所有相似度递归图矩阵的递归性描述符,所有递归性描述符构成不同视图下该同类行为的相似度特征集。
步骤110:对相似度特征集进行聚类,获得M个相似度特征子集合。
这M个相似度特征子集合就表征了该同类行为多视图间的相似度模式,从而实现了对同类行为多视图间的相似度挖掘。
现有技术中存在有多种聚类方法,这些聚类方法均可以应用在该实施例中,对所有描述符进行聚类。而为降低聚类过程对初始化条件及样本数据的依赖性,优选采用基于自相关相似度矩阵的非监督聚类方法对多个训练样本中的所有描述符进行聚类。非监督聚类方法是本领域的公知技术,在此不再详细描述。其中,聚类数量M根据实际应用场景进行合理设定。
步骤111:流程结束。
对于步骤103中计算Hessian矩阵响应的过程,除了采用该实施例中直接将像素点的Hessian矩阵响应与设定响应阈值进行比较、将大于设定响应阈值的矩阵响应对应的像素点作为特征点之外,从计算复杂度、计算速度等方面考虑,同时结合人体行为的特点,也可以采用下述方法来确定特征点:
首先将每帧图像划分为若干个子区域,例如,对于240*320的图像,划分为多个5*5的子区域;然后,获得子区域中
Figure 126330DEST_PATH_IMAGE056
的极大值,将该极大值对应的像素点作为局部极值点;最后,再将局部极值点的
Figure 975468DEST_PATH_IMAGE056
与设定响应阈值进行比较,大于设定响应阈值的
Figure 663939DEST_PATH_IMAGE056
对应的局部极值点作为特征点。
采用上述方法聚类后所获得的M个相似度特征子集合将构成角度无关的行为描述符,可以用来对具有多视图的视频流进行识别,以判断视频流中是否存在某类行为。
图2和图3示出了本发明行为识别方法的一个实施例,其中,图2为该实施例中训练过程的流程图,图3为识别过程的流程图。
如图2所示的训练过程,是指利用训练样本获得分类器及分类模板的一个过程,是进行识别之前预先进行的工作。其具体流程如下:
步骤201:流程开始。
步骤202:执行训练过程。
步骤203:获取已知类型的某类行为的多视图对应的训练样本视频流,挖掘该训练样本视频流多视图间的相似度特征集。
对于人体行为识别来说,主要是指对视频监控设备(如摄像机)所采集的视频流进行分析,识别出是否存在“摔倒”、“打架”、“攀爬”、“摔打东西”等人体行为,以便于监控人员及时获得监控场景的异常信息。由于行为存在多种类型,需要对每种可能发生的行为类型进行训练。一般情况下,视频监控设备采集图像的视角是随机的,而同一行为不同视角下的视频差异较大,增加了行为识别的难度。因此,需要对同类行为多视图下的样本进行不同视图间的相似度挖掘,以期建立角度无关的行为模板。因此,首先按照图1实施例的步骤挖掘出训练样本视频流多视图间的相似度特征集。
步骤204:对相似度特征集中的所有递归性描述符进行聚类,获得M个相似度特征子集合。
步骤205:采用高斯混合模型对每个相似度特征子集合建模构建分类器,共获得M个分类器。
利用高斯混合模型构建分类器的方法和过程是本领域的公知技术,在此不再详细描述。
步骤206:计算每一个相似度特征子集合所包含的描述符个数与相似度特征集中所有描述符总个数的比值,获得M个比值构成的向量,作为该类行为的模板。
这里,比值表示了某个描述符子集合的出现概率,因此,将表示概率值的比值构成的向量作为识别的模板是合理、有效的。
步骤207:判断所有类型行为是否训练完毕。若是,执行步骤208;否则,转至步骤203,继续对其他类型的异常形成进行训练,以获得该类行为的模板。
步骤208:训练过程结束。
在经过上述的训练过程之后,获得了所有不同类型行为对应的分类器和模板,然后,就可以利用这些分类器及模板对测试样本进行识别,识别过程请参考图3所示。
如图3所示,对待识别的测试样本视频流进行行为识别的过程如下:
步骤301:流程开始。
步骤302:执行识别过程。
步骤303:获取一段待识别行为的测试样本视频流,挖掘该测试样本视频流多视图间的相似度特征集。
测试样本视频流相似度特征集的获取过程与图2中训练样本视频流相似度特征集的获取过程类似,可参考图2以及图1的有关描述。
步骤304:利用某已知类型行为的M个分类器对测试样本中的相似度特征集进行分类,计算每一类中所包含的描述符个数与测试样本相似度特征集中描述符总个数的比值,获得M个比值构成的向量。
步骤305:计算该向量与该已知类型行为的模板的匹配相似度。
也即计算两个向量的相似度,可以采用欧式距离计算方法、直方图相加计算方法等来计算两个向量的相似度,这些方法均为现有技术中的常用方法,在此不作具体阐述。
步骤306:判断是否获得与所有已知类型行为模板的匹配相似度。若是,执行步骤307;否则,转至步骤304,再利用其他类型行为的分类器及模板进行处理。
步骤307:在获得与所有类型行为模板的匹配相似度之后,读取多个匹配相似度中的最大值,并与设定匹配相似度阈值相比较。
这里,匹配相似度阈值是根据实际识别精度及应用场景等所提供的一个设定值,例如为0.8。
步骤308:判断最大匹配相似度是否大于设定匹配相似度阈值。若是,执行步骤310;若否,执行步骤309。
步骤309:如果最大匹配相似度不大于设定匹配相似度阈值,则判定视频流未出现已知类型的行为。
当然,这里并不能排除识别错误或未识别的情况,这些都可以当作是识别误差,只要识别误差在允许范围内即可。
步骤310:如果最大匹配相似度大于设定匹配相似度阈值,则判定视频流对应的行为是匹配相似度最大值所对应的行为类型。例如,如果待识别的视频流的向量与“摔倒”行为的模板的匹配相似度最大、且大于设定匹配相似度阈值,则判定该视频流中包含着“摔倒”的行为。在识别出行为之后,可以通过语音等报警信号进行提示,以便相关人员及时进行处理。
步骤311:识别过程结束。
以上实施例仅用以说明本发明的技术方案,而非对其进行限制;尽管参照前述实施例对本发明进行了详细的说明,对于本领域的普通技术人员来说,依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明所要求保护的技术方案的精神和范围。

Claims (5)

1.一种同类行为多视图间相似度挖掘方法,其特征在于,所述方法包括下述步骤:
a1、获取同类行为不同视角下的多段视频流,每段视频流对应于一个视角下的视图,对每个视图中的每帧图像作灰度变换,获得多帧灰度图像;
a2、逐帧计算每帧灰度图像中每个像素点的Hessian矩阵,对每个Hessian矩阵计算矩阵行列式值的绝对值,作为每个像素点的Hessian矩阵响应;
a3、将Hessian矩阵响应与设定响应阈值进行比较,大于设定响应阈值的Hessian矩阵响应对应的像素点作为特征点,获得每个视图中的所有特征点;
a4、构建每个特征点的时空特征描述符,将每个视图中每帧图像所包含的所有特征点的时空特征描述符进行降维,获得该帧图像的姿态描述向量;
a5、将每个视图内每帧图像的姿态描述向量作为底层特征,根据下式计算相似度递归图矩阵                                                
Figure 2013102688844100001DEST_PATH_IMAGE001
Figure 1840DEST_PATH_IMAGE002
式中,
Figure 520677DEST_PATH_IMAGE004
为该同类行为下的第个和第
Figure 471850DEST_PATH_IMAGE004
个视图,是第
Figure 426030DEST_PATH_IMAGE003
个或第
Figure 737057DEST_PATH_IMAGE004
个视图内第帧图像和第
Figure 384070DEST_PATH_IMAGE008
帧图像的姿态描述向量的自相似度距离、或是第
Figure 397026DEST_PATH_IMAGE003
个视图内第
Figure 92580DEST_PATH_IMAGE007
帧图像和第
Figure 507381DEST_PATH_IMAGE004
个视图内第
Figure 449929DEST_PATH_IMAGE008
帧图像的姿态描述向量的互相似度距离,
Figure 763230DEST_PATH_IMAGE010
Figure 2013102688844100001DEST_PATH_IMAGE011
为每个视图中所包含的视频帧数;
a6、以相似度递归图矩阵
Figure 59213DEST_PATH_IMAGE001
中对角线上的每个矩阵元素为圆心,依次划定半径为r的
Figure 344832DEST_PATH_IMAGE011
个半圆形邻域; 
a7、计算每个邻域内所包含的矩阵元素的梯度方向分布向量,作为一个递归性描述符,
Figure 520599DEST_PATH_IMAGE011
个半圆形邻域共获得
Figure 258879DEST_PATH_IMAGE011
个递归性描述符;
a8、按照上述步骤a5至步骤a7依次获得所有相似度递归图矩阵的递归性描述符,所有递归性描述符构成不同视图下该同类行为的相似度特征集; 
a9、对相似度特征集进行聚类,获得M个相似度特征子集合。
2.根据权利要求1所述的相似度挖掘方法,其特征在于,在所述步骤a7中,在计算每个邻域内所包含的矩阵元素的梯度方向分布向量时,首先将每个半圆形邻域划分为若干个子区域,计算每个子区域内所包含的矩阵元素的梯度方向分布向量,将360°范围内的梯度方向分为若干个方向区域,计算位于每个方向区域内的分布向量的个数与该子区域内所有矩阵元素的比值,将各比值构成一个子向量,各子区域的子向量级联为一个向量,构成该半圆形邻域的递归性描述符,
Figure 483187DEST_PATH_IMAGE011
个半圆形邻域共获得
Figure 607001DEST_PATH_IMAGE011
个递归性描述符。
3.根据权利要求1所述的相似度挖掘方法,其特征在于,在所述步骤a5中,
Figure 704401DEST_PATH_IMAGE012
,所述相似度递归图矩阵
Figure 179244DEST_PATH_IMAGE001
为自相似度递归图矩阵。
4.根据权利要求1至3中任一项所述的相似度挖掘方法,其特征在于,在所述步骤a3中,首先将每帧图像划分为若干个单元区域,获得每个单元区域所含像素点的Hessian矩阵响应的极大值,并将该极大值对应的像素点作为局部极值点,然后,再将局部极值点的Hessian矩阵响应与设定响应阈值进行比较,大于设定响应阈值的Hessian矩阵响应对应的局部极值点作为特征点。
5.一种基于上述权利要求1至4中任一项所述的相似度挖掘方法的行为识别方法,包括利用训练样本获得分类器和分类模板的训练过程及利用分类器和分类模板识别测试样本的识别过程,其特征在于,所述训练过程包括下述步骤:
b1、获取已知类型的某类行为的多视图对应的训练样本视频流,挖掘该训练样本视频流多视图间的相似度特征集;
b2、对相似度特征集中的所有递归性描述符进行聚类,获得M个相似度特征子集合;
b3、采用高斯混合模型对每个相似度特征子集合建模构建分类器,共获得M个分类器;
b4、计算每一个相似度特征子集合所包含的描述符个数与相似度特征集中所有描述符总个数的比值,获得M个比值构成的向量,作为该类行为的模板;
b5、重复上述步骤b1至b4,获得其他已知类型的行为的M个分类器及模板;
所述识别过程包括下述步骤:
c1、获取一段待识别行为的测试样本视频流,挖掘该测试样本视频流多视图间的相似度特征集;
c2、利用某已知类型行为的M个分类器对测试样本中的相似度特征集进行分类,计算每一类中所包含的描述符个数与测试样本相似度特征集中描述符总个数的比值,获得M个比值构成的向量;
c3、计算该向量与该已知类型行为的模板的匹配相似度;
c4、重复步骤c2和c3,获得测试样本视频流的向量与其他已知类型行为的模板的匹配相似度;
c5、读取多个匹配相似度中的最大值,并与设定匹配相似度阈值进行比较,根据比较结果识别出测试样本视频流对应的行为。
CN201310268884.4A 2013-06-28 2013-06-28 同类行为多视图间相似度挖掘方法及行为识别方法 Expired - Fee Related CN103310233B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310268884.4A CN103310233B (zh) 2013-06-28 2013-06-28 同类行为多视图间相似度挖掘方法及行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310268884.4A CN103310233B (zh) 2013-06-28 2013-06-28 同类行为多视图间相似度挖掘方法及行为识别方法

Publications (2)

Publication Number Publication Date
CN103310233A true CN103310233A (zh) 2013-09-18
CN103310233B CN103310233B (zh) 2016-03-23

Family

ID=49135427

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310268884.4A Expired - Fee Related CN103310233B (zh) 2013-06-28 2013-06-28 同类行为多视图间相似度挖掘方法及行为识别方法

Country Status (1)

Country Link
CN (1) CN103310233B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103577841A (zh) * 2013-11-11 2014-02-12 浙江大学 一种无监督多视图特征选择的人体行为识别方法
CN104463089A (zh) * 2013-11-25 2015-03-25 安徽寰智信息科技股份有限公司 一种人体姿态识别装置
CN104680559A (zh) * 2015-03-20 2015-06-03 青岛科技大学 基于运动行为模式的多视角室内行人跟踪方法
CN105184767A (zh) * 2015-07-22 2015-12-23 北京工业大学 一种运动人体姿态相似性度量方法
CN105740833A (zh) * 2016-02-03 2016-07-06 北京工业大学 一种基于深度序列的人体行为识别方法
CN106295532A (zh) * 2016-08-01 2017-01-04 河海大学 一种视频图像中的人体动作识别方法
CN106415450A (zh) * 2014-06-03 2017-02-15 罗伯特·博世有限公司 用于产生用于手势识别的图像矩阵的模块、系统和方法
CN106845384A (zh) * 2017-01-17 2017-06-13 西北大学 一种基于递归模型的手势识别方法
CN106909938A (zh) * 2017-02-16 2017-06-30 青岛科技大学 基于深度学习网络的视角无关性行为识别方法
CN106980823A (zh) * 2017-03-14 2017-07-25 天津大学 一种基于帧间自相似的动作识别方法
CN107748892A (zh) * 2017-09-25 2018-03-02 西安理工大学 一种基于马氏距离的人体行为数据分割方法
CN108038451A (zh) * 2017-12-15 2018-05-15 浪潮金融信息技术有限公司 异常行为检测方法及装置
CN108596959A (zh) * 2018-05-21 2018-09-28 深圳大学 一种视频图像时空特征点的提取方法
CN109214407A (zh) * 2018-07-06 2019-01-15 阿里巴巴集团控股有限公司 事件检测模型、方法、装置、计算设备及存储介质
CN109936857A (zh) * 2019-01-21 2019-06-25 南京邮电大学 一种无线感知度智能识别方法
CN110110598A (zh) * 2019-04-01 2019-08-09 桂林电子科技大学 一种基于视觉特征与时空约束的行人再识别方法及系统
CN111310551A (zh) * 2018-12-11 2020-06-19 e解决方案有限公司 用于识别特定于乘员的设置的方法及用于执行该方法的车辆
CN112381118A (zh) * 2020-10-23 2021-02-19 百色学院 一种大学舞蹈考试测评方法及装置
CN112907892A (zh) * 2021-01-28 2021-06-04 上海电机学院 基于多视图的人体跌倒报警方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799873A (zh) * 2012-07-23 2012-11-28 青岛科技大学 一种人体异常行为识别方法
CN103096015A (zh) * 2011-10-28 2013-05-08 华为技术有限公司 一种视频处理方法和系统
CN103177247A (zh) * 2013-04-09 2013-06-26 天津大学 一种融合多视角信息的目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103096015A (zh) * 2011-10-28 2013-05-08 华为技术有限公司 一种视频处理方法和系统
CN102799873A (zh) * 2012-07-23 2012-11-28 青岛科技大学 一种人体异常行为识别方法
CN103177247A (zh) * 2013-04-09 2013-06-26 天津大学 一种融合多视角信息的目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张良等: "基于改进局部不变特征的兴趣点匹配", 《电子与信息学报》 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103577841A (zh) * 2013-11-11 2014-02-12 浙江大学 一种无监督多视图特征选择的人体行为识别方法
CN104463089A (zh) * 2013-11-25 2015-03-25 安徽寰智信息科技股份有限公司 一种人体姿态识别装置
CN106415450A (zh) * 2014-06-03 2017-02-15 罗伯特·博世有限公司 用于产生用于手势识别的图像矩阵的模块、系统和方法
CN106415450B (zh) * 2014-06-03 2020-12-08 罗伯特·博世有限公司 用于产生用于手势识别的图像矩阵的模块、系统和方法
CN104680559A (zh) * 2015-03-20 2015-06-03 青岛科技大学 基于运动行为模式的多视角室内行人跟踪方法
CN104680559B (zh) * 2015-03-20 2017-08-04 青岛科技大学 基于运动行为模式的多视角室内行人跟踪方法
CN105184767A (zh) * 2015-07-22 2015-12-23 北京工业大学 一种运动人体姿态相似性度量方法
CN105184767B (zh) * 2015-07-22 2018-04-06 北京工业大学 一种运动人体姿态相似性度量方法
CN105740833A (zh) * 2016-02-03 2016-07-06 北京工业大学 一种基于深度序列的人体行为识别方法
CN105740833B (zh) * 2016-02-03 2019-03-22 北京工业大学 一种基于深度序列的人体行为识别方法
CN106295532A (zh) * 2016-08-01 2017-01-04 河海大学 一种视频图像中的人体动作识别方法
CN106295532B (zh) * 2016-08-01 2019-09-24 河海大学 一种视频图像中的人体动作识别方法
CN106845384A (zh) * 2017-01-17 2017-06-13 西北大学 一种基于递归模型的手势识别方法
CN106845384B (zh) * 2017-01-17 2019-12-13 西北大学 一种基于递归模型的手势识别方法
CN106909938B (zh) * 2017-02-16 2020-02-21 青岛科技大学 基于深度学习网络的视角无关性行为识别方法
CN106909938A (zh) * 2017-02-16 2017-06-30 青岛科技大学 基于深度学习网络的视角无关性行为识别方法
CN106980823A (zh) * 2017-03-14 2017-07-25 天津大学 一种基于帧间自相似的动作识别方法
CN107748892A (zh) * 2017-09-25 2018-03-02 西安理工大学 一种基于马氏距离的人体行为数据分割方法
CN108038451A (zh) * 2017-12-15 2018-05-15 浪潮金融信息技术有限公司 异常行为检测方法及装置
CN108596959A (zh) * 2018-05-21 2018-09-28 深圳大学 一种视频图像时空特征点的提取方法
CN109214407B (zh) * 2018-07-06 2022-04-19 创新先进技术有限公司 事件检测模型、方法、装置、计算设备及存储介质
CN109214407A (zh) * 2018-07-06 2019-01-15 阿里巴巴集团控股有限公司 事件检测模型、方法、装置、计算设备及存储介质
CN111310551A (zh) * 2018-12-11 2020-06-19 e解决方案有限公司 用于识别特定于乘员的设置的方法及用于执行该方法的车辆
CN109936857A (zh) * 2019-01-21 2019-06-25 南京邮电大学 一种无线感知度智能识别方法
CN109936857B (zh) * 2019-01-21 2022-09-16 南京邮电大学 一种无线感知度智能识别方法
CN110110598A (zh) * 2019-04-01 2019-08-09 桂林电子科技大学 一种基于视觉特征与时空约束的行人再识别方法及系统
CN112381118A (zh) * 2020-10-23 2021-02-19 百色学院 一种大学舞蹈考试测评方法及装置
CN112381118B (zh) * 2020-10-23 2024-05-17 百色学院 一种大学舞蹈考试测评方法及装置
CN112907892A (zh) * 2021-01-28 2021-06-04 上海电机学院 基于多视图的人体跌倒报警方法

Also Published As

Publication number Publication date
CN103310233B (zh) 2016-03-23

Similar Documents

Publication Publication Date Title
CN103310233B (zh) 同类行为多视图间相似度挖掘方法及行为识别方法
Wang et al. Mesh denoising via cascaded normal regression.
CN104268539B (zh) 一种高性能的人脸识别方法及系统
Xu et al. Reconstruction of scaffolds from a photogrammetric point cloud of construction sites using a novel 3D local feature descriptor
Kim et al. Boundary preserving dense local regions
CN103679186B (zh) 检测和跟踪目标的方法和装置
Demisse et al. Deformation based curved shape representation
CN102460508B (zh) 图像识别方法和图像识别设备
CN109902583B (zh) 一种基于双向独立循环神经网络的骨架手势识别方法
Zhang et al. Semantic classification of heterogeneous urban scenes using intrascene feature similarity and interscene semantic dependency
CN104574401A (zh) 一种基于平行线匹配的图像配准方法
JP5289412B2 (ja) 局所特徴量算出装置及び方法、並びに対応点探索装置及び方法
CN110751097A (zh) 一种半监督的三维点云手势关键点检测方法
CN105608710A (zh) 一种非刚性人脸检测和追踪定位方法
CN105488491A (zh) 基于金字塔匹配直方图交叉核的人体睡眠姿态检测方法
Wei et al. GMSK-SLAM: a new RGB-D SLAM method with dynamic areas detection towards dynamic environments
Ziaeefard et al. Hierarchical human action recognition by normalized-polar histogram
CN110163095B (zh) 回环检测方法、回环检测装置及终端设备
Du et al. Classifying fragments of terracotta warriors using template-based partial matching
Sreevalsan-Nair et al. Contour extraction in buildings in airborne lidar point clouds using multiscale local geometric descriptors and visual analytics
CN105955473A (zh) 一种基于计算机的静态手势图像识别交互系统
Zhou et al. Hough-space-based hypothesis generation and hypothesis verification for 3D object recognition and 6D pose estimation
Mhamdi et al. A local approach for 3D object recognition through a set of size functions
Kounavis Fingertip detection without the use of depth data, color information, or large training data sets
Mehrdad et al. 3D object retrieval based on histogram of local orientation using one-shot score support vector machine

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Wang Chuanxu

Inventor after: Liu Yun

Inventor after: Yan Chunjuan

Inventor after: Wen Weijun

Inventor after: Niu Qiuna

Inventor after: Hu Qiang

Inventor before: Wang Chuanxu

Inventor before: Liu Yun

Inventor before: Yan Chunjuan

COR Change of bibliographic data

Free format text: CORRECT: INVENTOR; FROM: YANG YAOZHONG DAI TAO HAO LICHEN TO: YANG YAOZHONG DAI TAO HAO LICHEN WEN WEIJUN ZHANG PAN WANG DONGLIN

C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20171017

Address after: 266000 Shandong province Qingdao City, Shandong Road No. 171

Patentee after: Qingdao Machine Vision Technology Co., Ltd.

Address before: College of information Qingdao University of Science & Technology No. 99 266061 Shandong province Qingdao City Songling Road

Patentee before: Qingdao University of Science & Technology

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160323

Termination date: 20180628

CF01 Termination of patent right due to non-payment of annual fee