CN112818779B - 一种基于特征优选与多种特征融合的人体行为识别方法 - Google Patents

一种基于特征优选与多种特征融合的人体行为识别方法 Download PDF

Info

Publication number
CN112818779B
CN112818779B CN202110082421.3A CN202110082421A CN112818779B CN 112818779 B CN112818779 B CN 112818779B CN 202110082421 A CN202110082421 A CN 202110082421A CN 112818779 B CN112818779 B CN 112818779B
Authority
CN
China
Prior art keywords
feature
features
hog
image
surf
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110082421.3A
Other languages
English (en)
Other versions
CN112818779A (zh
Inventor
单义冬
赵君喜
宋琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202110082421.3A priority Critical patent/CN112818779B/zh
Publication of CN112818779A publication Critical patent/CN112818779A/zh
Application granted granted Critical
Publication of CN112818779B publication Critical patent/CN112818779B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

本发明公开了一种基于特征优选与多种特征融合的人体行为识别方法,包括:步骤1,读取视频帧图像并进行去噪预处理,采用高斯滤波器对图像序列进行降噪处理,增强图像质量;步骤2,对完成预处理的视频帧图像分别提取HOG特征与SURF特征;步骤3,利用PCA算法对HOG特征进行降维处理;步骤4,对PCA降维后的HOG特征应用Pearson相关系数、Spearman相关系数和Kendall系数进行二次降维处理;步骤5,将SURF特征向量与二次降维后的HOG特征向量进行特征融合,利用支持向量机进行分类识别。本发明通过二次降维和特征融合技术,去除冗余特征,降低计算的复杂度,提高识别的准确率,具有超越生成模型的优势,此外,本发明对噪声和其它影响因素鲁棒性强,具有很好的实用性。

Description

一种基于特征优选与多种特征融合的人体行为识别方法
技术领域
本发明涉及图像处理、视频处理、模式识别等领域,具体的说是一种基于特征优选与多种特征融合的人体行为识别方法。
背景技术
人类行为识别有着广泛的应用前景,如智能视频监控、视频摘要、智能接口、人机交互、体育视频分析、视频检索等。通常,行为识别涉及两个重要问题,其一是如何从原始视频数据中提取有用的运动信息,其二是如何建立运动参考模型,使训练和识别方法能有效地处理空间和时间尺度变化的类内类似行为。行为识别可以利用各种因素,如人体姿势、光流、运动轨迹或轮廓、时空特征等,近年来,一些适合于行为识别的特征算法被提出,如局部二值模式(LBP)、方向梯度直方图(HOG)、尺度不变特征变换(SIFT)等方法。单一特征往往受到人体外观、环境、摄像机设置等因素影响,无法准确全面地描述人体运动,从而限制了行为识别准确度的提高。Dalai等提出将表征图像局部区域内结构信息的HOG特征与 LBP特征进行融合的算法中,可以有效提高识别率,但同时存在HOG特征维度过大,复杂度高,耗时长等问题。所以,如何在提高识别率的同时又将计算复杂度控制在一定范围内,就成为了当前研究行为识别的焦点之一,而如何降低特征的维度,减少算法运行时间,降低复杂度就需要用尽可能少的维数提取足够多的有效特征,将高维数据转化为低维数据分析,避免出现“维度灾难”问题。
发明内容
本发明提出了基于特征优选与多种特征融合的人体行为识别方法,使用 HOG-SURF融合特征提取人体行为特征,并通过对特征的二次降维方法进行特征的优选来识别人类行为,实验结果证明了提出方法的有效性和鲁棒性。
为了实现上述目的,本发明是通过以下技术方案来实现的:
本发明是种基于特征优选与多种特征融合的人体行为识别方法,包括以下步骤:
步骤1,读取视频帧图像并进行去噪预处理,采用高斯滤波器对图像序列进行降噪处理,增强图像质量;
步骤2,对完成预处理的视频帧图像分别提取HOG特征与SURF特征;
步骤3,利用PCA算法对HOG特征进行降维处理;
步骤4,对PCA降维后的HOG特征应用Pearson相关系数、Spearman相关系数和Kendall系数进行二次降维处理;
步骤5,将SURF特征向量与二次降维后的HOG特征向量进行特征融合,利用支持向量机进行分类识别。
本发明的进一步改进在于:步骤2中提取HOG特征具体过程为:S2.1.1,按照差分公式计算图像梯度大小矩阵和梯度方向矩阵,将360度(2π)分割成n个bins,每个bin包含
Figure BDA0002909566140000021
Figure BDA0002909566140000022
S2.1.2,根据每个像素点的梯度方向,找到对应的bin,并且在bin值所在的维度加上梯度大小,得到一个n维的直方图;S2.1.3,对图像进行分块处理,得到许多个小cells,针对每个小cell,统计其梯度方向直方图,将多个小cell构成一个block,每个block的梯度方向直方图为每个cell的梯度方向直方图的级联,级联所有block的梯度方向直方图得到整个图像的HOG特征直方图。
本发明的进一步改进在于:步步骤2中提取SURF特征的具体过程为:S2.2.1,采用Hessian矩阵行列式来检测特征点;S2.2.2,构建图像的尺度空间,在尺度空间中实现特征点定位;S2.2.3,确定特征点的方向;S2.2.4,构建SURF特征向量,在特征点周围取一个4×4的矩形区域块,每个子区域统计25个像素的水平和垂直方向的Haar小波特征,把Haar小波值作为每个子块区域的特征向量,所以一共有4×4×4=64维向量作为SURF特征向量。
本发明的进一步改进在于:步骤3中将高维n维特征映射到低维k维特征上,具体过程如下:假设有m个样本,对应特征向量为Xi,Xi的维数为n,则由向量构成的样本可表示为一个n行m列的矩阵X={x1,x2...,xm},则该样本的平均向量为
Figure BDA0002909566140000023
求出协方差矩阵C为
Figure BDA0002909566140000024
对矩阵C求特征值与对应的特征向量,然后将特征向量按对应特征值大小从上到下按行列排列成矩阵,取前k行组成矩阵p,则Y=PX即为降维到k维后的矩阵。
本发明的进一步改进在于:步骤4具体过程为:S4.1,采用Sobel算子检测提取图像的边缘,计算边缘像素梯度幅值、梯度方向,将360度(2π)分割成n个bins,每个bin包含
Figure BDA0002909566140000025
Figure BDA0002909566140000026
然后根据像素点的梯度方向,找到对应的bin,并且在bin值所在的维度加上梯度幅值,得到一个n维的边缘方向直方图;S4.2,通过相关系数公式计算帧图像间的边缘方向直方图相似度;S4.3,根据相似度值的大小确定特征维度进行特征筛选,实现二次降维。
本发明的进一步改进在于:步骤5具体为:S5.1,对视频中存在人体动作的部分进行分割:提取每一帧的SURF特征,将有效特征数大于一定数量的帧视为有效帧;设定一个时间窗口,在有效帧之间进行特征点的匹配,对相邻两帧之间进行特征匹配,将与前后两帧的匹配特征均大于一定数量的帧视为关键帧,即,匹配特征的置信概率大于90%;若在时间窗口之内,关键帧数量大于设定好的阈值,则将该窗口分割出来,作为一个视频片段;S5.2,对每个分割好的视频片段计算特征,对片段内每帧计算HOG特征,并进行降维后,将特征串联,同时对每帧计算SURF特征,取每帧前N个最显著的特征点,并将其转换为特征向量,将特征向量串联后,再与降维的HOG特征串联,形成分类所需的融合的特征向量; S5.3,采用支持向量机SVM进行训练识别,SVM采用RBF核函数
Figure BDA0002909566140000081
本发明的有益效果是:本发明结合了经PCA+Pearson等相关系数的降维技术优化的HOG特征和表征图像兴趣点的SURF特征,通过二次降维和特征融合技术,去除冗余特征,降低计算的复杂度,提高识别的准确率,具有超越生成模型的优势。本发明不仅能够准确地识别测试数据集上随尺度、位置、轮廓等人员变化的人类行为,而且对噪声和其它影响因素鲁棒性强,具有很好的实用性。
附图说明
图1是行为识别流程示意图。
图2是HOG特征提取算法流程示意图。
图3是SURF特征提取算法流程示意图。
图4是PCA的分类准确率折线图。
图5是三种降维方法的分类精度对比图。
图6是不同算法分类精度比较图。
具体实施方式
以下将以图式揭露本发明的实施方式,为明确说明起见,许多实务上的细节将在以下叙述中一并说明。然而,应了解到,这些实务上的细节不应用以限制本发明。也就是说,在本发明的部分实施方式中,这些实务上的细节是非必要的。
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明是一种基于特征优选与多种特征融合的人体行为识别方法,包括以下步骤:步骤1,读取视频帧图像并进行去噪预处理,采用高斯滤波器对图像序列进行降噪处理,增强图像质量;
步骤2,对完成预处理的视频帧图像分别提取HOG特征与SURF特征;
其中,步骤2中提取HOG特征具体过程为:S2.1.1,按照差分公式计算图像梯度大小矩阵和梯度方向矩阵,将360度(2π)分割成n个bins,每个bin包含
Figure BDA0002909566140000041
Figure BDA0002909566140000042
S2.1.2,根据每个像素点的梯度方向,找到对应的bin,并且在bin值所在的维度加上梯度大小,得到一个n维的直方图;S2.1.3,对图像进行分块处理,得到许多个小cells,针对每个小cell,统计其梯度方向直方图,将多个小cell 构成一个block,每个block的梯度方向直方图为每个cell的梯度方向直方图的级联,级联所有block的梯度方向直方图得到整个图像的HOG特征直方图;步骤2中提取SURF特征的具体过程为:S2.2.1,采用Hessian矩阵行列式来检测特征点;S2.2.2,构建图像的尺度空间,在尺度空间中实现特征点定位;S2.2.3,确定特征点的方向;S2.2.4,构建SURF特征向量,在特征点周围取一个4×4的矩形区域块,每个子区域统计25个像素的水平和垂直方向的Haar小波特征,把 Haar小波值作为每个子块区域的特征向量,所以一共有4×4×4=64维向量作为 SURF特征向量。优选的,提取HOG特征,如图2所示,具体过程如下:
(1)使用一维梯度模板[-1,0,1]与[1,0,-1]T计算x轴和y轴方向的梯度Gx、Gy
(2)实验中采用160×120像素的视频帧图片,将图像划分为若干个8×8像素大小的cell,将每个cell的梯度方向平均划分为9个区间(bin),统计每个cell中的梯度直方图信息,生成一个9维向量;
(3)组合2×2个cell形成一个block像素,这样一个block就形成36维的特征向量,再利用L2-范数对整个block进行归一化处理,得到最终的特定向量;
(4)将所有block的特征进行串联,得到19×14×4×9=9576维的HOG特征向量;
提取SURF特征,如图3所示,具体过程如下:
(1)构建Hessian矩阵,生成所有兴趣点,每一个像素点都可求出一个Hessian 矩阵
Figure BDA0002909566140000051
其中L(x,δ)是图像I经过高斯滤波器和二阶微分在点X=(x,y)取值。Hessian矩阵为
det(H)=Dxx*Dyy-Dxy*Dxy
det(H)表示点X附近区域的的盒式滤波响应值,SURF使用盒式滤波器 (boxfilter)来近似高斯滤波器,卷积运算后的值分别为Dxx、Dyy、Dxy,当判别式取得局部极大值时,判定当前点是比周围邻域内其他点更亮或更暗的点,定位关键点位置;
(2)构建图像尺度空间,进行特征点定位。尺度空间由O组L层组成,同一组间不同层面使用相同尺寸的滤波器;在不同尺度特征点的响应图像上采用邻域非极大值抑制,将每个像素点与二维图像空间和尺度空间邻域内的26个点进行比较,选出特征点候选点;再利用三维线性插值法对候选点进行定位,获得亚像素级别的特征点;
(3)确定特征点方向。统计特征点领域内的Haar小波特征,即在特征点领域内,统计60度扇形内所有点的水平、垂直Haar小波特征总和,总和即为该扇形对应的响应值,将响应值分别加起来,形成矢量,其中最长的矢量方向为最终特征点的主方向。
(4)构建SURF特征向量。在特征点周围取一个4×4的矩形区域块,所取得矩形区域方向是沿着特征点的主方向,每个子区域统计25个像素的水平方向、垂直方向、水平绝对值方向和垂直绝对值方向的Haar小波特征.。把Haar小波值作为每个子块区域的特征向量,一共有4×4×4=64维向量。
步骤3,利用PCA算法对HOG特征进行降维处理;
其中,PCA算法的核心思想是通过一个特殊的特征向量矩阵Z,将高维n维特征映射到低维k维特征上,具体过程如下:假设有m个样本,对应特征向量为 Xi,Xi的维数为n,则由向量构成的样本可表示为一个n行m列的矩阵 X={x1,x2...,xm},则该样本的平均向量为
Figure BDA0002909566140000061
求出协方差矩阵C为
Figure BDA0002909566140000062
对矩阵C求特征值与对应的特征向量,然后将特征向量按对应特征值大小从上到下按行列排列成矩阵,取前k行组成矩阵p,则Y=PX即为降维到k维后的矩阵。本实验中,对原始9576维HOG特征进行PCA 降维后,再经过SVM分类识别。
步骤4,对PCA降维后的HOG特征应用Pearson相关系数、Spearman相关系数和Kendall系数进行二次降维处理;通过实验数据对比选择出降维效果最佳的一个方法,从而实现特征优选。具体过程如下:
(1)采用Sobel算子检测提取图像的边缘,计算边缘像素梯度幅值、梯度方向,将边缘像素方向角均匀的量化为θ12,...,θ12,即将360度分割成12个bins,每个bin包含30度;然后根据像素点的梯度方向,找到对应的bin,并且在bin 值所在的维度加上梯度幅值,得到一个12维的边缘方向直方图;
(2)根据三种相关系数计算帧图像间的边缘方向直方图的相似度,相关系数
Figure BDA0002909566140000063
根据相似度值的大小确定特征维度进行特征筛选,达到二次降维目的;
(3)对二次降维的HOG特征应用SVM分类器训练,进行实验。
(4)本发明采用标准数据集KTH进行测试训练,该数据集共有600个视频,包含6类动作,每个视频的分辨率为160×120,数据集包括光照变化、尺度变化、噪声影响、摄像头抖动等冗余因素影响,可以检测算法的鲁棒性。
(5)为了验证PCA降维和特征优选二次降维技术在减少特征数量,提高人体动作的分类精度等方面的作用。首先选取特征长度为20~200,步距20的分类精度,然后比较先对9576维的HOG特征进行PCA降维处理,再经过不同特征长度的Pearson或Spearman或Kendall相关系数后的二次降维处理。实验对比 PCA、PCA+Pearson、PCA+Spearman、PCA+Kendall四种降维方法对动作识别率的影响,选取出一组最佳降维的方法:PCA+Pearspn。对原始9576维HOG特征进行PCA降维后,再经过SVM分类识别后的分类精度如下表所示:
表1.PCA降维时特征长度对行为分类精度的影响
特征长度 20 40 60 80 100 120 140 160 180 200
精度(%) 42.5 81.0 83.6 85.3 85.8 86.6 85.2 87.4 90.0 90.1
由表1和图4可以看出,经过SVM分类识别后发现当特征长度为200时, PCA降维后的动作分类精度达到最高,达到90.1%。故本文方法第一次降维是把图像的9576维降至200维,表1的分类结果如图4所示。
在上述结果上再做特征选择,在特征长度为5~120,步距为5范围内运用 Pearson或Spearman或Kendall相关系数的特征选择技术,并且比较其分类精度,
由图5和表2所示,当特征长度选定为120维时,PCA+Pearson和PCA+Spearman两类降维方法的识别率达到最高,分别为94.8%、93.3%; PCA+Kendall降维在特征长度为65时,分类精度达到最高,为88.4%。由图4 可知,PCA降维方法在特征长度为200维时,达到最高分类精度90.1%。因此, PCA+Pearson和PCA+Spearman两类降维方法的分类精度均高于PCA降维, PCA+Pearson又高于PCA+Spearman。故选取PCA+Pearson降维方法对HOG特征进行降维处理,并将降维后的HOG特征与SURF特征进行融合。
步骤5,将SURF特征向量与二次降维后的HOG特征向量进行特征融合,利用支持向量机进行分类识别。
(1)对视频中存在人体动作的部分进行分割,分割方法:提取每一帧的 SURF特征,将有效特征数大于一定数量的帧视为有效帧。设定一个时间窗口,实验中取16帧为一个窗口,在有效帧之间进行特征点的匹配,对相邻两帧之间进行特征匹配,将与前后两帧的匹配特征均大于一定数量的帧视为关键帧,其中,匹配特征置信概率大于90%,若在时间窗口之内,关键帧数量大于设定好的阈值,实验中阈值取10,则将该窗口分割出来,作为一个视频片段;
(2)对每个分割好的视频片段计算特征,首先对片段内每帧计算HOG特征,并进行降维后,将特征串联,同时对每帧计算SURF特征,取每帧前N个最显著的特征点,并将其转换为特征向量,将特征向量串联后,再与降维的HOG 特征串联,形成分类所需的融合的特征向量。
(3)得到的特征向量输入到支持向量机分类器得到分类结果,得出实验数据进行统计。SVM采用RBF核函数
Figure BDA0002909566140000081
使用KTH数据库进行实验,如表3所示。数据集包括慢跑、跑步、散步、挥手、拍手、拳击6种不同行为,用来系统地检测行为识别实现的有效性。采用 leave-one-out的交叉验证方法,即对每个动作类,每次随机提取其中的75%个视频当做训练集,剩余的25%作为测试集进行测试。实验结果如表3所示。和其它方法比较实验结果如表4所示。
表3.六类动作的分类精度
动作 散步 跑步 慢跑 拳击 拍手 挥手
精度% 95.6 94.8 94.6 97.5 95.9 95.6
由表3可知,将降维后的HOG特征与SURF特征进行融合后,输入到SVM 之后识别率比之前仅用HOG特征进行训练的方法识别率得到了一定的提高,仅用HOG特征方法训练识别率最高达到94.8%,而融合特征之后六类动作的平均识别率达到了95.7%。
表4.本发明与现有人体动作识别算法分类精度比较
Figure BDA0002909566140000082
由表4和图6可知,本发明采用的特征优选和多种特征融合方法在现有框架中拥有一定的优势,识别率高于经典方法。本发明提供的多种特征融合算法相比单一HOG特征算法,更能准确完整的表征人体的动作,识别率也得到了提高。
表5.本发明与其他算法计算复杂度比较
Figure BDA0002909566140000091
由表5可知,其他一些经典算法中特征虽然经过PCA降维,但是其计算复杂度、运行时间仍很高,达不到高效的地步。本发明采取特征的二次降维算法的时间计算复杂度是其他算法的十分之一不到,在保证行为识别率不降低的前提下很大程度上缩短了运行时间,提高了动作识别的效率,具有很好的实用性。本发明提出的一种基于特征优选方法,即对HOG特征进行二次降维,降低特征维度,减少冗余特征,降低计算复杂度,在一定程度上提高识别精度。同时,将两种单一特征进行融合,使得本发明方法在复杂场景下对摄像机的视角变化、距离变化具有较强的鲁棒性,有利于提高真实环境下行为识别的正确率。

Claims (5)

1.一种基于特征优选与多种特征融合的人体行为识别方法,其特征在于:包括以下步骤:步骤1,读取视频帧图像并进行去噪预处理,采用高斯滤波器对图像序列进行降噪处理,增强图像质量;
步骤2,对完成预处理的视频帧图像分别提取HOG特征与SURF特征;
步骤3,利用PCA算法对HOG特征进行降维处理;
步骤4,对PCA降维后的HOG特征应用Pearson相关系数、Spearman相关系数和Kendall系数进行二次降维处理;
步骤5,将SURF特征向量与二次降维后的HOG特征向量进行特征融合,利用支持向量机进行分类识别;
步骤5具体为:
S5.1,对视频中存在人体动作的部分进行分割:提取每一帧的SURF特征,将有效特征数大于一定数量的帧视为有效帧;设定一个时间窗口,在有效帧之间进行特征点的匹配,对相邻两帧之间进行特征匹配,将与前后两帧的匹配特征均大于一定数量的帧视为关键帧,即,匹配特征的置信概率大于90%;若在时间窗口之内,关键帧数量大于设定好的阈值,则将该窗口分割出来,作为一个视频片段;
S5.2,对每个分割好的视频片段计算特征,对片段内每帧计算HOG特征,并进行降维后,将特征串联,同时对每帧计算SURF特征,取每帧前N个最显著的特征点,并将其转换为特征向量,将特征向量串联后,再与降维的HOG特征串联,形成分类所需的融合的特征向量;
S5.3,采用支持向量机SVM进行训练识别,SVM采用RBF核函数
Figure FDA0003731448430000011
2.根据权利要求1所述一种基于特征优选与多种特征融合的人体行为识别方法,其特征在于:步骤2中提取HOG特征具体过程为:S2.1.1,按照差分公式计算图像梯度大小矩阵和梯度方向矩阵,将360度(2π)分割成n个bins,每个bin包含
Figure FDA0003731448430000012
Figure FDA0003731448430000013
S2.1.2,根据每个像素点的梯度方向,找到对应的bin,并且在bin值所在的维度加上梯度大小,得到一个n维的直方图;S2.1.3,对图像进行分块处理,得到许多个小cells,针对每个小cell,统计其梯度方向直方图,将多个小cell构成一个block,每个block的梯度方向直方图为每个cell的梯度方向直方图的级联,级联所有block的梯度方向直方图得到整个图像的HOG特征直方图。
3.根据权利要求2所述一种基于特征优选与多种特征融合的人体行为识别方法,其特征在于:步骤2中提取SURF特征的具体过程为:S2.2.1,采用Hessian矩阵行列式来检测特征点;S2.2.2,构建图像的尺度空间,在尺度空间中实现特征点定位;S2.2.3,确定特征点的方向;S2.2.4,构建SURF特征向量,在特征点周围取一个4×4的矩形区域块,每个子区域统计25个像素的水平和垂直方向的Haar小波特征,把Haar小波值作为每个子块区域的特征向量,所以一共有4×4×4=64维向量作为SURF特征向量。
4.根据权利要求3所述一种基于特征优选与多种特征融合的人体行为识别方法,其特征在于:步骤3中将高维n维特征映射到低维k维特征上,具体过程如下:假设有m个样本,对应特征向量为Xi,Xi的维数为n,则由向量构成的样本可表示为一个n行m列的矩阵X={x1,x2...,xm},则该样本的平均向量为
Figure FDA0003731448430000021
求出协方差矩阵C为
Figure FDA0003731448430000022
对矩阵C求特征值与对应的特征向量,然后将特征向量按对应特征值大小从上到下按行列排列成矩阵,取前k行组成矩阵p,则Y=PX即为降维到k维后的矩阵。
5.根据权利要求4所述一种基于特征优选与多种特征融合的人体行为识别方法,其特征在于:步骤4具体过程为:S4.1,采用Sobel算子检测提取图像的边缘,计算边缘像素梯度幅值、梯度方向,将360度(2π)分割成n个bins,每个bin包含
Figure FDA0003731448430000023
Figure FDA0003731448430000024
然后根据像素点的梯度方向,找到对应的bin,并且在bin值所在的维度加上梯度幅值,得到一个n维的边缘方向直方图;S4.2,通过相关系数公式计算帧图像间的边缘方向直方图相似度;S4.3,根据相似度值的大小确定特征维度进行特征筛选,实现二次降维。
CN202110082421.3A 2021-01-21 2021-01-21 一种基于特征优选与多种特征融合的人体行为识别方法 Active CN112818779B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110082421.3A CN112818779B (zh) 2021-01-21 2021-01-21 一种基于特征优选与多种特征融合的人体行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110082421.3A CN112818779B (zh) 2021-01-21 2021-01-21 一种基于特征优选与多种特征融合的人体行为识别方法

Publications (2)

Publication Number Publication Date
CN112818779A CN112818779A (zh) 2021-05-18
CN112818779B true CN112818779B (zh) 2022-08-12

Family

ID=75858593

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110082421.3A Active CN112818779B (zh) 2021-01-21 2021-01-21 一种基于特征优选与多种特征融合的人体行为识别方法

Country Status (1)

Country Link
CN (1) CN112818779B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780416B (zh) * 2021-09-10 2024-04-02 电子科技大学长三角研究院(衢州) 基于图的特征排序和降维方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778473A (zh) * 2016-11-20 2017-05-31 南宁市浩发科技有限公司 一种车型识别方法
CN109086687A (zh) * 2018-07-13 2018-12-25 东北大学 基于pca降维的hog-mblbp融合特征的交通标志识别方法
CN110119695A (zh) * 2019-04-25 2019-08-13 江苏大学 一种基于特征融合和机器学习的虹膜活性检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778473A (zh) * 2016-11-20 2017-05-31 南宁市浩发科技有限公司 一种车型识别方法
CN109086687A (zh) * 2018-07-13 2018-12-25 东北大学 基于pca降维的hog-mblbp融合特征的交通标志识别方法
CN110119695A (zh) * 2019-04-25 2019-08-13 江苏大学 一种基于特征融合和机器学习的虹膜活性检测方法

Also Published As

Publication number Publication date
CN112818779A (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
Babu et al. Statistical features based optimized technique for copy move forgery detection
Seo et al. Action recognition from one example
Garcia et al. Convolutional face finder: A neural architecture for fast and robust face detection
CN111738143B (zh) 一种基于期望最大化的行人重识别方法
Jia et al. Visual tracking via coarse and fine structural local sparse appearance models
JP2008310796A (ja) コンピュータにより実施される、訓練データから分類器を構築し、前記分類器を用いてテストデータ中の移動物体を検出する方法
CN107633065B (zh) 一种基于手绘草图的识别方法
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
CN108932518B (zh) 一种基于视觉词袋模型的鞋印图像特征提取及检索方法
He et al. Scale space histogram of oriented gradients for human detection
Basavaiah et al. Human activity detection and action recognition in videos using convolutional neural networks
Çevik et al. A novel high-performance holistic descriptor for face retrieval
CN112784722B (zh) 基于YOLOv3和词袋模型的行为识别方法
Sun et al. Graph-matching-based character recognition for Chinese seal images
CN112818779B (zh) 一种基于特征优选与多种特征融合的人体行为识别方法
CN111127407B (zh) 一种基于傅里叶变换的风格迁移伪造图像检测装置及方法
Sethulekshmi et al. Ayurvedic leaf recognition for plant classification
Mohamed et al. Gender identification from facial images using global features
Artola et al. Glad: A global-to-local anomaly detector
Özyurt et al. A new method for classification of images using convolutional neural network based on Dwt-Svd perceptual hash function
CN113887509A (zh) 一种基于图像集合的快速多模态视频人脸识别方法
Halidou et al. Pedestrian detection based on multi-block local binary pattern and biologically inspired feature
Farouk et al. Nonlinearity reduction of manifolds using Gaussian blur for handshape recognition based on multi-dimensional grids
Mallek et al. Deep learning with sparse prior-application to text detection in the wild
Tang et al. Rapid forward vehicle detection based on deformable Part Model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant