CN103186775A - 基于混合描述子的人体运动识别方法 - Google Patents

基于混合描述子的人体运动识别方法 Download PDF

Info

Publication number
CN103186775A
CN103186775A CN2013101028122A CN201310102812A CN103186775A CN 103186775 A CN103186775 A CN 103186775A CN 2013101028122 A CN2013101028122 A CN 2013101028122A CN 201310102812 A CN201310102812 A CN 201310102812A CN 103186775 A CN103186775 A CN 103186775A
Authority
CN
China
Prior art keywords
human body
coordinate
video
coordinates
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101028122A
Other languages
English (en)
Other versions
CN103186775B (zh
Inventor
韩红
焦李成
王爽
李晓君
张红蕾
谢福强
韩启强
顾建银
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Huazhen Environmental Protection Technology Co ltd
Qingdao Huashi Intelligent Technology Co ltd
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201310102812.2A priority Critical patent/CN103186775B/zh
Publication of CN103186775A publication Critical patent/CN103186775A/zh
Application granted granted Critical
Publication of CN103186775B publication Critical patent/CN103186775B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提出了一种基于混合描述子的人体运动识别方法,主要解决现有技术中特征提取复杂、表征能力弱的问题。其实现步骤是:(1)获得人体运动视频数据,并按8:1的比例构建训练视频集X和测试视频集T;(2)提取每个视频中人体星型模型的5个顶点坐标并计算这5个顶点坐标在其独立坐标系下的极径和极角,得到人体各个部位的统计直方图特征;(4)提取一个视频中所有图像的运动特征;(5)将统计直方图特征和运动特征级联,作为视频的最终特征;(6)分别对训练视频集X和测试视频集T中的所有视频进行特征提取,获得训练视频特征集X*和测试视频特征集T*,并对其进行学习训练,获得分类结果。本发明能准确识别人体运动,可用于视频监控、目标识别和运动识别的视频处理。

Description

基于混合描述子的人体运动识别方法
技术领域
本发明属于图像处理技术领域,涉及人体运动识别方法,可用于虚拟视频、智能监控和姿态估计。
背景技术
人体运动识别是近几年来计算机视觉领域的重大热点之一,人体运动识别在运动捕获,人机交互,视频监控等多领域获得了初步的应用,具有重大的应用前景。由于人体运动的多变性和多样性,背景的嘈杂以及光照条件,衣服纹理和自身遮挡等多方面的因素严重影响人体运动的识别效果,故从视频图像中准确估计人体姿态,实现人体运动识别是计算机视觉领域长期存在的问题。
目前,人体运动识别的方法主要分为三大类:基于学习的人体运动识别、基于模型的人体运动识别和基于表现的人体运动识别。
第一种,基于学习的人体运动识别方法,是先在训练的视频图像和目标视频图像数据库里提取精确的图像特征,通过机器学习从一系列训练数据中学习得到一个分类器,用该分类器来表示人体运动;然后利用该分类器对输入窗口进行分类及识别。如Ivan Laptev等人采用的基于HOG和HOF的特征提取方法和基于KNN和SVM的识别方法。另外还有Somayeh Danafar和Niloofar Cheissari在其论文中采用了基于光流的特征提取方法和基于SVM的运动识别方法,其中基于光流的特征是从图像序列的相邻帧中提取。该识别方法的优点与人体模型的方法和模板匹配的方法相比是比较鲁棒,检测结果较优,但是缺点是运动信息的计算过程缺乏对行为的全局分析,且计算特征的复杂度较高,需要很多训练数据,通常需要上万的数据。
第二种,基于模型的方法,是利用人体结构的先验知识建立人体模型,然后提取图像底层特征匹配到模型中,并以运动规律加以约束。当前比较典型的方法如:Ju Sun采用了基于SIFT描述子和基于Markov模型的识别方法;Hsuan-Sheng Chen等人采用了基于星形骨架描述轮廓信息的特征表述方法和基于HMM的动作识别方法。这种方法简单,容易实现,但是特征表征能力较弱,信息包含较少,识别性能低,准确率不高,且容易受遮挡和人体服装差异的影响,常作为一种辅助方法。
第三种,基于表现的方法,无须对人体建模,直接提取图像中感兴趣区域的底层二维表观特征,然后找出区域特征与人体动作的对应关系进行匹配。如Bobick和Davis采用了基于轮廓表征的特征表示方法和基于MHI和MEI模板的识别方法。这种方法与基于模型的方法相比计算比较简单,缺点是提出的特征对环境的动态变化敏感,易受背景变化的影响,对纹理变化不够敏感,不能最优的表征图像边缘,同时由于人体姿态的复杂性,很难构造出足够的模板以处理不同的姿态,故正确率也不高。
发明内容
本发明目的是针对上述已有技术的不足,提出一种基于混合描述子的人体行为识别方法,从人体的结构特性和人体的运动特性出发,降低人体特征提取的复杂度,在无需大量训练数据的情况下,有效地提高人体运动识别的正确率。
为实现上述目的,本发明的技术方案包括如下:
(1)将Weizmann数据库中的视频按照8:1的比例构建训练视频集X和测试视频集T,并将训练视频集X和测试视频集T中的每段视频转换为连续的单幅序列图像;
(2)利用帧差法对训练视频集X中的单幅序列图像进行背景减除,并将背景减除后的彩色图像变为二值图像;
(3)在上述二值图像中选取人体双手平举双脚并拢垂直站立的图片,记录图片中人体5个部位的坐标,即头部坐标(xhead,yhead),左手坐标(xarml,yarml),右手坐标(xarmr,yarmr),左脚坐标(xlegl,ylegl),右脚坐标(xlegr,ylegr);
(4)提取步骤(2)所有二值图像中人体的5个部位在以人体重心为坐标中心的直角坐标系中的坐标,分别记为左脚坐标:(x1',y1'),右脚坐标:(x'2,y'2),头部坐标:(x'3,y'3),左手坐标:(x'4,y'4),右手坐标:(x'5,y'5);
(5)用步骤(3)中得到的头部坐标(xhead,yhead)为坐标中心构造直角坐标系ohead,左手坐标(xarml,yarml)为坐标中心构造直角坐标系oarml,右手坐标(xarmr,yarmr)为坐标中心构造直角坐标系oarmr,左脚坐标(xlegl,ylegl)为坐标中心构造直角坐标系olegl,右脚坐标(xlegr,ylegr)为坐标中心构造直角坐标系olegr;进行平移直角坐标系变换,将步骤(4)中得到左脚坐标(x1',y1')转换到直角坐标系olegl中得到新的左脚坐标
Figure BDA00002975634700021
右脚坐标(x'2,y'2)转换到直角坐标系olegr中得到新的右脚坐标头部坐标(x'3,y'3)转换到直角坐标系ohead中得到新的头部坐标左手坐标(x'4,y'4)转换到直角坐标系oarml中得到新的左手坐标
Figure BDA00002975634700024
右手坐标(x'5,y'5)转换到直角坐标系oarmr中得到新的右手坐标
Figure BDA00002975634700025
(6)分别计算步骤(5)中得到的5个人体部位坐标
Figure BDA00002975634700031
Figure BDA00002975634700032
到直角坐标系olegl,olegr,ohead,oarml,oarmr的坐标中心的距离,依次记为
Figure BDA00002975634700033
Figure BDA00002975634700034
(7)利用上述距离中的最大值D*,计算5个人体部位坐标
Figure BDA00002975634700036
的极径:
Figure BDA00002975634700037
其中i=1,2......5, D * = max { d 1 * , d 2 * , d 3 * , d 4 * , d 5 * } ;
(8)计算步骤(5)中得到的5个人体部位坐标
Figure BDA00002975634700039
Figure BDA000029756347000310
的极角: θ i * = arctan ( x i * / y i * ) , 其中i=1,2......5;
(9)按照上述步骤(4)~(8)将一个运动视频中的所有序列图片都做如上处理,得到一个视频中所有图片中人的5个部位的极径r*和极角θ*
(10)计算一个运动视频的2D统计直方图特征N:
(10a)将极径r*的取值范围等分为5个连续的子区间,将极角θ*的取值范围等分为10个连续的子区间;再将极径r*的5个子区间和极角θ*的10子区间分别两两组合,构成50个联合子区间;
(10b)分别统计步骤(9)得到的一个视频的所有图片中人的5个部位的极径r*和极角θ*的值落在这50个联合子区间中的次数,得到5个部位的位置特征向量,分别记为n1,n2,n3,n4,n5,并将这5个部位的位置特征向量级联,得到一个运动视频的2D统计直方图特征N={n1,n2,n3,n4,n5};
(11)利用图像矩计算一个运动视频中每幅图像中人体的帧速率,将每幅图像的帧速率级联,得到一个运动视频的运动特征V;
(12)将步骤(10)得到的2D统计直方图特征N和步骤(11)得到的运动特征V进行级联,得到一个运动视频的最终特征B={N,V};
(13)按照上述步骤(4)~(12)提取训练视频集X和测试视频集T中的所有运动视频的最终特征,获得训练视频特征集X*和测试视频特征集T*
(14)利用SVM算法对训练视频特征集X*进行训练学习得到分类器,将测试视频特征集T*输入到分类器中,得到各类运动的分类结果。
本发明与现有的技术相比具有以下优点:
1、本发明利用了人体的结构特性,通过人体星型骨架模型获取人体部位的位置特征向量进行人体行为识别,有效的提高了基于视频的人体行为识别的正确率。
2、本发明利用了基于部位的方法,通过构造部位属性的统计直方图,很好的描述了在不同行为下人体部位的位置差异,同时较传统的描述方法维度低,在学习训练阶段能有效缩减时间和数据计算量。
3、本发明利用了分部位坐标系的方法,通过建立各个部位单独的坐标系,增加了部位描述的细节信息,提高了部位描述的精确度。
4、本发明利用了人体的运动特征,很好的区分了外形轮廓上有较大相似度的动作,从而有效的提高了人体行为识别的总识别率。
附图说明
图1是本发明的流程示意图;
图2是本发明仿真使用的数据库中部分视频的序列图像;
图3是本发明对Weizmann数据库中部分图片进行背景减除后的二值图片;
图4是本发明中利用Weizmann数据库进行仿真后的混淆矩阵图。
具体实施方式
参照图1,本发明的具体实现步骤如下:
步骤一,获取整个人体运动识别的训练视频集X和测试视频集T。
(1.1)将Weizmann数据库中的运动视频按照8:1的比例构建训练视频集X和测试视频集T;其中,Weizmann数据库的下载地址为http://www.wisdom.weizmann.ac.il/~vision/SpaceTimeActions.html,图2给出了数据库中部分视频的序列图像;
(1.2)将训练视频集X和测试视频集T中的每段视频转换为连续的单幅序列图像。
步骤二,利用帧差法对训练视频集X中的单幅序列图像进行背景减除,并将背景减除后的彩色图像变为二值图像。
所述的将背景减除后的彩色图像变为二值图像,具体步骤为:
(2.1)定义FG(x,y)={R,G,B}表示当前视频图像中像素点(x,y)的RGB数值,定义BG(x,y)={Rl,Gl,Bl}表示Weizmann数据库相应背景图片中对应背景像素点的RGB数值,其中,R表示当前视频图像中像素点(x,y)的红色分量数值,G表示当前视频图像中像素点(x,y)的绿色分量数值,B表示当前视频图像中像素点(x,y)的蓝色分量数值,Rl表示相应背景图片中对应背景像素点的红色分量数值,Gl表示相应背景图片中对应背景像素点的绿色分量数值,Bl表示相应背景图片中对应背景像素点的蓝色分量数值;
(2.2)分别计算红色分量R的差值c1(x,y)=|R-Rl|,绿色分量G的差值c2(x,y)=|G-Gl|,蓝色分量B的差值c3(x,y)=|B-Bl|;
(2.3)将当前视频图像中像素点(x,y)的三个颜色分量差值c1(x,y),c2(x,y),c3(x,y)与设定的阈值t相比较,若三个颜色分量差值都小于或等于阈值t,则将像素点(x,y)设为背景像素点,否则将像素点(x,y)设为前景像素点,其中,阈值t根据具体序列图像设定;
(2.4)将步骤(2.3)中判定为背景像素点的像素值都设为1,将判定为前景像素点的像素值都设为0,将得到的所有背景像素点和前景像素点联合起来构成二值图像;
(2.5)使用形态学中膨胀腐蚀的方法,对步骤(2.4)得到的二值图像中人体像素缺失的部分进行膨胀,对人体像素的多余部分进行腐蚀,获得理想的前景二值图像。
步骤三,在上述二值图像中选取人体双手平举双脚并拢垂直站立的图片,记录图片中人体5个部位的坐标,头部坐标(xhead,yhead),左手坐标(xarml,yarml),右手坐标(xarmr,yarmr),左脚坐标(xlegl,ylegl),右脚坐标(xlegr,ylegr),具体步骤为:
(3.1)在所有二值图像中选取人体双手平举双脚并拢垂直站立的图片,在此图片中构造以最左下角的像素点为坐标中心的直角坐标系o1,提取图像中人体的星型模型,并记录星型模型的5个顶点在直角坐标系o1中的位置,其中,星型模型的5个顶点为人体轮廓上的像素点和人体重心点之间距离最大的5个像素点,分别记为:(x1,y1),(x2,y2),(x3,y3),(x4,y4),(x5,y5);
(3.2)在上述二值图像中构造以人体重心点为坐标中心的直角坐标系o2,进行平移直角坐标系变换,并将步骤(3.1)中星型模型的5个顶点在直角坐标系o1中的坐标转换到直角坐标系o2中,得到这5个顶点在坐标系o2中的对应坐标,分别为(x1',y1'),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5);
(3.3)计算星型模型的5个顶点在直角坐标系o2中的坐标(x1',y1'),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5)到直角坐标系o2的坐标中心点的距离,依次记为d1,d2,d3,d4,d5
(3.4)利用上述距离d1,d2,d3,d4,d5中的最大值D,计算星型模型5个顶点的极径:ri=di/D,
其中i=1,2......5,D=max{d1,d2,d3,d4,d5};
(3.5)利用上述坐标(x'1,y'1),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5),计算星型模型5个顶点的极角:θi=arctan(x'i/y'i),其中i=1,2......5;
(3.6)根据人体结构特征找出5个坐标点(x'1,y'1),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5)分别对应的人体部位并记录其坐标;
(3.6a)将步骤(3.4)中得到的5个坐标点的极径ri,i=1,2....5,从大到小排序,找出最大两个极径对应的坐标点(x1',y1'),(x'2,y'2),根据人体脚到人体重心的距离最大,且左脚和右脚分布于人体重心两侧的比例结构判定脚坐标,若x1'>0,则判定(x1',y1')为左脚坐标,反之,(x'2,y'2)为右脚坐标,将左脚坐标记为(xlegl,ylegl),右脚坐标记为(xlegr,ylegr);
(3.6b)在剩余3个点顶点(x'3,y'3),(x'4,y'4),(x'5,y'5)中,根据人体头部是偏离人体重心角度最小的部位,用对应极角的绝对值最大的结构判定头部坐标,比较3个顶点对应极角θ345的绝对值的大小,若θ3绝对值最大,则(x'3,y'3)为头部坐标,将头部坐标记为(xhead,yhead);
(3.6c)在其余两个顶点(x'4,y'4),(x'5,y'5)中,若x'4>0,则判定(x'4,y'4)为左手坐标,反之,(x'5,y'5)为右手坐标,将左手坐标记为(xarml,yarml),右手坐标记为(xarmr,yarmr)。
步骤四,提取步骤二所有二值图像中人体的5个部位在以人体重心为坐标中心的直角坐标系中的坐标,分别记为左脚坐标(xlegl,ylegl),右脚坐标(xlegr,ylegr),头部坐标(xhead,yhead),左手坐标(xarml,yarml),右手坐标(xarmr,yarmr)。
(4.1)构造步骤二中二值图像最左下角的像素点为坐标中心的直角坐标系o1,提取图像中人体的星型模型,并记录星型模型的5个顶点在直角坐标系o1中的位置,其中,星型模型的5个顶点为人体轮廓上的像素点和人体重心点之间距离最大的5个像素点,分别记为:(x1,y1),(x2,y2),(x3,y3),(x4,y4),(x5,y5):
(4.1a)对二值图像进行光栅扫描,当某像素的像素值从1变为0时,将此像素记为p0,且作为人体边界像素点的起始点,并存储它的坐标(x,y);
(4.1b)从像素(x,y-1)开始逆时针方向在像素(x,y)的8-领域内寻找像素值为0的像素点,当第一次出现像素值为0的像素点时,将此像素点记为pk,k=1,并存储它的坐标;
(4.1c)从像素pk-1开始逆时针方向在像素pk的8-领域内寻找像素值为0的像素,把最新发现的像素值为0的像素记为pk+1,并存储它的坐标;
(4.1d)重复步骤(3.1c),当pk=p0且pk+1=p1时,扫描结束,记录所有边缘像素点的位置(xi,yi);
(4.1e)利用人体边界像素点坐标,计算运动人体边界像素点所围成区域的重心坐标(xc,yc),计算公式为:
x c = 1 N b Σ i = 1 N b x i y c = 1 N b Σ i = 1 N b y i
其中Nb为构成人体边缘的所有像素的个数,(xi,yi)为人体边界像素点坐标;
(4.1f)计算每一个边缘像素点坐标(xi,yi)到人体重心点坐标(xc,yc)的距离di,将di变为离散函数d(i);
(4.1g)使用低通滤波器对离散函数d(i)进行去噪;
(4.1h)利用差分法求得离散函数d(i)的局部极大值,若局部极大值的个数大于5个,则改变低通滤波器的截止频率直至求得的局部极大值个数为5,将这5个局部极大值点作为星型模型的5个顶点,并记录这5个顶点在图像直角坐标系o1中的坐标,分别记为,(x1,y1),(x2,y2),(x3,y3),(x4,y4),(x5,y5),其中,直角坐标系o1的中心坐标为二值图像最左下角的像素点坐标。
(4.2)在上述二值图像中构造以人体重心点为坐标中心的直角坐标系o2,进行平移直角坐标系变换,并将步骤(4.1)中星型模型的5个顶点在直角坐标系o1中的坐标转换到直角坐标系o2中,得到这5个顶点在坐标系o2中的对应坐标,分别为(x1',y1'),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5);
(4.3)计算星型模型的5个顶点在直角坐标系o2中的坐标(x1',y1'),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5)到直角坐标系o2的坐标中心点的距离,依次记为d1,d2,d3,d4,d5
(4.4)利用上述距离d1,d2,d3,d4,d5中的最大值D,计算星型模型5个顶点的极径:ri=di/D,
其中i=1,2......5,D=max{d1,d2,d3,d4,d5};
(4.5)利用上述坐标(x'1,y'1),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5),计算星型模型5个顶点的极角:θi=arctan(x'i/y'i),其中i=1,2......5;
(4.6)根据人体结构特征找出上述5个坐标点(x'1,y'1),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5)分别对应的人体部位:
(4.6a)将步骤(4.4)中五个坐标点的极径ri,i=1,2....5,从大到小排序,找出其中最大两个极径对应的坐标点(x1',y1'),(x'2,y'2),根据人体脚到人体重心的距离最大,且左脚和右脚分布于人体重心两侧的比例结构判定脚坐标,若x1'>0,则判定(x1',y1')为左脚坐标,反之,判定(x'2,y'2)为右脚坐标;
(4.6b)在剩余3个点顶点(x'3,y'3),(x'4,y'4),(x'5,y'5)中,根据人体头部是偏离人体重心角度最小的部位,用对应极角的绝对值最大的结构判定头部坐标,比较3个顶点对应极角θ345的绝对值的大小,若θ3绝对值最大,则(x'3,y'3)为头部坐标;
(4.6c)在其余两个顶点(x'4,y'4),(x'5,y'5)中,若x'4>0,则判定(x'4,y'4)为左手坐标,反之,判定(x'5,y'5)为右手坐标;
步骤五,将步骤四得到的5个人体部位坐标(x'1,y'1),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5)分别进行平移直角坐标系变换,得到新坐标系下的坐标值。
(5.1)用步骤三中得到的头部坐标(xhead,yhead)为坐标中心构造直角坐标系ohead,用左手坐标(xarml,yarml)为坐标中心构造直角坐标系oarml,用右手坐标(xarmr,yarmr)为坐标中心构造直角坐标系oarmr,用左脚坐标(xlegl,ylegl)为坐标中心构造直角坐标系olegl,用右脚坐标(xlegr,ylegr)为坐标中心构造直角坐标系olegr
(5.2)将步骤四中得到左脚坐标(x1',y1')转换到直角坐标系olegl中得到新的左脚坐标
Figure BDA00002975634700081
将右脚坐标(x'2,y'2)转换到直角坐标系olegr中得到新的右脚坐标
Figure BDA00002975634700082
将头部坐标(x'3,y'3)转换到直角坐标系ohead中得到新的头部坐标
Figure BDA00002975634700083
将左手坐标(x'4,y'4)转换到直角坐标系oarml中得到新的左手坐标
Figure BDA00002975634700084
将右手坐标(x'5,y'5)转换到直角坐标系oarmr中得到新的右手坐标
步骤六,分别计算步骤五中得到的5个人体部位坐标
Figure BDA00002975634700086
Figure BDA00002975634700087
到直角坐标系olegl,olegr,ohead,oarml,oarmr的坐标中心的距离,依次记为
Figure BDA00002975634700088
步骤七,利用上述距离
Figure BDA00002975634700089
中的最大值D*,计算5个人体部位坐标
Figure BDA000029756347000810
的极径:
Figure BDA000029756347000811
其中i=1,2......5, D * = max { d 1 * , d 2 * , d 3 * , d 4 * , d 5 * } .
步骤八,计算步骤五中得到的5个人体部位坐标
Figure BDA000029756347000813
Figure BDA00002975634700091
的极角:
Figure BDA00002975634700092
其中i=1,2......5;
步骤九,按照上述步骤四到步骤八将一个运动视频中的所有序列图片都做如上处理,得到一个视频中所有图片中人的5个部位的极径r*和极角θ*
步骤十,计算一个运动视频的2D统计直方图特征N。
(10.1)将极径r*的取值范围等分为5个连续的子区间,将极角θ*的取值范围等分为10个连续的子区间;再将极径r*的5个子区间和极角θ*的10子区间分别两两组合,构成50个联合子区间;
(10.2)分别统计步骤九得到的一个视频的所有图片中人的5个部位的极径r*和极角θ*的值落在这50个联合子区间中的次数,得到5个部位的位置特征向量,分别记为n1,n2,n3,n4,n5,并将这5个部位的位置特征向量级联,得到一个运动视频的2D统计直方图特征N={n1,n2,n3,n4,n5};
步骤十一,利用图像矩计算一个运动视频中每幅图像中人体的帧速率,每幅图像的帧速率级联,得到一个运动视频的运动特征V。
(11.1)对步骤二得到的二值图像按如下公式计算每幅图像中人体质心点坐标
Figure BDA00002975634700099
即:
x ‾ = Σ X , Y [ I ( X , Y ) X ] Σ X , Y [ I ( X , Y ) ] y ‾ = Σ X , Y [ I ( X , Y ) Y ] Σ X , Y [ I ( X , Y ) ]
其中,I(X,Y)表示像素点(X,Y)的像素值;
(11.2)计算第k幅图像的瞬时位移:
Figure BDA00002975634700094
其中,
Figure BDA00002975634700095
表示第k+1幅图像中人体质心的横坐标,
Figure BDA00002975634700096
表示第k幅图像中人体质心的横坐标,表示第k+1幅图像中人体质心的纵坐标,表示第k幅图像中人体质心的纵坐标;
(11.3)计算第k幅图像中人体的帧速率vk=s'k*f,其中,f表示视频帧率,在Weizmann数据库中为已知;
(11.4)按照上述步骤(11.1)到(11.3)计算一个运动视频的所有序列图片中人体的帧速率,记为v1,v2,....vn,其中n为一个运动视频包含的序列图片的个数;
(11.5)将步骤(11.4)中得到的所有序列图片中人体的帧速率级联,得到一个运动视频的运动特征V={v1,v2,...vn}。
步骤十二,将步骤十得到的2D统计直方图特征N和步骤十一得到的运动特征V进行级联,得到一个运动视频的最终特征B={N,V}。
步骤十三,按照上述步骤四到步骤十二提取训练视频集X和测试视频集T中的所有运动视频的最终特征,获得训练视频特征集X*和测试视频特征集T*
步骤十四,利用SVM算法对训练视频特征集X*进行训练学习得到分类器,并输入测试视频特征集T*进行分类,得到运动识别的结果,即各类运动的分类准确率和总的分类准确率。
(14.1)利用SVM算法对训练视频特征集X*进行训练学习,得到分类器H;
(14.2)将测试视频特征集T*输入到已经训练好的分类器H中,得到各类运动的预测标签L*,预测标签L*包括各类运动的预测标签集合,分别为
Figure BDA00002975634700101
j=1,2....k,各类运动的预测标签集合中预测标签个数分别为nj,j=1,2....k,其中,k为总的运动类别数;
(14.3)判断第j类运动预测标签集中的所有预测标签和真实标签集lj中对应的真实标签是否相同,统计相同的标签的个数,记为
Figure BDA00002975634700103
其中,lj为Weizmann数据库已包括的真实标签集;
(14.4)利用如下公式计算第j类运动的分类准确率,即:
σ = n j * / n j ,
(14.5)按照步骤(14.3)~(14.4)计算k类所有运动的分类准确率,分别记为σj,j=1,2......k;根据各类运动的分类准确率σj画出分类混淆矩阵,分类混淆矩阵包括各类运动的分类结果;
(14.6)利用如下公式计算总的分类准确率,即:
σ * = Σ j = 1 k σ j / k ,
各类运动的分类准确率σj和总的运动分类准确率σ*即为运动识别的最终结果。
本发明的效果可通过以下实验结果与分析进一步的说明:
1.实验条件:
实验所需的样本集来源于Weizmann数据库,包括bend,jack,jump,pjump,side,wave1,wave2,run,walk,skip十类运动视频,整个人体运动识别的训练视频有80个,测试视频有10个,其中训练视频中各类运动视频都为8个,测试视频中各类运动视频都为1个,视频大小均为180×144像素。
硬件平台为:Intel Core2Duo CPU E65502.33GHZ、2GB RAM。软件平台为MATLAB R2009a。
2.对比实验
本发明使用的对比实验方法是J.C.Niebles和李菲菲博士在文章“J.C.Niebles and L.Fei-Fei,“A hierarchical model of shape and appearance for human actionclassification,”IEEE Conference on Computer Vision and Pattern Recognition,2007.”中提出的基于形状和表观模型的人体运动识别方法。用这种方法首先提取训练样本基于形状的特征,然后训练一个判别性分类器,最后通过计算测试样本特征和分类器中模型的相似性来实现分类。
3.实验内容与实验结果分析
使用本发明的方法对Weizmann数据库进行人体运动识别仿真,图2给出了该数据库中部分视频的序列图像,图3给出了该数据库中部分序列图像进行背景减除后的二值图像。
仿真过程如下:
1)对Weizmann数据库在上述实验条件中进行训练视频和测试视频的划分;
2)对训练视频集X和测试视频集T进行特征提取,得到训练视频特征集X*和测试视频特征集T*
3)利用SVM算法对训练视频特征集X*训练,之后将测试视频特征集T*输入分类器得到各类运动的预测标签L*
4)根据测试视频特征集T*的预测标签L*和Weizmann数据库包括真实标签L,得出总的分类准确率为87.4%,并画出混淆矩阵,如图4所示。
从图4的混淆矩阵可以看出,大部分运动都能得到有效的识别,尤其是jack运动,jump运动和walk运动的识别率都达到了100%,run运动的识别率也达到了90%;
本发明进行人体运动识别的总准确率87.4%,高于对比实验中李菲菲博士的72.8%。
综上,本发明提出的人体运动识别方法有效可行,且提出的特征提取方法能准确的利用人体部位的位置统计特征表征人体运动姿态,同时利用人体运动特征很好的区分侧影轮廓相似度较高的行为,从而降低了特征提取的计算复杂度,同时提高了识别的准确率。

Claims (5)

1.一种基于混合描述子的人体运动识别方法,包括如下步骤: 
(1)将Weizmann数据库中的视频按照8:1的比例构建训练视频集X和测试视频集T,并将训练视频集X和测试视频集T中的每段视频转换为连续的单幅序列图像; 
(2)利用帧差法对训练视频集X中的单幅序列图像进行背景减除,并将背景减除后的彩色图像变为二值图像; 
(3)在上述二值图像中选取人体双手平举双脚并拢垂直站立的图片,记录图片中人体5个部位的坐标,即头部坐标(xhead,yhead),左手坐标(xarml,yarml),右手坐标(xarmr,yarmr),左脚坐标(xlegl,ylegl),右脚坐标(xlegr,ylegr); 
(4)提取步骤(2)所有二值图像中人体的5个部位在以人体重心为坐标中心的直角坐标系中的坐标,分别记为左脚坐标:(x1',y1'),右脚坐标:(x'2,y'2),头部坐标:(x'3,y'3),左手坐标:(x'4,y'4),右手坐标:(x'5,y'5); 
(5)用步骤(3)中得到的头部坐标(xhead,yhead)为坐标中心构造直角坐标系ohead,左手坐标(xarml,yarml)为坐标中心构造直角坐标系oarml,右手坐标(xarmr,yarmr)为坐标中心构造直角坐标系oarmr,左脚坐标(xlegl,ylegl)为坐标中心构造直角坐标系olegl,右脚坐标(xlegr,ylegr)为坐标中心构造直角坐标系olegr;进行平移直角坐标系变换,将步骤(4)中得到左脚坐标(x1',y1')转换到直角坐标系olegl中得到新的左脚坐标
Figure FDA00002975634600011
右脚坐标(x'2,y'2)转换到直角坐标系olegr中得到新的右脚坐标头部坐标(x'3,y'3)转换到直角坐标系ohead中得到新的头部坐标
Figure FDA00002975634600013
左手坐标(x'4,y'4)转换到直角坐标系oarml中得到新的左手坐标
Figure FDA00002975634600014
右手坐标(x'5,y'5)转换到直角坐标系oarmr中得到新的右手坐标
Figure FDA00002975634600015
(6)分别计算步骤(5)中得到的5个人体部位坐标
Figure FDA00002975634600016
Figure FDA00002975634600017
到直角坐标系olegl,olegr,ohead,oarml,oarmr的坐标中心的距离,依次记为
Figure FDA00002975634600018
Figure FDA00002975634600019
(7)利用上述距离
Figure FDA000029756346000110
中的最大值D*,计算5个人体部位坐标 
Figure FDA000029756346000111
的极径:
Figure FDA000029756346000112
其中i=1,2......5,
Figure FDA000029756346000113
(8)计算步骤(5)中得到的5个人体部位坐标
Figure FDA000029756346000114
Figure FDA000029756346000115
的极角:
Figure FDA000029756346000116
其中i=1,2......5; 
(9)按照上述步骤(4)~(8)将一个运动视频中的所有序列图片都做如上处理,得到一个视频中所有图片中人的5个部位的极径r*和极角θ*; 
(10)计算一个运动视频的2D统计直方图特征N: 
(10a)将极径r*的取值范围等分为5个连续的子区间,将极角θ*的取值范围等分为10个连续的子区间;再将极径r*的5个子区间和极角θ*的10子区间分别两两组合,构成50个联合子区间; 
(10b)分别统计步骤(9)得到的一个视频的所有图片中人的5个部位的极径r*和极角θ*的值落在这50个联合子区间中的次数,得到5个部位的位置特征向量,分别记为n1,n2,n3,n4,n5,并将这5个部位的位置特征向量级联,得到一个运动视频的2D统计直方图特征N={n1,n2,n3,n4,n5}; 
(11)利用图像矩计算一个运动视频中每幅图像中人体的帧速率,将每幅图像的帧速率级联,得到一个运动视频的运动特征V; 
(12)将步骤(10)得到的2D统计直方图特征N和步骤(11)得到的运动特征V进行级联,得到一个运动视频的最终特征B={N,V}; 
(13)按照上述步骤(4)~(12)提取训练视频集X和测试视频集T中的所有运动视频的最终特征,获得训练视频特征集X*和测试视频特征集T*; 
(14)利用SVM算法对训练视频特征集X*进行训练学习得到分类器,将测试视频特征集T*输入到分类器中,得到各类运动的分类结果。 
2.根据权利要求1所述的人体运动识别方法,其中步骤(2)所述的将背景减除后的彩色图像其变为二值图像,按如下步骤进行: 
(2.1)定义FG(x,y)={R,G,B}为当前视频图像中像素点(x,y)的RGB数值,定义BG(x,y)={Rl,Gl,Bl}为Weizmann数据库相应背景图片中对应背景像素点的RGB数值,其中,R表示当前视频图像中像素点(x,y)的红色分量数值,G表示当前视频图像中像素点(x,y)的绿色分量数值,B表示当前视频图像中像素点(x,y)的蓝色分量数值,Rl表示相应背景图片中对应背景像素点的红色分量数值,Gl表示相应背景图片中对应背景像素点的绿色分量数值,Bl表示相应背景图片中对应背景像素点的蓝色分量数值; 
(2.2)分别计算红色分量R的差值c1(x,y)=|R-Rl|,绿色分量G的差值c2(x,y)=|G-Gl|,蓝色分量B的差值c3(x,y)=|B-Bl|; 
(2.3)将当前视频图像中像素点(x,y)的三个颜色分量差值c1(x,y),c2(x,y),c3(x,y)与设定的阈值t相比较,若三个颜色分量差值都小于或等于阈值t,则将像素点(x,y)设为背景像素点,否则将像素点(x,y)设为前景像素点,其中,阈值t根据具体序列图像设定; 
(2.4)将步骤(2.3)中判定为背景像素点的像素值都设为1,将判定为前景像素点的像素值都设为0,将得到的所有背景像素点和前景像素点联合起来构成二值图像; 
(2.5)使用形态学中膨胀腐蚀的方法,对步骤(2.4)得到的二值图像中人体像素缺失的部分进行膨胀,对人体像素的多余部分进行腐蚀,获得理想的前景二值图像。 
3.根据权利要求1所述的人体运动识别方法,其中步骤(3)所述的在二值图像中选取人体双手平举双脚并拢垂直站立的图片,记录图片中人体5个部位的坐标,头部坐标(xhead,yhead),左手坐标(xarml,yarml),右手坐标(xarmr,yarmr),左脚坐标(xlegl,ylegl),右脚坐标(xlegr,ylegr),按如下步骤进行: 
(3.1)在所有二值图像中选取人体双手平举双脚并拢垂直站立的图片,在此图片中构造以最左下角的像素点为坐标中心的直角坐标系o1,提取图像中人体的星型模型,并记录星型模型的5个顶点在直角坐标系o1中的位置,其中,星型模型的5个顶点为人体轮廓上的像素点和人体重心点之间距离最大的5个像素点,分别记为:(x1,y1),(x2,y2),(x3,y3),(x4,y4),(x5,y5); 
(3.2)在上述二值图像中构造以人体重心点为坐标中心的直角坐标系o2,进行平移直角坐标系变换,并将步骤(3.1)中星型模型的5个顶点在直角坐标系o1中的坐标转换到直角坐标系o2中,得到这5个顶点在坐标系o2中的对应坐标,分别为(x1',y1'),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5); 
(3.3)计算星型模型的5个顶点在直角坐标系o2中的坐标(x1',y1'),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5)到直角坐标系o2的坐标中心点的距离,依次记为d1,d2,d3,d4,d5; 
(3.4)利用上述距离d1,d2,d3,d4,d5中的最大值D,计算星型模型5个顶点的极径:ri=di/D, 
其中i=1,2......5,D=max{d1,d2,d3,d4,d5}; 
(3.5)利用上述坐标(x'1,y'1),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5),计算星型模型5个顶点的极角:θi=arctan(x'i/y'i),其中i=1,2......5; 
(3.6)根据人体结构特征找出5个坐标点(x'1,y'1),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5)分别对应的人体部位并记录其坐标。 
4.根据权利要求3所述的方法,其中步骤(3.6)所述的根据人体结构特征找出5个坐标点(x'1,y'1),(x'2,y'2),(x'3,y'3),(x'4,y'4),(x'5,y'5)分别对应的人体部位并记录其坐标,按如下步骤进行: 
(3.6a)将步骤(3.4)中得到的5个坐标点的极径ri,i=1,2....5,从大到小排序,找出最大两个极径对应的坐标点(x1',y1'),(x'2,y'2),根据人体脚到人体重心的距离最大,且左脚和右脚分布于人体重心两侧的比例结构判定脚坐标,若x1'>0,则判定(x1',y1')为左脚坐标,反之,(x'2,y'2)为右脚坐标,将左脚坐标记为(xlegl,ylegl),右脚坐标记为(xlegr,ylegr); 
(3.6b)在剩余3个点顶点(x'3,y'3),(x'4,y'4),(x'5,y'5)中,根据人体头部是偏离人体重心角度最小的部位,用对应极角的绝对值最大的结构判定头部坐标,比较3个顶点对应极角θ345的绝对值的大小,若θ3绝对值最大,则(x'3,y'3)为头部坐标,将头部坐标记为(xhead,yhead); 
(3.6c)在其余两个顶点(x'4,y'4),(x'5,y'5)中,若x'4>0,则判定(x'4,y'4)为左手坐标,反之,(x'5,y'5)为右手坐标,将左手坐标记为(xarml,yarml),右手坐标记为(xarmr,yarmr)。 
5.根据权利要求1所述的人体运动识别方法,其中步骤(11)所述的利用图像矩计算一个运动视频中每幅图像的帧速率,按如下步骤进行: 
(5.1)对步骤(2)得到的所有二值图像按如下公式计算各幅图像中人体质心点坐标 即: 
Figure FDA00002975634600042
其中,I(X,Y)表示像素点(X,Y)的像素值; 
(5.2)计算一个运动视频中第k幅图像的瞬时位移: 
Figure FDA00002975634600043
其中,
Figure FDA00002975634600044
表示第k+1幅图像中人体质心的横坐标, 表示第k幅图像中人体质心的横坐标,
Figure FDA00002975634600052
表示第k+1幅图像中人体质心的纵坐标,表示第k幅图像中人体质心的纵坐标; 
(5.3)计算第k幅图像中人体的帧速率vk=s'k*f,其中,f表示视频帧率,在Weizmann数据库中为已知。 
CN201310102812.2A 2013-03-27 2013-03-27 基于混合描述子的人体运动识别方法 Active CN103186775B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310102812.2A CN103186775B (zh) 2013-03-27 2013-03-27 基于混合描述子的人体运动识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310102812.2A CN103186775B (zh) 2013-03-27 2013-03-27 基于混合描述子的人体运动识别方法

Publications (2)

Publication Number Publication Date
CN103186775A true CN103186775A (zh) 2013-07-03
CN103186775B CN103186775B (zh) 2016-01-20

Family

ID=48677936

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310102812.2A Active CN103186775B (zh) 2013-03-27 2013-03-27 基于混合描述子的人体运动识别方法

Country Status (1)

Country Link
CN (1) CN103186775B (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345623A (zh) * 2013-07-11 2013-10-09 中国科学院自动化研究所 一种基于鲁棒相对属性的行为识别方法
CN103500340A (zh) * 2013-09-13 2014-01-08 南京邮电大学 基于主题知识迁移的人体行为识别方法
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN104299235A (zh) * 2014-10-10 2015-01-21 中国科学院长春光学精密机械与物理研究所 基于面积积分式的配准描述子方向计算方法
CN105069434A (zh) * 2015-08-12 2015-11-18 河海大学常州校区 一种视频中人体动作行为识别方法
CN105303192A (zh) * 2015-09-08 2016-02-03 苏州大学张家港工业技术研究院 一种基于混合描述子的形状匹配方法及系统
CN105681911A (zh) * 2014-11-12 2016-06-15 虹映科技股份有限公司 运动影片训练方法及系统
CN105938540A (zh) * 2015-03-03 2016-09-14 富士通株式会社 行为检测方法和行为检测设备
CN106384093A (zh) * 2016-09-13 2017-02-08 东北电力大学 一种基于降噪自动编码器和粒子滤波的人体动作识别方法
CN107045724A (zh) * 2017-04-01 2017-08-15 昆明理工大学 一种低分辨率下物体移动方向的马尔科夫判断方法
CN107194344A (zh) * 2017-05-16 2017-09-22 西安电子科技大学 自适应骨骼中心的人体行为识别方法
CN109118513A (zh) * 2018-08-10 2019-01-01 中国科学技术大学 一种二值运动描述子的计算方法及系统
CN111178170A (zh) * 2019-12-12 2020-05-19 青岛小鸟看看科技有限公司 一种手势识别方法和一种电子设备
CN111685773A (zh) * 2020-06-04 2020-09-22 北京荟健科技有限公司 孕妇运动监控方法、装置、计算机设备及存储介质
CN114010155A (zh) * 2021-10-29 2022-02-08 中山大学 一种自动化动物疼痛测试系统
CN115376258A (zh) * 2022-09-26 2022-11-22 中国舰船研究设计中心 一种用于船舶舰船舱室的防盗报警系统
WO2023044935A1 (zh) * 2021-09-27 2023-03-30 西门子股份公司 分割块状物体图像的方法、装置及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101464952A (zh) * 2007-12-19 2009-06-24 中国科学院自动化研究所 基于轮廓的异常行为识别方法
CN102663453A (zh) * 2012-05-03 2012-09-12 西安电子科技大学 基于第二代条带波变换和极速学习机的人体运动跟踪方法
CN102663409A (zh) * 2012-02-28 2012-09-12 西安电子科技大学 一种基于hog-lbp描述的行人跟踪方法
US20120263376A1 (en) * 2011-04-12 2012-10-18 Sharp Laboratories Of America, Inc. Supervised and semi-supervised online boosting algorithm in machine learning framework
CN102968621A (zh) * 2012-11-23 2013-03-13 西安电子科技大学 基于第二代Bandelet统计特征的人体运动识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101464952A (zh) * 2007-12-19 2009-06-24 中国科学院自动化研究所 基于轮廓的异常行为识别方法
US20120263376A1 (en) * 2011-04-12 2012-10-18 Sharp Laboratories Of America, Inc. Supervised and semi-supervised online boosting algorithm in machine learning framework
CN102663409A (zh) * 2012-02-28 2012-09-12 西安电子科技大学 一种基于hog-lbp描述的行人跟踪方法
CN102663453A (zh) * 2012-05-03 2012-09-12 西安电子科技大学 基于第二代条带波变换和极速学习机的人体运动跟踪方法
CN102968621A (zh) * 2012-11-23 2013-03-13 西安电子科技大学 基于第二代Bandelet统计特征的人体运动识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘更代等: "基于独立时空特征空间的人体运动合成", 《计算机学报》 *

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103345623A (zh) * 2013-07-11 2013-10-09 中国科学院自动化研究所 一种基于鲁棒相对属性的行为识别方法
CN103345623B (zh) * 2013-07-11 2016-09-21 中国科学院自动化研究所 一种基于鲁棒相对属性的行为识别方法
CN103500340B (zh) * 2013-09-13 2017-02-08 南京邮电大学 基于主题知识迁移的人体行为识别方法
CN103500340A (zh) * 2013-09-13 2014-01-08 南京邮电大学 基于主题知识迁移的人体行为识别方法
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN104281853B (zh) * 2014-09-02 2017-11-17 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN104299235A (zh) * 2014-10-10 2015-01-21 中国科学院长春光学精密机械与物理研究所 基于面积积分式的配准描述子方向计算方法
CN104299235B (zh) * 2014-10-10 2017-06-13 中国科学院长春光学精密机械与物理研究所 基于面积积分式的配准描述子方向计算方法
CN105681911A (zh) * 2014-11-12 2016-06-15 虹映科技股份有限公司 运动影片训练方法及系统
CN105938540A (zh) * 2015-03-03 2016-09-14 富士通株式会社 行为检测方法和行为检测设备
CN105069434A (zh) * 2015-08-12 2015-11-18 河海大学常州校区 一种视频中人体动作行为识别方法
CN105069434B (zh) * 2015-08-12 2018-06-05 河海大学常州校区 一种视频中人体动作行为识别方法
CN105303192A (zh) * 2015-09-08 2016-02-03 苏州大学张家港工业技术研究院 一种基于混合描述子的形状匹配方法及系统
CN105303192B (zh) * 2015-09-08 2019-03-26 苏州大学张家港工业技术研究院 一种基于混合描述子的形状匹配方法及系统
CN106384093B (zh) * 2016-09-13 2018-01-02 东北电力大学 一种基于降噪自动编码器和粒子滤波的人体动作识别方法
CN106384093A (zh) * 2016-09-13 2017-02-08 东北电力大学 一种基于降噪自动编码器和粒子滤波的人体动作识别方法
CN107045724A (zh) * 2017-04-01 2017-08-15 昆明理工大学 一种低分辨率下物体移动方向的马尔科夫判断方法
CN107045724B (zh) * 2017-04-01 2020-02-07 昆明理工大学 一种低分辨率下物体移动方向的马尔科夫判断方法
CN107194344A (zh) * 2017-05-16 2017-09-22 西安电子科技大学 自适应骨骼中心的人体行为识别方法
CN107194344B (zh) * 2017-05-16 2020-06-05 西安电子科技大学 自适应骨骼中心的人体行为识别方法
CN109118513B (zh) * 2018-08-10 2022-01-11 中国科学技术大学 一种二值运动描述子的计算方法及系统
CN109118513A (zh) * 2018-08-10 2019-01-01 中国科学技术大学 一种二值运动描述子的计算方法及系统
CN111178170A (zh) * 2019-12-12 2020-05-19 青岛小鸟看看科技有限公司 一种手势识别方法和一种电子设备
CN111178170B (zh) * 2019-12-12 2023-07-04 青岛小鸟看看科技有限公司 一种手势识别方法和一种电子设备
CN111685773A (zh) * 2020-06-04 2020-09-22 北京荟健科技有限公司 孕妇运动监控方法、装置、计算机设备及存储介质
CN111685773B (zh) * 2020-06-04 2024-04-09 北京荟健科技有限公司 孕妇运动监控方法、装置、计算机设备及存储介质
WO2023044935A1 (zh) * 2021-09-27 2023-03-30 西门子股份公司 分割块状物体图像的方法、装置及计算机可读存储介质
CN114010155A (zh) * 2021-10-29 2022-02-08 中山大学 一种自动化动物疼痛测试系统
CN114010155B (zh) * 2021-10-29 2024-06-11 中山大学 一种自动化动物疼痛测试系统
CN115376258A (zh) * 2022-09-26 2022-11-22 中国舰船研究设计中心 一种用于船舶舰船舱室的防盗报警系统
CN115376258B (zh) * 2022-09-26 2023-12-26 中国舰船研究设计中心 一种用于船舶舰船舱室的防盗报警系统

Also Published As

Publication number Publication date
CN103186775B (zh) 2016-01-20

Similar Documents

Publication Publication Date Title
CN103186775B (zh) 基于混合描述子的人体运动识别方法
CN106682598B (zh) 一种基于级联回归的多姿态的人脸特征点检测方法
Johnson et al. Learning effective human pose estimation from inaccurate annotation
CN108520226B (zh) 一种基于躯体分解和显著性检测的行人重识别方法
CN108280397B (zh) 基于深度卷积神经网络的人体图像头发检测方法
Hu et al. Exploring structural information and fusing multiple features for person re-identification
CN103020614B (zh) 基于时空兴趣点检测的人体运动识别方法
CN108256421A (zh) 一种动态手势序列实时识别方法、系统及装置
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN107944428B (zh) 一种基于超像素集的室内场景语义标注方法
CN105488809A (zh) 基于rgbd描述符的室内场景语义分割方法
CN105536205A (zh) 一种基于单目视频人体动作感知的上肢训练系统
CN106021603A (zh) 一种基于分割和特征匹配的服装图像检索方法
CN104102904B (zh) 一种静态手势识别方法
CN108846359A (zh) 一种基于皮肤颜色区域分割和机器学习算法相融合的手势识别方法及其应用
CN105469050B (zh) 基于局部时空特征描述与金字塔词汇树的视频行为识别方法
CN103854016A (zh) 基于方向性共同发生特征的人体行为分类识别方法及系统
CN109447123A (zh) 一种基于标签一致性约束与拉伸正则化字典学习的行人再识别方法
CN105931241A (zh) 一种自然场景图像的自动标注方法
CN108090485A (zh) 基于多视角融合的图像前景自动提取方法
CN103077383B (zh) 基于时空梯度特征的分部位的人体运动识别方法
CN109145947B (zh) 一种基于部件检测和视觉特征的时尚女装图像细粒度分类方法
CN102609715B (zh) 一种结合多个兴趣点检测子的物体类识别方法
CN106650798A (zh) 一种结合深度学习与稀疏表示的室内场景识别方法
CN103020631B (zh) 基于星型模型的人体运动识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20200717

Address after: Room 309-1, 3 / F, building 1, Business Incubation Park, Zhejiang a & F University, No. 352, Nonglin Road, Jincheng Street, Lin'an District, Hangzhou City, Zhejiang Province

Patentee after: Hangzhou Huazhen Environmental Protection Technology Co.,Ltd.

Address before: Xi'an City, Shaanxi province Taibai Road 710071 No. 2

Patentee before: XIDIAN University

Effective date of registration: 20200717

Address after: 266101 area a, software park, 169 Songling Road, Laoshan District, Qingdao City, Shandong Province

Patentee after: Qingdao Huashi Intelligent Technology Co.,Ltd.

Address before: Room 309-1, 3 / F, building 1, Business Incubation Park, Zhejiang a & F University, No. 352, Nonglin Road, Jincheng Street, Lin'an District, Hangzhou City, Zhejiang Province

Patentee before: Hangzhou Huazhen Environmental Protection Technology Co.,Ltd.

TR01 Transfer of patent right