CN103793922A - 一种特定姿态实时检测方法 - Google Patents

一种特定姿态实时检测方法 Download PDF

Info

Publication number
CN103793922A
CN103793922A CN201310414897.8A CN201310414897A CN103793922A CN 103793922 A CN103793922 A CN 103793922A CN 201310414897 A CN201310414897 A CN 201310414897A CN 103793922 A CN103793922 A CN 103793922A
Authority
CN
China
Prior art keywords
template
particular pose
matching area
matching
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310414897.8A
Other languages
English (en)
Other versions
CN103793922B (zh
Inventor
叶茂
陈宏毅
李涛
李旭冬
付敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201310414897.8A priority Critical patent/CN103793922B/zh
Publication of CN103793922A publication Critical patent/CN103793922A/zh
Application granted granted Critical
Publication of CN103793922B publication Critical patent/CN103793922B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明的特定姿态实时检测方法,主要包括步骤a、建立前景检测模型,获取特定姿态的运动区域;b、以视频帧为单位,逐一获得匹配区域(较大的运动区域)并进行光流分析,并判断所述匹配区域是否符合运动趋势条件,对于匹配区域符合运动趋势条件的视频帧进行处理获得其前景掩膜,匹配区域不符合运动趋势条件的视频帧直接抛掉等。有益效果在于运用数字内容分析和处理技术,实现满足对不同行业需求的、实时的、指定的敏感姿势的监控和报警。可在预防和打击罪犯、预防灾害事故、减少国家、集体财产和人民生命的损失等方面起到一般防范手段难以甚至不可能起到的实时报警作用。例如针对运输行业中的不安全驾驶动作(打电话、双手离开方向盘等)等。

Description

一种特定姿态实时检测方法
技术领域
本发明属于智能视频监控技术领域,涉及一种在智能视频监控系统中能实时应用的基于视频监控的特定姿态自动检测技术,具体涉及一种特定姿态实时检测方法。 
背景技术
近年来,随着计算机、网络以及图像处理以及传输技术的飞速发展,视频监控技术也得到了长足的发展,逐步由模拟监控走向数字监控、网络监控,并呈现出更加智能化、平台化、信息联动化的发展趋势,成为安防领域中最重要的组成部分。视频监控技术涉及图像处理、图像分析、模式识别、人工智能等众多领域,既是一个跨学科的综合问题,也是一个极具挑战的前沿课题。在视频监控技术发展过程中,虽然浮现出相应的问题和挑战,但是也创造出相应的发展和机遇。 
人的行为发生过程中,特定姿态(比如打网球时候的挥拍动作、接电话时拿起话筒的动作等)的局部姿态就已经包含了该行为的大量信息。因此,通过对特定姿态的目标检测就能获取该目标的行为信息。可以看出,基于视频的数字内容分析和处理技术具有重要研究意义。首先,基于内容的视频浏览和标定,可以实现满足对不同行业需求所指定的敏感姿势的监控和报警。其次,由于海量监控视频数据的存在,如果企业采用传统意义上的安全监管方式(即人工审查)扫描所有的监控录像,会带来极大的人力物力资源的开销,得到的处理结果在时间上也会相应滞后。而采用基于内容的视频浏览和标定,可以在对视频内容的分析处理过程中,提取出监管者感兴趣的部分,以特定形式保存下来(如框选出目标区域的截图、动作发生点的相关信息对应的日志文件、只包含感兴趣内容的结果视频文件等),从而将监控人员需要实际检索的视频片段大大缩短,提高检索效率。 
深圳先进技术研究院宋展等的专利(公开号:CN102831404A)《手势检测方法及系统》公开了一种手势检测方法,流程如图1所示,主要包括1)检测一种预定义的运动方式,用于确定检测感兴趣区域;2)获取到需要进行检测的视频帧图像等。其缺点在于,在提取出感兴趣区域后,通过基于颜色特征的检测方式筛选出手势动作进行进一步检测。然而在不同的季节,人的服饰变化以及外界环境光照的影响,颜色信息是不稳定的(或者是不鲁棒的),这在复杂环境下的应用中,会导致大量需要被检测到的姿态因为颜色信息而被过滤掉,造成检测的漏报。因此,在复杂的环境中,基于颜色特征的检测方法是不能满足要求的,在技术的适用性上有限。北京三星通信技术研究有限公司楚汝峰等也提出了一种《人体姿态识别方法和装置》的专利申请,公开号为CN101989326A。技术内容流程图如图2所示, 主要包括利用深度摄像机和彩色摄像机同时捕获人体姿态,形成输入图像,将输入图像预处理为适合的格式,并将图像归一化为固定大小,产生形状独立的姿态采样,形成采样数据等。该技术基于深度摄像机和彩色摄像机同时捕获人体姿态,获取操作者的动态三维模型,因为其工作在3D空间,因而避免了2D空间中存在的颜色干扰、图像分割等大量的难题。但是3D扫描设备体积较大、硬件成本较高、所需的运算能力更高等原因,因而难以集成并应用到大众化的智能终端如电视、手机等设备上;同时,因为工作在3D空间,检测过程中的计算量大大增加,在现有硬件设施的条件下,很难做到快速检测,无法实现姿态检测的实时性。 
发明内容
本发明为了实现视频监控中特定姿态的实时检测,解决现有的智能视频监控系统不能同时实现良好的鲁棒性和实时检测的不足,提出了一种特定姿态实时检测方法。 
本发明的技术方案是:一种特定姿态实时检测方法,其特征在于,包括以下步骤: 
a、建立前景检测模型,获取特定姿态的运动区域; 
b、以视频帧为单位,逐一获得匹配区域(较大的运动区域)并进行光流分析,并判断所述匹配区域是否符合运动趋势条件,对于匹配区域符合运动趋势条件的视频帧进行处理获得其前景掩膜,匹配区域不符合运动趋势条件的视频帧直接抛掉; 
c、对于匹配区域与特定姿态模板相似度达到预设条件的,将该匹配区域加入到候选队列中; 
d、排除非特定姿态的匹配区域,并把符合预设条件的匹配区域所属的视频帧放入帧统计队列中; 
e、对上述帧统计队列中的视频帧作统计处理,获得检测结果; 
上述步骤c具体使用基于梯度点匹配的并行模板匹配算法结合特定姿态模版对前景掩膜逐一进行特定姿态检测。 
上述步骤d具体通过对候选队列中各匹配区域采用轮廓线模板匹配算法逐一精确匹配排除非特定姿态的匹配区域。 
上述步骤a中的前景检测模型具体为基于混合高斯算法的前景检测模型,获得方法是根据视频场景去除不必要的前景,并获取特定姿态的关键运动区域。 
进一步的,步骤b中所述获得匹配区域的方法是统计和比较步骤a获得的特定姿态运动区域,选取大小符合预设条件的运动区域作为匹配区域。 
进一步的,步骤e的具体方法是以匹配区域为单位,通过计算连续若干帧相似度最高的匹配区域的相似度,如果该相似度达到预设条件,且连续多帧图像都匹配到该区域,则 该匹配区域为检测结果。 
步骤c中匹配区域与特定姿态模板相似度的判断方法具体为判断模板余弦相似度绝对值。 
具体的,计算模板tmpl在图像img中以c为起点处的模板相似度ε的方法如下: 
ϵ ( img , tmpl , c ) = Σ r ∈ p ( max t ∈ R ( c + r ) | cos ( ori ( tmpl , r ) - ori ( img , t ) ) | )
其中ori(Ο,r)表示Ο在r处的弧度,p代表模板区域,R(c+r)代表模板窗口在被检测图像中对应的区域,r,t分别表示模板和被检测图像的梯度值所在的位置。 
本发明的有益效果:运用数字内容分析和处理技术,基于内容的视频检索和标定,实现满足对不同行业需求的、实时的、指定的敏感姿势的监控和报警。可在预防和打击罪犯、预防灾害事故、减少国家、集体财产和人民生命的损失等方面起到一般防范手段难以甚至不可能起到的实时报警作用。例如针对运输行业中的不安全驾驶动作(打电话、双手离开方向盘等),保密场所中拍照动作等。同时采用多层次匹配算法,即梯度点和轮廓线匹配方式,检测关键动作进而识别目标姿态。梯度点算法保证了检测的实时性,而轮廓线算法保证了检测的准确率。实现了姿态的实时检测,加强了对数字内容的分析、管理和利用。 
附图说明
图1为现有的一种手势检测方法流程图; 
图2为现有的一种人体姿态识别方法流程图; 
图3为本发明实施例的检测方法流程图; 
图4为梯度量化原理图; 
图5中a、b为梯度扩展示意图; 
图5中c为图5中a、b梯度扩展之后对应的二进制码示意图; 
图6为线性化示意图; 
图7为模板梯度与行向量对应关系示意图; 
图8为根据偏移量计算模板相似度示意图; 
图9为轮廓线量化图; 
图10为轮廓线按不同方向分布图; 
图11为带方向的二维距离变换图; 
图12为带方向的三维距离变换图; 
图13为带方向的距离积分图; 
图14-a、14-b和14-c为本方案在三种场景下对拍照姿态检测结果展示。 
具体实施方式
下面结合附图和实施例对本发明的方法做进一步详述。 
如图3所示为与本发明原理相同的具体的一种特定姿态实时检测方法的流程图。本实施例的特定姿态实时检测方法主要包括以下步骤:a、建立前景检测模型,获取特定姿态的运动区域。即首先要根据视频场景建立基于混合高斯算法的前景检测模型。在这个步骤中,尽可能地去除不必要的前景,获取人体姿态关键的运动区域,缩小后续匹配算法的计算范围,提高检测效率。b、以视频帧为单位,逐一获得匹配区域(较大的运动区域)并进行光流分析,并判断所述匹配区域是否符合运动趋势条件,对于匹配区域符合运动趋势条件的视频帧进行处理获得其前景掩膜,匹配区域不符合运动趋势条件的视频帧直接抛掉。具体的,在初步得到的前景区域上,选出较大的前景区域进行光流分析。如果获得的光流角度分布情况符合设定的运动趋势条件,认为该场景中不会发生特定的姿态动作,直接抛掉该帧,不作处理。其中,之所以选择较大的前景区域进行光流分析是因为可能发生动作前景应该是比较大,比如在352*288分辨率场景中,一般的挥拍姿态至少会引起30*30像素以上的前景团块。但是,人群走动引起的前景也会满足这个条件,所以这里需要用光流法尽可能排除这类场景。所述的运动趋势条件是预设的一个经验条件,也可以根据具体情况尝试得出,比如在本实施例中是将180°以15°为一个单位,分成12个区间,统计计算出的光流角度的分布情况。通过实验可以获得如下经验值,如果某个区间所占比重超过20%,则认为该区间内的团块有整体运动趋势。c、使用基于梯度点匹配的并行模板匹配算法结合特定姿态模版对所述前景掩膜逐一进行特定姿态检测,对于匹配区域与特定姿态模板相似度达到预设条件的,将该匹配区域加入到候选队列中。具体过程为在步骤a和b获得的前景掩膜(前景掩膜是指前景算法得到的一个二值图像,该图像大小和视频帧相同,但是只有0和255两个值。前景的像素点为255,即白色区域,背景区域为0,为黑色)上,使用特定姿态模板,采用基于梯度点匹配的并行模板匹配算法进行姿态检测。当匹配的区域与模板相似度达到设定阈值(此阈值为实验的经验值,在实验中设定为90%)时,将该区域加到候选队列中。d、对上述候选队列中各匹配区域采用轮廓线模板匹配算法逐一精确匹配,排除非特定姿态的匹配区域,并把符合预设条件的匹配区域所属的视频帧放入帧统计队列中。e、对上述帧统计队列中的视频帧作统计处理,获得检测结果。该步骤包括统计一段时间内经过双层匹配算法检测(步骤c和步骤d所述的处理)后的图像处理结果。具体操作是:以检测区域(匹配区域)为单位,统计检测结果(检测结果是指检测到动作的坐标,统计是采用连续若干帧计算相似度最高的区域,如果相似度高,而且连续多帧图像都匹配到该区域,则认为检测结果有效)。把结果按匹配度从高到低排序,选取匹配度最高且连续 帧数最多的匹配结果作为最终的检测结果。f、输出并存储检测结果。 
其中上述步骤a中的前景检测模型具体为基于混合高斯算法的前景检测模型,获得方法是根据视频场景去除不必要的前景,并获取特定姿态的关键运动区域。步骤b中所述获得匹配区域的方法是统计和比较步骤a获得的特定姿态运动区域,选取大小符合预设条件的运动区域作为匹配区域。步骤e的具体方法是以匹配区域为单位,通过计算连续若干帧相似度最高的匹配区域的相似度,如果该相似度达到预设条件,且连续多帧图像都匹配到该区域,则该匹配区域为检测结果。 
综上所述本实施例的方法首先利用前景检测算法,过滤掉无关的背景信息,缩小检测区域;然后分析前景区域的光流信息,过滤掉不可能发生这些姿态的场景,所述不可能发生的场景是指一般认为在该部分场景不会发生此特定姿态,比如人来人往的网球场上,是不会出现挥拍动作。所以这样就可以直接跳过对这些视频帧的后续处理,提高检测速度。对于未被过滤的视频帧,则利用多层次匹配算法进行目标匹配。在目标匹配过程中,首先加载事先制作好的模板集,这里的模板集是在各个角度下拍该动作发生的姿态,分别制作好梯度点模板集和轮廓线模板集。然后采用并行模板匹配算法初步定位关键动作区域。在此基础上,采用轮廓线匹配算法精确定位关键动作,获得匹配区域。最后将坐标信息加入到统计队列中,利用多帧统计的方法分析匹配结果。如果短时间内(一定时间段内)同一块区域出现多次关键动作,认为该区域检测到此姿态,进而输出检测结果,所述视频帧及被标注出的匹配区域,其中“一段时间”或“短时间”均为经验参数,本领域的普通技术人员可以通过有限常规试验或经验得到。 
以下是该方法的具体实施过程: 
1、并行模板匹配 
基于梯度点的并行模板匹配算法的目的是获得与模板相似度最大的图像区域位置。图像是由一系列有规律的像素点构成,由于图像像素点的梯度方向在一定程度上能够反映图像的像素值变化,因此可以利用图像像素点的梯度方向进行模板匹配。假设对于模板中每个梯度点,待考察图像中对应像素点梯度方向与之一致即可确定模板与图像匹配。而对于两个像素点,他们的梯度方向越接近,其余弦相似度就越高,即他们越匹配。因此,要获得图像img中与模板tmpl相似度最大的位置区域,只需要找出模板余弦相似度绝对值的最大值。计算模板tmpl在图像img中以c为起点处的模板相似度ε的公式表达如下: 
ϵ ( img , tmpl , c ) = Σ r ∈ p ( max t ∈ R ( c + r ) | cos ( ori ( tmpl , r ) - ori ( img , t ) ) | )
其中ori(Ο,r)表示Ο在r处的弧度,p代表模板区域,R(c+r)代表模板窗口在被检测 图像中对应的区域,r,t分别表示模板和被检测图像的梯度值所在的位置。 
为了提升算法的抗噪声能力加快模板匹配速度,其原理如图4所示。采用梯度量化等一系列手段实现模板的并行化匹配,大大加快了匹配速度,包括计算图像梯度点、图像梯度扩展、预先计算梯度响应图、线性化并行计算。 
1.1计算图像梯度点 
1)分别计算RGB图像3个通道的图像梯度,对于每一个像素点,取该点3个通道最大的梯度值作为该像素点的梯度值; 
2)对梯度量化为n个梯度方向,参照图4,然后选取梯度点周围邻域内出现次数最多的梯度方向作为该点最后的梯度方向; 
3)将梯度图像用阈值过滤,只保留梯度值高于阈值的梯度点; 
1.2图像梯度扩展 
1)将梯度图中每个梯度值用长度为n的二进制串表示,如图4,假设被量化到第二个方向的梯度,对应的二进制串为00000010,即第二位置1,其余位置零,同理可得其他方向对应的二进制串。 
2)对二进制梯度图在T×T的区域进行扩展,按位取“或”,使每个梯度点的二进制值包含半径为T/2的邻域的梯度方向,如图5中a、b及c所示。 
1.3预先计算响应表 
1)该算法的匹配相似度是以余弦相似度为衡量标准,当梯度方向越接近,得到的余弦响应值就越大,即相似程度越高。在匹配过程中,邻域中与被匹配方向的余弦响应值最高的梯度方向被认为是最匹配的梯度方向。 
2)由于梯度方向被量化为n个,在扩展之后每个长度为n的梯度值二进制串最多存在2n种可能的组合,我们可以预先计算并且建立梯度响应表τ。每一个二进制串对应n个方向有n个响应值,这些响应值分别存放在n个表中。表中每一个响应值的计算公式表示为: 
τ i [ ζ ] = max l ∈ ζ | cos ( i - l ) |
其中i表示量化的梯度的索引,ζ表示一个二进制串,l表示二进制串的某一位。对于n个方向可预先计算出n张梯度响应表。同一方向的集合作为一张梯度响应表。 
1.4线性化并行计算 
1)在检测过程中,被检测图像被转换为梯度二进制图像,由于每个二进制串有n个潜在的最匹配方向,因此根据二进制串查寻n张梯度响应表,获得对于每个方向该坐标点的最大相似度,从而得到n张最大相似度图(该图保存的是对应坐标点上的梯度方向和当前 角度相似度的最大值)。 
2)将每一张相似度图线性化为T×T个行向量,T为梯度扩展尺度,其中每一个行向量由间隔为T的滑动窗口中同一位置的值按窗口滑动顺序组合而成,这样实现了对n张最大相似度图的线性化。如图6,假设T为2,每一个方向的相似度图将被线性化为4个行向量,且行向量的首元素分别对应相似度图中的第一个T×T区域。 
3)匹配时,根据模板图像的梯度方向索引定位到相应的线性化相似度图,再根据该点在T×T区域中的位置计算出它在相似度图中的行向量索引,假设模板中含有m个梯度点,那么将有m个行向量参与模板相似度计算。如图7模板中第一个“←”对应“←”所代表的线性化梯度图中的第一个行向量,“↑”则对应“↑”梯度图中的第三个行向量,因为在模板图像中“↑”处于T×T区域中的第三个位置。 
4)根据模板相似度的计算公式,要对模板中梯度点的相似度求和。在计算过程中,首先需要按照模板中梯度点的位置计算该点的偏移量offset,以获得其对应相似度在线性化之后的梯度图中的位置,offset的计算方式按照如下公式: 
ϵ ( img , tmpl , c ) = Σ r ∈ p S ori ( O , r ) ( c + r )
其中,c为当前滑动窗口的位置,p为滑动窗口区域,S代表被检测梯度点与当前模板梯度方向的最大相似度。这样求模板的最大相似度转换为求各模板梯度点在待匹配图像中对应位置的最大相似度总和。 
在计算过程中,首先需要按照模板中梯度点的位置计算该点的偏移量offset,计算方式按照如下公式: 
Figure BDA0000381169740000072
(rx,ry)是模板中的坐标点,T为梯度扩展量,widthimage则为被检测图像的宽度。 
然后将所有行向量按偏移量对齐,进行叠加,如图8所示。叠加后的行向量中每一个元素对应滑动窗口中模板的相似度,其最大值的位置即为最匹配模板的位置。 
5)为了加快匹配速度,避免由滑动窗口带来的低速率问题,利用线性化内存并行计算可同时计算出多个窗口位置的相似度,由此,匹配速度得以成倍提高。 
2.基于轮廓线的模板匹配 
基于轮廓线的模板匹配算法在传统的Chamfer匹配的基础上加入了轮廓方向信息,能提高复杂场景的匹配效果,具有更好的鲁棒性。算法主要思想是,根据模板图像中的轮廓 线,在查询图像中寻找距离最近和方向相似的轮廓线,衡量线与线之间距离和方向的差距,获得模板与查询图像的带方向的Chamfer匹配距离。依据这个距离来判断模板与查询图像的相似程度,距离越低相似度越高。 
基于轮廓线的模板匹配算法主要采用以下三个技术计算带方向的Chamfer匹配距离:(1)轮廓点用一组直线来表示;(2)在二维距离图中融合直线方向信息,形成三维距离变换;(3)运用带方向的积分图计算带方向的Chamfer匹配距离。 
我们使用U表示模板图像,ui表示模板图像中的轮廓线,因此有U={ui};V表示查询图像,vi表示查询图像中的轮廓线,同样有V={vi}。带方向的Chamfer匹配距离计算公式可以表示为: 
d CM ( U , V ) = 1 n Σ u i ∈ U min v j ∈ V | u i - v j | + λ | φ ( u i ) - φ ( v j ) |
其中λ表示线与线之间距离和方向的权重因子,φ(x)表示直线x的方向即直线角度(0~π)。 
2.1轮廓点直线化 
对图像做canny边缘检测,获得轮廓图。由于轮廓信息是由点组成,假设点个数分别为np和mp,若直接进行点与点之间的匹配,计算复杂度将是O(np*mp)。在本算法中,我们使用RANSAC算法对轮廓图中的轮廓点做直线拟合,假设拟合的线段个数分别nl和ml,显然nl<<np、ml<<mp,在匹配时进行线与线之间的匹配,计算复杂度将是O(nl*ml),匹配速度将大幅提高。 
RANSAC算法首先局部抽样轮廓点作为点子集,并用最小二乘法将这个子集中的点拟合成一条直线,所求直线的要满足当前集合的所有轮廓点获得直线方程的最小残差。若直线满足条件,则记录此直线,并从全局集合中去掉这些点,继续下一次迭代;若直线不满足条件,则点子集任然包含在全局集合中,继续下一次迭代,直到不能再寻找到满足条件的直线为止。此算法过程中只保留了具有一定结构特征的轮廓点的集合,能去除一定噪声。 
2.2三维距离变换 
图像的轮廓点拟合成直线后,我们要进一步将直线角度量化到q个离散的区间,即将(0~π)划分为q个区间,直线的方向就是直线角度所属的区间标号(1~q),如图9。按照直线方向的不同,将轮廓线图重新组成q张带方向轮廓图,也就是说每张带方向轮廓图只包 含方向相同的轮廓线,如图10。接下来在带方向轮廓图上计算传统的二维距离变换,形成q张带方向距离变换图,如图11。此时的距离图只包含了本方向直线的距离信息,还未包含相邻方向直线的距离信息,因此需要将其他方向直线的距离图融合到二维距离图中,形成三维距离图,如图12,所谓三维是包含二维坐标和一维方向。具体计算方法为以某一方向的二维距离图为基点,向前和向后搜索方向相邻的二维距离图,并求当前方向距离图与相邻方向距离图加上方向惩罚值后的最小值作为当前方向的三维距离图,由此就可以得到q张带方向三维距离变换图。 
2.3带方向的积分图 
将每张带方向的三维距离变换图按此方向计算积分,形成三维距离积分图。垂直方向的三维距离变换图的积分图中每个点的计算方法是,将在距离变换图对应位置点列方向之上的值求和,水平方向就按行求和,斜方向按斜线求和,如图13。 
在计算带方向的Chamfer匹配距离只需要根据模板图像中直线的方向,查询对应方向的三维距离变换图,再根据直线的起点和终点坐标,计算三维距离变换图中对应位置的数值并相减,就得到此条直线在查询图片中的带方向的Chamfer匹配距离。模板中多条直线进行相同操作并求平均值,就得到了模板图像与查询图像之间的带方向的Chamfer匹配距离。图14-a、14-b和14-c为本方案在三种场景下对拍照姿态检测结果展示。图中特定姿态为打电话的动作,通过本实施例的方法检测后对符合该特定姿态的动作进行了框选输出。 
本实施例的方法将模板匹配应用于姿态检测中,结合并行模板匹配的方法,实现了实时的姿态检测,简单概括为以下步骤:确定姿态的关键动作,集合算法中步骤1.1制作模板;预先计算出n张梯度响应图,保存成文件,在检测前加载;将前景掩膜后的图像按算法步骤1.1~1.2计算出梯度扩展之后的图像;查询梯度响应图,将扩展之后的二进制梯度图转化为n张不同方向的最大相似度图;根据模板中梯度点的方向,参照算法步骤1.4计算出最匹配位置,加入候选区域队列,进行下一步轮廓线匹配;在梯度点匹配结果区域上运用算法步骤2.1计算查询图像的轮廓图并用直线表示;按照算法步骤2.2计算轮廓图的带方向的二维距离变换,并进而计算三维距离变换图;根据三维距离变换图,按照方向不同分别计算带方向的距离积分图,在模板图像中根据直线方向查询带方向的距离积分图,计算每条直线的带方向的Chamfer匹配距离,对所有直线距离求平均和得到模板图像与查询图像的带方向的Chamfer匹配距离,若匹配距离小于某阈值则判定此区域为姿态发生区域,加入统计序列中。 
本实施例的检测方法基于以上思路,采用多层次匹配算法,即梯度点和轮廓线匹配方式, 检测关键动作进而识别目标姿态。梯度点算法保证了检测的实时性,而轮廓线算法保证了检测的准确率。该算法的优势在于能大幅度减少匹配计算量,通过一系列计算机应用技巧实现了线下计算和并行计算,避免了传统滑动窗口效率低下的问题,使检测得以实时。 
以上所述仅为本发明的具体实施方式,本领域的技术人员将会理解,在本发明所揭露的技术范围内,可以对本发明进行各种修改、替换和改变。因此本发明不应由上述事例来限定,而应以权利要求书的保护范围来限定。 

Claims (10)

1.一种特定姿态实时检测方法,其特征在于,包括以下步骤:
a、建立前景检测模型,获取特定姿态的运动区域;
b、以视频帧为单位,逐一获得匹配区域并进行光流分析,并判断所述匹配区域是否符合运动趋势条件,对于匹配区域符合运动趋势条件的视频帧进行处理获得其前景掩膜,匹配区域不符合运动趋势条件的视频帧直接抛掉;
c、对前景掩膜逐一进行特定姿态检测,对于匹配区域与特定姿态模板相似度达到预设条件的,将该匹配区域加入到候选队列中;
d、排除非特定姿态的匹配区域,并把符合预设条件的匹配区域所属的视频帧放入帧统计队列中;
e、对上述帧统计队列中的视频帧作统计处理,获得检测结果。
2.根据权利要求1所述的一种特定姿态实时检测方法,其特征在于,步骤c具体使用基于梯度点匹配的并行模板匹配算法结合特定姿态模版对前景掩膜逐一进行特定姿态检测。
3.根据权利要求1所述的一种特定姿态实时检测方法,其特征在于,步骤d具体通过对候选队列中各匹配区域采用轮廓线模板匹配算法逐一精确匹配排除非特定姿态的匹配区域。
4.根据权利要求1所述的一种特定姿态实时检测方法,其特征在于,步骤a中的前景检测模型具体为基于混合高斯算法的前景检测模型,获得方法是根据视频场景去除不必要的前景,并获取特定姿态的关键运动区域。
5.根据权利要求1-4之任一项权利要求所述的一种特定姿态实时检测方法,其特征在于,步骤b中所述获得匹配区域的方法是统计和比较步骤a获得的特定姿态运动区域,选取大小符合预设条件的运动区域作为匹配区域。
6.根据权利要求1-5之任一项权利要求所述的一种特定姿态实时检测方法,其特征在于,步骤e的具体方法是以匹配区域为单位,通过计算连续若干帧相似度最高的匹配区域的相似度,如果该相似度达到预设条件,且连续多帧图像都匹配到该区域,则该匹配区域为检测结果。
7.根据权利要求1-5之任一项权利要求所述的一种特定姿态实时检测方法,其特征在于,步骤c中匹配区域与特定姿态模板相似度的判断方法具体为判断模板余弦相似度绝对值。
8.根据权利要求6所述的一种特定姿态实时检测方法,其特征在于,步骤c中匹配区域与特定姿态模板相似度的判断方法具体为判断模板余弦相似度绝对值。
9.根据权利要求6或7所述的一种特定姿态实时检测方法,其特征在于,计算模板tmpl在图像img中以c为起点处的模板相似度ε的方法如下:
ϵ ( img , tmpl , c ) = Σ r ∈ p ( max t ∈ R ( c + r ) | cos ( ori ( tmpl , r ) - ori ( img , t ) ) | )
其中ori(Ο,r)表示Ο在r处的弧度,p代表模板区域,R(c+r)代表模板窗口在被检测图像中对应的区域,r,t分别表示模板和被检测图像的梯度值所在的位置。
10.根据权利要求9所述的一种特定姿态实时检测方法,其特征在于,计算模板tmpl在图像img中以c为起点处的模板相似度ε的方法如下:
ϵ ( img , tmpl , c ) = Σ r ∈ p ( max t ∈ R ( c + r ) | cos ( ori ( tmpl , r ) - ori ( img , t ) ) | )
其中ori(Ο,r)表示Ο在r处的弧度,p代表模板区域,R(c+r)代表模板窗口在被检测图像中对应的区域,r,t分别表示模板和被检测图像的梯度值所在的位置。
CN201310414897.8A 2013-09-12 2013-09-12 一种特定姿态实时检测方法 Expired - Fee Related CN103793922B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310414897.8A CN103793922B (zh) 2013-09-12 2013-09-12 一种特定姿态实时检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310414897.8A CN103793922B (zh) 2013-09-12 2013-09-12 一种特定姿态实时检测方法

Publications (2)

Publication Number Publication Date
CN103793922A true CN103793922A (zh) 2014-05-14
CN103793922B CN103793922B (zh) 2016-07-06

Family

ID=50669545

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310414897.8A Expired - Fee Related CN103793922B (zh) 2013-09-12 2013-09-12 一种特定姿态实时检测方法

Country Status (1)

Country Link
CN (1) CN103793922B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107562366A (zh) * 2017-09-28 2018-01-09 珠海普林芯驰科技有限公司 手势识别方法、计算机装置及计算机可读存储介质
CN108305267A (zh) * 2018-02-14 2018-07-20 北京市商汤科技开发有限公司 物体分割方法、装置、设备、存储介质及程序
CN108416266A (zh) * 2018-01-30 2018-08-17 同济大学 一种利用光流提取运动目标的视频行为快速识别方法
CN110738151A (zh) * 2019-09-30 2020-01-31 沈阳航空航天大学 一种采用运动编码的考场视频人体主姿态确定方法
CN111126115A (zh) * 2018-11-01 2020-05-08 顺丰科技有限公司 暴力分拣行为识别方法和装置
CN111626301A (zh) * 2020-05-07 2020-09-04 北京海益同展信息科技有限公司 一种图像筛选方法、装置、电子设备及存储介质
CN113378804A (zh) * 2021-08-12 2021-09-10 中国科学院深圳先进技术研究院 一种自助采样的检测方法、装置、终端设备和存储介质
CN115018821A (zh) * 2022-07-15 2022-09-06 南通恒立机械设备有限公司 基于人工智能的粉碎装置的粉碎检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103077383A (zh) * 2013-01-09 2013-05-01 西安电子科技大学 基于时空梯度特征的分部位的人体运动识别方法
CN103150579A (zh) * 2013-02-25 2013-06-12 东华大学 一种基于视频序列的人体异常行为检测方法
US20130169537A1 (en) * 2007-09-19 2013-07-04 Sony Corporation Image processing apparatus and method, and program therefor
CN103227963A (zh) * 2013-03-20 2013-07-31 西交利物浦大学 基于视频运动目标检测和跟踪的静态监控视频摘要方法
CN103258432A (zh) * 2013-04-19 2013-08-21 西安交通大学 基于视频的交通事故自动识别处理方法和系统
US20130229349A1 (en) * 2012-03-02 2013-09-05 Pixart Imaging Inc. Optical touch input by gesture detection from varying images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130169537A1 (en) * 2007-09-19 2013-07-04 Sony Corporation Image processing apparatus and method, and program therefor
US20130229349A1 (en) * 2012-03-02 2013-09-05 Pixart Imaging Inc. Optical touch input by gesture detection from varying images
CN103077383A (zh) * 2013-01-09 2013-05-01 西安电子科技大学 基于时空梯度特征的分部位的人体运动识别方法
CN103150579A (zh) * 2013-02-25 2013-06-12 东华大学 一种基于视频序列的人体异常行为检测方法
CN103227963A (zh) * 2013-03-20 2013-07-31 西交利物浦大学 基于视频运动目标检测和跟踪的静态监控视频摘要方法
CN103258432A (zh) * 2013-04-19 2013-08-21 西安交通大学 基于视频的交通事故自动识别处理方法和系统

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107562366A (zh) * 2017-09-28 2018-01-09 珠海普林芯驰科技有限公司 手势识别方法、计算机装置及计算机可读存储介质
CN108416266A (zh) * 2018-01-30 2018-08-17 同济大学 一种利用光流提取运动目标的视频行为快速识别方法
CN108305267A (zh) * 2018-02-14 2018-07-20 北京市商汤科技开发有限公司 物体分割方法、装置、设备、存储介质及程序
CN108305267B (zh) * 2018-02-14 2020-08-11 北京市商汤科技开发有限公司 物体分割方法、装置、设备、存储介质及程序
CN111126115A (zh) * 2018-11-01 2020-05-08 顺丰科技有限公司 暴力分拣行为识别方法和装置
CN110738151A (zh) * 2019-09-30 2020-01-31 沈阳航空航天大学 一种采用运动编码的考场视频人体主姿态确定方法
CN111626301A (zh) * 2020-05-07 2020-09-04 北京海益同展信息科技有限公司 一种图像筛选方法、装置、电子设备及存储介质
CN111626301B (zh) * 2020-05-07 2023-09-26 京东科技信息技术有限公司 一种图像筛选方法、装置、电子设备及存储介质
CN113378804A (zh) * 2021-08-12 2021-09-10 中国科学院深圳先进技术研究院 一种自助采样的检测方法、装置、终端设备和存储介质
CN115018821A (zh) * 2022-07-15 2022-09-06 南通恒立机械设备有限公司 基于人工智能的粉碎装置的粉碎检测方法

Also Published As

Publication number Publication date
CN103793922B (zh) 2016-07-06

Similar Documents

Publication Publication Date Title
CN103793922B (zh) 一种特定姿态实时检测方法
CN101950426B (zh) 一种多摄像机场景下车辆接力跟踪方法
US10043097B2 (en) Image abstraction system
CN110298404A (zh) 一种基于三重孪生哈希网络学习的目标跟踪方法
US20130343600A1 (en) Self learning face recognition using depth based tracking for database generation and update
JP2022542204A (ja) 画像座標系の変換方法並びにその、装置、機器およびコンピュータプログラム
CN102243765A (zh) 基于多相机的多目标定位跟踪方法及系统
He et al. Automatic damage detection using anchor-free method and unmanned surface vessel
Isern et al. Reconfigurable cyber-physical system for critical infrastructure protection in smart cities via smart video-surveillance
CN107909018B (zh) 一种稳健的多模态遥感影像匹配方法和系统
CN110428449A (zh) 目标检测跟踪方法、装置、设备及存储介质
CN109063549A (zh) 基于深度神经网络的高分辨率航拍视频运动目标检测方法
CN105426841A (zh) 基于人脸检测的监控相机自定位方法及装置
Raza et al. Framework for estimating distance and dimension attributes of pedestrians in real-time environments using monocular camera
Dai et al. Indoor 3D human trajectory reconstruction using surveillance camera videos and point clouds
Liu et al. Tilt correction toward building detection of remote sensing images
CN105096343B (zh) 一种移动目标跟踪方法及装置
Qi et al. Research on multi-camera information fusion method for intelligent perception
CN105469059A (zh) 一种视频中的人物识别、定位和统计方法
Li et al. Toward featureless visual navigation: Simultaneous localization and planar surface extraction using motion vectors in video streams
Li et al. Vehicle license plate recognition using Shufflenetv2 dilated convolution for intelligent transportation applications in urban Internet of Things
Caetano et al. Magnitude-Orientation Stream network and depth information applied to activity recognition
Punna et al. Recovering 3D from 2D image points (calibrated camera approach for surveillance)
Yu Implementation of a Human Motion Capture System Based on the Internet of Things Machine Vision
Singh et al. FLIP-TD: Free Lunch Inpainting on Top-Down Images for Robotic Tasks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160706

Termination date: 20170912