CN108664919A - 一种基于单样本的行为识别与检测方法 - Google Patents
一种基于单样本的行为识别与检测方法 Download PDFInfo
- Publication number
- CN108664919A CN108664919A CN201810439978.6A CN201810439978A CN108664919A CN 108664919 A CN108664919 A CN 108664919A CN 201810439978 A CN201810439978 A CN 201810439978A CN 108664919 A CN108664919 A CN 108664919A
- Authority
- CN
- China
- Prior art keywords
- video
- point
- interest
- displacement
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开一种基于单样本的行为识别和检测方法,解决在样本非常少且较难搜集的情况下,快速的从视频中检测某种行为的问题。本发明首先将样本视频分割为许多时间长度为的视频段,并对视频段中的每一帧图像进行兴趣点检测;接着对每个视频段,用第一帧中检测到的兴趣点与其他帧中的兴趣点进行匹配,并将匹配的点对映射到位移空间内,生成一个二维的位移直方图,从而得到一个位移直方图序列;然后对目标视频并使用同样的方法将目标视频表征为二维的位移直方图序列,利用矩阵余弦相似度的度量方法来识别与样本视频类别相同的行为。最后,对于识别的行为利用匹配的兴趣点的位置信息,精确的定位行为的时空位置。本发明计算效率比较高,能够快速有效的对行为进行识别与检测。
Description
技术领域
本发明涉及一种基于单样本的行为识别与检测方法,属于行为识别、行为检测技术领域。
背景技术
近年来,视频中的行为识别和分类是计算机视觉领域中的一个重要研究课题,具有重要的理论意义与实际应用价值。
随着我国经济社会的发展和科技的进步,对视频中任务的识别分析和理解已经成为社会科学和自然科学领域的重要内容,在安防监控、智慧城市建设、体育项目和生命健康等诸多领域都具有广泛的应用。鉴于各种原因,某些行为类别的样本数量却非常少,因此要实现在样本数量比较少的情况下对行为进行快速有效的识别,具有更大的挑战性。
现有的行为识别与检测研究主要存在以下两个问题。第一,大量算法的计算复杂度比较高,其行为检测过程比较耗时。第二,大部分算法需要大量训练样本训练行为识别或检测模型;在样本不充足的情况下,这些方法效果明显下降,甚至失效。利用单样本对视频行为进行识别与检测则更为困难。在只有一个行为视频样本的情况下,训练需要的正负样本无法搜集,行为分类器的训练无法进行。其次,受背景、拍摄角度、行为执行者的着装、运动速度等影响,人体行为通常体现出较多的类内视觉差异,而基于单行为样本的行为识别与检测则无法考虑同类行为的不同差异。现有的基于单样本的研究工作比较少,而且一般又采用了复杂的特征提取与匹配算法。在实际应用中,行为的识别与检测一般都要求快速响应,因此,行为识别检测算法的计算复杂度越低越好。
目前为止,对于视频中的行为和识别的分类的方法,还需要进行大量的研究工作。
发明内容
技术问题:发明所要解决的技术问题是在样本数量较少甚至唯一的情况下,快速实现对查询样本行为的检测与定位。
技术方案:本发明的一种基于单样本的行为识别与检测方法包括以下步骤:
步骤1)输入一个视频Q,将视频分割为时间长度为T的视频段,所述视频是行为视频的样本视频;
步骤2)选择Harris角点作为兴趣点,对步骤1)输入的样本视频Q中的每一个视频段提取出Harris角点集Pi。采用梯度方向直方图(HOG)特征作为兴趣点的特征描述进行兴趣点的匹配,将每个视频段中第一帧中检测到的兴趣点与其他帧中的兴趣点进行匹配,获得了匹配点对集M,根据距离范围δ筛选匹配点对;所述的Harris角点位于图像上向任意方向滑动都有着较大灰度变化的区域中,选取Harris角点能够准确的捕捉人体的位置;兴趣点指的是图像中具有特殊性质的像素点,具有旋转不变性和不随光照条件变化的优点;HOG特征是以梯度方向(梯度)的分布(直方图)作为特征,使用HOG特征可以有效的匹配存在一定程度内形变的兴趣点对;
步骤3)采用匹配点对的位移变化数值来描述兴趣点对的位移信息,并据此将点对映射到位移空间单元格内进行投票;统计位移空间中每个单元格中兴趣点对的投票数据,丢弃单元格(0,0)中的投票数据,得到一个二维的直方图表征,并对位移直方图进行归一化处理;一系列视频段的位移直方图形成了位移直方图序列;
步骤4)输入一个视频B,该视频是人物行为未知的目标视频,使用帧差法来快速的检测运动区域,并根据视频是否为周期视频来分别将目标视频分割成与样本视频尺寸一样的视频段TVk;再对此视频段进行步骤2)和步骤3)的操作,得到一个目标视频的位移直方图序列;所述的帧差法是通过对视频中相邻两帧图像做差分运算来标记运动物体的方法;
步骤5)计算目标视频中的运动区域子视频片段TVk与样本视频Q的相似度S(TVk,Q),根据相似度S(TVk,Q)的阈值τ判断子视频片段TVk中是否包含与样本行为类别相同的行为,所述样本行为是样本视频Q中检测到的行为;
步骤6)当子视频片段TVk中包含与样本行为类别相同的行为,找到第一帧图像与第i帧图像中成功匹配且不在相应视频帧的同一位置的兴趣点点对{(p1j,pil)},将这种兴趣点对中属于第i帧图像的点记为{pij},确定运动人体在子视频片段中第i帧图像中的精确位置其中m是第i帧中兴趣点的总数,j是第i帧图像中的兴趣点的标号。
其中,所述步骤2)具体如下:
步骤21)对于每一帧图像找出Harris角点作为兴趣点,设置从视频剪辑中第i帧图像中提取的Harris角点集记为Pi,那么Pi={pij∈R2},i=1,2,...,T,j>0,其中所述pij是角点集合Pi中第j个Harris兴趣点,pij=(xij,yij)是提取的Harris兴趣点在图像中的坐标位置;R是实数域;T是视频分割的总帧数;
步骤22)以步骤21)中检测到的Harris兴趣点为中心,选择一个窗口尺寸为w×w的图像区域,并提取该图像区域的HOG特征。
步骤23)在一定的距离δ范围内,为每个兴趣点从其他帧中选择与其满足如下配对约束的兴趣点,且满足|x1j-xik|<δ,|y1j-yik|<δ,(x1j,y1j)和(xik,yik)分别表示兴趣点p1j和pil的坐标,获得了匹配点对集M={(p1j,pil),i=2,...,T};所述S(p1j,pik)为相似性度量函数,在此处将其定义为欧氏距离;所述(p1j,pil)是视频剪辑中一组成功匹配的兴趣点对,p1j是从该剪辑第一帧图像中检测到的第j个Harris兴趣点,pil是从第i帧图像中检测到的第l个兴趣点。
所述步骤3)具体如下:
步骤31)对于匹配点对集M,计算匹配点对的位移变化数值(x1j-xil,y1j-yil)在位移空间(Δx,Δy)中进行投票;
步骤32)统计位移空间中每个单元格中兴趣点对的投票数据,并丢弃单元格(0,0)中的投票数据,得到一个二维的直方图表征di;
步骤33)使用L1范数对二维位移直方图进行归一化。对位移直方图d′进行处理,归一化的位移直方图记为d,其归一化公式如下所述是位移直方图d′的L1范数;k是二维位移直方图的编号,n是二维位移直方图总数,l是二维位移直方图表征的分量编号,m是二维位移直方图表征的分量数;
步骤34)对于用滑动窗口将帧长为t的行为视频分割为的多个帧长为T的视频剪辑,按照上述方法表示成的二维位移直方图di,将整个视频行为表征为位移直方图序列DQ=(d1,...,di,...dt-T+1),di∈Rn×n。
所述步骤4)具体如下:
步骤41)输入一个视频B,作为人物行为未知的目标视频;
步骤42)当步骤41)输入的视频属于非周期性行为,利用运动估计将目标视频TV分割为与查询视频尺寸一样的子视频片段;当步骤41)输入的视频属于周期性行为,分割后的子视频片段的空间尺寸与查询视频一样,帧长被设置为g+T-1;g为调节参数,使g+T-1的值小于样本视频的帧长;
步骤43)使用帧差法来快速的检测运动区域,提高行为的检测速度;设定两个阈值ω,h来过滤运动区域,以保证执行行为的人体存在于一个合理的运动区域内;当样本视频的尺寸为ω×h×t,对于非周期性行为,目标视频的运动区域被分割为尺寸为ω×h×t的子视频片段;对于周期性行为,目标视频的运动区域被分割为空间尺寸为ω×h,但帧长为g+T-1的子视频片段,所述t>g+T-1;t是样本视频的帧长;
步骤44)将分割出的视频段进行步骤2)和步骤3)的操作,得到一个目标视频的位移直方图序列DTV。
所述步骤5)具体如下:
步骤51)计算样本视频的位移直方图dQ与目标视频的子视频片段的位移直方图dTV的矩阵余弦相似度,所述位移直方图dQ与dTV的矩阵余弦相似度被定义为两个规范化矩阵的Frobenius内积,其计算公式如下所示, 所述其列向量表示形式为 鉴于两向量的余弦相似度为那么两个位移直方图的矩阵余弦相似度,可以改写为加权的向量余弦相似度之和: 和为位移直方图矩阵dQ与dTV的第i列表示的列向量,n表示位移直方图矩阵的列数;
步骤52)基于矩阵余弦相似度,计算目标视频中的运动区域子视频片段TVk与查询行为视频Q的相似度S(TVk,Q);对于周期性行为,其相似性公式为:
对于非周期性行为,其相似性公式:所述是位移直方图序列的第i个位移直方图,DQ(i)同理;
步骤53)基于计算得到的相似度,设置判断函数f(TVk,Q),通过该函数判定目标视频分割产生的包含与样本行为类别相同的行为的子视频片段;该判别函数公式如下, 当f(TVk,Q)=1,表示两个位移直方图序列的相似度S(TVk,Q)大于阈值τ,认定子视频片段TVK中包含于查询行为Q类别相同的行为;当f(TVk,Q)=0,认定子视频片段TVk中不包含与样本视频Q类别相同的行为;TVk表示目标视频中的第k个运动区域子视频片段,Q表示样本视频;
所述步骤1)中,T按照经验取8。
所述步骤22)中,w设置为9。
所述步骤23)中,δ按照经验取25。
所述步骤31)中,位移空间(Δx,Δy)设置的一个二维网络每个单元格的尺寸为N×N个像素,N按照经验取20。
所述步骤53)中,τ按照经验取0.62。
有益效果:本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明使用Harris角点作为兴趣点,以梯度方向直方图(HOG)特征作为兴趣点的特征描述来进行兴趣点的匹配,并根据匹配点对的位移信息将点对映射到位移空间单元格内进行投票,归一化后得到样本视频的位移直方图序列,用矩阵余弦相似度来计算样本视频与目标视频的相似度,对于识别的行为精确的确定其位置。通过这些方法的应用能够在单一样本的情况下,对视频中的行为进行快速检测与定位,具有良好的准确性和有效性,具体来说:
(1)本发明通过使用Harris角点作为兴趣点,以梯度方向直方图(HOG)特征作为兴趣点的特征描述来进行兴趣点的匹配,可以有效的定位行为人体的轮廓,并且HOG特征可以有效的匹配那些存在一定程度内形变的兴趣点对,提高匹配的准确性。
(2)本发明通过基于霍夫变换的概念,利用线性霍夫变换构建了一个位移空间,利用匹配的兴趣点对在位移空间的投票信息,提出了二维位移直方图序列的行为表征方法,该行为表征方法能够有效识别并检测行为。
(3)本发明通过使用矩阵余弦相似度的度量方法,计算目标视频中的运动区域子视频片段TVk与样本行为视频Q的相似度S(TVk,Q),算法计算效率比较高,能够快速有效的对行为进行识别与检测。
附图说明
图1是基于单样本的行为识别与检测方法流程。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明的一种基于单样本的行为识别与检测方法包括以下步骤:
步骤1)输入一个视频Q,将视频分割为时间长度为T的视频段,所述视频是行为视频的样本视频;
步骤2)选择Harris角点作为兴趣点,对步骤1)输入的视频Q中的每一个视频段提取出Harris角点集Pi。采用梯度方向直方图(HOG)特征作为兴趣点的特征描述进行兴趣点的匹配,将每个视频段中第一帧中检测到的兴趣点与其他帧中的兴趣点进行匹配,获得了匹配点对集M,根据距离范围δ筛选匹配点对;所述的Harris角点位于图像上向任意方向滑动都有着较大灰度变化的区域中,选取Harris角点能够准确的捕捉人体的位置;兴趣点指的是图像中具有特殊性质的像素点,具有旋转不变性和不随光照条件变化的优点;HOG特征是以梯度方向(梯度)的分布(直方图)作为特征,使用HOG特征可以有效的匹配存在一定程度内形变的兴趣点对;
步骤3)采用匹配点对的位移变化数值来描述兴趣点对的位移信息,并据此将点对映射到位移空间单元格内进行投票;统计位移空间中每个单元格中兴趣点对的投票数据,丢弃单元格(0,0)中的投票数据,得到一个二维的直方图表征,并对位移直方图进行归一化处理;一系列视频段的位移直方图形成了位移直方图序列;
步骤4)输入一个视频B,该视频是人物行为未知的目标视频,使用帧差法来快速的检测运动区域,并根据视频是否为周期视频来分别将目标视频分割成与样本视频尺寸一样的视频段TVk;再对此视频段进行步骤2)和步骤3)的操作,得到一个目标视频的位移直方图序列;所述的帧差法是通过对视频中相邻两帧图像做差分运算来标记运动物体的方法;
步骤5)计算目标视频中的运动区域子视频片段TVk与样本视频Q的相似度S(TVk,Q),根据相似度S(TVk,Q)的阈值τ判断子视频片段TVk中是否包含与样本行为类别相同的行为,所述样本行为是样本视频Q中检测到的行为;
步骤6)当子视频片段TVk中包含与样本行为类别相同的行为,找到第一帧图像与第i帧图像中成功匹配且不在相应视频帧的同一位置的兴趣点点对{(p1j,pil)},将这种兴趣点对中属于第i帧图像的点记为{pij},确定运动人体在子视频片段中第i帧图像中的精确位置其中m是第i帧中兴趣点的总数,j是第i帧图像中的兴趣点的标号;
其中,所述步骤2)具体如下:
步骤21)对于每一帧图像找出Harris角点作为兴趣点,设置从视频剪辑中第i帧图像中提取的Harris角点集记为Pi,那么Pi={pij∈R2},i=1,2,...,T,j>0,其中所述pij是角点集合Pi中第j个Harris兴趣点,pij=(xij,yij)是提取的Harris兴趣点在图像中的坐标位置;R是实数域;T是视频分割的总帧数;
步骤22)以步骤21)中检测到的Harris兴趣点为中心,选择一个窗口尺寸为w×w的图像区域,并提取该图像区域的HOG特征。
步骤23)在一定的距离δ范围内,为每个兴趣点从其他帧中选择与其满足如下配对约束的兴趣点,且满足|x1j-xik|<δ,|y1j-yik|<δ,(x1j,y1j)和(xik,yik)分别表示兴趣点p1j和pil的坐标,获得了匹配点对集M={(p1j,pil),i=2,...,T};所述S(p1j,pik)为相似性度量函数,在此处将其定义为欧氏距离;所述(p1j,pil)是视频剪辑中一组成功匹配的兴趣点对,p1j是从该剪辑第一帧图像中检测到的第j个Harris兴趣点,pil是从第i帧图像中检测到的第l个兴趣点。
所述步骤3)具体如下:
步骤31)对于匹配点对集M,计算匹配点对的位移变化数值(x1j-xil,y1j-yil)在位移空间(Δx,Δy)中进行投票;
步骤32)统计位移空间中每个单元格中兴趣点对的投票数据,并丢弃单元格(0,0)中的投票数据,得到一个二维的直方图表征di;
步骤33)使用L1范数对二维位移直方图进行归一化。对位移直方图d′进行处理,归一化的位移直方图记为d,其归一化公式如下所述是位移直方图d′的L1范数;k是二维位移直方图的编号,n是二维位移直方图总数,l是二维位移直方图表征的分量编号,m是二维位移直方图表征的分量数;
步骤34)对于用滑动窗口将帧长为t的行为视频分割为的多个帧长为T的视频段,按照上述方法表示成的二维位移直方图di,将整个视频行为表征为位移直方图序列DQ=(d1,...,di,...dt-T+1),di∈Rn×n。
所述步骤4)具体如下:
步骤41)输入一个视频B,作为人物行为未知的目标视频;
步骤42)当步骤41)输入的视频属于非周期性行为,利用运动估计将目标视频TV分割为与样本视频尺寸一样的子视频片段;当步骤41)输入的视频属于周期性行为,分割后的子视频片段的空间尺寸与样本视频一样,帧长被设置为g+T-1;g为调节参数,使g+T-1的值小于样本视频的帧长;
步骤43)使用帧差法来快速的检测运动区域,提高行为的检测速度;设定两个阈值ω,h来过滤运动区域,以保证执行行为的人体存在于一个合理的运动区域内;当样本视频的尺寸为ω×h×t,对于非周期性行为,目标视频的运动区域被分割为尺寸为ω×h×t的子视频片段;对于周期性行为,目标视频的运动区域被分割为空间尺寸为ω×h,但帧长为g+T-1的子视频片段,所述t>g+T-1;t是样本视频的帧长;
步骤44)将分割出的视频剪辑进行步骤2)和步骤3)的操作,得到一个目标视频的位移直方图DTV。
所述步骤5)具体如下:
步骤51)计算样本视频的位移直方图dQ与目标视频的子视频片段的位移直方图dTV的矩阵余弦相似度,所述位移直方图dQ与dTV的矩阵余弦相似度被定义为两个规范化矩阵的Frobenius内积,其计算公式如下所示, 所述其列向量表示形式为 鉴于两向量的余弦相似度为那么两个位移直方图的矩阵余弦相似度,可以改写为加权的向量余弦相似度之和: 和为位移直方图矩阵dQ与dTV的第i列表示的列向量,n表示位移直方图矩阵的列数;
步骤52)基于矩阵余弦相似度,计算目标视频中的运动区域子视频片段TVk与样本视频Q的相似度S(TVk,Q);对于周期性行为,其相似性公式为:
对于非周期性行为,其相似性公式:所述是位移直方图序列的第i个位移直方图,DQ(i)同理;
步骤53)基于计算得到的相似度,设置判断函数f(TVk,Q),通过该函数判定目标视频分割产生的包含与样本行为类别相同的行为的子视频片段;该判别函数公式如下, 当f(TVk,Q)=1,表示两个位移直方图序列的相似度S(TVk,Q)大于阈值τ,认定子视频片段TVk中包含与样本视频Q类别相同的行为。当f(TVk,Q)=0,认定子视频片段TVk中不包含与样本视频Q类别相同的行为。TVk表示目标视频中的第k个运动区域子视频片段,Q表示目标视频。
在具体实施中,图1是基于单样本的行为识别与检测方法流程。首先用户输入1个视频,通过一个帧长为T的滑动窗口,将视频分割为许多时间长度为T的视频段。
在输入的视频中的每一个视频段提取出Harris角点集Pi,实现对视频中人体边缘轮廓的捕捉。采用梯度方向直方图(HOG)特征作为兴趣点的特征描述来进行兴趣点的匹配,将每个视频段中第一帧中检测到的兴趣点与其他帧中的兴趣点进行匹配,并选择一个距离范围以减少兴趣点的误匹配;Harris角点位于图像上向任意方向滑动都有着较大灰度变化的区域中,选取Harris角点能够准确的捕捉人体的位置;HOG特征是以梯度方向(梯度)的分布(直方图)作为特征,包含了很多物体的形状信息,使用HOG特征可以有效的匹配那些存在一定程度内形变的兴趣点对。
获得了匹配点对集M后,基于霍夫变换的概念,利用线性霍夫变换构建了一个位移空间,计算匹配点对的位移变化数值在一个网格尺寸为20×20的位移空间(Δx,Δy)中进行投票,并丢弃单元格(0,0)中的投票数据,因为在摄像头固定的情况下,即使该方法从复杂的背景中提取了角点,但成功匹配的背景中的兴趣点对没有位置移动,这些点对都将对位移空间的单元格(0,0)进行投票,丢弃位移空间单元格(0,0)中的数据就去掉了复杂背景对行为数据的影响。使用公式对位移直方图进行归一化处理。d′i是原始的位移直方图,di是经过归一化处理过后的位移直方图。对每一个视频段进行上述处理,得到一个查询视频的位移直方图序列DQ=(d1,...,di,...dt-T+1),di∈Rn×n。
然后输入一个视频作为行为视频的目标视频。利用帧差法快速检测运动区域,若视频为非周期视频,利用运动估计将目标视频分割为与查询视频尺寸一样的子视频片段,若为周期视频,则帧长设置为g+T-1,空间尺寸依然与查询视频相同。对分割后的视频剪辑进行上述相同的处理,得到目标视频的位移直方图序列DTV。
接下来需要根据这两个位移直方图序列来判断目标视频中是否出现与样本视频行为类别相同的行为。利用矩阵余弦相似度展现出来的基于关联相似性的度量方法在识别方面的有效性,使用位移直方图的矩阵余弦相似度Φ(dQ,dTV)作为度量标准,计算出目标视频运动区域子视频片段TVk与样本视频Q的相似度S(TVk,Q),最后通过判别函数来判断该子视频片段是否出现与样本行为类别相同的行为。如果f(TVk,Q)=1,表示两个位移直方图序列的相似度S(TVk,Q)大于阈值τ,也就可以认为子视频片段TVk中包含与样本视频Q类别相同的行为。否则,则认为子视频片段TVk中不包含与样本视频Q类别相同的行为。因为对每类行为,只提供了一个查询行为的视频样本去检测该行为,所以,阈值τ无法通过训练样本使用有监督的方法进行学习。τ按照经验取0.62。
如果子视频片段TVk中包含与样本视频Q类别相同的行为,找到第一帧图像与第i帧图像中成功匹配且不在相应视频帧的同一位置的兴趣点点对{(p1j,pil)},将这种兴趣点对中属于第i帧图像的点记为{pij},从而确定运动人体在子视频片段中第i帧图像中的精确位置这样就实现了基于单样本的行为识别与检测。
Claims (10)
1.一种基于单样本的行为识别与检测方法,其特征在于,包括以下步骤:
步骤1)输入一个样本视频Q,将视频分割为时间长度为T的视频段,所述视频Q是行为视频的样本视频;
步骤2)选择Harris角点作为兴趣点,对步骤1)输入的视频Q中的每一个视频段提取出Harris角点集Pi,采用梯度方向直方图HOG特征作为兴趣点的特征描述进行兴趣点的匹配,将每个视频段中第一帧中检测到的兴趣点与其他帧中的兴趣点进行匹配,获得了匹配点对集M,根据距离范围δ筛选匹配点对;所述的Harris角点位于图像上向任意方向滑动都有着较大灰度变化的区域中,选取Harris角点能够准确的捕捉人体的位置;兴趣点指的是图像中具有旋转不变性和不随光照条件变化特性的像素点;HOG特征是以梯度方向的分布作为特征,使用HOG特征匹配存在形变的兴趣点对;
步骤3)采用匹配点对的位移变化数值来描述兴趣点对的位移信息,并据此将点对映射到位移空间单元格内进行投票;统计位移空间中每个单元格中兴趣点对的投票数据,丢弃单元格(0,0)中的投票数据,得到一个二维的直方图表征dQ,并对位移直方图进行归一化处理;一系列视频段的位移直方图形成了位移直方图序列DQ;
步骤4)输入一个目标视频B,该目标视频是人物行为未知的视频,使用帧差法来快速的检测运动区域,并根据视频是否为周期视频来分别将目标视频分割成与样本视频尺寸一样的视频段TVk;再对此视频段进行步骤2)和步骤3)的操作,得到一个目标视频的位移直方图序列;所述的帧差法是通过对视频中相邻两帧图像做差分运算来标记运动物体的方法;
步骤5)计算目标视频中的运动区域子视频片段TVk与样本视频Q的相似度S(TVk,Q),根据相似度S(TVk,Q)的阈值τ判断子视频段TVk中是否包含与样本行为类别相同的行为,所述样本行为是样本视频Q中检测到的行为;
步骤6)当子视频段TVk中包含与样本行为类别相同的行为,找到第一帧图像与第i帧图像中成功匹配且不在相应视频帧的同一位置的兴趣点点对{(p1j,pil)},将这种兴趣点对中属于第i帧图像的点记为{pij},确定运动人体在子视频片段中第i帧图像中的精确位置其中m是第i帧中兴趣点的总数,j是第i帧图像中的兴趣点的标号。
2.根据权利要求1所述的一种基于单样本的行为识别与检测方法,其特征在于,所述步骤2)具体如下:
步骤21)对于每一帧图像找出Harris角点作为兴趣点,设置从视频段中第i帧图像中提取的Harris角点集记为Pi,那么Pi={pij∈R2},i=1,2,...,T,j>0,其中所述pij是角点集合Pi中第j个Harris兴趣点,pij=(xij,yij)是提取的Harris兴趣点在图像中的坐标位置;R是实数域;T是视频分割的总帧数;
步骤22)以步骤21)中检测到的Harris兴趣点为中心,选择一个窗口尺寸为w×w的图像区域,并提取该图像区域的HOG特征;
步骤23)在一定的距离δ范围内,为每个兴趣点从其它帧中选择与其满足如下配对约束的兴趣点,且满足|x1j-xik|<δ,|y1j-yik|δ,(x1j,y1j)和(xik,yik)分别表示兴趣点p1j和pil的坐标,获得了匹配点对集M={(p1j,pil),i=2,...,T};所述S(p1j,pik)为相似性度量函数,在此处将其定义为欧氏距离;所述(p1j,pil)是视频剪辑中一组成功匹配的兴趣点对,p1j是从该剪辑第一帧图像中检测到的第j个Harris兴趣点,pil是从第i帧图像中检测到的第l个兴趣点。
3.根据权利要求1所述的一种基于单样本的行为识别与检测方法,其特征在于,所述步骤3)具体如下:
步骤31)对于匹配点对集M,计算匹配点对的位移变化数值(x1j-xil,y1j-yil)在位移空间(Δx,Δy)中进行投票;
步骤32)统计位移空间中每个单元格中兴趣点对的投票数据,并丢弃单元格(0,0)中的投票数据,得到一个二维的直方图表征di;
步骤33)使用L1范数对二维位移直方图进行归一化,对位移直方图d′进行处理,归一化的位移直方图记为d,其归一化公式如下所述是位移直方图d′的L1范数;k是二维位移直方图的编号,n是二维位移直方图总数,l是二维位移直方图表征的分量编号,m是二维位移直方图表征的分量数;
步骤34)对于用滑动窗口将帧长为t的行为视频分割为的帧长为T的视频段,按照上述方法表示成的二维位移直方图di,将整个视频行为表征为位移直方图序列DQ=(d1,...,di,...dt-T+1),di∈Rn×n。
4.根据权利要求1所述的一种基于单样本的行为识别与检测方法,其特征在于,所述步骤4)具体如下:
步骤41)输入一个视频B,作为人物行为未知的目标视频;
步骤42)当步骤41)输入的视频属于非周期性行为,利用运动估计将目标视频TV分割为与查询视频尺寸一样的子视频片段;当步骤41)输入的视频属于周期性行为,分割后的子视频片段的空间尺寸与查询视频一样,帧长被设置为g+T-1;g为调节参数,使g+T-1的值小于样本视频的帧长;
步骤43)使用帧差法来快速的检测运动区域,提高行为的检测速度;设定两个阈值ω,h来过滤运动区域,以保证执行行为的人体存在于一个合理的运动区域内;当样本视频的尺寸为ω×h×t,对于非周期性行为,目标视频的运动区域被分割为尺寸为ω×h×t的子视频片段;对于周期性行为,目标视频的运动区域被分割为空间尺寸为ω×h,但帧长为g+T-1的子视频片段,所述t>g+T-1;t是样本视频的帧长;
步骤44)将分割出的视频段进行步骤2)和步骤3)的操作,得到一个目标视频的位移直方图序列DTV。
5.根据权利要求1所述的一种基于单样本的行为识别与检测方法,其特征在于,所述步骤5)具体如下:
步骤51)计算样本视频的位移直方图dQ与目标视频的子视频片段的位移直方图dTV的矩阵余弦相似度,所述位移直方图dQ与dTV的矩阵余弦相似度被定义为两个规范化矩阵的Frobenius内积,其计算公式如下所示, 所述其列向量表示形式为 鉴于两向量的余弦相似度为那么两个位移直方图的矩阵余弦相似度,可以改写为加权的向量余弦相似度之和: 和为位移直方图矩阵dQ与dTV的第i列表示的列向量,n表示位移直方图矩阵的列数;
步骤52)基于矩阵余弦相似度,计算目标视频中的运动区域子视频片段TVk与查询行为视频Q的相似度S(TVk,Q);对于周期性行为,其相似性公式为:
对于非周期性行为,其相似性公式:所述是位移直方图序列的第i个位移直方图,DQ(i)是位移直方图序列DQ的第i个位移直方图;
步骤53)基于计算得到的相似度,设置判断函数f(TVk,Q),通过该函数判定目标视频分割产生的包含与样本行为类别相同的行为的子视频片段;该判别函数公式如下, 当f(TVk,Q)=1,表示两个位移直方图序列的相似度S(TVk,Q)大于阈值τ,认定子视频片段TVk中包含于查询行为Q类别相同的行为;当f(TVk,Q)=0,认定子视频片段TVk中不包含与样本视频Q类别相同的行为。TVk表示目标视频中的第k个运动区域子视频片段,Q表示样本视频。
6.根据权利要求1所述的一种基于单样本的行为识别与检测方法,其特征在于,所述步骤1)中,T按照经验取8。
7.根据权利要求2所述的一种基于单样本的行为识别与检测方法,其特征在于,所述步骤22)中,w设置为9。
8.根据权利要求2所述的一种基于单样本的行为识别与检测方法,其特征在于,所述步骤23)中,δ按照经验取25。
9.根据权利要求3所述的一种基于单样本的行为识别与检测方法,其特征在于,所述步骤31)中,位移空间(Δx,Δy)设置的一个二维网络每个单元格的尺寸为N×N个像素,N按照经验取20。
10.根据权利要求5所述的一种基于单样本的行为识别与检测方法,其特征在于,所述步骤53)中,τ按照经验取0.62。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810439978.6A CN108664919A (zh) | 2018-05-04 | 2018-05-04 | 一种基于单样本的行为识别与检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810439978.6A CN108664919A (zh) | 2018-05-04 | 2018-05-04 | 一种基于单样本的行为识别与检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108664919A true CN108664919A (zh) | 2018-10-16 |
Family
ID=63778332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810439978.6A Pending CN108664919A (zh) | 2018-05-04 | 2018-05-04 | 一种基于单样本的行为识别与检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108664919A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109830085A (zh) * | 2018-12-05 | 2019-05-31 | 深圳市天视通电子科技有限公司 | 一种婴儿睡眠监护方法及系统 |
CN112890774A (zh) * | 2021-01-18 | 2021-06-04 | 吾征智能技术(北京)有限公司 | 一种基于唇部图像的疾病辅助预测系统、设备、存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102156702A (zh) * | 2010-12-17 | 2011-08-17 | 南方报业传媒集团 | 一种由粗到精的视频事件的快速定位方法 |
CN103106394A (zh) * | 2012-12-24 | 2013-05-15 | 厦门大学深圳研究院 | 一种视频监控中的人体行为识别方法 |
CN106127193A (zh) * | 2016-07-12 | 2016-11-16 | 青岛大学 | 一种人脸图像识别方法 |
US20170351910A1 (en) * | 2016-06-04 | 2017-12-07 | KinTrans, Inc. | Automatic body movement recognition and association system |
CN107909032A (zh) * | 2017-11-15 | 2018-04-13 | 重庆邮电大学 | 一种基于单样本的行为检测与识别方法 |
-
2018
- 2018-05-04 CN CN201810439978.6A patent/CN108664919A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102156702A (zh) * | 2010-12-17 | 2011-08-17 | 南方报业传媒集团 | 一种由粗到精的视频事件的快速定位方法 |
CN103106394A (zh) * | 2012-12-24 | 2013-05-15 | 厦门大学深圳研究院 | 一种视频监控中的人体行为识别方法 |
US20170351910A1 (en) * | 2016-06-04 | 2017-12-07 | KinTrans, Inc. | Automatic body movement recognition and association system |
CN106127193A (zh) * | 2016-07-12 | 2016-11-16 | 青岛大学 | 一种人脸图像识别方法 |
CN107909032A (zh) * | 2017-11-15 | 2018-04-13 | 重庆邮电大学 | 一种基于单样本的行为检测与识别方法 |
Non-Patent Citations (2)
Title |
---|
杨天明等: "基于视频深度学习的时空双流人物动作识别模型", 《计算机应用》 * |
裴利沈: "视频中人体行为识别若干问题研究", 《中国博士学位论文全文数据库》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109830085A (zh) * | 2018-12-05 | 2019-05-31 | 深圳市天视通电子科技有限公司 | 一种婴儿睡眠监护方法及系统 |
CN112890774A (zh) * | 2021-01-18 | 2021-06-04 | 吾征智能技术(北京)有限公司 | 一种基于唇部图像的疾病辅助预测系统、设备、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108090433B (zh) | 人脸识别方法及装置、存储介质、处理器 | |
CN107657279B (zh) | 一种基于少量样本的遥感目标检测方法 | |
Zhang et al. | Real-time sow behavior detection based on deep learning | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
CN105550634B (zh) | 基于Gabor特征与字典学习的人脸姿态识别方法 | |
CN105022982B (zh) | 手部运动识别方法和装置 | |
CN108549870A (zh) | 一种对物品陈列进行鉴别的方法及装置 | |
Hofmanninger et al. | Mapping visual features to semantic profiles for retrieval in medical imaging | |
CN107610177B (zh) | 一种同步定位与地图构建中确定特征点的方法和设备 | |
CN111738344A (zh) | 一种基于多尺度融合的快速目标检测方法 | |
CN107368770B (zh) | 一种回头客自动识别方法及系统 | |
CN106056135B (zh) | 一种基于压缩感知的人体动作分类方法 | |
CN113761259A (zh) | 一种图像处理方法、装置以及计算机设备 | |
CN112633297A (zh) | 目标对象的识别方法、装置、存储介质以及电子装置 | |
CN104200218B (zh) | 一种基于时序信息的跨视角动作识别方法及系统 | |
Jiang et al. | Multi-class fruit classification using RGB-D data for indoor robots | |
CN106980825A (zh) | 一种基于归一化像素差特征的人脸姿势分类方法 | |
CN108875448B (zh) | 一种行人再识别方法及装置 | |
CN113706481A (zh) | 精子质量检测方法、装置、计算机设备和存储介质 | |
CN108664919A (zh) | 一种基于单样本的行为识别与检测方法 | |
Dong et al. | Fusing multilevel deep features for fabric defect detection based NTV-RPCA | |
CN108805181B (zh) | 一种基于多分类模型的图像分类装置及分类方法 | |
CN114358279A (zh) | 图像识别网络模型剪枝方法、装置、设备及存储介质 | |
Molina-Giraldo et al. | Image segmentation based on multi-kernel learning and feature relevance analysis | |
Varga et al. | Person re-identification based on deep multi-instance learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181016 |
|
RJ01 | Rejection of invention patent application after publication |