CN106934358A - 基于余弦角距离加权复杂网络的小规模人群行为识别方法 - Google Patents

基于余弦角距离加权复杂网络的小规模人群行为识别方法 Download PDF

Info

Publication number
CN106934358A
CN106934358A CN201710125203.7A CN201710125203A CN106934358A CN 106934358 A CN106934358 A CN 106934358A CN 201710125203 A CN201710125203 A CN 201710125203A CN 106934358 A CN106934358 A CN 106934358A
Authority
CN
China
Prior art keywords
crowd
motion
moving
follows
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710125203.7A
Other languages
English (en)
Inventor
张旭光
郭江利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN201710125203.7A priority Critical patent/CN106934358A/zh
Publication of CN106934358A publication Critical patent/CN106934358A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于余弦角距离加权复杂网络的小规模人群行为识别方法,依据向量模型衡量余弦角,表达人群个体的运动状态和构建余弦角距离模型;定量评估余弦角距离,表达人群个体与个体间的关联程度,从而构建余弦角距离加权复杂网络;分析人群加权复杂网络的特征参数,提取能理解与表达人群行为的特征值,构建特征向量识别小规模人群行为。本发明具有设计合理、应用广泛、计算便捷等优点。

Description

基于余弦角距离加权复杂网络的小规模人群行为识别方法
技术领域
本发明涉及智能监控与视频分析领域,尤其是一种采用余弦角距离构成加权复杂网络来识别小规模人群行为的方法。
背景技术
人群行为识别渐渐成为计算机视觉领域和智能监控领域的研究热点与难点。根据人群规模的程度把人群行为分析的方法分为两类。一类是从微观角度分析,即通过检测个体的姿势或个体的相关特征量如轨迹、位置等来分析极小规模人群行为。另一类是从宏观角度入手,即将大规模含有共同行为的人群看成一个整体,提取整体的特性(如人流密度,人流速度,人流方向等)来理解和表达大规模人群行为。
这两类人群行为分析方法都有各自的缺点。第一类方法对整个人群场景的理解和表达整个宏观层次存在不足;第二类方法忽略了对人和人之间的交互及单独个人的分析,在微观方面的研究略有欠缺。而识别小规模人群行为既包括了分析人与人之间的交互也包含了理解和表达整体人群的行为,巧妙的消除了这两方面的缺陷,达到宏观和微观这两者优势的结合。
复杂网络是由节点和连接节点的边组成地图论,节点和边反映的是微观信息,网络的特征参数反映的是宏观信息,因此复杂网络是一个用微观信息来反映宏观信息的有力工具。用复杂网络识别小规模人群行为是用节点和边理解人群行为中个体与个体间的关系,用复杂网络的特征参数分析小规模人群的整体行为。
发明内容
本发明目的是提供一种设计合理、计算简单、准确度高的基于余弦角距离加权复杂网络的小规模人群行为识别方法。
为实现上述目的,采用了以下技术方案:本发明所述方法步骤如下:
步骤1,依据向量模型衡量余弦角,表达人群个体的运动状态和构建余弦角距离模型;
步骤2,定量评估余弦角距离,表达人群个体与个体间的关联程度,从而构建余弦角距离加权复杂网络;
步骤3,分析人群加权复杂网络的特征参数,提取能理解与表达人群行为的特征值,构建特征向量识别小规模人群行为。
进一步的,步骤1中,用余弦角来表达人群个体与个体间的相互运动状态,余弦角由向量模型来衡量,而向量模型是在运动轨迹信息的基础上由参考向量和位移向量构成。位移向量是轨迹位移矢量,参考向量所在的直线是由两个目标的轨迹起点相连构成。
运动目标i的参考向量是运动目标i轨迹起点指向运动目标j轨迹起点,公式如下:
Ni=(xj(0),yj(0))-(xi(0),yi(0))
其中,(xj(0),yj(0))表示0时刻运动目标j在视频场景中二维平面的位置坐标。(xi(0),yi(0))表示0时刻运动目标i在视频场景中二维平面的位置坐标。
运动目标i的位移向量是运动目标i轨迹起点指向轨迹终点,具体公式如下:
Si=(xi(n),yi(n))-(xi(0),yi(0))
其中,(xi(n),yi(n))表示n时刻运动目标i在视频场景中二维平面的位置坐标。(xi(0),yi(0))表示0时刻运动目标i在视频场景中二维平面的位置坐标。
运动目标i的余弦角用弧度制表示结果如下:
对于运动目标j而言,其参考向量是运动目标j轨迹起点指向运动目标i轨迹起点,其它量与运动目标i一样,余弦角弧度制表示结果如下:
进一步的,在余弦角衡量人群个体与个体间相互运动状态的基础上用余弦角距离表达人群个体与个体间相互关联程度。余弦角距离计算公式如下:
dij=δ×(θij)
其中,θi为目标i运动状态的余弦角,θj为目标j运动状态的余弦角,δ为受两个目标轨迹方向影响的方向系数。
为了确定方向系数,将运动轨迹方向分为两类:若两个运动目标的轨迹方向相对于参考向量同向,那么δ取值较小;若两个运动目标的轨迹方向相对于参考向量异向,那么δ取值较大;
利用余弦角距离反映个体与个体之间的关系可以得出:当余弦角距离dij比较大时,个体与个体之间的关系比较疏远;当余弦角距离dij比较小时,个体与个体间的关系比较亲密,当两个目标余弦角θi、θj相同时,两个目标运动轨迹异向比运动轨迹同向关系疏远。
进一步的,步骤2中,所述余弦角距离的影响因素中方向系数是受到运动目标轨迹方向的影响,依据向量模型转化为混合积模型区分运动轨迹异向或同向,具体如下:建立右手直角坐标系,用运动目标轨迹的起点作为原点,以参考向量所在的直线作为y轴,在此基础上建立x、z轴,则参考向量公式如下:
Ni=(xj(0)-xi(0),yj(0)-yi(0),0)
其中,xi(0)表示0时刻运动目标i在视频图像中x轴的位置坐标。xj(0)表示0时刻运动目标j在视频图像中x轴的位置坐标。yi(0)表示0时刻运动目标i在视频图像中y轴的位置坐标。yj(0)表示0时刻运动目标j在视频图像中y轴的位置坐标。
坐标原点到运动目标i轨迹终点的位移向量公式如下:
Si=(xi(n)-xi(0),yi(n)-yi(0),0)
其中,xi(0)表示0时刻运动目标i在视频图像中x轴的位置坐标。xi(n)表示n时刻运动目标i在视频图像中x轴的位置坐标。yi(0)表示0时刻运动目标i在视频图像中y轴的位置坐标。yi(n)表示n时刻运动目标i在视频图像中y轴的位置坐标。
坐标原点到运动目标j轨迹终点的向量为:
Pi=(xj(n)-xi(0),yj(n)-yi(0),0)
其中,xi(0)表示0时刻运动目标i在视频图像中x轴的位置坐标。xj(n)表示n时刻运动目标j在视频图像中x轴的位置坐标。yi(0)表示0时刻运动目标i在视频图像中y轴的位置坐标。yj(n)表示n时刻运动目标j在视频图像中y轴的位置坐标。
为了得到上述两个向量是否在参考向量的同侧或异侧,引入z轴单位向量,具体公式如下:
Z=(0,0,1)
若运动目标i的位移向量混合积与运动目标j的位移向量混合积同号,那么两个目标的运动轨迹同向,若运动目标i的位移向量混合积与运动目标j的位移向量混合积异号,那么两个目标的运动轨迹异向;公式如下:
进一步的,步骤3中,人群加权复杂网络的特征参数最短路径表示节点与节点之间连接的最紧密程度,而构成人群加权复杂网络的最短路径表示两个行人之间最大关联程度;复杂网络的权重类型为相异权,用Floyd算法计算两节点之间最短路径lij,平均最短路径反映人群视频场景中行人间的平均最大关联程度,计算公式如下:
最大最短路径、最小最短路径反映人群视频场景中整体上行人间关联程度的差异性,计算公式如下:
其中,N表示人群行为视频中行人的个数,用平均最短路径、最大最短路径、最小最短路径这三组特征值可以描述人群行为整体上呈现的特性及呈现这种特性的波动范围。有力的识别了人群加权复杂网络和整个视频场景中的人群行为。
进一步的,人群加权复杂网络的特征参数边权分布能很好的描述视频场景中运动模式的组成,而运动模式分为三种:靠近运动趋势、远离运动趋势、同向并排而行运动趋势;
呈现靠近运动趋势的边权区间分布概率函数如下:
呈现同向并排而行运动趋势的边权区间分布概率函数如下:
呈现远离运动趋势的边权区间分布概率函数如下:
其中,w0、w1为同行并排而行运动趋势的临界值,N表示人群行为视频中行人的个数,N1表示权重Wij在区间(0,w0)范围内所有的边数,N2表示权重Wij在区间[w0,w1]范围内所有的边数,N3表示权重Wij在区间(w1,+∞)范围内所有的边数;
利用6个特征值组成特征向量对小规模人群行为表达从而识别小规模人群行为,计算公式如下:
其中,为平均最短路径,Lmax最大最短路径,Lmin最小最短路径;P1是靠近运动趋势边权区间分布概率,P2是同向而行运动趋势边权区间分布概率,P3是远离运动趋势边权区间分布概率。
工作过程大致如下:
在人群视频场景的轨迹微观信息基础上,利用向量模型计算两个目标的余弦角、用混合积模型判定运动轨迹方向系数、利用余弦角距离原理衡量两个目标之间的关联程度,从而构建复杂网络相异权的权重,在此原理上建立人群加权无向复杂网络,分析复杂网络的特征参数,选取最短路径特征值和边权区间分布概率特征值构成特征向量表达小规模人群行为。
与现有技术相比,本发明具有如下优点:设计合理、方便实用、计算简单、准确度高。
附图说明
图1为本发明方法的流程图。
图2为本发明方法的具体步骤流程图。
图3是本发明方法的人群加权复杂网络实例说明图。
图4是本发明方法的人群加权复杂网络特征值实例说明图。
具体实施方式
下面结合附图对本发明做进一步说明:
如图1、图2所示,本发明方法包含以下步骤:
步骤1,依据向量模型衡量余弦角,表达人群个体的运动状态和构建余弦角距离模型。具体步骤如下:
步骤1.1:在视频场景的众多微观信息中,选取运动轨迹作为分析人群行为的基础。用meanshift跟踪算法获得视频场景中每一个目标的运动轨迹,并对任意两个目标建立向量模型计算余弦角。若任意两个目标分别为运动目标i和运动目标j,则两个运动目标的跟踪轨迹分别用Pi(t)、Pj(t)表示:
其中,(xi(k),yi(k))表示k时刻运动目标i的二维平面坐标,(xj(t),yj(t))表示k时刻运动目标j的二维平面坐标。
步骤1.2:对于运动目标i而言,余弦角的向量模型由参考向量、位移向量构成,参考向量是运动目标i轨迹起点指向运动目标j轨迹起点,公式如下:
Ni=(xj(0),yj(0))-(xi(0),yi(0)) (2)
位移向量是运动目标i轨迹起点指向轨迹终点,具体公式如下:
Si=(xi(n),yi(n))-(xi(0),yi(0)) (3)
这两个向量的余弦角为运动目标i相对运动方向,也就是运动目标i的运动状态,用弧度制表示结果如下:
对于运动目标j而言,其参考向量是运动目标j轨迹起点指向运动目标i轨迹起点,其它量与运动目标i一样,余弦角弧度制表示结果如下:
步骤2,定量评估余弦角距离,表达人群个体与个体间的关联程度,从而构建余弦角距离加权复杂网络。具体步骤如下:
步骤2.1:余弦角距离是衡量两个目标之间的关系,而两个目标之间的关系受到目标i的运动状态、目标j的运动状态、两个目标轨迹方向的影响。也就是余弦角距离考虑到三个因素:目标i的余弦角,目标j的余弦角,受两个目标轨迹方向影响的方向系数,计算公式如下:
dij=δ×(θij) (6)
其中,θi为能描述目标i运动状态的余弦角,θj为能描述目标j运动状态的余弦角,δ为受两个目标轨迹方向影响的方向系数。
为了确定方向系数,将运动轨迹方向分为两类:若两个运动目标的轨迹方向相对于参考向量同向,那么方向系数δ较小;若两个运动目标的轨迹方向相对于参考向量异向,那么方向系数δ较大。
利用余弦角距离反映个体与个体之间的关系可以得出:当余弦角距离dij比较大时,个体与个体之间的关系比较疏远;当余弦角距离dij比较小时,个体与个体间的关系比较亲密,当两个目标余弦角θi、θj相同时,两个目标运动轨迹异向比运动轨迹同向关系疏远。
步骤2.2:在衡量余弦角距离的过程中,依据混合积判定准则将运动轨迹方向分为同向和异向两类,将向量模型转化为混合积模型的原理为:若两个运动目标轨迹的终点连线与参考向量所在的线段相交,说明两个运动轨迹异向;若两个运动目标轨迹终点连线与参考向量所在的线段不相交,说明两个运动轨迹同向。
将向量模型转化为混合积模型具体为:建立右手直角坐标系,用运动目标轨迹的起点作为原点,以参考向量所在的直线作为y轴,在此基础上建立x、z轴,则参考向量公式如下:
Ni=(xj(0)-xi(0),yj(0)-yi(0),0) (7)
在判断两个运动目标轨迹的终点连线与参考向量所在的线段是否相交的过程中,包含坐标原点到两个运动目标轨迹终点的向量,则运动目标i轨迹终点的位移向量公式如下:
Si=(xi(n)-xi(0),yi(n)-yi(0),0) (8)
坐标原点到运动目标j轨迹终点的向量为:
Pi=(xj(n)-xi(0),yj(n)-yi(0),0) (9)
为了得到上述两个向量是否在参考向量的同侧或异侧,引入z轴单位向量,具体公式如下:
Z=(0,0,1) (10)
若运动目标i的位移向量混合积与运动目标j的位移向量混合积同号,那么两个目标的运动轨迹同向,若运动目标i的位移向量混合积与运动目标j的位移向量混合积异号,那么两个目标的运动轨迹异向。具体公式如下:
步骤2.3:依据余弦角距离确定权重,构建邻接矩阵表达人群加权复杂网络。在构建人群加权复杂网络的过程中,节点集合、关联边集合、边权重集合公式如下:
V={vi|i=1,2,…,N}E={(vi,vj)|vi,vj∈V}W={dij|(vi,vj)∈E} (12)
其中,V为视频场景中运动目标所形成的节点集合,N为视频场景中目标个数,E表示视频场景中目标间的关联边集合。W表示边权重集合。
通过分析网络的节点集合、关联边集合、边权重集合,构建邻接矩阵A来表示人群加权复杂网络,具体公式如下
其中,wij是根据余弦角距离获得的复杂网络权重,并且邻接矩阵A是对称矩阵,也就是目标间相互影响是没有方向性的,人群加权复杂网络中权重wij是衡量节点i和节点j之间的关联程度,节点i和节点j之间的权重越小,两者之间的距离越小,关系越亲密;节点i和节点j之间的权重越大,两者之间的距离越大,关系越疏远。因此由相异权构成无向加权复杂网络来表达小规模人群行为。
步骤3,分析人群加权复杂网络的特征参数,提取能理解与表达人群行为的特征值,组成特征向量表达人群行为。具体步骤如下:
步骤3.1:加权复杂网络中最短路径表示节点与节点之间连接的最紧密程度,而构成人群加权复杂网络的最短路径表示两个行人之间最大关联程度。复杂网络的权重类型为相异权,进而用Floyd算法计算两节点之间最短路径lij,平均最短路径反映人群视频场景中各个行人间的平均最大关联程度,计算公式如下:
最大最短路径、最小最短路径反映人群视频场景中整体上行人间关联程度的差异性。计算公式如下:
其中,N表示人群行为视频中行人的个数,用平均最短路径、最大最短路径、最小最短路径这三组特征值可以描述人群行为整体上呈现的特性及呈现这种特性的波动范围,有力的识别了人群加权复杂网络在整个视频场景中的人群行为。
步骤3.2:复杂网络中权分布能很好地反映复杂网络各个权重的重要程度,而权分布又分为点权分布和边权分布。人群加权复杂网络中边权分布能很好的描述视频场景中运动模式的组成,而边权分布情况用概率函数P(wij)描述,P(wij)表示随机选择的边权恰好为Wij的几率。
通过余弦角距离衡量目标间的关系得到三种运动模式,分别是靠近运动趋势、远离运动趋势、同向并排而行运动趋势。为了更好地表现人群加权复杂网络中这三种运动趋势分布情况,对能表达这三种运动趋势的权重分布区间所形成的概率函数进行分析。
呈现靠近运动趋势的边权区间分布概率函数如下:
呈现同向并排而行运动趋势的边权区间分布概率函数如下:
呈现远离运动趋势的边权区间分布概率函数如下:
其中,w0、w1为同行并排而行运动趋势的临界值,N表示人群行为视频中行人的个数,N1表示权重Wij在区间(0,w0)范围内所有的边数,N2表示权重Wij在区间[w0,w1]范围内所有的边数,N3表示权重Wij在区间(w1,+∞)范围内所有的边数。区间(0,w0)表示两目标之间是靠近运动趋势;区间[w0,w1]表示两目标间是并排而行的运动趋势;区间(w1,+∞)表示两目标间是远离运动趋势。
将最短路径和边权区间分布概率组成特征向量来表达小规模人群行为公式如下:
实例:选取聚集、相遇、同行、分离、分散这5种特定的人群行为进行验证。如图3所示是不同人群行为所构成的复杂网络,由此看出聚集程度明显,复杂网络整体较细;分散程度明显,复杂网络整体较粗;而分散、分离、同行、相遇、聚集这五种人群行为的复杂网络整体由粗变细。如图4所示,在图中D是分散、G是聚集、M是相遇、T是同行、S是分离,由图明显看出:人群行为不同,特征值不同,人群行为相同,特征值相同,例如平均最短路径,对于分散、分离、同行、相遇、聚集这五种人群行为而言依次变大,因此这种技术能有效的识别和理解小规模人群行为。
以上所述的实施例仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。

Claims (6)

1.一种基于余弦角距离加权复杂网络的小规模人群行为识别方法,其特征在于,所述方法步骤如下:
步骤1,依据向量模型衡量余弦角,表达人群个体的运动状态和构建余弦角距离模型;
步骤2,定量评估余弦角距离,表达人群个体与个体间的关联程度,从而构建余弦角距离加权复杂网络;
步骤3,分析人群加权复杂网络的特征参数,提取能理解与表达人群行为的特征值,构建特征向量识别小规模人群行为。
2.根据权利要求1所述的基于余弦角距离加权复杂网络的小规模人群行为识别方法,其特征在于:步骤1中,用余弦角来表达人群个体与个体间的相互运动状态,余弦角由向量模型来衡量,而向量模型是在运动轨迹信息的基础上由参考向量和位移向量构成;位移向量是轨迹位移矢量,参考向量所在的直线是由两个目标的轨迹起点相连构成;
运动目标i的参考向量是运动目标i轨迹起点指向运动目标j轨迹起点,公式如下:
Ni=(xj(0),yj(0))-(xi(0),yi(0))
其中,(xj(0),yj(0))表示0时刻运动目标j在视频场景中二维平面的位置坐标;(xi(0),yi(0))表示0时刻运动目标i在视频场景中二维平面的位置坐标;
运动目标i的位移向量是运动目标i轨迹起点指向轨迹终点,具体公式如下:
Si=(xi(n),yi(n))-(xi(0),yi(0))
其中,(xi(n),yi(n))表示n时刻运动目标i在视频场景中二维平面的位置坐标;(xi(0),yi(0))表示0时刻运动目标i在视频场景中二维平面的位置坐标;
运动目标i的余弦角用弧度制表示结果如下:
对于运动目标j而言,其参考向量是运动目标j轨迹起点指向运动目标i轨迹起点,其它量与运动目标i原理一样,余弦角弧度制表示结果如下:
3.根据权利要求1所述的基于余弦角距离加权复杂网络的小规模人群行为识别方法,其特征在于:在余弦角衡量人群个体与个体间相互运动状态的基础上用余弦角距离表达人群个体与个体间相互关联程度,余弦角距离计算公式如下:
dij=δ×(θij) (2)
其中,θi为目标i运动状态的余弦角,θj为目标j运动状态的余弦角,δ为受两个目标轨迹方向影响的方向系数。
4.根据权利要求1所述的基于余弦角距离加权复杂网络的小规模人群行为识别方法,其特征在于:步骤2中,所述余弦角距离的影响因素中方向系数是受到运动目标轨迹方向的影响,依据向量模型转化为混合积模型区分运动轨迹异向或同向,具体如下:建立右手直角坐标系,用运动目标轨迹的起点作为原点,以参考向量所在的直线作为y轴,在此基础上建立x、z轴,则参考向量公式如下:
Ni=(xj(0)-xi(0),yj(0)-yi(0),0)
其中,xi(0)表示0时刻运动目标i在视频图像中x轴的位置坐标;xj(0)表示0时刻运动目标j在视频图像中x轴的位置坐标;yi(0)表示0时刻运动目标i在视频图像中y轴的位置坐标;yj(0)表示0时刻运动目标j在视频图像中y轴的位置坐标;
坐标原点到运动目标i轨迹终点的位移向量公式如下:
Si=(xi(n)-xi(0),yi(n)-yi(0),0)
其中,xi(0)表示0时刻运动目标i在视频图像中x轴的位置坐标;xi(n)表示n时刻运动目标i在视频图像中x轴的位置坐标;yi(0)表示0时刻运动目标i在视频图像中y轴的位置坐标;yi(n)表示n时刻运动目标i在视频图像中y轴的位置坐标;
坐标原点到运动目标j轨迹终点的向量为:
Pi=(xj(n)-xi(0),yj(n)-yi(0),0)
其中,xi(0)表示0时刻运动目标i在视频图像中x轴的位置坐标;xj(n)表示n时刻运动目标j在视频图像中x轴的位置坐标;yi(0)表示0时刻运动目标i在视频图像中y轴的位置坐标;yj(n)表示n时刻运动目标j在视频图像中y轴的位置坐标;
为了得到上述两个向量是否在参考向量的同侧或异侧,引入z轴单位向量,具体公式如下:
Z=(0,0,1)
若运动目标i的位移向量混合积与运动目标j的位移向量混合积同号,那么两个目标的运动轨迹同向,若运动目标i的位移向量混合积与运动目标j的位移向量混合积异号,那么两个目标的运动轨迹异向;公式如下:
5.根据权利要求1所述的基于余弦角距离加权复杂网络的小规模人群行为识别方法,其特征在于:步骤3中,人群加权复杂网络的特征参数最短路径表示节点与节点之间连接的最紧密程度,而构成人群加权复杂网络的最短路径表示两个行人之间最大关联程度;复杂网络的权重类型为相异权,用Floyd算法计算两节点之间最短路径lij,平均最短路径反映人群视频场景中行人间的平均最大关联程度,计算公式如下:
L ‾ = Σl i j N ( N - 1 )
最大最短路径、最小最短路径反映人群视频场景中整体上行人间关联程度的差异性,计算公式如下:
L m a x = m a x i , j l i j L m i n = m i n i , j l i j
其中,N表示人群行为视频中行人的个数,用平均最短路径、最大最短路径、最小最短路径这三组特征值可以描述人群行为整体上呈现的特性及呈现这种特性的波动范围。
6.根据权利要求1所述的基于余弦角距离加权复杂网络的小规模人群行为识别方法,其特征在于:人群加权复杂网络的特征参数边权分布能很好的描述视频场景中运动模式的组成,而运动模式分为三种:靠近运动趋势、远离运动趋势、同向并排而行运动趋势;
呈现靠近运动趋势的边权区间分布概率函数如下:
P 1 ( 0 < w i j < w 0 ) = 2 N 1 N ( N - 1 )
呈现同向并排而行运动趋势的边权区间分布概率函数如下:
P 2 ( w 0 &le; w i j &le; w 1 ) = 2 N 2 N ( N - 1 )
呈现远离运动趋势的边权区间分布概率函数如下:
P 3 ( w i j > w 1 ) = 2 N 3 N ( N - 1 )
其中,w0、w1为同行并排而行运动趋势的临界值,N表示人群行为视频中行人的个数,N1表示权重Wij在区间(0,w0)范围内所有的边数,N2表示权重Wij在区间[w0,w1]范围内所有的边数,N3表示权重Wij在区间(w1,+∞)范围内所有的边数;
利用6个特征值组成特征向量对小规模人群行为表达从而识别小规模人群行为,计算公式如下:
V = L &OverBar; L max L min P 1 P 2 P 3 - - - ( 3 )
其中,为平均最短路径,Lmax最大最短路径,Lmin最小最短路径;P1是靠近运动趋势边权区间分布概率,P2是同向而行运动趋势边权区间分布概率,P3是远离运动趋势边权区间分布概率。
CN201710125203.7A 2017-03-03 2017-03-03 基于余弦角距离加权复杂网络的小规模人群行为识别方法 Pending CN106934358A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710125203.7A CN106934358A (zh) 2017-03-03 2017-03-03 基于余弦角距离加权复杂网络的小规模人群行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710125203.7A CN106934358A (zh) 2017-03-03 2017-03-03 基于余弦角距离加权复杂网络的小规模人群行为识别方法

Publications (1)

Publication Number Publication Date
CN106934358A true CN106934358A (zh) 2017-07-07

Family

ID=59424105

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710125203.7A Pending CN106934358A (zh) 2017-03-03 2017-03-03 基于余弦角距离加权复杂网络的小规模人群行为识别方法

Country Status (1)

Country Link
CN (1) CN106934358A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108228887A (zh) * 2018-01-31 2018-06-29 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108470154A (zh) * 2018-02-27 2018-08-31 燕山大学 一种大规模人群显著性区域检测方法
CN108682094A (zh) * 2018-05-04 2018-10-19 京东方科技集团股份有限公司 智能购物系统及使用方法
CN115223104A (zh) * 2022-09-14 2022-10-21 深圳市睿拓新科技有限公司 一种基于场景识别的违章作业行为检测方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020591A (zh) * 2012-11-21 2013-04-03 燕山大学 一种基于因果网络分析的中等规模人群异常行为检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020591A (zh) * 2012-11-21 2013-04-03 燕山大学 一种基于因果网络分析的中等规模人群异常行为检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YUEGUO ZHANG ET AL.: "Abnormal crowd behavior detection using interest points", 《 2014 IEEE INTERNATIONAL SYMPOSIUM ON BROADBAND MULTIMEDIA SYSTEMS AND BROADCASTING》 *
周洁: "智能视频监控中人群异常行为的检测与分析", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
欧阳美玲: "基于欧氏距离变化量加权网络的小规模人群行为分类", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108228887A (zh) * 2018-01-31 2018-06-29 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108228887B (zh) * 2018-01-31 2019-12-03 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108470154A (zh) * 2018-02-27 2018-08-31 燕山大学 一种大规模人群显著性区域检测方法
CN108470154B (zh) * 2018-02-27 2021-08-24 燕山大学 一种大规模人群显著性区域检测方法
CN108682094A (zh) * 2018-05-04 2018-10-19 京东方科技集团股份有限公司 智能购物系统及使用方法
CN115223104A (zh) * 2022-09-14 2022-10-21 深圳市睿拓新科技有限公司 一种基于场景识别的违章作业行为检测方法及系统

Similar Documents

Publication Publication Date Title
CN103839065B (zh) 人群动态聚集特征提取方法
CN106934358A (zh) 基于余弦角距离加权复杂网络的小规模人群行为识别方法
CN111444767B (zh) 一种基于激光雷达的行人检测和追踪方法
CN106127785B (zh) 基于流形排序和随机游走的图像显著性检测方法
CN104680559B (zh) 基于运动行为模式的多视角室内行人跟踪方法
CN109241834A (zh) 一种基于隐变量的嵌入的群体行为识别方法
CN111402632B (zh) 一种交叉口行人运动轨迹的风险预测方法
Li et al. A novel spatial-temporal graph for skeleton-based driver action recognition
Favaretto et al. Detecting crowd features in video sequences
Yau et al. Graph-sim: A graph-based spatiotemporal interaction modelling for pedestrian action prediction
CN103778441A (zh) 一种基于DSmT和HMM的序列飞机目标识别方法
Bordallo et al. Counterfactual reasoning about intent for interactive navigation in dynamic environments
Okal et al. Towards group-level social activity recognition for mobile robots
CN111311702A (zh) 一种基于BlockGAN的图像生成和识别模块及方法
Burney et al. Crowd video classification using convolutional neural networks
CN109190325B (zh) 基于行人拥挤度分析的人群疏散路径规划仿真方法
Gao et al. Deep masked graph matching for correspondence identification in collaborative perception
CN113721633A (zh) 一种基于行人轨迹预测的移动机器人路径规划方法
Yao et al. EANet: Expert Attention Network for Online Trajectory Prediction
Suheryadi et al. Spatio-temporal analysis for moving object detection under complex environment
Bores et al. Urban traffic monitoring from aerial LIDAR data with a two-level marked point process model
CN102819753A (zh) 一种运用最大子图的基于局部模型的物体检测方法
CN113723468A (zh) 一种三维点云的物体检测方法
Schmuck et al. Robocentric conversational group discovery
Schwertfeger et al. Matching paths in topological maps

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170707