CN105023271B - 基于多线索信息的行为集体度衡量方法 - Google Patents

基于多线索信息的行为集体度衡量方法 Download PDF

Info

Publication number
CN105023271B
CN105023271B CN201510357621.XA CN201510357621A CN105023271B CN 105023271 B CN105023271 B CN 105023271B CN 201510357621 A CN201510357621 A CN 201510357621A CN 105023271 B CN105023271 B CN 105023271B
Authority
CN
China
Prior art keywords
mrow
msub
individual
degree
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510357621.XA
Other languages
English (en)
Other versions
CN105023271A (zh
Inventor
李学龙
王�琦
陈穆林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201510357621.XA priority Critical patent/CN105023271B/zh
Publication of CN105023271A publication Critical patent/CN105023271A/zh
Application granted granted Critical
Publication of CN105023271B publication Critical patent/CN105023271B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

本发明公开了一种基于多线索信息的行为集体度衡量方法,用于解决现有行为集体度衡量方法准确性差的技术问题。技术方案是检测并跟踪视频中的特征点,得到初始特征点集合,将视频帧分割为图像块。在同一图像块中,找出速度相近的特征点,保留其中速度变化最小的点,将其他特征点视为冗余点并移除,得到新的特征点集合,将其中特征点视为个体;根据个体之间的空间距离、速度相关度以及前一帧中的相似度,求出个体在当前帧的相似度,去除稳定度低的个体;通过流形学习,计算个体之间的拓扑相似度。对于某一个体衡量其行为集体度。所有个体行为集体度的均值即为整体行为的集体度。本发明通过对多线索信息的利用,使行为集体度计算的准确性得到了提升。

Description

基于多线索信息的行为集体度衡量方法
技术领域
本发明涉及一种行为集体度衡量方法,特别是涉及一种基于多线索信息的行为集体度衡量方法。
背景技术
随着人口增长,拥挤现象日益增加,针对拥挤场景的视频分析也变得格外重要。在人类社会和自然界的拥挤场景中,个体往往倾向于组成集体,并表现出一些集体行为,如鱼群效应、动物迁徙等。对于集体运动的研究可以应用于很多领域,如集体行为分析、群体仿真、拥挤场景分析等。为了对集体运动进行定量分析,Zhou等人在文献“B.Zhou,X.Tang,H.Zhang,and X.Wang.Measuring Crowd Collectiveness.IEEE Transactions onPattern Analysis and Machine Intelligence,36,1586-1599,2014.”中首次提出了行为集体度的概念。行为集体度是指多个个体的运动可以被视为集体运动的程度,对于跨场景研究集体运动具有重要意义。
目前衡量行为集体度的方法有两种:第一种是Zhou等人在文献“B.Zhou,X.Tang,H.Zhang,and X.Wang.Measuring Crowd Collectiveness.IEEE Transactions onPattern Analysis and Machine Intelligence,36,1586-1599,2014.”中提出的方法,这种方法通过跟踪提取个体,并使用流形学习方法计算个体行为相似度,进而衡量行为集体度。第二种是Shao等人在文献“J.Shao,C.Loy,and X.Wang.Scene-independent groupprofiling in crowd.IEEE Conference on Computer Vision and PatternRecognition,2227-2235,2014.”中提出的方法,通过跟踪提取个体后,对于所有个体的空间位置变化计算出一个变换矩阵,通过变换误差衡量行为集体度。以上两种方法存在提取个体时,从视频中检测并追踪特征点,进而直接把特征点当作个体,但是特征点并不能很好地代表个体,因为同一个体上不可避免地存在多个特征点。因此,这两种方法不能够准确衡量行为集体度。
发明内容
为了克服现有行为集体度衡量方法准确性差的不足,本发明提供一种基于多线索信息的行为集体度衡量方法。该方法检测并跟踪视频中的特征点,得到初始特征点集合。采用分割算法将视频帧分割为图像块。在同一图像块中,找出速度相近的特征点,保留其中速度变化最小的点,将其他特征点视为冗余点并移除,得到新的特征点集合,将其中特征点视为个体;根据个体之间的空间距离、速度相关度以及前一帧中的相似度,求出个体在当前帧的相似度;衡量个体的速度稳定度以及与邻域个体速度偏差,去除稳定度低的个体;通过流形学习,计算个体之间的拓扑相似度。对于某一个体,根据其与其他个体的拓扑相似度,衡量其个体行为集体度。所有个体行为集体度的均值,即为整体行为的集体度。本发明通过对多线索信息的利用,挖掘更多信息,使行为集体度计算的准确性得到提升。
本发明解决其技术问题所采用的技术方案是:一种基于多线索信息的行为集体度衡量方法,其特点是采用以下步骤:
步骤一、检测并追踪拥挤视频中的特征点,选取出最有代表性的特征点,用于代表拥挤场景中的个体。
1)检测并跟踪视频中的特征点,得到初始特征点集合;
2)采用分割算法将视频中每一帧图像分割为图像块;
3)在第t帧图像中,对于同一图像块中的特征点i和j,计算速度相似度:
式中i和j分别代表两个特征点,t为图像帧数,vi和vj代表特征点速度,Ct(i,j)代表i和j在第t帧中的速度相似度。
若Ct(i,j)高于一定值,则认为i和j来自同一个体,只保留其中一个。反复迭代,直至找到保留的特征点属于不同个体。得到筛选后的特征点集合,将其中的特征点视为个体。
步骤二、利用多线索信息,计算个体相似度。
1)计算在每一帧图像t中个体之间的空间距离,找到每个个体i的多个近邻,记为N(i),计算个体空间相似度矩阵:
式中xi,yi代表i的空间坐标,xj,yj代表j的空间坐标,Dt(i,j)代表i和j在第t帧中的空间位置相似度。
2)结合第t-1帧图像中i与j的相似度St-1(i,j),计算两个体在第t帧图像中的相似度:
式中β为调节权重的参数,f为正比例函数,St(i,j)代表i和j在第t帧中的相似度。
步骤三、衡量个体稳定性,去除不稳定个体。
1)衡量每个个体i的速度稳定性:
2)衡量个体与临近点的速度偏差:
3)计算个体稳定程度:
STi(t)=SPi(t)+αSNi(t) (4)
式中α为权重,STi(t)为个体i在t时刻的稳定程度。得到所有个体的稳定程度后,将稳定程度低的个体去除。
步骤四、利用流形学习,根据个体之间拓扑关系,衡量个体行为集体度,及整个场景行为集体度。
1)对于个体i与j,假设γl(i,j)={pi->pi+1->…pj-1->pj}为一条从i到j长度为l的路径,则在此路径上i与j的相似度为
2)i到j沿所有路径上的相似度为:
式中Pl为i到j长度为l路径的集合,τi,j为i到j沿所有路径上的相似度。
利用St对τi,j进行计算:
τi,j=[(I-St)-1-I]ij (6)
式中I表示单位矩阵。
因此,个体i的行为集体度即为:
式中C为个体集合。
场景行为集体度为:
式中,|C|表示场景中的个体数量。
本发明的有益效果是:该方法检测并跟踪视频中的特征点,得到初始特征点集合。采用分割算法将视频帧分割为图像块。在同一图像块中,找出速度相近的特征点,保留其中速度变化最小的点,将其他特征点视为冗余点并移除,得到新的特征点集合,将其中特征点视为个体;根据个体之间的空间距离、速度相关度以及前一帧中的相似度,求出个体在当前帧的相似度;衡量个体的速度稳定度以及与邻域个体速度偏差,去除稳定度低的个体;通过流形学习,计算个体之间的拓扑相似度。对于某一个体,根据其与其他个体的拓扑相似度,衡量其个体行为集体度。所有个体行为集体度的均值,即为整体行为的集体度。本发明通过对多线索信息的利用,挖掘更多信息,使行为集体度计算的准确性得到提升,达到了79%以上。
下面结合附图和具体实施方式对本发明作详细说明。
附图说明
图1是本发明基于多线索信息的行为集体度衡量方法的流程图。
图2是本发明方法在对视频帧进行筛选特征点前后的效果对比图,其中图2(a)是初始特征点集合,图2(b)是经过筛选的特征点集合。
具体实施方式
参照图1-2。本发明基于多线索信息的行为集体度衡量方法具体步骤如下:
步骤1,检测并追踪拥挤视频中的特征点,选取出最有代表性的特征点,用于代表拥挤场景中的个体。
(1a)检测并跟踪视频中的特征点,得到初始特征点集合;
(1b)采用分割算法将视频中每一帧图像分割为图像块。同一图像块中的特征点在颜色、空间分布上具有较高相似度。
(1c)在第t帧图像中,对于同一图像块中的特征点i和j,计算速度相似度:
式中i和j分别代表两个特征点,t为图像帧数,vi和vj代表特征点速度,Ct(i,j)代表i和j在第t帧中的速度相似度。
若Ct(i,j)高于一定值,则认为i和j来自同一个体,只保留其中一个。反复迭代,直至找到保留的特征点属于不同个体。得到筛选后的特征点集合,将其中的特征点视为个体。
步骤2,利用多线索信息,计算个体相似度。
(2a)计算在每一帧图像t中个体之间的空间距离,找到每个个体i的多个近邻,记为N(i),计算个体空间相似度矩阵:
式中xi,yi代表i的空间坐标,xj,yj代表j的空间坐标,Dt(i,j)代表i和j在第t帧中的空间位置相似度。
(2b)结合第t-1帧图像中i与j的相似度St-1(i,j),计算两个体在第t帧图像中的相似度:
式中β为调节权重的参数,f为正比例函数,St(i,j)代表i和j在第t帧中的相似度。
步骤3,衡量个体稳定性,去除不稳定个体。
(3a)衡量每个个体i的速度稳定性:
(3b)衡量个体与临近点的速度偏差:
(3c)计算个体稳定程度:
STi(t)=SPi(t)+αSNi(t) (12)
式中α为权重,STi(t)为个体i在t时刻的稳定程度。得到所有个体的稳定程度后,将稳定程度低的个体去除。
步骤4,利用流形学习,根据个体之间拓扑关系,衡量个体行为集体度,及整个场景行为集体度。
(4a)利用图论知识,对于个体i与j,假设γl(i,j)={pi->pi+1->…pj-1->pj}为一条从i到j长度为l的路径,则在此路径上i与j的相似度为
(4b)i到j沿所有路径上的相似度为:
式中Pl为i到j长度为l路径的集合,τi,j为i到j沿所有路径上的相似度。
Zhou等人在文献“B.Zhou,X.Tang,H.Zhang,and X.Wang.Measuring CrowdCollectiveness.IEEE Transactions on Pattern Analysis and MachineIntelligence,36,1586-1599,2014.”中指出可以利用St对τi,j进行计算:
τi,j=[(I-St)-1-I]ij (14)
式中I表示单位矩阵。
因此,个体i的行为集体度即为:
式中C为个体集合。
场景行为集体度为:
式中,|C|表示场景中的个体数量。
本发明的效果通过以下仿真实验做进一步的说明。
1.仿真条件。
本发明是在中央处理器为 i5-3470 3.2GHz CPU、内存4G、WINDOWS 7操作系统上,运用MATLAB软件进行的仿真。
实验中使用的测试视频来来自于Collective Motion数据库,该数据库由Zhou等人在文献“B.Zhou,X.Tang,H.Zhang,and X.Wang.Measuring Crowd Collectiveness.IEEETransactions on Pattern Analysis and Machine Intelligence,36,1586-1599,2014.”中提出,包括413个拥挤场景的视频片段,每个视频片段由100帧图像构成。根据场景行为集体度,视频片段被人工分为三个等级:低、中、高。
2.仿真内容。
计算场景行为集体度,用于分别提取三个等级的视频片段。为了对比本发明的有效性,选取了Zhou等人在文献“B.Zhou,X.Tang,H.Zhang,and X.Wang.Measuring CrowdCollectiveness.IEEE Transactions on Pattern Analysis and MachineIntelligence,36,1586-1599,2014.”中提到的衡量场景行为集体度的方法(MCC)。调节参数,计算平均准确率、查全率与F值。对比结果如表1所示。
表1实验结果对比
从表1可见,在提取低、中等级视频时,本发明准确率、召回率及F值均优于MCC;在提取中等级视频时,MCC准确率略高,但召回率与F值均低于本发明。总体来看,本发明在提取三个等级的视频片段时,取得更好的结果。本发明由于在图像分割的基础上筛选特征点,有效的移除冗余点,使个体的提取更为准确,如图2;本发明利用多线索信息,充分挖掘场景信息;本发明将不稳定个体去除,并采用流形学习的方法,能够处理拥挤场景的复杂结构。
图2为初始特征点集合与筛选后特征点集合的对比。图2(a)为未经筛选的特征点集合,可以看出体积大的个体上包含更多更密集的特征点,说明未经筛选的特征点并不能很好地代表物体。说明了筛选后的特征点集合更能代表场景中的个体。图2(b)为经过筛选的特征点集合,可以看出经过筛选后的特征点在物体上的分布比较均匀,特征点数目受个体体积影响较小,可以更好地代表场景中的个体。

Claims (1)

1.一种基于多线索信息的行为集体度衡量方法,其特征在于包括以下步骤:
步骤一、检测并追踪拥挤视频中的特征点,选取出最有代表性的特征点,用于代表拥挤场景中的个体;
1)检测并跟踪视频中的特征点,得到初始特征点集合;
2)采用分割算法将视频中每一帧图像分割为图像块;
3)在第t帧图像中,对于同一图像块中的特征点i和j,计算速度相似度:
<mrow> <msub> <mi>C</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>v</mi> <mi>j</mi> </msub> </mrow> <mrow> <mo>|</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>|</mo> <mo>&amp;CenterDot;</mo> <mo>|</mo> <msub> <mi>v</mi> <mi>j</mi> </msub> <mo>|</mo> </mrow> </mfrac> <mo>,</mo> <mn>0</mn> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
式中i和j分别代表两个特征点,t为图像帧数,vi和vj代表特征点速度,Ct(i,j)代表i和j在第t帧中的速度相似度;
若Ct(i,j)高于一定值,则认为i和j来自同一个体,只保留其中一个;反复迭代,直至找到保留的特征点属于不同个体;得到筛选后的特征点集合,将其中的特征点视为个体;
步骤二、利用多线索信息,计算个体相似度;
1)计算在每一帧图像t中个体之间的空间距离,找到每个个体i的多个近邻,记为N(i),计算个体空间相似度矩阵:
<mrow> <msub> <mi>D</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>y</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mtd> <mtd> <mrow> <mi>j</mi> <mo>&amp;Element;</mo> <mi>N</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>j</mi> <mo>&amp;NotElement;</mo> <mi>N</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
式中xi,yi代表i的空间坐标,xj,yj代表j的空间坐标,Dt(i,j)代表i和j在第t帧中的空间位置相似度;
2)结合第t-1帧图像中i与j的相似度St-1(i,j),计算两个体在第t帧图像中的相似度:
<mrow> <msub> <mi>S</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mfrac> <mrow> <msub> <mi>C</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>D</mi> <mi>t</mi> </msub> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>)</mo> </mrow> </mfrac> <mo>+</mo> <msub> <mi>&amp;beta;S</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <msub> <mi>D</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <msub> <mi>D</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
式中β为调节权重的参数,f为正比例函数,St(i,j)代表i和j在第t帧中的相似度;
步骤三、衡量个体稳定性,去除不稳定个体;
1)衡量每个个体i的速度稳定性:
2)衡量个体与临近点的速度偏差:
3)计算个体稳定程度:
STi(t)=SPi(t)+αSNi(t) (4)
式中α为权重,STi(t)为个体i在t时刻的稳定程度;得到所有个体的稳定程度后,将稳定程度低的个体去除;
步骤四、利用流形学习,根据个体之间拓扑关系,衡量个体行为集体度,及整个场景行为集体度;
1)对于个体i与j,假设γl(i,j)={pi->pi+1->…pj-1->pj}为一条从i到j长度为l的路径,则在此路径上i与j的相似度为
2)i到j沿所有路径上的相似度为:
<mrow> <msub> <mi>&amp;tau;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>&amp;infin;</mi> </munderover> <munder> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>&amp;gamma;</mi> <mi>l</mi> </msub> <mo>&amp;Element;</mo> <msub> <mi>P</mi> <mi>l</mi> </msub> </mrow> </munder> <msub> <mi>v</mi> <msub> <mi>&amp;gamma;</mi> <mi>l</mi> </msub> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
式中Pl为i到j长度为l路径的集合,τi,j为i到j沿所有路径上的相似度;
利用St对τi,j进行计算:
τi,j=[(I-St)-1-I]ij (6)
式中I表示单位矩阵;
因此,个体i的行为集体度即为:
<mrow> <msub> <mi>&amp;phi;</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>&amp;Element;</mo> <mi>C</mi> <mo>,</mo> <mi>j</mi> <mo>&amp;NotEqual;</mo> <mi>i</mi> </mrow> </munder> <msub> <mi>&amp;tau;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
式中C为个体集合;
场景行为集体度为:
<mrow> <msub> <mi>&amp;Phi;</mi> <mi>t</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mo>|</mo> <mi>C</mi> <mo>|</mo> </mrow> </mfrac> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <mi>C</mi> </mrow> </munder> <msub> <mi>&amp;phi;</mi> <mi>t</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
式中,|C|表示场景中的个体数量。
CN201510357621.XA 2015-06-25 2015-06-25 基于多线索信息的行为集体度衡量方法 Active CN105023271B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510357621.XA CN105023271B (zh) 2015-06-25 2015-06-25 基于多线索信息的行为集体度衡量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510357621.XA CN105023271B (zh) 2015-06-25 2015-06-25 基于多线索信息的行为集体度衡量方法

Publications (2)

Publication Number Publication Date
CN105023271A CN105023271A (zh) 2015-11-04
CN105023271B true CN105023271B (zh) 2017-11-14

Family

ID=54413212

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510357621.XA Active CN105023271B (zh) 2015-06-25 2015-06-25 基于多线索信息的行为集体度衡量方法

Country Status (1)

Country Link
CN (1) CN105023271B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203357A (zh) * 2016-07-11 2016-12-07 浙江宇视科技有限公司 一种人员聚集的检测方法和装置
CN106909940A (zh) * 2017-02-20 2017-06-30 浙江工商大学 基于人群疏散的折半聚类方法
CN107274431A (zh) * 2017-03-07 2017-10-20 阿里巴巴集团控股有限公司 视频内容增强方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1071055A1 (en) * 1999-07-23 2001-01-24 Matsushita Electric Industrial Co., Ltd. Home monitoring system for health conditions
CN1666232A (zh) * 2002-06-28 2005-09-07 皇家飞利浦电子股份有限公司 使用概率分布函数来模拟行为的方法和装置
CN102156880A (zh) * 2011-04-11 2011-08-17 上海交通大学 基于改进的社会力模型的异常集群行为检测方法
CN102325250A (zh) * 2011-10-13 2012-01-18 交通运输部公路科学研究所 基于社会力模型的监控系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1071055A1 (en) * 1999-07-23 2001-01-24 Matsushita Electric Industrial Co., Ltd. Home monitoring system for health conditions
CN1666232A (zh) * 2002-06-28 2005-09-07 皇家飞利浦电子股份有限公司 使用概率分布函数来模拟行为的方法和装置
CN102156880A (zh) * 2011-04-11 2011-08-17 上海交通大学 基于改进的社会力模型的异常集群行为检测方法
CN102325250A (zh) * 2011-10-13 2012-01-18 交通运输部公路科学研究所 基于社会力模型的监控系统

Also Published As

Publication number Publication date
CN105023271A (zh) 2015-11-04

Similar Documents

Publication Publication Date Title
CN106096577B (zh) 一种摄像头分布地图中的目标追踪方法
CN107943837B (zh) 一种前景目标关键帧化的视频摘要生成方法
CN107967451A (zh) 一种利用多尺度多任务卷积神经网络对静止图像进行人群计数的方法
CN106295564B (zh) 一种邻域高斯结构和视频特征融合的动作识别方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN104794463A (zh) 基于Kinect实现室内人体跌倒检测的系统及方法
Ullah et al. Multi-feature-based crowd video modeling for visual event detection
CN108960404B (zh) 一种基于图像的人群计数方法及设备
CN104715251B (zh) 一种基于直方图线性拟合的显著目标检测方法
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN102034267A (zh) 基于关注度的目标物三维重建方法
CN105023271B (zh) 基于多线索信息的行为集体度衡量方法
CN114049477A (zh) 一种过鱼鱼道系统、鱼类数量和种类的动态识别跟踪方法
CN110827312A (zh) 一种基于协同视觉注意力神经网络的学习方法
CN104881655A (zh) 一种基于多特征时空关系融合的人类行为识别方法
CN106127161A (zh) 基于级联多层检测器的快速目标检测方法
CN105243354B (zh) 一种基于目标特征点的车辆检测方法
Jingying A survey on crowd counting methods and datasets
CN110111370A (zh) 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法
CN114998744A (zh) 基于运动与视觉双特征融合的农机轨迹田路分割方法
CN109117774A (zh) 一种基于稀疏编码的多视角视频异常检测方法
CN111383273A (zh) 一种基于改进结构推理网络的高铁接触网零部件定位方法
CN104537392B (zh) 一种基于判别性语义部件学习的对象检测方法
CN106327513A (zh) 基于卷积神经网络的镜头边界检测方法
CN104915967B (zh) 一种隧道内车辆运动路径的预测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant