CN108230364B - 一种基于神经网络的前景物体运动状态分析方法 - Google Patents

一种基于神经网络的前景物体运动状态分析方法 Download PDF

Info

Publication number
CN108230364B
CN108230364B CN201810028891.XA CN201810028891A CN108230364B CN 108230364 B CN108230364 B CN 108230364B CN 201810028891 A CN201810028891 A CN 201810028891A CN 108230364 B CN108230364 B CN 108230364B
Authority
CN
China
Prior art keywords
foreground
target
image
video
motion state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810028891.XA
Other languages
English (en)
Other versions
CN108230364A (zh
Inventor
张小国
叶绯
刘启汉
高烨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201810028891.XA priority Critical patent/CN108230364B/zh
Publication of CN108230364A publication Critical patent/CN108230364A/zh
Application granted granted Critical
Publication of CN108230364B publication Critical patent/CN108230364B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于神经网络的前景物体运动状态分析方法,将采集的视频经过高斯混合模型进行前景提取;采用深度学习中的SSD模型将提取出的前景进行目标分类,得到各个前景物体的类别信息;利用SIFT特征匹配算法得到相邻帧的前景物的对应信息;基于前景的质心计算其运动轨迹,利用RNN时空序列模型分析其运动状态以及对下一时刻物体运动状态进行预判。本发明从速度、实用、鲁棒性等方面考虑,提出了一种基于运动目标重心分析的新思路,适用于视频图像序列中场景复杂的情况下对监控视频范围内出现的运动物体进行准确识别、跟踪并预警,实用价值高,具有广阔的应用前景。

Description

一种基于神经网络的前景物体运动状态分析方法
技术领域
本发明涉及图像处理方法,尤其涉及一种基于神经网络的前景物体运动状态分析方法。
背景技术
随着计算机技术的发展和计算机视觉原理的广泛应用,利用计算机图像处理技术对目标进行实时跟踪研究越来越热门,对目标进行动态实时跟踪定位在智能化交通系统、智能监控系统及导航技术中目标定位等方面具有广泛的应用价值。尤其是在复杂场景中,需要对多个目标进行实时处理时,对于物体运动状态的准确、快速分析就显得尤为重要。
与此同时,近些年来随着社会经济的发展,大规模的人群活动日益增加,大型公共场所的人群安全已经成为了一个至关重要的问题。为了及时了解重点区域人群密度等级,避免高密度人群的安全隐患,如何进行有效的人群密度监控显得日益重要。目前的研究大致分为基于像素统计的分析方法和基于纹理特征的分类方法。基于像素统计的方法在人群数量较多、人群之间遮挡严重的情况下,存在很大的误差。基于纹理特征的方法在低密度人群检测时,存在计算复杂度较大,不够实时,纹理特征不明显的问题。因此由上述可知,准确、实时地对人群等运动物体行为与运动状态进行分析,实现对运动物体的识别、跟踪与预警的需求日益明显。
发明内容
发明目的:为了解决在大规模人群等运动物体活动时对其行为与运动状态进行分析时,现有的一些技术存在无法同时兼顾准确性与实时性的问题,本发明的目的是提供一种基于神经网络的前景物体运动状态分析的新方法,为人群等运动物体的识别、跟踪和预警提供极大的便利。
技术方案:一种基于神经网络的前景物体运动状态分析方法,包括如下步骤:
(1)进行视频采集,从视频中提取视频帧,将视频进行预处理;
(2)将步骤(1)中的视频帧,采用高斯混合模型进行前背景分离,获得前景物体;
(3)利用深度学习中的SSD模型识别步骤(2)中获得的前景物体,得到各个前景物体的所属类别信息;
(4)根据步骤(3)得到第一帧的类别信息后,利用SIFT特征匹配算法得到相邻帧的前景物体的对应位置并标注其类别信息;
(5)根据步骤(4)得到相邻帧的关联信息之后,根据运动前景的质心变化趋势和速度变化趋势可以快速判断前景的运动状态,例如集聚,分散,周期性变化等;
(6)根据步骤(5)得到的运动状态,即利用运动状态提供的位置及速度信息初步计算突发事件或者危险事件的可能性;根据可能性的大小,判断是否为突发事件并进行行为分析和预测。
具体的,所述步骤(1)具体为:
(1.1)提取视频帧,经过图像二值化和数学形态开闭运算对视频帧进行预处理;
(1.2)通过中值滤波算法和形态特征去干扰算法剔除视频帧中的噪点;中值滤波是基于排序统计理论的一种能有效抑制噪声的非线性信号处理技术,其基本思想是用像素点邻域灰度值的中值来代替该像素点的灰度值,该方法在去除脉冲噪声、椒盐噪声的同时又能保留图像的边缘细节。采用二维中值滤波,即将图像的每个像素用邻域(以当前像素为中心的正方形区域)像素的中值代替。
所述步骤(2)具体为:
(2.1)在读取第一帧图像时,进行高斯背景建模;
(2.2)在新一帧图像获得后更新混合高斯模型,用当前图像中的每个像素点与混合高斯模型匹配,如果成功则判定该点为背景点,否则为前景点。
(2.3)得到前景后,根据图像中连通区域的数量进行判断,将视频帧分为多目标和单目标两种情况。
所述步骤(3)具体为:
(3.1)如果是单目标,则认为视频中的物体是单类别,随后处理过程与多目标相同;
(3.2)如果是多目标,利用SSD在coco数据集上训练好的检测模型直接对前景目标进行分类;通过对视频帧图像进行候选区域生成、特征提取、分类、位置精修得到各个前景物体的具体类别信息。
所述步骤(4)具体为:
(4.1)采用SIFT特征点匹配的算法,通过对视频帧进行尺度变换后高斯差分,寻找并确定图像的特征点;
(4.2)除去不稳定的极值点,对特征点进行精确定位;
(4.3)根据特征点的邻域区域内所有像素的梯度幅角和梯度幅值进行加权,计算得到特征点的方向值;生成128维的特征描述子,并不同图像的特征点进行匹配,最终对视频帧中的多目标进行最佳匹配。
所述步骤(5)具体为:
(5.1)通过寻找目标物重心,计算各个前景目标的距离、速度、方向、坐标,根据重心的定义,框定图像中的前景,找出前景的重心;
在得到每一张图中各个前景目标的重心后,将重心的坐标作为该前景的坐标;因此,通过前后图片之间重心的位置,便可以计算前景目标的运动速度、运动方向和运动距离;公式如下:
Figure GDA0003306367190000021
v=distance/gap
其中dis tan ce表示目标运动的距离,v表示目标运动的速度,gap表示两个图像帧之间的帧差,x和y分别表示当前帧目标重心的横坐标与纵坐标,px和py分别表示前gap帧的目标重心的横坐标和纵坐标;同时,根据x数值的增大和减小可以判断,目标运动是从视频的左边走向右边还是右边走向左边;
(5.2)通过基于粒子群算法的决策树SVM多分类方法对前景目标与质心密度进行分类。
所述步骤(6)具体为:
(6.1)利用位置及速度信息初步计算突发事件或者危险事件的可能性;
(6.2)若可能性低于50%,则认为没有突发事件发生,若可能性高于50%,再利用RNN神经网络抽取该时间节点的前5-10做行为分析,并对运动物体下一步的行为进行预测,实现预警功能。
有益效果
和现有技术相比,本发明解决了现有的一些技术存在无法同时兼顾准确性与实时性的问题,尤其为特定类别物体,如大规模人群聚集和拥堵的情况的识别、跟踪与预警提供了好的解决方案;本发明从速度、实用、鲁棒性等方面考虑,提出了一种基于运动目标重心分析的新思路,适用于视频图像序列中场景复杂的情况下对监控视频范围内出现的运动物体进行准确识别、跟踪并预警,实用价值高,具有广阔的应用前景。
附图说明
图1是本发明的系统流程示意图;
图2(a)-2(b)为中值滤波取核大小为7*7的滤波前后的效果对比图;
图3(a)-3(b)为提取前景前、后对比图;
图4为前景框定效果和重心标记示意图;
图5(a)-(c)分别为前景目标面积随视频帧数的变化曲线图、质心的x坐标随帧数变化曲线图、质心的(x,y)坐标图。
具体实施方式
下面结合实施例和附图对本发明的技术方案作进一步详细说明。
如图1所示,一种基于视频帧前景提取的图像数据集快速获取和快速标定方法,包括如下步骤:
S1、进行视频采集,从视频中提取视频帧,将视频进行预处理,并剔除视频帧中的噪点,包括如下步骤:
S1.1、提取视频帧,经过图像二值化、数学形态开闭运算对视频帧进行预处理;
S1.2、通过中值滤波算法和形态特征去干扰算法剔除视频帧中的噪点。如图2(a)-2(b)所示,中值滤波取核大小为7*7的滤波前后的效果对比图。
S2、对预处理后的视频采用高斯混合模型进行前背景分离获得前景,如图3(a)-3(b)所示,包括如下步骤:
S2.1、在读取第一帧图像时,进行高斯背景建模;
S2.2、在新一帧图像获得后更新混合高斯模型,用当前图像中的每个像素点与混合高斯模型匹配,如果成功则判定该点为背景点,否则为前景点。
S2.3、得到前景后,根据图像中连通区域的数量进行判断,将视频帧分为多目标和单目标两种情况。
S3、根据深度学习中的SSD模型将提取出的前景进行目标分类,得到各个前景物体的类别信息。
S3.1、如果是单目标,则认为视频中的物体是单类别,随后处理过程与多目标相同;
S3.2、如果是多目标,利用SSD在coco数据集上训练好的检测模型直接对前景目标进行分类。通过对视频帧图像进行候选区域生成,特征提取,分类,位置精修得到各个前景物体的具体类别信息。
S4、根据步骤S3得到第一帧的类别信息后,利用SIFT特征匹配算法得到相邻帧的前景物体的对应位置并标注其类别信息。
S4.1、采用SIFT特征点匹配的算法,通过对视频帧进行尺度变换后高斯差分,寻找并确定图像的特征点;
S4.2、除去不稳定的极值点,对特征点进行精确定位;
S4.3、根据特征点的邻域区域内所有像素的梯度幅角和梯度幅值进行加权,计算得到特征点的方向值;生成128维的特征描述子,并不同图像的特征点进行匹配,最终对视频帧中的多目标进行最佳匹配。
S5、根据运动前景的质心变化趋势和速度变化趋势可以快速判断前景的运动状态,例如集聚,分散,周期性变化等。具体包括如下步骤:
S5.1、通过寻找目标物重心,计算各个前景目标的距离、速度和方向等参数,根据重心的定义,可以框定图像中的前景,并且找出前景的重心,如图4所示为前景框定效果和重心标记示意图;
在得到每一张图中各个前景目标的重心后,便可以将重心的坐标作为该前景的坐标。因此,通过前后图片之间的中重心的位置,便可以计算前景目标的运动速度、运动方向和运动距离,如图5(a)-(c)所示分别为前景目标面积随视频帧数的变化曲线图,质心的x坐标随帧数变化曲线图,质心的(x,y)坐标图。公式如下:
Figure GDA0003306367190000041
v=distance/gap
其中dis tan ce表示目标运动的距离,v表示目标运动的速度,gap表示两个图像帧之间的帧差,x和y分别表示当前帧目标重心的横坐标与纵坐标,px和py分别表示前gap帧的目标重心的横坐标和纵坐标。同时,根据x数值的增大和减小可以判断,目标运动是从视频的左边走向右边还是右边走向左边。如图5(a)所示,前景目标面积随视频帧数呈现先增后减的趋势,说明视频中有人进入;如图5(b)所示,质心的x坐标随帧数呈现减小趋势,表示行人是从右向左的方向进入监控区域的。如图5(c)所示,质心的(x,y)坐标表示了行人重心呈现出规律变化,表示没有发生异常情况。
S5.2、通过基于粒子群算法的决策树SVM多分类方法对前景目标与质心密度进行分类。
S6、根据步骤S5得到的运动状态,即利用位置及速度信息初步计算突发事件或者危险事件的可能性。如果可能性高于50%,再利用RNN神经网络抽取该时间节点的前几帧做行为分析,并对运动物体下一步的行为进行预测,实现预警功能。
S6.1、利用位置及速度信息初步计算突发事件或者危险事件的可能性;
S6.2、若发生紧急情况的可能性高于50%,再利用RNN神经网络抽取该时间节点的前几帧做行为分析,并对运动物体下一步的行为进行预测,实现预警功能。将步骤S5得到的位置及速度信息作为RNN神经网络的输入,即输入信息分别为坐标x,y以及速度v,输入层单元数(input_size)为3,用时间t内每一帧的某一前景目标的运动状态来预测下一帧即t+1时刻的其运动状态。之后根据训练实际情况选择合适的时间步长(num_steps,即RNN网络记忆的步数)。将任何num_steps个连续的输入元素分到一个训练输入中,相应的标签就是它们下一个时刻的输入元素。
例如,如果num_steps=2,前几个训练的示例如下所示:
InputOne=[[x0,y0,v0],[x1,y1,v1]],LabelOne=[[x2,y2,v2]]
InputTwo=[[x1,y1,v1],[x2,y2,v2]],LabelTwo=[[x3,y3,v3]]
InputThree=[[x2,y2,v2],[x3,y3,v3]],LabelThree=[[x4,y4,v4]]
xi,yi,vi表示第i帧的某一前景目标的运动状态。
最后用大量前景目标在各时刻的运动状态对网络进行训练,得到期望的RNN神经网络预测模型。
综上,本发明将采集的视频经过高斯混合模型进行前景提取;采用深度学习中的SSD模型将提取出的前景进行目标分类,得到各个前景物体的类别信息;并利用SIFT特征匹配算法得到相邻帧的前景物的对应信息,根据前景目标质心变化和速度还有运动轨迹变化等特征进行目标位置等信息进行分类,实现对前景物体的运动状态分析。最后再利用RNN神经网络抽取可能发生突发情况或危险情况的时间节点的前几帧做行为分析,并对运动物体下一步的行为进行预测,实现预警功能,达到了较为准确、快速地对运动物体进行识别、跟踪并预警地目标。

Claims (5)

1.一种基于神经网络的前景物体运动状态分析方法,其特征在于,包括如下步骤:
(1)进行视频采集,从视频中提取视频帧,将视频进行预处理;
(2)采用高斯混合模型进行前背景分离,获得前景物体;
(3)利用深度学习中的SSD模型识别前景物体,得到各个前景物体的所属类别信息;
(4)利用SIFT特征匹配算法得到相邻帧的前景物体的对应位置并标注其类别信息;
(5)根据运动前景的质心变化趋势和速度变化趋势判断前景的运动状态;
(6)利用运动状态提供的位置及速度信息初步计算突发事件或者危险事件的可能性;根据可能性的大小,判断是否为突发事件并进行行为分析和预测;
步骤(5)具体包括:
(5.1)通过寻找目标物重心,计算各个前景目标的距离、速度、方向、坐标,根据重心的定义,框定图像中的前景,找出前景的重心;
在得到每一张图中各个前景目标的重心后,将重心的坐标作为该前景的坐标;因此,通过前后图片之间重心的位置,便可以计算前景目标的运动速度、运动方向和运动距离;公式如下:
Figure FDA0003371033490000011
v=distance/gap
其中distance表示目标运动的距离,v表示目标运动的速度,gap表示两个图像帧之间的帧差,x和y分别表示当前帧目标重心的横坐标与纵坐标,px和py分别表示前gap帧的目标重心的横坐标和纵坐标;同时,根据x数值的增大和减小可以判断,目标运动是从视频的左边走向右边还是右边走向左边;
(5.2)通过基于粒子群算法的决策树SVM多分类方法对前景目标与质心密度进行分类;
所述步骤(6)具体包括:
(6.1)利用位置及速度信息初步计算突发事件或者危险事件的可能性;
(6.2)若可能性低于50%,则认为没有突发事件发生,若可能性高于50%,再利用RNN神经网络抽取可能发生突发情况或危险情况的时间节点的前5-10帧做行为分析,并对运动物体下一步的行为进行预测,实现预警功能。
2.根据权利要求1所述的前景物体运动状态分析方法,其特征在于,所述步骤(1)具体包括:
(1.1)提取视频帧,经过图像二值化和数学形态开闭运算对视频帧进行预处理;
(1.2)通过中值滤波算法和形态特征去干扰算法剔除视频帧中的噪点;即将图像的每个像素用邻域像素的中值代替;所述像素用邻域为当前像素为中心的正方形区域。
3.根据权利要求1所述的前景物体运动状态分析方法,其特征在于,所述步骤(2)具体包括:
(2.1)在读取第一帧图像时,进行高斯背景建模;
(2.2)在新一帧图像获得后更新混合高斯模型,用当前图像中的每个像素点与混合高斯模型匹配,如果成功则判定该点为背景点,否则为前景点;
(2.3)得到前景后,根据图像中连通区域的数量进行判断,将视频帧分为多目标和单目标两种情况。
4.根据权利要求1所述的前景物体运动状态分析方法,其特征在于,所述步骤(3)具体包括:
(3.1)如果是单目标,则认为视频中的物体是单类别,随后处理过程与多目标相同;
(3.2)如果是多目标,利用SSD在coco数据集上训练好的检测模型直接对前景目标进行分类;通过对视频帧图像进行候选区域生成、特征提取、分类、位置精修得到各个前景物体的具体类别信息。
5.根据权利要求1所述的前景物体运动状态分析方法,其特征在于,所述步骤(4)具体包括:
(4.1)采用SIFT特征点匹配的算法,通过对视频帧进行尺度变换后高斯差分,寻找并确定图像的特征点;
(4.2)除去不稳定的极值点,对特征点进行精确定位;
(4.3)根据特征点的邻域区域内所有像素的梯度幅角和梯度幅值进行加权,计算得到特征点的方向值;生成128维的特征描述子,并不同图像的特征点进行匹配,最终对视频帧中的多目标进行最佳匹配。
CN201810028891.XA 2018-01-12 2018-01-12 一种基于神经网络的前景物体运动状态分析方法 Active CN108230364B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810028891.XA CN108230364B (zh) 2018-01-12 2018-01-12 一种基于神经网络的前景物体运动状态分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810028891.XA CN108230364B (zh) 2018-01-12 2018-01-12 一种基于神经网络的前景物体运动状态分析方法

Publications (2)

Publication Number Publication Date
CN108230364A CN108230364A (zh) 2018-06-29
CN108230364B true CN108230364B (zh) 2022-02-11

Family

ID=62640651

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810028891.XA Active CN108230364B (zh) 2018-01-12 2018-01-12 一种基于神经网络的前景物体运动状态分析方法

Country Status (1)

Country Link
CN (1) CN108230364B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986145A (zh) * 2018-09-07 2018-12-11 中国工商银行股份有限公司 视频图像处理方法及装置
CN109345557B (zh) * 2018-09-19 2021-07-09 东南大学 一种基于三维重建成果的前背景分离方法
CN109887276B (zh) * 2019-01-30 2020-11-03 北京同方软件有限公司 基于前景提取与深度学习融合的夜间交通拥堵检测方法
CN110119730A (zh) * 2019-06-03 2019-08-13 齐鲁工业大学 一种监控视频处理方法、系统、终端及存储介质
CN110580472B (zh) * 2019-09-12 2021-04-06 合肥工业大学 一种基于全卷积网络和条件对抗网络的视频前景检测方法
US20230133519A1 (en) * 2020-04-17 2023-05-04 Nec Corporation Image processing method
CN111553256A (zh) * 2020-04-26 2020-08-18 上海天诚比集科技有限公司 基于物体轨迹识别的高空抛物预警识别方法
CN111666881B (zh) * 2020-06-08 2023-04-28 成都大熊猫繁育研究基地 一种大熊猫踱步、吃竹子、发情行为跟踪分析方法
CN113158800A (zh) * 2021-03-19 2021-07-23 上海云赛智联信息科技有限公司 围界入侵混合检测方法及围界入侵混合检测系统
CN115797164B (zh) * 2021-09-09 2023-12-12 同方威视技术股份有限公司 固定视场中的图像拼接方法、装置、系统
CN113807026A (zh) * 2021-10-08 2021-12-17 青岛理工大学 地铁站内客流流线优化及动态引导指示牌系统及设计方法
CN114973143B (zh) * 2022-06-17 2023-07-07 湖南中科助英智能科技研究院有限公司 一种融合运动特征的低空飞行器鲁棒检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104190065A (zh) * 2014-08-31 2014-12-10 陆俊 一种人体运动状态检测装置及方法
CN106228569A (zh) * 2016-07-06 2016-12-14 西安邮电大学 一种适用于水质监测的鱼体运动速度检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104190065A (zh) * 2014-08-31 2014-12-10 陆俊 一种人体运动状态检测装置及方法
CN106228569A (zh) * 2016-07-06 2016-12-14 西安邮电大学 一种适用于水质监测的鱼体运动速度检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于目标跟踪的半自动图像标注样本生成方法;郭乔进 等;《信息化研究》;20151031;第23-27页 *

Also Published As

Publication number Publication date
CN108230364A (zh) 2018-06-29

Similar Documents

Publication Publication Date Title
CN108230364B (zh) 一种基于神经网络的前景物体运动状态分析方法
Bertini et al. Multi-scale and real-time non-parametric approach for anomaly detection and localization
Chaker et al. Social network model for crowd anomaly detection and localization
Xu et al. Video anomaly detection and localization based on an adaptive intra-frame classification network
Afiq et al. A review on classifying abnormal behavior in crowd scene
CN103745230B (zh) 一种自适应群体异常行为分析方法
Huang et al. Automatic moving object extraction through a real-world variable-bandwidth network for traffic monitoring systems
US20200117907A1 (en) Method for detecting violent incident in video based on hypergraph transition
Shukla et al. Moving object tracking of vehicle detection: a concise review
Gong et al. Local distinguishability aggrandizing network for human anomaly detection
Luo et al. Real-time people counting for indoor scenes
CN110852179B (zh) 基于视频监控平台的可疑人员入侵的检测方法
Mathur et al. Research on intelligent video surveillance techniques for suspicious activity detection critical review
Xia et al. Vision-based traffic accident detection using matrix approximation
Zhang et al. Detection of abnormal behavior in narrow scene with perspective distortion
Azimjonov et al. Vision-based vehicle tracking on highway traffic using bounding-box features to extract statistical information
CN110969645A (zh) 面向拥挤场景的无监督异常轨迹检测方法和装置
CN112866654B (zh) 一种智能视频监控系统
Seidenari et al. Dense spatio-temporal features for non-parametric anomaly detection and localization
Leyva et al. Video anomaly detection based on wake motion descriptors and perspective grids
CN106874885B (zh) 一种基于能级分布变化的人群异常检测方法
Priyadharshini et al. Vehicle data aggregation from highway video of madurai city using convolution neural network
Roy et al. Real-time record sensitive background classifier (RSBC)
Akella et al. Crowd density analysis and suspicious activity detection
Moayed et al. Traffic intersection monitoring using fusion of GMM-based deep learning classification and geometric warping

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant