CN108898042B - 一种应用于atm机舱内用户异常行为的检测方法 - Google Patents

一种应用于atm机舱内用户异常行为的检测方法 Download PDF

Info

Publication number
CN108898042B
CN108898042B CN201711446103.0A CN201711446103A CN108898042B CN 108898042 B CN108898042 B CN 108898042B CN 201711446103 A CN201711446103 A CN 201711446103A CN 108898042 B CN108898042 B CN 108898042B
Authority
CN
China
Prior art keywords
target
classifier
person
judging whether
fighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711446103.0A
Other languages
English (en)
Other versions
CN108898042A (zh
Inventor
王锦文
麦全深
茅庆江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Haoyun Technologies Co Ltd
Original Assignee
Haoyun Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Haoyun Technologies Co Ltd filed Critical Haoyun Technologies Co Ltd
Priority to CN201711446103.0A priority Critical patent/CN108898042B/zh
Publication of CN108898042A publication Critical patent/CN108898042A/zh
Application granted granted Critical
Publication of CN108898042B publication Critical patent/CN108898042B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F19/00Complete banking systems; Coded card-freed arrangements adapted for dispensing or receiving monies or the like and posting such transactions to existing accounts, e.g. automatic teller machines
    • G07F19/20Automatic teller machines [ATMs]
    • G07F19/207Surveillance aspects at ATMs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Abstract

本发明涉及一种应用于ATM机舱内用户异常行为的检测方法,包括:S1、对图像进行预处理和背景建模提取运动目标并跟踪;S2、根据运动目标跟踪判断是否是新目标,若是新目标,则将此前景送入深度学习已经训练好的人员分类器来判断是否是人,若不是人,则计数不变,否则计数加1;若是旧目标,并且此目标已经被分类器分类过,则不再次调用分类器;S3、根据人数来判断启动打砸行为分类器还是打斗行为分类器,提取运动向量特征并调用相应分类器获取结果;S4、根据运动跟踪的质心判断质心是否在检测区域内结合前景占检测区比例来判断目标是否离开检测区。提高ATM机异常行为分析错报、漏报现象,实现了快速、准确的行为分析检测。

Description

一种应用于ATM机舱内用户异常行为的检测方法
技术领域
本发明属于图像及视频处理技术改进领域,尤其涉及一种应用于ATM机舱内用户异常行为的检测方法。
背景技术
自动取款机(Automatic Teller Machine,ATM)的广泛使用,给诸多用户带来了便捷,如何保护银行ATM安全使用,及保护人的生命财产安全,防范各种基于ATM机的犯罪行为是一个亟待改善的问题。
目前,针对ATM异常行为判断技术,要么采用单独传统算法去判断,例如使用光流算法提取运动向量,并根据运动向量剧烈程度进行判断是否有异常行为发生;采用模板匹配的方法,根据输入图像提取特征与训练阶段预先保存好的模板进行相似度比较,与模板类别中相似度最高的一类作为识别结果,这些方法对目标的变化,光照的鲁棒性等干扰比较差。要么采用传统算法结合机器学习算法进行判断,例如根据不同行为的运动方向具有不用规律,提取根据光流算法来提取运动向量特征放到机器学习相关分类器中进行判断分类是否属于异常行为。然而这些方法很大程度上限制了算法实时性的要求,而且容易受到外界噪声的干扰,如本来ATM内无人,但是由于外界噪声影响导致产生运动向量特征刚好类似异常行为特征,那么会分类器会产生误报。
发明内容
本发明的目的在于提供一种应用于ATM机舱内用户异常行为的检测方法,旨在解决现有技术中容易发生误报的行为检测的技术问题。
本发明是这样实现的,一种应用于ATM机舱内用户异常行为的检测方法,所述检测方法包括以下步骤:
S1、对获取的实时视频流使用改进背景建模算法提取运动前景并跟踪运动目标;
S2、判断跟踪运动目标是否进入检测区,如进入检测区,则判断跟踪运动目标是否为新目标,如是新目标,则送入深度学习训练的人员分类器中并执行下一步骤,如是旧目标并且已经标记为被分类的目标,则无需再次调用分类器;
S3、判断是否决定计数,如是,则根据计数决定启用哪一个分类器,若检测结果被标记为异常并超过异常阈值,则发出相应的报警信号,如否则放弃;
S4、根据跟踪运动目标的质心判断质心是否在检测区域内结合前景占检测区比例,如果检测到质心已经不在检测区域内,并且前景占检测区比重很小,则认为目标离开检测区。
本发明的进一步技术方案是:所述步骤S2中还包括以下步骤:
S21、对每个跟踪的目标创建一个结构体并保留该目标的跟踪信息;
S22、在处理新帧时将上一帧记录的目标所有质心与当前帧每个运动目标质心一一比对求欧式距离。
本发明的进一步技术方案是:所述步骤S3中还包括以下步骤:
S31、判断送入人员分类器中新目标的前景是否是人,如分类结果输出人的概率比模型中其他类别概率都高,则判断此前景是人,从而人的计数加1,否则计数器维持不变。
本发明的进一步技术方案是:所述步骤S3中还包括以下步骤:
S32、根据当前统计的人数来决定步骤S33还是步骤S34,若当前只计数到1个人,则执行步骤S34,若计数结果不是1个人,则执行步骤S33;
S33、根据当前计数到人数判断是否大于1,如是,则执行步骤S36;
S34、启动打砸行为检测分类器对运动矢量提取特征并编码,且对特征进行分类设定阈值来辅助判断满足条件则发出打砸报警信号;
S35、根据打砸分类器判断是否有打砸行为发生并设置报警阈值,如检测到打砸行为并满足报警阈值时,则发出打砸报警信号;
S36、启动打斗行为检测分类器对运动矢量提取时空特征并编码,且对特征进行分类设定阈值来辅助判断满足条件则发出打斗报警信号;
S37、根据打斗分类器判断是否有打砸行为发生并设置报警阈值,如检测到打斗行为并满足报警阈值时,则发出打斗报警信号。
本发明的进一步技术方案是:所述步骤S36中还包括以下步骤:
S361、将提取的运动目标时空特征送入打斗分类器中进行分类。
本发明的进一步技术方案是:所述步骤S1中采集视频流的网络摄像机采用顶视安装的方式进行安装。
本发明的进一步技术方案是:所述步骤S4中的质心计算公式为:
Figure GDA0001809369540000031
其中,f(x,y)为图像(x,y)处的像素值。
本发明的进一步技术方案是:所述步骤S34中还包括以下步骤:
S341、对运动矢量通过加入阈值处理过滤掉噪声干扰。
本发明的进一步技术方案是:所述运动矢量去噪公式为:
Figure GDA0001809369540000041
其中,Mi表示宏块i的运动矢量,Mix和Miy分别代表水平和垂直分量,阈值为T。
本发明的进一步技术方案是:所述步骤S1之前还包括以下步骤:
SO、首先,采集一定数量图片中包含人的图片作为正样本,采集一定数量的不包含人的图片作为分类的负样本。使用MobileNet网络训练并调优得到一个比较准确的人员分类器。然后,采集单人打砸行为和双人打斗行为的正负样本用于分别训练打砸和打斗模型。采集样本要求从不同角度和高度采集。所述单人打砸行为样本,将视频中无人、单人正常进出ATM区域正常取款、单人进入ATM区域并正常取款、单人取款后正常离开ATM区域、单人在正常取款过程稍微扭动身体或者其他轻微动作的图像作为负样本;将打砸ATM动作图像作为正样本。所述双人打斗行为样本,将视频中无人、一人一前以后正常进出ATM区域、两人在ATM区域闲聊、两人进去后一人在正常取款,另外一人搭取款人肩膀、一人正常取款,另外一人在旁边站着观看的图像作为负样本;将两人有扭动和挥拳打斗的图像作为正样本。所述的打砸和打斗行为分类器使用GBDT(Gradient Boosting Decision Tree)梯度提升决策树进行训练,并经过参数调优测试得到较好的分类模型。
本发明的有益效果是:本发明采用传统算法结合机器学习以及深度学习的方法,使用改进的传统算法提取运动目标,采用深度学习判断检测区域是否有人,采用机器学习方法对提取的运动矢量构造时空特性进行训练和识别,可以有效的解决使用传统算法由于噪声等因素带来的ATM机异常行为检测引起的误报、漏报问题。
附图说明
图1是本发明实施例提供的应用于ATM机舱内用户异常行为的检测方法的流程图。
具体实施方式
如图1所示,本发明提供的应用于ATM机舱内用户异常行为的检测方法,其详述如下:
步骤S0,首先,采集一定数量图片中包含人的图片作为正样本,采集一定数量的不包含人的图片作为分类的负样本。使用MobileNet网络训练并调优得到一个比较准确的人员分类器。然后,采集单人打砸行为和双人打斗行为的正负样本用于分别训练打砸和打斗模型。采集样本要求从不同角度和高度采集。所述单人打砸行为样本,将视频中无人、单人正常进出ATM区域正常取款、单人进入ATM区域并正常取款、单人取款后正常离开ATM区域、单人在正常取款过程稍微扭动身体或者其他轻微动作的图像作为负样本;将打砸ATM动作图像作为正样本。所述双人打斗行为样本,将视频中无人、一人一前以后正常进出ATM区域、两人在ATM区域闲聊、两人进去后一人在正常取款,另外一人搭取款人肩膀、一人正常取款,另外一人在旁边站着观看的图像作为负样本;将两人有扭动和挥拳打斗的图像作为正样本。所述的打砸和打斗行为分类器使用GBDT(Gradient Boosting Decision Tree)梯度提升决策树进行训练,并经过参数调优测试得到较好的分类模型。
步骤S1,使用改进的VIBE背景建模提取运动目标,改进的算法主要体现在背景更新阶段,辅助人员分类器进行判断,当检测到前景目标时人时,提取此目标前景作为掩码,在此后背景更新中,判断背景更新的邻域是属于掩码内,如果属于,则此邻域像素值不更新,否则进行更新。这将保证前景不会被学进背景中去,影响后面的判断。
步骤S2,根据提取的运动目标进行跟踪,为每个目标创建一个结构体,保留该目标的跟踪信息,具体地,结构体包含目标的面积,编号ID,质心位置,根据阈值过滤掉尺寸过小的目标,设置目标质心间的阈值,当处理新帧时,将上一帧记录的目标所有质心与当前帧每个运动目标质心一一比对,求欧式距离,得到最小的距离d与阈值t比较,若d<t,则说明此目标s是上一帧的对应的运动区域,更新此目标对应的结构体参数,并将目标标记为已跟踪,当运动目标质心距离大于设定的阈值,并且没有分配ID时,认为是新目标,则分配一个新的ID,并计入目标链表中。
步骤S3,检测运动目标是否检测区内的方法根据射线法来判断,具体来说以质心点为射线的端点,向右做一条水平射线,统计该射线与多边形的交点个数,如果交点个数为奇数,那么此质心在多边形内,如果为偶数,则判断为此质心在多边形外,在计数时,对多边形水平边和质心点在边的延长线上时,忽略这两种情况的计数。
步骤S4,对进入区域的目标检测判断是否为新目标,判断的依据是根据步骤S2中运动目标跟踪结果判断,当前帧的运动目标与上一帧运动目标无匹配,并且没有分配ID的,则认为是新目标;
步骤S5,根据S4的结果,若判断为新目标,则提取该目标区域,并送入人员分类器中进行判断前景是否是人,具体来说人员分类器就是对正负样本使用谷歌开源的TensorFlow系统来对开源的视觉识别模型MobileNet进行训练得到一个分类模型。如果分类结果输出人的概率比模型中其他类别概率都高,则判断此前景是人,从而人的计数加1,否则计数器维持不变。
步骤S6,根据当前统计的人数来决定执行步骤S7还是步骤S8。若当前只计数到一个人,那么执行步骤S8,启动打砸分类器;若计数结果不是一个人,则执行步骤S7。
步骤S7,根据当前计数判断,若满足大于1个人条件,则执行步骤10,启动打架分类器。
步骤S8,启动打砸行为检测分类器,提取运动矢量特征并编码,对特征进行分类,并设定阈值来辅助判断,满足条件则发出打砸报警信号。具体地,使用ffmpeg在视频解码过程中提取P帧的运动信息,运动矢量按照16*16的宏块进行计算,根据计算出的运动矢量进行编码,具体来说将运动矢量划分9个维度进行编码,考虑到含有运动物体的宏块,运动矢量幅值比较大,而不含运动物体的宏块,运动矢量接近为0,但是由于噪声干扰,因此需要加入阈值处理过滤掉干扰。0维统计的是运动矢量幅值小于一定阈值和运动矢量幅值几乎为0的矢量,其他8维则是将360度空间平均划分为8个维度。每一帧分别统计每个维度上运动矢量的个数。为了有效判断是否发生异常行为,需要结合前面帧信息和后面帧信息运动矢量来综合判断,因此在运动矢量的基础上增加了时间维度来描述运动目标的特征,具体地,就是结合连续若干帧图像的运动矢量构成时空特征,经过大量实验验证,取连续帧视频30-40帧构建时空特征得到较好的结果。在加入时间维后,为了增加运动矢量场的密度,从而使特征更加突出,采用了线性插值的方式来对运动矢量场插值。具体地,若当前帧有运动矢量,并且当前帧的前一帧没有运动矢量,并且当前帧的上上帧有运动矢量,那么对前一帧图像运动矢量进行插值,插值矢量值为当前帧与当前帧的上上帧运动矢量和的平均值,若计算出的平均值不为0,则前一帧运动矢量计数加1,把前一帧的运动矢量重新统计到对应维度上。将最终获取的具有时间序列的运动特征送入打砸分类器进行分类。
所述的运动矢量计算步骤描述如下:
1)假设当前帧共有提取到N个运动矢量,首先分别计算每个矢量x方向分量和y方向分量的差值:
Figure GDA0001809369540000081
在上式中,mv[i].dstx,mv[i].dsty分别表示此运动矢量i在图像中的绝对目的水平坐标和垂直坐标,mv[i].srcx,mv[i].srcy分别表示此运动矢量i在图像中的绝对原始水平坐标和垂直坐标。
2)计算矢量块索引,
Figure GDA0001809369540000082
式中gridstep表示运动估计块的大小,在此处取16。
3)累计每个索引的矢量值。此处以索引(m,n)为例,累计落在(m,n)索引上的矢量值,并将落在此索引上的计数器(用C表示)值加1。
Figure GDA0001809369540000091
4)分别计算每个索引块的平均位移,作为此块的最终输出运动矢量。此处以索引块(m,n)为例,最终此块的运动矢量为:
Figure GDA0001809369540000092
其中Vx代表运动矢量水平分量,Vy代表运动矢量垂直分量
所述的运动矢量去噪原理为:
Figure GDA0001809369540000093
式中Mi表示宏块i的运动矢量,Mix和Miy分别代表水平和垂直分量,阈值为T。
步骤S9,根据所述的打砸分类器判断是否有打砸行为发生,并设置报警阈值,当检测到打砸行为并满足报警阈值时,则发出打砸报警信号。
步骤S10,启动打斗行为分类器,其提取的运动矢量时空特征与步骤S8一样,将提取的特征送入打斗分类器中进行分类。
步骤S11,根据所述的打斗分类器判断是否有打斗行为发生,并设置报警阈值,当检测到打斗行为并满足报警阈值时,发生打斗报警信号。
步骤S12,根据运动跟踪的质心判断质心是否在检测区域内结合前景占检测区比例来判断目标是否离开检测区,判断质心是否在检测区域内如步骤S3所述方法一样。当检测到质心在检测区外或者检测不到质心,并且前景占检测区比例小于一定阈值,认为目标离开检测区。
所述的质心公式计算为:
Figure GDA0001809369540000101
式中,f(x,y)为图像(x,y)处的像素值。
步骤S13,若目标离开检测区,则将所有信号重置,主要包括人数统计置0,清空运动目标链表,VIBE背景建模学习率恢复正常。
所述GBDT(Gradient Boosting Decision Tree)梯度提升决策树分类器,其模型定义为加法模型:
Figure GDA0001809369540000102
式中,x为输入的样本,h为最小二乘回归树,w为最小二乘回归树的参数,α为每颗回归树的权值。
通过最小化损失函数求解最优模型:
Figure GDA0001809369540000103
其中,在求解最优模型过程,GBDT利用损失函数L的负梯度拟合本轮的损失近似值,进而拟合一个最小二乘回归树。第t轮第i个样本损失函数负梯度表示为:
Figure GDA0001809369540000104
采用传统算法结合机器学习以及深度学习的方法,使用改进的传统算法提取运动目标,采用深度学习判断检测区域是否有人,采用机器学习方法对提取的运动矢量构造时空特性进行训练和识别,可以有效的解决使用传统算法由于噪声等因素带来的ATM机异常行为检测引起的误报、漏报问题。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种应用于ATM机舱内用户异常行为的检测方法,其特征在于,所述检测方法包括以下步骤:
S1、对获取的实时视频流使用改进背景建模算法提取运动前景并跟踪运动目标;
S2、判断跟踪运动目标是否进入检测区,如进入检测区,则判断跟踪运动目标是否为新目标,如是新目标,则送入深度学习训练的人员分类器中并执行下一步骤,如是旧目标并且已经标记为被分类的目标,则无需再次调用分类器;
S3、判断是否决定计数,如是,则根据计数决定启用哪一个分类器,若检测结果被标记为异常并超过异常阈值,则发出相应的报警信号,如否则放弃;
S4、根据跟踪运动目标的质心判断质心是否在检测区域内结合前景占检测区比例,如果检测到质心已经不在检测区域内,并且前景占检测区比重很小,则认为目标离开检测区;
所述步骤S3中还包括以下步骤:
S31、判断送入人员分类器中新目标的前景是否是人,如分类结果输出人的概率比模型中其他类别概率都高,则判断此前景是人,从而人的计数加1,否则计数器维持不变;
S32、根据当前统计的人数来决定步骤S33还是步骤S34,若当前只计数到1个人,则执行步骤S34,若计数结果不是1个人,则执行步骤S33;
S33、根据当前计数到人数判断是否大于1,如是,则执行步骤S36;
S34、启动打砸行为检测分类器对运动矢量提取特征并编码,且对特征进行分类设定阈值来辅助判断满足条件则发出打砸报警信号;
S35、根据打砸分类器判断是否有打砸行为发生并设置报警阈值,如检测到打砸行为并满足报警阈值时,则发出打砸报警信号;
S36、启动打斗行为检测分类器对运动矢量提取时空特征并编码,且对特征进行分类设定阈值来辅助判断满足条件则发出打斗报警信号;
S37、根据打斗分类器判断是否有打砸行为发生并设置报警阈值,如检测到打斗行为并满足报警阈值时,则发出打斗报警信号。
2.根据权利要求1所述的检测方法,其特征在于,所述步骤S2中还包括以下步骤:
S21、对每个跟踪的目标创建一个结构体并保留该目标的跟踪信息;
S22、在处理新帧时将上一帧记录的目标所有质心与当前帧每个运动目标质心一一比对求欧式距离。
3.根据权利要求2所述的检测方法,其特征在于,所述步骤S36中还包括以下步骤:
S361、将提取的运动目标时空特征送入打斗分类器中进行分类。
4.根据权利要求3所述的检测方法,其特征在于,所述步骤S1中采集视频流的网络摄像机采用顶视安装的方式进行安装。
5.根据权利要求4所述的检测方法,其特征在于,所述步骤S4中的质心计算公式为:
Figure FDA0003206565890000021
其中,f(x,y)为图像(x,y)处的像素值。
6.根据权利要求5所述的检测方法,其特征在于,所述步骤S34中还包括以下步骤:
S341、对运动矢量通过加入阈值处理过滤掉噪声干扰。
7.根据权利要求6所述的检测方法,其特征在于,所述运动矢量去噪公式为:
Figure FDA0003206565890000031
其中,Mi表示宏块i的运动矢量,Mix和Miy分别代表水平和垂直分量,阈值为T。
8.根据权利要求1-7任一项所述的检测方法,其特征在于,所述步骤S1之前还包括以下步骤:
S0、采集一定数量人员分类正负样本训练人员分类器模型,采集单人打砸行为和双人打斗行为正负样本训练打砸和打斗模型。
CN201711446103.0A 2017-12-27 2017-12-27 一种应用于atm机舱内用户异常行为的检测方法 Active CN108898042B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711446103.0A CN108898042B (zh) 2017-12-27 2017-12-27 一种应用于atm机舱内用户异常行为的检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711446103.0A CN108898042B (zh) 2017-12-27 2017-12-27 一种应用于atm机舱内用户异常行为的检测方法

Publications (2)

Publication Number Publication Date
CN108898042A CN108898042A (zh) 2018-11-27
CN108898042B true CN108898042B (zh) 2021-10-22

Family

ID=64342182

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711446103.0A Active CN108898042B (zh) 2017-12-27 2017-12-27 一种应用于atm机舱内用户异常行为的检测方法

Country Status (1)

Country Link
CN (1) CN108898042B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109711334B (zh) * 2018-12-26 2021-02-05 浙江捷尚视觉科技股份有限公司 一种基于时空光流场的atm尾随事件检测方法
CN111415528B (zh) * 2019-01-07 2022-07-22 长沙智能驾驶研究院有限公司 道路安全预警方法、装置、路侧单元及存储介质
WO2020258102A1 (zh) * 2019-06-26 2020-12-30 深圳市欢太科技有限公司 内容推送方法、装置、移动终端及存储介质
CN110309765B (zh) * 2019-06-27 2021-08-24 浙江工业大学 一种视频运动目标高效检测方法
CN111310733B (zh) * 2020-03-19 2023-08-22 成都云盯科技有限公司 基于监控视频的人员进出检测方法、装置和设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739568A (zh) * 2009-11-04 2010-06-16 北京交通大学 基于分层观测向量分解的隐马尔科夫模型的行为识别方法
CN102663452A (zh) * 2012-04-14 2012-09-12 中国人民解放军国防科学技术大学 基于视频分析的可疑行为检测方法
CN103279737A (zh) * 2013-05-06 2013-09-04 上海交通大学 一种基于时空兴趣点的打架行为检测方法
CN104239851A (zh) * 2014-07-25 2014-12-24 重庆科技学院 基于行为分析的智能小区巡检系统及其控制方法
CN104732208A (zh) * 2015-03-16 2015-06-24 电子科技大学 基于稀疏子空间聚类的视频人体行为识别方法
CN104766051A (zh) * 2015-03-20 2015-07-08 北京交通大学 基于结构化的特征图的人体行为识别方法
CN106355162A (zh) * 2016-09-23 2017-01-25 江西洪都航空工业集团有限责任公司 一种基于视频监控的入侵检测方法
CN106407903A (zh) * 2016-08-31 2017-02-15 四川瞳知科技有限公司 基于多尺度卷积神经网络的实时人体异常行为识别方法
CN107341452A (zh) * 2017-06-20 2017-11-10 东北电力大学 基于四元数时空卷积神经网络的人体行为识别方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739568A (zh) * 2009-11-04 2010-06-16 北京交通大学 基于分层观测向量分解的隐马尔科夫模型的行为识别方法
CN102663452A (zh) * 2012-04-14 2012-09-12 中国人民解放军国防科学技术大学 基于视频分析的可疑行为检测方法
CN103279737A (zh) * 2013-05-06 2013-09-04 上海交通大学 一种基于时空兴趣点的打架行为检测方法
CN104239851A (zh) * 2014-07-25 2014-12-24 重庆科技学院 基于行为分析的智能小区巡检系统及其控制方法
CN104732208A (zh) * 2015-03-16 2015-06-24 电子科技大学 基于稀疏子空间聚类的视频人体行为识别方法
CN104766051A (zh) * 2015-03-20 2015-07-08 北京交通大学 基于结构化的特征图的人体行为识别方法
CN106407903A (zh) * 2016-08-31 2017-02-15 四川瞳知科技有限公司 基于多尺度卷积神经网络的实时人体异常行为识别方法
CN106355162A (zh) * 2016-09-23 2017-01-25 江西洪都航空工业集团有限责任公司 一种基于视频监控的入侵检测方法
CN107341452A (zh) * 2017-06-20 2017-11-10 东北电力大学 基于四元数时空卷积神经网络的人体行为识别方法

Also Published As

Publication number Publication date
CN108898042A (zh) 2018-11-27

Similar Documents

Publication Publication Date Title
CN108898042B (zh) 一种应用于atm机舱内用户异常行为的检测方法
CN106056079B (zh) 一种图像采集设备及人脸五官的遮挡检测方法
CN113011367B (zh) 一种基于目标轨迹的异常行为分析方法
CN103839085B (zh) 一种列车车厢异常人群密度的检测方法
CN106997452B (zh) 活体验证方法及装置
CN110390229B (zh) 一种人脸图片筛选方法、装置、电子设备及存储介质
CN111401311A (zh) 一种基于图像检测的高空抛物识别方法
CN102663362B (zh) 一种基于灰度特征的运动目标检测方法
CN102034240A (zh) 一种静态前景检测和跟踪方法
CN107911663A (zh) 一种基于计算机视觉检测的电梯乘客危险行为智能识别预警系统
CN110866454B (zh) 人脸活体检测方法及系统、计算机可读取的存储介质
CN110674680B (zh) 活体识别的方法、装置、存储介质
CN112215043A (zh) 一种人脸活体检测方法
CN110059634B (zh) 一种大场景人脸抓拍方法
KR101646000B1 (ko) 지정된 사물 및 영역에 대한 감시시스템 및 감시방법
Du et al. Abnormal event detection in crowded scenes based on structural multi-scale motion interrelated patterns
CN115035564A (zh) 基于巡逻车智能摄像机的人脸识别方法、系统及相关组件
WO2016019973A1 (en) Method for determining stationary crowds
Tang et al. Background subtraction using running Gaussian average and frame difference
CN113920585A (zh) 行为识别方法及装置、设备和存储介质
CN113657250A (zh) 一种基于监控视频的火焰检测方法及系统
Vashistha et al. An architecture to identify violence in video surveillance system using ViF and LBP
CN115984973B (zh) 一种用于防偷窥屏幕的人体异常行为监测方法
Lee et al. Hostile intent and behaviour detection in elevators
CN110572618B (zh) 一种非法拍照行为监控方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant