CN117523668A - 时空动作网络的异常行为检测方法 - Google Patents

时空动作网络的异常行为检测方法 Download PDF

Info

Publication number
CN117523668A
CN117523668A CN202311522732.2A CN202311522732A CN117523668A CN 117523668 A CN117523668 A CN 117523668A CN 202311522732 A CN202311522732 A CN 202311522732A CN 117523668 A CN117523668 A CN 117523668A
Authority
CN
China
Prior art keywords
network
video
abnormal behavior
space
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311522732.2A
Other languages
English (en)
Inventor
梁金威
赵瑞玮
冯瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202311522732.2A priority Critical patent/CN117523668A/zh
Publication of CN117523668A publication Critical patent/CN117523668A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种时空动作网络的异常行为检测方法,具有这样的特征,包括以下步骤:步骤S1,对视频数据进行预处理,得到预处理视频;步骤S2,构建初始时空动作网络模型,并根据现有视频数据构建训练数据集对初始时空动作网络模型进行训练,得到时空动作网络模型;步骤S3,将预处理视频输入时空动作网络模型,得到异常行为检测结果。总之,本方法能够在具有较快检测速度的同时保持较高的检测准确率。

Description

时空动作网络的异常行为检测方法
技术领域
本发明涉及计算机视觉中的目标检测和动作分类领域,具体涉及一种时空动作网络的异常行为检测方法。
背景技术
随着经济条件的不断提高,也是社会治安和社会安全得到大力增强的体现,交通运输系统和公共场合的监控摄像头的数量逐年攀升,覆盖的范围以及覆盖率也在逐年提升。随着监控系统越来越庞大,海量的安防视频数据也随之而来,而对视频画面中异常事件的检测和事故产生的原因分析等任务需要人来进行分析和处理,这需要工作人员长时间一刻不停地观察众多的监控视频,可想而知,任务工作量是多么巨大。然而,如果纯粹靠人去观察监控视频,由于人的注意力不可能长时间始终保持高度集中,而且每天需要三分之一左右的时间休息,这会导致在监控中会存在漏检和误检等情况,从而导致整个安防的安全性和实用性的降低。当今,交通出行便利,人们的活动范围广阔,现实中发生的异常行为事件就变得更加多种多样,有的行为事件异常与否可能不易辨别,甚至不易察觉,这样一来,情况越来越复杂,大大增大了视频监控技术难度。为此,基于计算机视觉的智能视频监控技术应运而生,用以辅助监控人员的工作。
所谓的智能视频监控技术,就是为了让摄像头模拟人的眼睛具备“看”的能力,让计算机模拟人的大脑具备决策能力,它通过计算机智能地对从监控摄像头中获取的视频数据进行计算和分析,以对监控场景中的画面内容进行理解,从而实现对异常行为的检测、识别、预警以及报警。异常行为检测由于其对安防监控领域的重要性和挑战性一直受到许多研究人员的关注。需要检测所输入视频中个人在某一场景中发生的不同寻常行为,如奔跑、行走、摔倒、投掷和攀爬等行为。
目前在异常行为检测应用上主要通过大规模的预训练模型通过迁移学习的方式应用在监控场景下,预训练模型由于通过大量的数据训练得到具有良好的泛化性。但是无法避免公开数据集AVA里的人物与监控视频场景下的人物特征差异较大,导致模型直接迁移预测性能不好。同时迁移到监控视频场景下的数据集进行训练时,数据集类别分布不平衡,导致模型重新训练时会偏向于数据量多的类别,造成个别数据量少的类别效果大打折扣。
总之,现有的异常行为检测还存在检测结果准确率低,检测速度较慢的问题。
发明内容
本发明是为了解决上述问题而进行的,目的在于提供一种时空动作网络的异常行为检测方法。
本发明提供了一种时空动作网络的异常行为检测方法,用于根据视频数据得到异常行为检测结果,具有这样的特征,包括以下步骤:步骤S1,对视频数据进行预处理,得到预处理视频;步骤S2,构建初始时空动作网络模型,并根据现有视频数据构建训练数据集对初始时空动作网络模型进行训练,得到时空动作网络模型;步骤S3,将预处理视频输入时空动作网络模型,得到异常行为检测结果,其中,时空动作网络模型包括:Yolov5目标检测网络模块,用于对预处理视频进行目标检测,得到标注有边界框的检测视频;SlowFast视频识别网络模块,用于对检测视频进行全局动作特征提取,得到全局特征;局部特征提取模块,用于根据边界框从全局特征中提取得到对应的局部特征;结果生成模块,包含线性分类器,用于根据局部特征得到异常行为检测结果。
在本发明提供的时空动作网络的异常行为检测方法中,还可以具有这样的特征:其中,在步骤S1中,预处理的具体操作为:对视频数据进行采样到固定帧数,并通过归一化和线性插值法调整视频帧至固定大小。
在本发明提供的时空动作网络的异常行为检测方法中,还可以具有这样的特征:其中,在Yolov5目标检测网络模块中,将预处理视频依次经由Focus网络和CSP网络处理,得到图像全局特征,对图像全局特征进行3次下采样,得到3种不同尺度的图像特征,将各个图像特征依次经由FPN网络和PAN网络融合特征,并分别传递至预测层进行边界框回归,得到检测视频。
在本发明提供的时空动作网络的异常行为检测方法中,还可以具有这样的特征:其中,SlowFast视频识别网络模块包括Fast网络分支和Slow网络分支,对大小为(T,H,W,C)的检测视频进行下采样得到大小为(T/8,H,W,C)的采样视频,将检测视频输入Fast网络分支,将采样视频输入Slow网络分支,由Fast网络分支和low网络分支中间层特征交替融合4次,得到全局特征。
在本发明提供的时空动作网络的异常行为检测方法中,还可以具有这样的特征:其中,SlowFast视频识别网络模块包含预训练的SlowFast模型,SlowFast模型的输出的类别设置为目标类别。
在本发明提供的时空动作网络的异常行为检测方法中,还可以具有这样的特征:其中,在局部特征提取模块中,对全局特征进行2D空间池化,得到池化结果,根据边界框使用ROIAlign从池化结果中提取目标动作特征,得到局部特征。
在本发明提供的时空动作网络的异常行为检测方法中,还可以具有这样的特征:其中,在初始时空动作网络模型的训练过程中,采用Focal_loss作为损失函数,采用GIOU_loss作为Yolov5目标检测网络模块的边界回归损失函数,并使用加权NMS非极大值抑制算法对预测边界框进行筛选。
发明的作用与效果
根据本发明所涉及的时空动作网络的异常行为检测方法,因为通过Yolov5目标检测网络模块获取目标在二维图像中的坐标,通过SlowFast视频识别网络模块根据目标坐标从全局特征中提取局部特征,通过结果生成模块将两者组合起来实现时空动作网络用于异常行为检测。所以,本发明的时空动作网络的异常行为检测方法能够在具有较快检测速度的同时保持较高的检测准确率。
附图说明
图1是本发明的实施例中时空动作网络的异常行为检测方法的原理示意图;
图2是本发明的实施例中时空动作网络的异常行为检测方法的流程示意图;
图3是本发明的实施例中时空动作网络模型的框图;
图4是本发明的实施例中SlowFast视频识别网络模块生成全局特征的工作原理示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下实施例结合附图对本发明时空动作网络的异常行为检测方法作具体阐述。
图1是本发明的实施例中时空动作网络的异常行为检测方法的原理示意图。
如图1所示,本实施例的时空动作网络的异常行为检测方法用于根据视频数据得到人物的异常行为检测结果,将视频数据经由目标检测网络得到标记有边界框的异常视频片段,再将该异常视频片段输入动作特征提取网络得到全局特征,再通过提取人物特征网络根据边界框从全局特征中提取局部特征进而得到异常行为检测结果,例如摔倒等。
图2是本发明的实施例中时空动作网络的异常行为检测方法的流程示意图。
如图2所示,本实施例的时空动作网络的异常行为检测方法包括以下步骤:
步骤S1,对视频数据进行预处理,得到预处理视频。
其中,在步骤S1中,预处理的具体操作为:对视频数据进行采样到固定帧数,并通过归一化和线性插值法调整视频帧至固定大小。
本实施例中对尺寸大小为w*h的视频帧进行比例缩放至尺寸大小为w1*h1的视频帧,具体步骤为:
首先,将w缩放为w1;其次,计算图像缩放比例因子x=min(w/w1,h/h1),最后计算h1=(h*x)mod32+h,得到为32倍数的h1。
步骤S2,构建初始时空动作网络模型,并根据现有视频数据构建训练数据集对初始时空动作网络模型进行训练,得到时空动作网络模型。
图3是本发明的实施例中时空动作网络模型的框图。
如图3所示,本实施例的时空动作网络模型1包括Yolov5目标检测网络模块10、SlowFast视频识别网络模块20、局部特征提取模块30和结果生成模块40。
Yolov5目标检测网络模块10包含上述的目标检测网络,用于对预处理视频进行目标检测,得到标注有边界框的检测视频。
其中,在Yolov5目标检测网络模块10中,将预处理视频依次经由Focus网络和CSP网络处理,得到图像全局特征,对图像全局特征进行3次下采样,得到3种不同尺度的图像特征,将各个图像特征依次经由FPN网络和PAN网络融合特征,并分别传递至预测层进行边界框回归,得到检测视频。
本实施例中大小为(w,h)的预处理视频经由Focus网络后特征尺寸为(w/2,h/2),再经由CSP网络后特征尺寸为(w/32,h/32),3种图像特征的特征尺寸分别为(w/8,h/8)、(w/16,h/16)和(w/32,h/32)。
SlowFast视频识别网络模块20用于对检测视频进行全局动作特征提取,得到全局特征。
其中,SlowFast视频识别网络模块20包括Fast网络分支201和Slow网络分支202,对大小为(T,H,W,C)的检测视频进行下采样得到大小为(T/8,H,W,C)的采样视频,本实施例中T代表视频帧的数量,C代表图像的维度,H代表视频帧的高度,W代表视频帧的宽度。
图4是本发明的实施例中SlowFast视频识别网络模块生成全局特征的工作原理示意图。
如图4所示,将检测视频输入Fast网络分支201,将采样视频输入Slow网络分支202,Fast网络分支201根据检测视频依次生成第一Fast特征、第二Fast特征和第三Fast特征,Slow网络202分支根据采样视频生成第一Slow特征,根据第一Fast特征和第一Slow特征生成第二Slow特征,根据第二Fast特征和第二Slow特征生成第三Slow特征,SlowFast视频识别网络模块20根据第三Fast特征和第三Slow特征进行融合得到全局特征,即由Fast网络分支201和Slow网络分支202中间层特征交替融合4次得到全局特征。
其中,SlowFast视频识别网络模块包含预训练的SlowFast模型即上述的动作特征提取网络,SlowFast模型的输出的类别设置为目标类别。
本实施例中将未修改SlowFast分类头即类别未重新设置的SlowFast模型作为未修改SlowFast模型,在现有数据集下将其与SlowFast模型进行性能比较,得出包含未修改SlowFast模型的时空动作网络模型1的预测精度为64%,包含SlowFast模型的时空动作网络模型1的预测精度为70%,可见通过设置目标类别能够提高模型预测精度。
局部特征提取模块30包含上述的提取人物特征网络,用于根据边界框从全局特征中提取得到对应的局部特征。
其中,在局部特征提取模块30中,对全局特征进行2D空间池化得到池化结果,根据边界框使用ROIAlign从池化结果中提取目标动作特征,得到局部特征,本实施例中局部特征的空间大小为7*7。
结果生成模块40包含线性分类器,用于根据局部特征得到异常行为检测结果。
其中,在初始时空动作网络模型的训练过程中,采用Focal_loss作为损失函数,采用GIOU_loss作为Yolov5目标检测网络模块10的边界回归损失函数,并使用加权NMS非极大值抑制算法对预测边界框进行筛选,本实施例中对初始时空动作网络模型进行训练直至初始时空动作网络模型的准确率大于预设的阈值,本实施例中通过Focal_loss代替交叉熵loss缓解训练数据的类别不平衡问题。
步骤S3,将预处理视频输入时空动作网络模型,得到异常行为检测结果。
实施例的作用与效果
根据本实施例所涉及的时空动作网络的异常行为检测方法,通过Yolov5目标检测网络模块获取目标在二维图像中的坐标,通过SlowFast视频识别网络模块根据目标坐标从全局特征中提取局部特征,通过结果生成模块将两者组合起来实现时空动作网络用于异常行为检测。
本实施例中还通过设置Focal_loss作为时空动作网络模型的损失函数,从而有效缓解了数据不平衡问题导致模型对某个类别的准确率较低。
总之,本方法能够在具有较快检测速度的同时保持较高的检测准确率。
上述实施方式为本发明的优选案例,并不用来限制本发明的保护范围。

Claims (7)

1.一种时空动作网络的异常行为检测方法,用于根据视频数据得到异常行为检测结果,其特征在于,包括以下步骤:
步骤S1,对所述视频数据进行预处理,得到预处理视频;
步骤S2,构建初始时空动作网络模型,并根据现有视频数据构建训练数据集对所述初始时空动作网络模型进行训练,得到时空动作网络模型;
步骤S3,将所述预处理视频输入所述时空动作网络模型,得到所述异常行为检测结果,
其中,所述时空动作网络模型包括:
Yolov5目标检测网络模块,用于对所述预处理视频进行目标检测,得到标注有边界框的检测视频;
SlowFast视频识别网络模块,用于对所述检测视频进行全局动作特征提取,得到全局特征;
局部特征提取模块,用于根据所述边界框从所述全局特征中提取得到对应的局部特征;
结果生成模块,包含线性分类器,用于根据所述局部特征得到所述异常行为检测结果。
2.根据权利要求1所述的时空动作网络的异常行为检测方法,其特征在于:
其中,在所述步骤S1中,所述预处理的具体操作为:
对所述视频数据进行采样到固定帧数,并通过归一化和线性插值法调整视频帧至固定大小。
3.根据权利要求1所述的时空动作网络的异常行为检测方法,其特征在于:
其中,在所述Yolov5目标检测网络模块中,将所述预处理视频依次经由Focus网络和CSP网络处理,得到图像全局特征,对所述图像全局特征进行3次下采样,得到3种不同尺度的图像特征,将各个所述图像特征依次经由FPN网络和PAN网络融合特征,并分别传递至预测层进行边界框回归,得到所述检测视频。
4.根据权利要求1所述的时空动作网络的异常行为检测方法,其特征在于:
其中,所述SlowFast视频识别网络模块包括Fast网络分支和Slow网络分支,
对大小为(T,H,W,C)的所述检测视频进行下采样得到大小为(T/8,H,W,C)的采样视频,
将所述检测视频输入所述Fast网络分支,将所述采样视频输入所述Slow网络分支,由所述Fast网络分支和所述low网络分支中间层特征交替融合4次,得到所述全局特征。
5.根据权利要求1所述的时空动作网络的异常行为检测方法,其特征在于:
其中,所述SlowFast视频识别网络模块包含预训练的SlowFast模型,所述SlowFast模型的输出的类别设置为目标类别。
6.根据权利要求1所述的时空动作网络的异常行为检测方法,其特征在于:
其中,在所述局部特征提取模块中,对所述全局特征进行2D空间池化,得到池化结果,根据所述边界框使用ROIAlign从所述池化结果中提取目标动作特征,得到所述局部特征。
7.根据权利要求1所述的时空动作网络的异常行为检测方法,其特征在于:
其中,在所述初始时空动作网络模型的训练过程中,采用Focal_loss作为损失函数,
采用GIOU_loss作为所述Yolov5目标检测网络模块的边界回归损失函数,并使用加权NMS非极大值抑制算法对预测边界框进行筛选。
CN202311522732.2A 2023-11-15 2023-11-15 时空动作网络的异常行为检测方法 Pending CN117523668A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311522732.2A CN117523668A (zh) 2023-11-15 2023-11-15 时空动作网络的异常行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311522732.2A CN117523668A (zh) 2023-11-15 2023-11-15 时空动作网络的异常行为检测方法

Publications (1)

Publication Number Publication Date
CN117523668A true CN117523668A (zh) 2024-02-06

Family

ID=89762123

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311522732.2A Pending CN117523668A (zh) 2023-11-15 2023-11-15 时空动作网络的异常行为检测方法

Country Status (1)

Country Link
CN (1) CN117523668A (zh)

Similar Documents

Publication Publication Date Title
KR101942808B1 (ko) 객체 이미지 인식 dcnn 기반 cctv 영상분석장치
EP2118864B1 (en) Behavioral recognition system
KR101925907B1 (ko) 신경망 생성 모델을 이용한 객체 움직임 패턴 학습장치 및 그 방법
CN111209810A (zh) 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构
US20160078287A1 (en) Method and system of temporal segmentation for gesture analysis
KR102149832B1 (ko) 딥러닝 기반의 자동 폭력 감지 시스템
CN113239822A (zh) 基于时空双流卷积神经网络的危险行为检测方法及系统
KR102391853B1 (ko) 영상 정보 처리 시스템 및 방법
WO2016019973A1 (en) Method for determining stationary crowds
Kalaivani et al. Towards comprehensive understanding of event detection and video summarization approaches
KR20160093253A (ko) 영상 기반 이상 흐름 감지 방법 및 그 시스템
CN116310922A (zh) 石化厂区监控视频风险识别方法、系统、电子设备及存储介质
CN114764895A (zh) 异常行为检测装置和方法
CN113239766A (zh) 基于深度神经网络的行为识别方法及智能报警装置
CN112487961A (zh) 一种交通事故检测方法、存储介质及设备
JP7372391B2 (ja) 入力データにおける異常を検知するための概念
CN117523668A (zh) 时空动作网络的异常行为检测方法
KR20130047131A (ko) 이동형 단말기를 이용한 영상감시 방법 및 시스템
Sathiyavathi et al. Smart Surveillance System for Abnormal Activity Detection Using CNN
KR20230039468A (ko) 영상의 객체 간 상호작용행위 검출 장치 및 방법
Teja et al. Man-on-man brutality identification on video data using Haar cascade algorithm
Bangare et al. An approach for detecting abandoned object from real time video
Rahman et al. Real-time anomaly detection and classification from surveillance cameras using Deep Neural Network
Aarthy et al. Crowd Violence Detection in Videos Using Deep Learning Architecture
Padmaja et al. Crowd abnormal behaviour detection using convolutional neural network and bidirectional LSTM

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination