CN111898418A - 一种基于t-tiny-yolo网络的人体异常行为检测方法 - Google Patents
一种基于t-tiny-yolo网络的人体异常行为检测方法 Download PDFInfo
- Publication number
- CN111898418A CN111898418A CN202010554954.2A CN202010554954A CN111898418A CN 111898418 A CN111898418 A CN 111898418A CN 202010554954 A CN202010554954 A CN 202010554954A CN 111898418 A CN111898418 A CN 111898418A
- Authority
- CN
- China
- Prior art keywords
- tiny
- network
- yolo network
- yolo
- abnormal behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于T‑TINY‑YOLO网络的人体异常行为检测方法,属于计算机视觉中的图像、视频分析与处理技术领域;具体步骤为:首先,根据不同监控场景,选取一段时间内的视频序列,转化为图片保存并进行预处理;使用标注工具对每张图片中包括的指、推、拥抱和站立四种人类异常行为进行标注,并生成xml文件作为数据集;然后,将数据集划分为训练样本和验证样本,输入改进的T‑TINY‑YOLO网络模型进行训练和验证;最后,针对新的监控视频帧图片,通过预处理后直接输入训练好的T‑TINY‑YOLO网络模型中,输出人类异常行为的标定结果所属类别,实现端到端的异常行为分类。本发明裁剪了网络的大小,解决了网络冗余的问题,加速算法,使得网络的检测及时间利用更加有效。
Description
技术领域
本发明涉及一种基于T-TINY-YOLO网络的人体异常行为检测方法,属于计算机视觉中的图像、视频分析与处理技术领域。
背景技术
随着成像设备的提高和公共交通安全防范意识的加强,人们对于视频检测及异常状况检测的需求也随之加大,视频检测在各个领域都得到了广泛的应用,例如民用防盗,大气观测,灾情监控,敌情侦察和农林植被保护等等,这同时也对异常目标检测的处理方式及速度还有应用层次提出了更高的要求。若要针对视频流中的目标进行检测,需要弄清判定异常目标检测与普通的目标检测之间的联系及差异。
传统的目标检测与识别方法由以下几个步骤构成:提取目标的特征、目标识别和目标定位。最具代表性的是2004年由David Lowe在计算机视觉国际会议提出的SIFT算法(即尺度不变特征变换),该算法以特征点匹配作为准则进行目标识别。以及2005年由N.Dalal等人在CVPR会议提出的HOG(histograms of oriented gradient)特征,它被应用于不同姿态和背景下的行人检测任务。Herbert Bay等人于2006年在ECCV会议上提出SURF算法(即加速稳健特征,Speeded Up Robust Features),在SIFT的基础上进行改进,达到了比SIFT快速且稳健的效果。
而随着神经网络的深入应用,目标检测在图像分类的任务中的出色表现获得了广泛关注。基于深度神经网络的目标检测框架主要分为两类:一类称之为双阶段目标检测框架;另一类称为单阶段目标检测框架,即一步到位地进行分类和回归任务。2014年,R.Girshick等人在CVPR上提出了基于深度神经网络和选择性搜索(selective search)的双阶段目标检测框架R-CNN,相比传统方法,它将VOC2012的目标检测准确率均值(mAP)提高了近三成,并且随后又涌现出一系列基于RCNN改进的方法如SPPNet、Fast-RCNN、Faster-RCNN,RFCN等。几乎与RCNN同一时期,Sermanet等人提出了一种集分类和定位于一体的单阶段目标检测网络模型“Overfeat”,并且在ILSVRC2013的检测任务竞赛中夺冠。
相比于将要提到的基于检测区域生成的方法来说,该方法采用的多尺度图像金字塔滑窗的方式无需考虑图像本身的特性,从而能够获得更高的运行速率,但也因此降低了检测的准确率。此后,Redmon等人提出了一个端对端的实时检测网络YOLO,以及其改良版本YOLOv2和YOLO9000,YOLOv2在PASCAL VOC和COCO的检测任务中均取得了优异的性能,而YOLO9000将检测种类扩展到了9000个以上。
对于需要检测的视频来说,采集的速率与清晰度部分程度上决定了检测的效果。而在传统的目标检测中,需要将目标与图像或图像中的感兴趣部分区分开,以确定目标是否存在。在复杂场景或实际应用中,不仅在判定目标的存在及异常行为判断上需要较高的准确度,对实时性能的要求也尤为重要。
而现有技术无法做到实时性和精确度的兼顾,为了提升准确率,许多网络的层数较深,卷积核数量庞大,准确率的提升造成了检测时间大大增加,且需要大型的服务器才能完成准确的检测,这对投入实际应用仍旧有一段距离。
基于视频中的异常目标检测技术是当下的研究热点,在人们的生活中有着广泛的应用,同时又涉及到公共安全、民用安防领域。对该算法的改进和小型化实时性的应用对维护社会稳定、节省人工成本有较大的裨益。
发明内容
本发明针对现有监控视频中人体异常行为的复杂多样难检测问题,提出一种基于T-TINY-YOLO网络的人体异常行为检测方法,在狭义范围内明确定义了几种异常行为,对YOLO网络的异常目标检测技术进行改进,围绕着实时性方面对网络进行剪裁;同时向嵌入式硬件平台TX2上进行移植并成功运行,得到精确的提取结果。
所述的基于T-TINY-YOLO网络的人体异常行为检测方法,包括以下步骤:
步骤一、首先根据不同监控场景,选取一段时间内的视频序列,转化为图片保存并进行预处理;
预处理包括:对视频流进行单帧截取,对截取到的单张图像进行色彩均衡化和归一化操作,从而将原始数据归一到相同尺度。
步骤二、使用标注工具对每张图片中包括的人类异常行为进行标注,并生成xml文件作为数据集;
异常行为标签包括四种:指、推、拥抱和站立;
步骤三、将数据集划分为训练样本和验证样本,输入T-TINY-YOLO网络模型进行训练和验证;
所述的T-TINY-YOLO网络模型是在原有TINY-YOLO网络模型的基础上进行改进得到的,具体改进体现在:
1)、将原TINY-YOLO网络模型中卷积层3-9层的输入卷积核数量都由32个减小为24个;或者将3层的卷积核数量由32个减小为24个,4-9层的卷积核数量分别对应各自减半;
2)、对每层卷积结束后的前馈输出output进行简化;
化简后的前馈输出output表达式如下:
b表示卷积核的偏移向量(bias),d代表该层输入的feature map矩阵,w表示所在层的权值矩阵,m表示单张feature map均值,v表示单张feature map的方差,s代表缩放系数向量(scale)。
3)、将网络中大量权重值接近于0的参数全部置0。
步骤四、针对新的监控视频帧图片,通过预处理后直接输入训练好的T-TINY-YOLO网络模型中,输出人类异常行为的标定结果所属类别,实现端到端的异常行为分类。
异常行为标定结果的类别包括四种:指、推、拥抱和站立。
本发明的特点及有益效果
(1)一种基于T-TINY-YOLO网络的人体异常行为检测方法,对于使用小型嵌入式平台来完成实时准确的异常目标检测具有重要的意义。
(2)一种基于T-TINY-YOLO网络的人体异常行为检测方法,相比于利用网络的层数加深来换取目标检测的准确度的YOLO网络,本发明裁剪了网络的大小,解决了网络冗余的问题,加速算法,使得网络的检测及时间利用更加有效。
(3)一种基于T-TINY-YOLO网络的人体异常行为检测方法,设计了简便的神经网络进行训练,不进行人体目标的提取而将其直接放到神经网络中,实现端到端的异常行为分类,并成功将pc机平台上训练的网络移植到小型嵌入式平台上,从而完成精简的异常目标检测,满足实时性准确性,进而在实用性上更进一步。
附图说明
图1是本发明一种基于T-TINY-YOLO网络的人体异常行为检测方法流程图;
图2是本发明采用的原TINY-YOLO网络中单层卷积计算过程示意图;
图3是本发明采用的原网络与T-TINY-YOLO网络各卷积层的输入尺寸结构对比图;
图4是本发明实施例中采用的T-TINY-YOLO网络输入输出结果;
图5是本发明实施例通过标签标定后在设计过的神经网络架构中进行训练的算法图;
图6是本发明实施例的系统整体流程图;
图7是本发明显示器识别四种人类行为的效果图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图对本发明作进一步的详细和深入描述。
异常目标检测算法研究的是:如何让计算机自动地找出视频序列中发生动作的位置,并识别出动作的类别。本发明提出了基于T-TINY-YOLO网络的人体异常行为检测方法,首先根据不同监控场景,对异常行为进行定义并标注,进而用简单标定的异常行为训练改进的T-TINY-YOLO网络模型,不进行人体异常目标的提取和分类,也不采用人体关键点的提取,识别和分析,而将其直接放到神经网络中,从而实现端到端的异常行为分类,实现对具体应用场景的异常目标检测。
进一步地,针对T-TINY-YOLO网络模型中存在的大量权重权值参数接近零的这一特性,本发明在视频检测中提出了卷积神经网络裁剪方案,设计T-TINY-YOLO网络以改进网络的冗余,加速算法,提高系统实时性。本发明通过在嵌入式平台上进行异常目标的准确检测,具有良好的应用效果,且满足检测的实时性。
所述的基于T-TINY-YOLO网络的人体异常行为检测方法,如图1所示,具体步骤如下:
步骤一、首先根据不同监控场景,选取一段时间内的视频序列进行帧截取,转化为图片保存并进行预处理;
预处理包括:对视频流进行单帧截取,对截取到的单张图像进行色彩均衡化和归一化操作,从而将原始数据归一到相同尺度。
步骤二、使用标注工具对每张图片中包括的人类异常行为进行标注,并生成xml文件作为数据集;
异常行为标签包括四种:指、推、拥抱和站立;
步骤三、将数据集划分为训练样本和验证样本,输入T-TINY-YOLO网络模型进行训练和验证;
所述的T-TINY-YOLO网络模型是在原有TINY-YOLO网络模型的基础上进行改进得到的,具体改进体现在:
1)、将原TINY-YOLO网络模型中卷积层3-9层的输入卷积核数量都由32个减小为24个;或者将3层的卷积核数量由32个减小为24个,4-9层的卷积核数量分别对应各自减半;
2)、对每层卷积结束后的前馈输出output进行简化;
化简后的前馈输出output表达式如下:
b表示卷积核的偏移向量(bias),d代表该层输入的feature map矩阵,w表示所在层的权值矩阵,m表示单张feature map均值,v表示单张feature map的方差,s代表缩放系数向量(scale)。
3)、将YOLO网络中大量权重值接近于0的权值参数全部置0。
本发明还可以通过裁剪网络的feature map通道数量,改进原有YOLO网络的冗余,加速算法,提高系统实时性。
步骤四、针对新的监控视频帧图片,通过预处理后直接输入训练好的T-TINY-YOLO网络模型中,输出人类异常行为的标定结果所属类别,实现端到端的异常行为分类。
异常行为标定结果的类别包括四种:指、推、拥抱和站立。
下面给出基于T-TINY-YOLO网络的网络结构及人体异常行为检测方法的一个具体实施实例,分为数据集的准备、神经网络的结构设计以及系统采集视频的流程及嵌入式平台整体设计。
首先,数据集的准备
本发明使用人类活动语义描述竞赛中的UT-Interaction数据集,其中包含6类人与人交互的视频序列:握手,指,拥抱,推,踢和拳。
将数据集输入网络之前,需要进行预处理:包括视频的帧截取,图像筛选和标签标定。Smart Player和Label Img等软件在实际中应用较多,可以完成上述预处理。其中,Smart Player软件用于视频数据转换和图像截取;Label Img软件用于图像标签的标定。
本发明选取数据集中的四种人类行为进行标注:首先将20段视频序列转化为图片保存,然后使用LabelImg标注工具,依据前文定义的识别规则标注部分图片,四种标签:指、推、拥抱和站立,并生成xml文件,整理成数据集。
本发明标定的四类人体行为图片共计900张,每一类225张,分为205张用于训练,20张用于验证。训练集810张,验证集90张。
然后,神经网络的裁剪模块
由于在异常目标检测的实际应用中,要求进行实时检测,需要算法具有较高的实时性,因此本发明选择YOLO算法的快速版本:TINY-YOLO作为算法框架。TINY-YOLO检测算法是YOLO-V3目标检测算法进行简化后的网络模型,但是在硬件资源十分有限的情况下,该TINY-YOLO网络模型在实际应用中仍然无法实现实时性检测。在此基础上,本发明对现有的网络结构进行裁剪以加速,具体的裁剪需要进行原有网络的进一步分析。
原TINY-YOLO网络中包含三种结构:卷积层、全连接层和最大池化层;卷积层的计算过程如图2所示,可见,卷积运算中运用了大量的矩阵乘加运算,因此耗时最多,该加乘运算是导致计算规模大幅增加的原因,因此需要对卷积层进行划分,从而达到减少计算负荷量的效果。由图2可知,其数值在网络的3-9层大部分为0,存在稀疏性。该特性可以在一定程度上提升网络性能,但对运算量增加的效果更为明显。
因此本发明剪裁网络的3-9层的输入卷积核数量,使得网络中接近于零的权重个数减少。对比训练后得出的N-TINY-YOLO网络与原TINY-YOLO网络的各卷积层输入特征图的结构如图3所示,本发明减少了卷积层中卷积核的输入数量,对feature map通道个数进行裁剪。针对第3层,图上标注的用以训练的卷积核个数由原先网络的32个(图中圈出的数字)减小为24个(箭头标注的数字),之后从4层到9层,每一个卷积层用于训练的卷积核个数对应减半。理论上,求解T-TINY-YOLO网络模型所有层的计算量之和total_calculation公式如下:
其中,layers表示T-TINY-YOLO网络模型的总层数;a表示单层卷积层输入的特征图的宽;h表示单层卷积层输入的特征图的高;in_c表示单层卷积层输入的特征图的通道数,k_size2表示卷积核的面积及大小(此处使用二维卷积核),out_c表示卷积核的个数。
同时,引入了Batch Normalization(简称BN)这一操作,该操作运用于每层卷积计算结束后,在网络的前馈时,其具体的输出output公式如式:
其中,b表示偏移向量(bias),d代表该层输入的feature map矩阵,w表示所在层的权值矩阵,m表示单张feature map均值,v表示单张feature map方差,s代表缩放系数向量(scale)。由观察发现,在所有的参数中,w、m、v、s和b这五个参数在进行网络训练后,由未知变为已知,仅d参数需要用到上一卷积层的结果。故对上式output表达式进行化简得到:
在对神经网络进行裁剪设计后训练,使之进行目标定位,进而对异常行为进行检测并输出坐标。如图4所示,全部流程实现了输入一张图像直接输出一张经过网络预测有检测结果的图像,即端到端的检测过程。向网络内输入的视频流,通过GPU的加速可以实时的显示异常行为的检测框。由于本发明是要通过标签标定后在设计过的神经网络架构中进行训练,并同时截取视频流读入系统,最终再移植到小型的嵌入式场景,因此在算法方面有较多步骤及流程,具体的算法结构如图5所示,首先,采集原始数据;包括:图像标记标签,训练数据和数据配置信息,然后,输入到服务器训练;先将原始数据进行二进制格式的转换,结合模型的配置信息开始训练:数据的读取,预处理,推断和计算损失,当收敛后进入嵌入式检测:将收敛结果结合视频流,依次经过FIFO,YOLO和目标框坐标合成新视频流,最终实现显示。
之后,系统采集视频
在所有算法的准备及训练完成后,实施例的系统整体流程如图6所示,本发明中所使用的系统分为摄像头、图像采集卡、嵌入式TX2和显示器四部分组成,选用了不同制式传输信息流。该发明实例采用实验室简单场景进行相关的仿真实验研究工作。
其中,嵌入式TX2通过调用底层V4L2驱动库实现从图像采集卡中读取视频流,本发明从内存分配的角度出发,构建临时FIFO队列用于存储视频流的每一帧图像。由底层V4L2库传递的视频流,首先进行标号,伸缩变换尺寸,转换帧格式等步骤,然后存入队列中,等待检测网络的读取。因为检测网络的处理速度(12帧每秒)小于视频流的帧率(30帧每秒),所以采用隔帧抽取的方法,适当丢弃多余帧,以保证队列的不溢出。
最后,嵌入式平台整体设计
最终得到人类异常行为的标定结果及判定,显示器识别四种人类行为的效果如图7所示,具体可根据实际内容进行适当修改。
本发明将PC机平台上训练的召回率及精确率提升到85%以上,进而移植到小型嵌入式平台上,完成了实时性及精确检测。
以上所述仅为本发明的一个实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于T-TINY-YOLO网络的人体异常行为检测方法,其特征在于,包括以下步骤:
步骤一、首先根据不同监控场景,选取一段时间内的视频序列,转化为图片保存并进行预处理;
步骤二、使用标注工具对每张图片中包括的人类异常行为进行标注,并生成xml文件作为数据集;
异常行为标签包括四种:指、推、拥抱和站立;
步骤三、将数据集划分为训练样本和验证样本,输入T-TINY-YOLO网络模型进行训练和验证;
所述的T-TINY-YOLO网络模型是在原有TINY-YOLO网络模型的基础上进行改进得到的,具体改进体现在:
1)、将原TINY-YOLO网络模型中卷积层3-9层的输入卷积核数量都由32个减小为24个;或者将3层的卷积核数量由32个减小为24个,4-9层的卷积核数量分别对应各自减半;
2)、对每层卷积结束后的前馈输出output进行简化;
化简后的前馈输出output表达式如下:
b表示卷积核的偏移向量,d代表该层输入的feature map矩阵,w表示所在层的权值矩阵,m表示单张feature map均值,v表示单张feature map的方差,s代表缩放系数向量;
3)、将网络中大量权重值接近于0的参数全部置0;
步骤四、针对新的监控视频帧图片,通过预处理后直接输入训练好的T-TINY-YOLO网络模型中,输出人类异常行为的标定结果所属类别,实现端到端的异常行为分类。
2.如权利要求1所述的一种基于T-TINY-YOLO网络的人体异常行为检测方法,其特征在于,所述的步骤一中,预处理包括:对视频流进行单帧截取,对截取到的单张图像进行色彩均衡化和归一化操作,从而将原始数据归一到相同尺度。
3.如权利要求1所述的一种基于T-TINY-YOLO网络的人体异常行为检测方法,其特征在于,所述的步骤四中,异常行为标定结果的类别包括四种:指、推、拥抱和站立。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010554954.2A CN111898418A (zh) | 2020-06-17 | 2020-06-17 | 一种基于t-tiny-yolo网络的人体异常行为检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010554954.2A CN111898418A (zh) | 2020-06-17 | 2020-06-17 | 一种基于t-tiny-yolo网络的人体异常行为检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111898418A true CN111898418A (zh) | 2020-11-06 |
Family
ID=73206803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010554954.2A Pending CN111898418A (zh) | 2020-06-17 | 2020-06-17 | 一种基于t-tiny-yolo网络的人体异常行为检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111898418A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112435240A (zh) * | 2020-11-25 | 2021-03-02 | 江苏集萃未来城市应用技术研究所有限公司 | 一种面向工人违规使用手机的深度视觉手机检测系统 |
CN112885096A (zh) * | 2021-02-05 | 2021-06-01 | 同济大学 | 依赖桥梁拱肋的桥面交通流全视场感知系统及方法 |
CN117523318A (zh) * | 2023-12-26 | 2024-02-06 | 宁波微科光电股份有限公司 | 一种抗光干扰的地铁屏蔽门异物检测方法、装置及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106407903A (zh) * | 2016-08-31 | 2017-02-15 | 四川瞳知科技有限公司 | 基于多尺度卷积神经网络的实时人体异常行为识别方法 |
CN110765964A (zh) * | 2019-10-30 | 2020-02-07 | 常熟理工学院 | 基于计算机视觉的电梯轿厢内异常行为的检测方法 |
CN111079540A (zh) * | 2019-11-19 | 2020-04-28 | 北航航空航天产业研究院丹阳有限公司 | 一种基于目标特性的分层可重构车载视频目标检测方法 |
-
2020
- 2020-06-17 CN CN202010554954.2A patent/CN111898418A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106407903A (zh) * | 2016-08-31 | 2017-02-15 | 四川瞳知科技有限公司 | 基于多尺度卷积神经网络的实时人体异常行为识别方法 |
CN110765964A (zh) * | 2019-10-30 | 2020-02-07 | 常熟理工学院 | 基于计算机视觉的电梯轿厢内异常行为的检测方法 |
CN111079540A (zh) * | 2019-11-19 | 2020-04-28 | 北航航空航天产业研究院丹阳有限公司 | 一种基于目标特性的分层可重构车载视频目标检测方法 |
Non-Patent Citations (2)
Title |
---|
HONGXIA JI 等: "Human Abnormal Behavior Detection Method based on T-TINY-YOLO", 《PROCEEDINGS OF HE 5TH INTERNATIONAL CONFERENCE ON MULTIMEDIA AND IMAGE PROCESSING》 * |
孙宝聪: "基于图像检测的机场人员异常行为分析技术研究", 《数字通信世界》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112435240A (zh) * | 2020-11-25 | 2021-03-02 | 江苏集萃未来城市应用技术研究所有限公司 | 一种面向工人违规使用手机的深度视觉手机检测系统 |
CN112435240B (zh) * | 2020-11-25 | 2022-05-24 | 江苏集萃未来城市应用技术研究所有限公司 | 一种面向工人违规使用手机的深度视觉手机检测系统 |
CN112885096A (zh) * | 2021-02-05 | 2021-06-01 | 同济大学 | 依赖桥梁拱肋的桥面交通流全视场感知系统及方法 |
CN117523318A (zh) * | 2023-12-26 | 2024-02-06 | 宁波微科光电股份有限公司 | 一种抗光干扰的地铁屏蔽门异物检测方法、装置及介质 |
CN117523318B (zh) * | 2023-12-26 | 2024-04-16 | 宁波微科光电股份有限公司 | 一种抗光干扰的地铁屏蔽门异物检测方法、装置及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Cloud shape classification system based on multi-channel cnn and improved fdm | |
EP2808827B1 (en) | System and method for OCR output verification | |
JP2016134175A (ja) | ワイルドカードを用いてテキスト−画像クエリを実施するための方法およびシステム | |
CN111898418A (zh) | 一种基于t-tiny-yolo网络的人体异常行为检测方法 | |
CN103988232A (zh) | 使用运动流形来改进图像匹配 | |
WO2024060684A1 (zh) | 模型训练方法、图像处理方法、设备及存储介质 | |
CN110188766B (zh) | 基于卷积神经网络的图像主目标检测方法及装置 | |
Wang et al. | S 3 d: scalable pedestrian detection via score scale surface discrimination | |
Hussain et al. | A simple and efficient deep learning-based framework for automatic fruit recognition | |
Geng et al. | An improved helmet detection method for YOLOv3 on an unbalanced dataset | |
CN113378675A (zh) | 一种同时检测和特征提取的人脸识别方法 | |
Ozdemir et al. | Comparison of deep learning techniques for classification of the insects in order level with mobile software application | |
Wang et al. | Pig face recognition model based on a cascaded network | |
Yang et al. | Increaco: incrementally learned automatic check-out with photorealistic exemplar augmentation | |
Kumar et al. | Drone-based apple detection: Finding the depth of apples using YOLOv7 architecture with multi-head attention mechanism | |
CN113723558A (zh) | 基于注意力机制的遥感图像小样本舰船检测方法 | |
Marasović et al. | Person classification from aerial imagery using local convolutional neural network features | |
Elguebaly et al. | Model-based approach for high-dimensional non-Gaussian visual data clustering and feature weighting | |
Eldho et al. | YOLO based Logo detection | |
CN115063831A (zh) | 一种高性能行人检索与重识别方法及装置 | |
CN114170625A (zh) | 一种上下文感知、噪声鲁棒的行人搜索方法 | |
Wachs et al. | Recognizing Human Postures and Poses in Monocular Still Images. | |
Devi Priya et al. | Automated cattle classification and counting using hybridized mask R-CNN and YOLOv3 algorithms | |
Dhar et al. | Fish image classification by XgBoost based on Gist and GLCM Features | |
Quach et al. | Tomato Health Monitoring System: Tomato Classification, Detection, and Counting System Based on YOLOv8 Model with Explainable MobileNet Models using Grad-CAM++ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201106 |
|
RJ01 | Rejection of invention patent application after publication |