CN112381032B - 抗人体姿态干扰的室内无人值守快速检测方法 - Google Patents
抗人体姿态干扰的室内无人值守快速检测方法 Download PDFInfo
- Publication number
- CN112381032B CN112381032B CN202011335196.1A CN202011335196A CN112381032B CN 112381032 B CN112381032 B CN 112381032B CN 202011335196 A CN202011335196 A CN 202011335196A CN 112381032 B CN112381032 B CN 112381032B
- Authority
- CN
- China
- Prior art keywords
- human body
- training
- model
- training set
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 76
- 238000012549 training Methods 0.000 claims abstract description 72
- 230000003321 amplification Effects 0.000 claims abstract description 18
- 238000003199 nucleic acid amplification method Methods 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 11
- 238000013145 classification model Methods 0.000 claims abstract description 10
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000012544 monitoring process Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 10
- 238000013526 transfer learning Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000013480 data collection Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 244000081841 Malus domestica Species 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000013106 supervised machine learning method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了抗人体姿态干扰的室内无人值守快速检测方法。所述方法包括以下步骤:收集图像并进行标定,生成原始训练集;对图像进行预处理,生成综合扩增训练集;随机选取类别数为n的非人体普通物体的图片作为数据来预训练一个物体检测的多分类模型,获得模型参数初始化值;将预训练得到的模型参数来初始化人体检测模型的部分参数,并将人体检测模型的分类结构改为二分类;将得到的综合扩增训练集作为输入训练集,对改变分类结构后的人体检测模型进行训练;获取待检测图像,对待检测图像进行预处理并训练完成的人体检测模型,完成抗人体姿态干扰的室内无人值守快速检测。本发明可以在很大程度上克服人体姿态干扰的问题。
Description
技术领域
本发明涉及计算机智能安全监控领域,具体涉及抗人体姿态干扰的室内无人值守快速检测方法。
背景技术
随着大数据、智能化时代的来临,监控视频作为智能监控系统的核心部分,一直受到广泛的关注。视频画面中的海量数据可以借助计算机处理器强大的计算能力进行高速分析与检索,并根据需求提取视频中的关键信息,进行标记和处理,然后根据处理结果,形成相应事件和告警信息。在视频分析技术出现之前,针对大量的视频的处理,仍然主要通过人工方式进行筛选和检查,其效率相对低下(A.Kolarow et al.,"APFel:The intelligentvideo analysis and surveillance system for assisting human operators,"201310th IEEE International Conference on Advanced Video and Signal BasedSurveillance,Krakow,2013,pp.195-201.)。人为监控系统存在着许多问题,响应速度慢、漏报率高、可行性低等。因此充分发挥了视频监控的自动化和实时性,解放人工劳动力,这对安防领域乃至人们生活水平的提高有着至关重要的作用(Li-Qun Xu,"Issues in videoanalytics and surveillance systems:Research/prototyping vs.applications/userrequirements,"2007IEEE Conference on Advanced Video and Signal BasedSurveillance,London,2007,pp.10-14.)。为了满足辅助甚至是自动检索或监控视频摄像的需求,很多自动/半自动算法应运而生。
在传统的人体检测领域,通常使用经典监督机器学习方法,这种方法需要人工设计特征提取的方式,包括加速分段测试(FAST)(Rosten,Edward,and Tom Drummond."Machine learning for high-speed corner detection."European conference oncomputer vision.Springer,Berlin,Heidelberg,2006.),尺度不变特征变换(SIFT)(Lowe,David G."Distinctive image features from scale-invariant keypoints."International journal of computer vision 60.2(2004):91-110.),有效特征外观模型(AAMs)(Matthews,Iain,and Simon Baker."Active appearance models revisited."International journal of computer vision 60.2(2004):135-164.Tzimiropoulos,Georgios,and Maja Pantic."Optimization problems for fast aam fitting in-the-wild."Proceedings of the IEEE international conference on computervision.2013.)和Harris算法(Harris,Christopher G.,and Mike Stephens."A combinedcorner and edge detector."Alvey vision conference.Vol.15.No.50.1988.)等。这些方式受限于特定的应用场景,不具有很好的泛化性,而且检测速度慢,不适用于实时检测的安防监控场景。
而现有的基于卷积神经网络(Krizhevsky,Alex,Ilya Sutskever,and GeoffreyE.Hinton."Imagenet classification with deep convolutional neural networks."Communications of the ACM 60.6(2017):84-90.)的人体检测算法,并没有很好针对安保区域值班室值班人员离岗预警的场景,其往往不能有效地解决人体姿态干扰如侧身或卧趟,画面模糊、遮挡、目标过小,亦或是检测速度过慢等问题。
发明内容
本发明针对现有人体检测算法的不足,提供了抗人体姿态干扰的室内无人值守快速检测方法。本发明的目的在于有效地克服人体姿态干扰如侧身或卧趟、画面模糊,遮挡,目标过小,亦或是检测速度过慢等问题,而采用深度卷积神经网络进行检测,提供兼容现有交通监控设备并且能自动化高准确率地实现无人值守检测的方法,且能达到实时的效果,能为智能安全监控系统提供可靠的值班人员离岗预警,避免可能出现的安全事故。
本发明的目的至少通过如下技术方案之一实现。
抗人体姿态干扰的室内无人值守快速检测方法,包括以下步骤:
S1、数据收集阶段:收集图像并进行标定,生成原始训练集;
S2、数据预处理阶段:对步骤S1中收集到的图像进行预处理,实现数据扩充,生成综合扩增训练集;
S3、预训练阶段:随机选取类别数为n的非人体普通物体的图片作为数据来预训练一个物体检测的多分类模型,获得模型参数初始化值;
S4、训练阶段:将步骤S3中预训练得到的模型参数来以迁移学习的方式初始化人体检测模型的部分参数,并将人体检测模型的分类结构改为二分类;
S5、训练阶段:将步骤S2中的得到的综合扩增训练集作为输入训练集,对步骤S4中改变分类结构后的人体检测模型进行训练;
S6、测试阶段:获取待检测图像,对待检测图像进行预处理并输入步骤S5中训练完成的人体检测模型,完成抗人体姿态干扰的室内无人值守快速检测。
进一步地,步骤S1中,从实际场景的监控视频中收集大量室内值班人员值守的图像,使用矩形框对图像中的人体进行标定,要求矩形框能完全且准确地框住人体;同时记录矩形框的左上角点在图像中的位置坐标(x0,y0)与矩形框的宽高(w,h),则可以得出矩形框右下角坐标(x1,y1),其中,x1=x0+w,y1=y0+h;通过以上操作得到原始训练集,原始训练集包括收集到的图片和对应的矩形框数据。
进一步地,步骤S2包括以下步骤:
S2.1、对步骤S1中标定的图片随机进行缩放、平移、旋转或镜面对称的变换操作;
S2.2、对进行变换操作后的图片继续进行高斯滤波,得到扩增训练集;
S2.3、对变换前后的所有数据进行整合,最终得到综合扩增训练集。扩增的方式都是随机的改变,保证了数据来源的随机性,更符合数据的真实分布情况,训练也会更加有效,模型的泛化能力会更好,降低过拟合的风险。
进一步地,步骤S3中,使用大型公开数据集MS COCO,随机选择类别数为n的非人体普通物体的图片作为预训练数据,MS COCO数据集是微软团队公开的一个可以用于图像领域的大规模数据集;使用YOLOv3神经网络对与预训练数据进行训练,并将分类类别调整为n+1,其中n类为非人体普通物体,1类为背景,训练得到一个物体检测的多分类模型;其中,YOLO(You Only Look Once)神经网络是一个针对实时处理的物体检测系统,YOLOv3是作者公开的第三个版本;YOLOv3神经网络将输入图像分成S×S网格,每个网格单元仅预测一个对象,即某一种类的物体;每个网格单元都会预测固定数量B的边界框,每个预测的边界框均有一个对应的置信度分数;每个网格单元只检测一个对象而不管框的数量,同时预测C个条件类概率值,对应每个类别的可能性。整个预训练YOLOv3模型的流程如图2所示。
进一步地,步骤S4中,使用步骤S3中预训练得到的多分类模型,以迁移学习的方式初始化人体检测模型的参数;同时在YOLOv3模型中增加可以拟合人体躺卧姿势的anchorbox超参数,使用YOLOv3神经网络作为训练的主体框架,并将最终的分类结构改为二分类,且改用logistic分类器和二元交叉熵损失函数来替代YOLOv3神经网络原先的softmax层和损失函数,降低计算复杂度。
进一步地,除了人体检测模型最后的全连接层和softmax层,以迁移学习的方式初始化人体检测模型的参数。人体检测模型的主体是YOLOv3神经网络模型,将最后的softmax层替换为logistic分类器,具体模型结构如图3所示。
进一步地,步骤S5中,将步骤S2中得到的综合扩增训练集作为输入训练集,采用端到端的方式对步骤S4中改变分类结构后的人体检测模型进行训练。
进一步地,步骤S6中,对输入的待检测图片做放缩操作调整成步骤S5训练完成的人体检测模型的输入大小,人体检测模型处理预处理后的待检测图像输出位置信息和类别信息,完成抗人体姿态干扰的室内无人值守快速检测。
相比于现有技术,本发明的优点在于:
本发明提供的基于深度卷积神经网络的抗人体姿态干扰的室内无人值守检测方法选择实际场景下的图像作为检测目标,并通过几何仿射变换、镜像对称、高斯滤波的方式人为随机地扩增训练图片,同时在训练阶段基于YOLOv3网络引入特征金字塔思想和增加适应人体侧身和卧趟姿势的anchor box超参数等优化操作,因此可以在很大程度上克服人体姿态干扰如侧身或卧趟、画面模糊,遮挡,目标过小,亦或是检测速度过慢等问题。本发明基于深度神经网络,开发以具体场景应用为导向的解决方案,以满足实时且准确的预警需求,能够有效辅助安防人员的工作。
附图说明
图1为本发明实施例中抗人体姿态干扰的室内无人值守快速检测方法的整体流程图;
图2为本发明实施例中预训练YOLOv3模型的流程图;
图3为本发明实施例中人体检测模型的结构图。
具体实施方式
下面将结合附图以及具体实例来详细说明本发明,但本发明的实施不限于此。
实施例:
抗人体姿态干扰的室内无人值守快速检测方法,如图1所示,包括以下步骤:
S1、数据收集阶段:收集图像并进行标定,生成原始训练集;
从实际场景的监控视频中收集大量室内值班人员值守的图像,使用矩形框对图像中的人体进行标定,要求矩形框能完全且准确地框住人体;同时记录矩形框的左上角点在图像中的位置坐标(x0,y0)与矩形框的宽高(w,h),则可以得出矩形框右下角坐标(x1,y1),其中,x1=x0+w,y1=y0+h;通过以上操作得到原始训练集,原始训练集包括收集到的图片和对应的矩形框数据。
S2、数据预处理阶段:对步骤S1中收集到的图像进行预处理,实现数据扩充,生成综合扩增训练集,包括以下步骤:
S2.1、对步骤S1中标定的图片随机进行缩放、平移、旋转或镜面对称的变换操作;
本实施例中,对图片做镜像对称,设原标定框左上角坐标为(x0,y0),右下角坐标(x1,y1),图片宽W,高H;则经过镜像对称后的标定框左上角坐标为(x0’=W-x0’,y0’=y0),右下角坐标(x1’=W-x1’,y1’=y0)。
S2.2、对进行变换操作后的图片继续进行高斯滤波,得到扩增训练集;
S2.3、对变换前后的所有数据进行整合,最终得到综合扩增训练集。扩增的方式都是随机的改变,保证了数据来源的随机性,更符合数据的真实分布情况,训练也会更加有效,模型的泛化能力会更好,降低过拟合的风险。
S3、预训练阶段:如图2所示,从MS COCO数据集中随机选取类别数为n的非人体普通物体的图片作为数据来预训练一个物体检测的多分类模型,获得模型参数初始化值;
使用大型公开数据集MS COCO,随机选择类别数为n的非人体普通物体的图片作为预训练数据,MS COCO数据集是微软团队公开的一个可以用于图像领域的大规模数据集;使用YOLOv3神经网络对与预训练数据进行训练,并将分类类别调整为n+1,其中n类为非人体普通物体,1类为背景,训练得到一个物体检测的多分类模型;其中,YOLO(You Only LookOnce)神经网络是一个针对实时处理的物体检测系统,YOLOv3是作者公开的第三个版本;YOLOv3神经网络将输入图像分成S×S网格,每个网格单元仅预测一个对象,即某一种类的物体;每个网格单元都会预测固定数量B的边界框,每个预测的边界框均有一个对应的置信度分数;每个网格单元只检测一个对象而不管框的数量,同时预测C个条件类概率值,对应每个类别的可能性。
S4、训练阶段:使用步骤S3中预训练得到的多分类模型,除了人体检测模型最后的全连接层和softmax层,以迁移学习的方式初始化人体检测模型的参数。如图3所示,人体检测模型的主体是YOLOv3神经网络模型,将最后的softmax层替换为logistic分类器。同时在YOLOv3模型中增加可以拟合人体躺卧姿势的anchor box超参数,并将最终的分类结构改为二分类,且改用logistic分类器和二元交叉熵损失函数来替代YOLOv3神经网络原先的softmax层和损失函数,降低计算复杂度。
S5、训练阶段:将步骤S2中得到的综合扩增训练集作为输入训练集,采用端到端的方式对步骤S4中改变分类结构后的人体检测模型进行训练;
本实施例中,将人体检测模型中的权值初始化选择标准方差为0.1的截断正态分布(Truncated Normal Distribution),选择参数优化方法为Adam,初始学习设定为0.01,权值衰减率参数设定为0.0005,学习率改变速度参数设定为0.1。
利用类似特征金字塔网络的特征金字塔思想,人体检测模型的网络中以3种不同的尺度进行预测,第一尺度是在最后一个特征图上进行第一组预测;第二尺度是从第一尺度的层向后倒回两层,并将第一尺度的特征图两倍上采样,然后采用具有更高分辨率的特征图于上采样的特征图进行逐元素相加,在合并的特征图上进行第二组预测;第三尺度是重复上面的过程,得到更高分辨率的特征图(具有更高级的语义信息和空间位置信息)进行第三组预测。
使用难例挖掘(Hard Example Mining)的方式,在目标检测中会事先标记标定框,然后在算法中会生成一系列似然,这些似然有跟标记的标定框有部分是重合的也有部分是没重合的,把重合度超过一定阈值(通常0.5)的判定为正样本,其他的则判定为负样本,然后扔进人体检测模型的网络中训练。但是,这么做的话可能会导致一个问题,就是正样本的数量会远小于负样本的数量,这样训练出来的分类器的效果总是有限的,会出现许多假阳性,把其中得分较高的这些假阳性视为难例,既然挖掘出了这些难例,就把这些扔进人体检测模型的网络再训练一次,从而加强分类器判别假阳性的能力。
S6、测试阶段:获取待检测图像,对待检测图像进行预处理,对输入的待检测图片做放缩即放大或缩小操作调整成步骤S5训练完成的人体检测模型的输入大小,例如448*448*3,表示图片的长*宽*通道,人体检测模型处理预处理后的待检测图像输出位置信息和类别信息,完成抗人体姿态干扰的室内无人值守快速检测。
Claims (6)
1.抗人体姿态干扰的室内无人值守快速检测方法,其特征在于,包括以下步骤:
S1、数据收集阶段:收集图像并进行标定,生成原始训练集;
S2、数据预处理阶段:对步骤S1中收集到的图像进行预处理,实现数据扩充,生成综合扩增训练集;包括以下步骤:
S2.1、对步骤S1中标定的图片随机进行缩放、平移、旋转或镜面对称的变换操作;
S2.2、对进行变换操作后的图片继续进行高斯滤波,得到扩增训练集;
S2.3、对变换前后的所有数据进行整合,最终得到综合扩增训练集;
S3、预训练阶段:随机选取类别数为n的非人体普通物体的图片作为数据来预训练一个物体检测的多分类模型,获得模型参数初始化值;
使用大型公开数据集MS COCO,随机选择类别数为n的非人体普通物体的图片作为预训练数据;使用YOLOv3神经网络对与预训练数据进行训练,并将分类类别调整为n+1,其中n类为非人体普通物体,1类为背景,训练得到一个物体检测的多分类模型;YOLOv3神经网络将输入图像分成S×S网格,每个网格单元仅预测一个对象,即某一种类的物体;
S4、训练阶段:将步骤S3中预训练得到的模型参数来以迁移学习的方式初始化人体检测模型的部分参数,并将人体检测模型的分类结构改为二分类;使用步骤S3中预训练得到的多分类模型,以迁移学习的方式初始化人体检测模型的参数;同时在YOLOv3模型中增加可以拟合人体躺卧姿势的anchor box超参数,使用YOLOv3神经网络作为训练的主体框架,并将最终的分类结构改为二分类,且改用logistic分类器和二元交叉熵损失函数来替代YOLOv3神经网络原先的softmax层和损失函数,降低计算复杂度;
S5、训练阶段:将步骤S2中的得到的综合扩增训练集作为输入训练集,对步骤S4中改变分类结构后的人体检测模型进行训练;
S6、测试阶段:获取待检测图像,对待检测图像进行预处理并输入步骤S5中训练完成的人体检测模型,完成抗人体姿态干扰的室内无人值守快速检测。
2.根据权利要求1所述的抗人体姿态干扰的室内无人值守快速检测方法,其特征在于:步骤S1中,从实际场景的监控视频中收集大量室内值班人员值守的图像,使用矩形框对图像中的人体进行标定;通过以上操作得到原始训练集,原始训练集包括收集到的图片和对应的矩形框数据。
3.根据权利要求2所述的抗人体姿态干扰的室内无人值守快速检测方法,其特征在于:进行标定时,要求矩形框能完全且准确地框住人体;同时记录矩形框的左上角点在图像中的位置坐标(x0,y0)与矩形框的宽高(w,h),则可以得出矩形框右下角坐标(x1,y1),其中,x1=x0+w,y1=y0+h。
4.根据权利要求1所述的抗人体姿态干扰的室内无人值守快速检测方法,其特征在于:除了人体检测模型最后的全连接层和softmax层,以迁移学习的方式初始化人体检测模型的参数;人体检测模型的主体是YOLOv3神经网络模型,将最后的softmax层替换为logistic分类器。
5.根据权利要求1所述的抗人体姿态干扰的室内无人值守快速检测方法,其特征在于:步骤S5中,将步骤S2中得到的综合扩增训练集作为输入训练集,采用端到端的方式对步骤S4中改变分类结构后的人体检测模型进行训练。
6.根据权利要求1~5任一项所述的抗人体姿态干扰的室内无人值守快速检测方法,其特征在于:步骤S6中,对输入的待检测图片做放缩操作调整成步骤S5训练完成的人体检测模型的输入大小,人体检测模型处理预处理后的待检测图像输出位置信息和类别信息,完成抗人体姿态干扰的室内无人值守快速检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011335196.1A CN112381032B (zh) | 2020-11-24 | 2020-11-24 | 抗人体姿态干扰的室内无人值守快速检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011335196.1A CN112381032B (zh) | 2020-11-24 | 2020-11-24 | 抗人体姿态干扰的室内无人值守快速检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112381032A CN112381032A (zh) | 2021-02-19 |
CN112381032B true CN112381032B (zh) | 2024-03-22 |
Family
ID=74588288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011335196.1A Active CN112381032B (zh) | 2020-11-24 | 2020-11-24 | 抗人体姿态干扰的室内无人值守快速检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112381032B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446617A (zh) * | 2018-03-09 | 2018-08-24 | 华南理工大学 | 抗侧脸干扰的人脸快速检测方法 |
CN109325418A (zh) * | 2018-08-23 | 2019-02-12 | 华南理工大学 | 基于改进YOLOv3的道路交通环境下行人识别方法 |
CN110490099A (zh) * | 2019-07-31 | 2019-11-22 | 武汉大学 | 一种基于机器视觉的地铁公共地点人流量分析方法 |
-
2020
- 2020-11-24 CN CN202011335196.1A patent/CN112381032B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446617A (zh) * | 2018-03-09 | 2018-08-24 | 华南理工大学 | 抗侧脸干扰的人脸快速检测方法 |
CN109325418A (zh) * | 2018-08-23 | 2019-02-12 | 华南理工大学 | 基于改进YOLOv3的道路交通环境下行人识别方法 |
CN110490099A (zh) * | 2019-07-31 | 2019-11-22 | 武汉大学 | 一种基于机器视觉的地铁公共地点人流量分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112381032A (zh) | 2021-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829429B (zh) | 基于YOLOv3的监控场景下的安防敏感物品检测方法 | |
Hu et al. | Fast forest fire smoke detection using MVMNet | |
CN109154976B (zh) | 通过机器学习训练对象分类器的系统和方法 | |
Yousif et al. | Fast human-animal detection from highly cluttered camera-trap images using joint background modeling and deep learning classification | |
CN111079655A (zh) | 一种基于融合神经网络的视频中人体行为识别方法 | |
CN111709300B (zh) | 基于视频图像的人群计数方法 | |
CN111563557A (zh) | 一种电力电缆隧道内目标检测的方法 | |
CN110852179B (zh) | 基于视频监控平台的可疑人员入侵的检测方法 | |
Li et al. | Improved YOLOv4 network using infrared images for personnel detection in coal mines | |
CN112861970A (zh) | 一种基于特征融合的细粒度图像分类方法 | |
CN112419202A (zh) | 基于大数据及深度学习的野生动物图像自动识别系统 | |
Cheng et al. | Advanced background subtraction approach using Laplacian distribution model | |
CN117765348A (zh) | 目标检测模型的部署方法和目标检测方法及电子设备 | |
Chirgaiya et al. | Tiny object detection model based on competitive multi-layer neural network (TOD-CMLNN) | |
CN112381032B (zh) | 抗人体姿态干扰的室内无人值守快速检测方法 | |
Mantini et al. | Camera Tampering Detection using Generative Reference Model and Deep Learned Features. | |
Alsaedi et al. | Design and Simulation of Smart Parking System Using Image Segmentation and CNN | |
Yousif et al. | Object detection from dynamic scene using joint background modeling and fast deep learning classification | |
CN116543333A (zh) | 电力系统的目标识别方法、训练方法、装置、设备和介质 | |
Thomas et al. | Animal intrusion detection using deep learning for agricultural fields | |
Kalshetty et al. | Abnormal event detection model using an improved ResNet101 in context aware surveillance system | |
CN110717544B (zh) | 一种垂直鱼眼镜头下行人属性分析方法及系统 | |
CN114694090A (zh) | 一种基于改进PBAS算法与YOLOv5的校园异常行为检测方法 | |
Esan et al. | Surveillance detection of anomalous activities with optimized deep learning technique in crowded scenes | |
Patil et al. | Analyze the Presence of Violence and a Particular Event of Violence by Weapon Detection using Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |