CN115240119A - 一种基于深度学习的视频监控中行人小目标检测方法 - Google Patents

一种基于深度学习的视频监控中行人小目标检测方法 Download PDF

Info

Publication number
CN115240119A
CN115240119A CN202210955111.2A CN202210955111A CN115240119A CN 115240119 A CN115240119 A CN 115240119A CN 202210955111 A CN202210955111 A CN 202210955111A CN 115240119 A CN115240119 A CN 115240119A
Authority
CN
China
Prior art keywords
network
detection
video monitoring
data
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210955111.2A
Other languages
English (en)
Inventor
吴敌
侯伟
张丽丽
葛宝玉
周全
李慧子
邵文杰
吴玥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Space Star Data System Technology Co ltd
Original Assignee
Harbin Space Star Data System Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Space Star Data System Technology Co ltd filed Critical Harbin Space Star Data System Technology Co ltd
Priority to CN202210955111.2A priority Critical patent/CN115240119A/zh
Publication of CN115240119A publication Critical patent/CN115240119A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的视频监控中行人小目标检测方法,包括:步骤S1、构建行人小目标数据集,步骤S2、对YOLOv5检测模型进行改进,步骤S3、利用步骤S1中自组建数据集,以及步骤S2改进的YOLOv5检测模型进行训练、测试,评价,将检测模型应用于监控视频检测中。本发明的方法满足现有视频监控中对检测精度及检测速度的要求,节省了大量的人工成本,可以有效提升在边境地区视频监控中占比较小的行人目标检测准确率。

Description

一种基于深度学习的视频监控中行人小目标检测方法
技术领域
本发明涉及深度学习和目标检测领域技术,尤其是种基于深度学习的视频监控中行人小目标检测方法。
背景技术
目前我国区域视频监控中,通常采用高空长焦摄像头,拍摄的图像中监测范围广,待识别的行人图像占比小、分辨率低特征不明显、边境地区背景复杂等。现有的目标检测方法检测精度低,容易出现漏检误检的情况,因此当前的视频监控系统需要人工核验,视频数据量大,需要人工成本高,人工检测效率低,严重影响监控效率。基于深度学习的目标检测技术是计算机视觉领域中最重要的研究方向之一。随着人工智能技术发展以及计算机硬件并行计算不断升级迭代,目标检测在从传统的特征提取方法,逐渐发展到使用深度学习技术进行检测。深度学习目标检测领域包括以YOLO为代表的单阶段目标检测速度快、精度高、模型精简便于改进,但对于低分辨率弱小目标检测精度低,容易出现漏检误检现象。
发明内容
本发明为了解决上述现有技术问题,提出一种基于深度学习的视频监控中行人小目标检测方法。
本发明涉及一种基于深度学习的视频监控中行人小目标检测方法,包括:
步骤S1、构建行人小目标数据集
采集图像数据并进行筛选及预处理,对预处理后的图像进行标注、分类,形成固定比例的自组建数据集;
步骤S2、对YOLOv5检测模型进行改进
首先在YOLOv5检测模型的骨干网络中引入Transformer多头自注意力机制,其次在颈部网络中对特征图上采样操作,上采样处理后与骨干网络特征图进行融合生成新的特征层,改进网络结构及网络连接方式;
步骤S3、利用步骤S1中自组建数据集,以及步骤S2改进的YOLOv5检测模型进行训练、测试,评价,将检测模型应用于监控视频检测中。
优先地,步骤S1中,采集筛选数据集的方法为:从公开数据集中收集行人小目标图像,定义行人小目标范围,筛选出符合条件图像。
优先地,步骤S1中,图像预处理和分类包括:图像进行旋转、剪裁、增强处理以扩充数据集;标注方式为使用LabelImg工具进行标注、分类,然后将数据划分为训练集、验证集、测试集。
优先地,步骤S2中,改进的YOLOv5检测模型包括输入端、骨干网络、颈部网络和检测层。
优先地,步骤S2的具体实施方法是:
S2.1、对图像进行Mosaic数据增强、自适应锚框计算、自适应图片缩放处理,定义输入图像格式为640×640×3,处理后作为骨干网络输入;
S2.2、骨干网络部分包括Focus结构、CBS结构、C3结构、SSP结构和C3TR结构,其中C3TR结构为引入Transformer多头自主自注意力机制对原有C3结构改进,处理后获得不同尺度特征图,作为颈部网络输入;
S2.3、颈部网络包括使用FPN+PAN结构进行特征融合,改进颈部网络,增加特征图的上采样操作,通过上采样与特征融合后,获取新的3个尺度张量数据,作为检测层输入;
S2.4、将3个尺度的张量输入Prediction部分,基于损失函数及反向传播进行梯度计算,具体采用CIOU_LOSS+DIOU_nms进行损失函数计算和非极大值抑制,得到3个预测层数据。
优先地,步骤S2.3中,改进的骨干网络中C3TR结构方法是:在原有骨干网络中的最后一层C3结构中引入Transformer多头自注意力机制,将Resuint组件更换为TransformerBlock,变为C3TR结构;TransformerBlock结构使用q,k,v均是长度c的向量,通过n的单头注意力拼接后得到长度nc的行向量,经过线性层运算后再得到长度c的向量。
优先地,步骤S2.3中,改进的颈部网络获取3个尺度张量数据方法是:增加上采样操作,从新组织网络连接方式;在网络第17层增加上采样处理后与骨干网络第2层特征图进行融合生成160×160×255特征层。
有益效果
本发明提供了一种基于深度学习的视频监控中行人小目标检测方法,在现有深度学习算法YOLOv5算法基础上引入了Transformer多头自注意力机制,将深度卷积神经网络与Transformer相结合,以及改进优化现有网络结构,进一步提高检测小目标检测精度。该方法满足现有视频监控中对检测精度及检测速度的要求,节省了大量的人工成本,可以有效提升在边境地区视频监控中占比较小的行人目标检测准确率。
附图说明
图1是本发明的原理流程示意图;
图2是本发明的改进YOLOv5的检测模型示意图;
图3是引入Transformer多头自注意力机制后C3TR结构的示意图。
具体实施方式
以下结合图1至3对本实施方式进行具体说明。
如图1所示,本发明一种基于深度学习的视频监控中行人小目标检测方法,包括以下步骤:
1、构建行人小目标数据集:提出行人小目标数据集获取方法、对行人小目标数据进行预处理方法以及对数据集进行人工标注,最后将数据集划分为训练集、验证集、测试集三种;
2、对YOLOv5检测模型进行改进:基于YOLOv5检测模型在骨干网络中引入Transformer多头自注意力机制,以及在颈部网络中对特征图上采样操作并改进网络结构;
3、利用构建的数据集和改进的YOLOv5检测模型,进行训练、测试、评估,将模型应用于监控视频的检测中。
下面进行具体的技术内容介绍
一、边境地区行人小目标数据集制作
本发明首先给出行人小目标数据集制作过程
1.1数据集获取
从COCO数据集、VOC数据集和边境的地区影像获取的行人图像数据。从COCO数据集和VOC数据集中的Person类标签中,筛选出小目标行人数据,从视频监控中截取出带行人的图像数据。
1.2数据集预处理
对获取的上述图像进行图像的旋转、分割、放大、平移等处理操作,已扩充数据集。使用LabelImg图像标注工具,对处理后的图像进行标注工作。其中行人小目标定义为物体标注框的长宽乘积,除以整个图像长宽的乘积,再开根号后小于3%的行人为小目标。将标注好的图像和标签分为images(图片)和labels(标签)两个目录存储,目录下按照6:2:2的比例划分为训练集、验证集和测试集三种。
二、改进YOLOv5的检测模型
本次发明对边境地区行人检测采用了深度学习目标检测模型YOLOv5,并在原有模型基础上进行小目标提升改进,YOLOv5的检测模型包括输入端、骨干网络、颈部网络、检测层,如图2所示。下面给出本次发明使用检测模型的算法函数。
2.1输入端
输入端是对第一部分制作的边境地区小目标数据集作为输入,进行Mosaic数据增强、自适应锚框计算、自适应图片缩放三步操作,操作过程如下:
1)Mosaic数据增强,对4张图片进行随机缩放、随机裁剪、随机排布的方式进行拼接,以丰富数据集,增加小目标。
2)自适应锚框计算,初始设定长宽的锚框,在模型训练中,在初始锚框的基础上输出预测框,与真实框对比,反向更新,迭代网络参数。本发明在YOLOv5原有三组锚框的基础上修改锚框大小,提升小目标检测能力,增加的小尺寸锚框的格式如下:
-[5,6 8,14 15,11]
3)自适应图片缩放,在上述制作的数据集中,图片的尺寸都不相同,需要将原始图片统一缩放到一个标准尺寸,再送到检测模型中,本次采用统一图像输入格式为640×640×3。
2.2骨干网络
YOLOv5检测模型的骨干网络由Focus、CBS、C3、C3TR、SSP四个结构组成,四个结构的组成方式如图2所示,具体含义如下:
1)Focus结构是对图像进行切片操作;
2)CBS结构是由Conv+BN+SiLu组成,Conv代表卷积操作、BN代表批量归一化(BatchNormalization)、SiLu代表激活函数;
3)C3结构由CBS、Resunit、Concat组成,YOLOv5设计了两种C3结构,其中C3_1_1应用在骨干网络中,C3_2_1应用在下面的颈部网络中,Resunit是残差组件、Concat是特征融合组件;
4)SSP代表空间金字塔池化(Spatial Pyramid Pooling),进行多尺度特征融合操作。
5)C3TR就是在原有的C3结构上进行改进,将Resuint组件更换为TransformerBlock结构,如图3所示,引入Transformer多头自注意力机制其中q,k,v均是长度c的向量,单头注意力也是长度c的向量,n个单头注意力拼接后得到长度nc的向量,经过线性层运算后再得到长度c的向量。
2.3颈部网络
YOLOv5检测模型颈部网络主要由FPN特征金字塔和PAN自底向上的特征增强算法组成,如图2颈部网络部分所示,本次发明由3层FPN+PAN结构组成,增加小目标检测层,具体操作如下:
1)在YOLOv5检测模型的颈部网络第17层,对特征图继续上采样操作,获取到160*160特征图,再与骨干网络中的第2层特征图进行Concat融合操作,融合后获取到更大的特征图,因定义输入为640*640图像,因此该特征层感受野大小为4*4,提升检测模型对小尺寸目标检测能力;
2)增加小目标检测层后,使用FPN+PAN网络连接结构,组成3层网络特征结构。小目标检测层通过FPN特征金字塔融合高低层特征,提升多尺度检测能力,通过PAN进行自底向上的特征增强,可让顶层特征共享底层小目标特征,提升全局的检测效果,其中输出的三层网络结构分别为160×160×255、80×80×255、40×40×255。
2.4检测层
检测层是对颈部网络生成的3层特征网络进行1×1卷积运算后,输出3组特征图。特征结果通过CIOU_LOSS+DIOU_nms进行损失函数计算和非极大值抑制,输出分类结果和特征框。具体含义如下:
1)3组特征图:包含了对应尺度提取出的预测框类别、置信度、像素坐标信息。3组特征图的张量数据格式尺寸为nx×ny×255,其中nx、ny为网格宽高,三组特征图分别为160×160、80×80、40×40。255=[na×(nc+1+4)],na为3是每组anchor尺度数量、nc为80是类别数量、1是预测框对应类别上的置信度、4是预测框坐标;
2)CIOU_LOSS+DIOU_nms:YOLOv5检测模型使用了CIOU_Loss损失函数,考虑重叠面积、中心点距离、长宽比三个重要几何因素。采用DIOU_nms作为非极大值抑制,对重叠目标提出改进。CIOU_Loss损失函数定义如下:
Figure BDA0003790961820000051
其中,IOU为交并比,Distance_22代表了预测框和真实框的中心点的欧式距离,Distance_C2代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离,v是衡量长宽比一致性的参数,定义为:
Figure BDA0003790961820000052
其中,wp、hp和wgt、hgt分别代表预测框的高宽和真实框的高宽。
三、改进后模型训练、测试、评估及视频检测方法
3.1模型训练
根据构建的行人小目标数据集中标注的图像,修改YOLOv5网络的配置文件,将数据输入到改进后的YOLOv5检测模型,定义训练的参数、训练轮数,经过损失函数及反向传播梯度计算,利用验证集进行精度验证,最终模型收敛得到了小目标行人检测模型及格式为pt的权重文件。
3.2测试、评估
采用交并比(IOU)衡量预测框和标注框的重合程度,即预测框的位置是否准确,交并比的评价具有以下特性:非负性、对称性以及尺度不变性。交并比公式如下所示:
Figure BDA0003790961820000061
式中,Bp为预测框,Bgt为标注框。根据与标注框的关系,可将某一预测框划分为下式四类中的某一类:
TP:{Conf>Pthresh且IOU>IOUthresh}
FP:{Conf>Pthresh且IOU<IOUthresh}
FN:{Conf<Pthresh且IOU>IOUthresh}
TN:{Conf<Pthresh且IOU<IOUthresh}
式中,IOUthresh为0-1之间的常数,需要人工指定。
对于某一特定类别,TP、FP、FN、TN四种预测框的个数构成混淆矩阵(ConfusionMatrix),混淆矩阵如下表所示。
预测框个数 预测为行人 预测为其他类
真实为行人 TP预测框个数 FN预测框个数
真实为其他类别 FP预测框个数 TN预测框个数
近一步定义以下参数:
1、Precision(查准率)是指所有预测框中预测正确的比例。
Figure BDA0003790961820000062
2、Recall(召回率)是指所有标注框中被正确预测的比例。
Figure BDA0003790961820000071
3、Average Precision(评价精度,简称AP):将Pthresh阈值从0到1变化,计算每个Pthresh阈值对应的Precision和Recall,绘制成某类别的PR性能曲线,其围成的面积为该类别的AP。取AP@0.5为IOUthresh取0.5时,AP的值。mAP@0.5:0.95为IOUthresh分别取以0.05为步长,从0.5增大至0.95的十个数时,AP的平均值。
Figure BDA0003790961820000072
mAP@0.5=APi(IOUthresh=0.5)
mAP@0.5:0.95=∑jAPi(IOUthresh=j)
本发明以IOU、Precision、Recall、AP、mAP@0.5、mAP@0.5:0.95作为性能指标,基于改进的YOLOv5检测模型,能够在边境地区行人小目标检测的精度上有5%以上的提升。
3.3视频检测
将满足指标的训练模型应用于视频监控的小目标行人检测中,视频数据的获取方法可分为三种方式进行:
1、实时视频流数据:摄像头通过网络传输的实时监控数据;
2、USB传输视频数据:摄像头同USB与检测设备项连接,进行实时检测;
3、存储的视频数据:通过视像头监控存储的各种视频格式数据进行读取检测。
上述内容仅为本发明较好的实施案例,并非用于限制本发明的实施方案,本领域普通技术人员根据本发明的主要构思和精神,可以十分方便地进行相应的变通或修改,如输入图像的尺寸,锚框大小,可根据实际数据样本进行修改,故本发明的保护范围应以权利要求书所要求的保护范围为准。

Claims (7)

1.一种基于深度学习的视频监控中行人小目标检测方法,其特征在于,包括:
步骤S1、构建行人小目标数据集
采集图像数据并进行筛选及预处理,对预处理后的图像进行标注、分类,形成固定比例的自组建数据集;
步骤S2、对YOLOv5检测模型进行改进
首先在YOLOv5检测模型的骨干网络中引入Transformer多头自注意力机制,其次在颈部网络中对特征图上采样操作,上采样处理后与骨干网络特征图进行融合生成新的特征层,改进网络结构及网络连接方式;
步骤S3、利用步骤S1中自组建数据集,以及步骤S2改进的YOLOv5检测模型进行训练、测试,评价,将检测模型应用于监控视频检测中。
2.根据权利要求1所述的一种基于深度学习的视频监控中行人小目标检测方法,其特征在于,步骤S1中,采集筛选数据集的方法为:从公开数据集中收集行人小目标图像,定义行人小目标范围,筛选出符合条件图像。
3.根据权利要求1所述的一种基于深度学习的视频监控中行人小目标检测方法,其特征在于,步骤S1中,图像预处理和分类包括:图像进行旋转、剪裁、增强处理以扩充数据集;标注方式为使用LabelImg工具进行标注、分类,然后将数据划分为训练集、验证集、测试集。
4.根据权利要求1所述的一种基于深度学习的视频监控中行人小目标检测方法,其特征在于,步骤S2中,改进的YOLOv5检测模型包括输入端、骨干网络、颈部网络和检测层。
5.根据权利要求4所述的一种基于深度学习的视频监控中行人小目标检测方法,其特征在于,步骤S2的具体实施方法是:
步骤S2.1、对图像进行Mosaic数据增强、自适应锚框计算、自适应图片缩放处理,定义输入图像格式为640×640×3,处理后作为骨干网络输入;
步骤S2.2、骨干网络部分包括Focus结构、CBS结构、C3结构、SSP结构和C3TR结构,其中C3TR结构为引入Transformer多头自主自注意力机制对原有C3结构改进,处理后获得不同尺度特征图,作为颈部网络输入;
步骤S2.3、颈部网络包括使用FPN+PAN结构进行特征融合,改进颈部网络,增加特征图的上采样操作,通过上采样与特征融合后,获取新的3个尺度张量数据,作为检测层输入;
步骤S2.4、将3个尺度的张量输入Prediction部分,基于损失函数及反向传播进行梯度计算,具体采用CIOU_LOSS+DIOU_nms进行损失函数计算和非极大值抑制,得到3个预测层数据。
6.根据权利要求4所述的一种基于深度学习的视频监控中行人小目标检测方法,其特征在于,步骤S2.3中,改进的骨干网络中C3TR结构方法是:在原有骨干网络中的最后一层C3结构中引入Transformer多头自注意力机制,将Resuint组件更换为TransformerBlock,变为C3TR结构;TransformerBlock结构使用q,k,v均是长度c的向量,通过n的单头注意力拼接后得到长度nc的行向量,经过线性层运算后再得到长度c的向量。
7.根据权利要求4所述的一种基于深度学习的视频监控中行人小目标检测方法,其特征在于,步骤S2.3中,改进的颈部网络获取3个尺度张量数据方法是:增加上采样操作,从新组织网络连接方式;在网络第17层增加上采样处理后与骨干网络第2层特征图进行融合生成160×160×255特征层。
CN202210955111.2A 2022-08-10 2022-08-10 一种基于深度学习的视频监控中行人小目标检测方法 Pending CN115240119A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210955111.2A CN115240119A (zh) 2022-08-10 2022-08-10 一种基于深度学习的视频监控中行人小目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210955111.2A CN115240119A (zh) 2022-08-10 2022-08-10 一种基于深度学习的视频监控中行人小目标检测方法

Publications (1)

Publication Number Publication Date
CN115240119A true CN115240119A (zh) 2022-10-25

Family

ID=83680133

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210955111.2A Pending CN115240119A (zh) 2022-08-10 2022-08-10 一种基于深度学习的视频监控中行人小目标检测方法

Country Status (1)

Country Link
CN (1) CN115240119A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115830635A (zh) * 2022-12-09 2023-03-21 南通大学 一种基于关键点检测和目标识别的pvc手套识别方法
CN116704317A (zh) * 2023-08-09 2023-09-05 深圳华付技术股份有限公司 目标检测方法、存储介质及计算机设备
CN117437595A (zh) * 2023-11-27 2024-01-23 哈尔滨航天恒星数据系统科技有限公司 一种基于深度学习的渔船越界预警方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115830635A (zh) * 2022-12-09 2023-03-21 南通大学 一种基于关键点检测和目标识别的pvc手套识别方法
CN116704317A (zh) * 2023-08-09 2023-09-05 深圳华付技术股份有限公司 目标检测方法、存储介质及计算机设备
CN116704317B (zh) * 2023-08-09 2024-04-19 深圳华付技术股份有限公司 目标检测方法、存储介质及计算机设备
CN117437595A (zh) * 2023-11-27 2024-01-23 哈尔滨航天恒星数据系统科技有限公司 一种基于深度学习的渔船越界预警方法

Similar Documents

Publication Publication Date Title
Zhang et al. Surface defect detection of steel strips based on classification priority YOLOv3-dense network
CN110532970B (zh) 人脸2d图像的年龄性别属性分析方法、系统、设备和介质
CN115240119A (zh) 一种基于深度学习的视频监控中行人小目标检测方法
CN114220035A (zh) 一种基于改进yolo v4的快速害虫检测方法
CN110728200A (zh) 一种基于深度学习的实时行人检测方法及系统
CN113920107A (zh) 一种基于改进yolov5算法的绝缘子破损检测方法
CN111462120A (zh) 一种基于语义分割模型缺陷检测方法、装置、介质及设备
CN112434586B (zh) 一种基于域自适应学习的多复杂场景目标检测方法
CN107767416B (zh) 一种低分辨率图像中行人朝向的识别方法
CN112991269A (zh) 一种肺部ct图像的识别分类方法
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN107025444A (zh) 分块协同表示嵌入核稀疏表示遮挡人脸识别方法和装置
CN113449806A (zh) 基于层次结构的二阶段林业害虫识别与检测系统及方法
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN114821102A (zh) 密集柑橘数量检测方法、设备、存储介质及装置
CN111652273A (zh) 一种基于深度学习的rgb-d图像分类方法
CN115147380A (zh) 一种基于YOLOv5的小型透明塑料制品缺陷检测方法
CN114332942A (zh) 基于改进YOLOv3的夜间红外行人检测方法及系统
CN108537109B (zh) 基于OpenPose的单目相机手语识别方法
CN114120361A (zh) 一种基于编解码结构的人群计数定位方法
CN113393438A (zh) 一种基于卷积神经网络的树脂镜片缺陷检测方法
CN114332921A (zh) 基于改进聚类算法的Faster R-CNN网络的行人检测方法
CN115393635A (zh) 一种基于超像素分割以及数据增强的红外小目标检测方法
CN115578792A (zh) 基于机器视觉的室内人员跌倒预警检测方法及系统
Xia et al. Cloud/snow recognition of satellite cloud images based on multiscale fusion attention network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination