CN113327227B - 一种基于MobilenetV3的小麦头快速检测方法 - Google Patents

一种基于MobilenetV3的小麦头快速检测方法 Download PDF

Info

Publication number
CN113327227B
CN113327227B CN202110503290.1A CN202110503290A CN113327227B CN 113327227 B CN113327227 B CN 113327227B CN 202110503290 A CN202110503290 A CN 202110503290A CN 113327227 B CN113327227 B CN 113327227B
Authority
CN
China
Prior art keywords
network
detection
data set
model
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110503290.1A
Other languages
English (en)
Other versions
CN113327227A (zh
Inventor
董明刚
魏雪影
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Technology
Original Assignee
Guilin University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Technology filed Critical Guilin University of Technology
Priority to CN202110503290.1A priority Critical patent/CN113327227B/zh
Publication of CN113327227A publication Critical patent/CN113327227A/zh
Application granted granted Critical
Publication of CN113327227B publication Critical patent/CN113327227B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于MobilenetV3的快速小麦头检测方法。通过收集并处理Kaggle竞赛网站上公布的小麦头图片和相关标签文件获得全球小麦头检测数据集(GWHD)。以YOLOv3网络为基础,使用MobilenetV3_large代替Darknet53作为主干网络,并将自底向上的信息通道和注意力机制引入检测分支,形成Wheat‑YOLO网络。利用K‑means++算法对目标候选框重新聚类,同时根据数据集中目标分布情况对候选框进行线性缩放,将得到的锚框应用到各尺度网络层,并在GWHD数据集上进行训练和检测。本发明在检测精度提高的情况下极大的提升了网络的检测速度,为真实场景下的小麦头检测提供了良好的解决方案。

Description

一种基于MobilenetV3的小麦头快速检测方法
技术领域
本发明属于特征提取和目标检测技术领域,提供了一种基于MobilenetV3的小麦头快速检测方法。
背景技术
随着计算机视觉相关技术的不断发展,目标检测已被应用到不同对象的检测中,其中小麦头检测就是重要的应用之一。传统的小麦头检测算法需要通过手工设计特征来实现,对于形态多样性、光照多样性和背景多样性的变化没有很好的鲁棒性,在实际检测任务中很难取得较好效果。近年来,随着GPU性能的提高和大规模数据集的出现,多种多样的基于深度学习的目标检测算法被提出,其中最具代表性的是两阶段目标检测器和一阶段目标检测器。R-CNN、Fast R-CNN、Faster R-CNN等算法就是将目标检测分为两个阶段,即先对图像提取候选框,然后基于候选区域做二次修正得到检测点结果;SSD、YOLOV3、YOLOv4等算法则是直接对图像进行计算生成检测结果。两阶段目标检测器虽然位置信息较为精确,对小目标的检测较好,但由于组成部分较多,整体流程较长,检测速度较慢,不能满足实时应用场景;一阶段目标检测器结构简单,计算高效,同时具有良好的检测精度,在实时目标检测领域中具有较高的研究和应用价值,所以在本次改进中选用一阶段目标检测器。SSD检测速度较快,但对小目标的识别效果一般,YOLOv4检测性能虽高于YOLOv3,但对于设备的要求较高,因此本发明选择以YOLOv3为基础进行改进,得到用于小麦头检测的网络模型。
YOLOv3作为当前较优的目标检测算法,在保持速度优势的前提下,提升了检测精度,尤其是加强了对中小物体的识别能力。它采用借鉴ResNet思想的Darknet-53作为特征提取的主干网络,通过在网络中加入残差模块,缓解了深层次网络带来的梯度消失问题。其次,采用了多尺度检测,选择了三个不同尺度的特征图进行对象检测,可以检测到更加细粒度的特征。虽然YOLOv3算法在一些数据集上取得了较好的效果,但在实际的小麦头检测任务中,依然存在计算复杂度高、参数量大的问题,很难在计算力和内存受限的设备上运行,并且背景复杂的小麦头在检测过程中容易产生漏检现象,从而导致平均准确率较低。
MobileNetV3网络:
MobileNetV3使用了特殊的bneck结构,它综合了四个特点:分别是MobileNetV2的具有线性瓶颈的逆残差结构,MobileNetV1的深度可分离卷积,基于Squeeze andExcitation结构的轻量级注意力模型(SE)和h-swish激活函数。与Darknet53相比,MobileNetV3检测精度略低,但由于具有较少的参数量和计算量,能够极大提升网络的速度,为实时性要求较高的检测任务提供了良好的解决方案。MobileNetV3有两个版本,MobileNetV3-Small与MobileNetV3-Large,分别适用于计算和存储要求低和高的版本。
通道注意力模块:
SE block(通道注意力模块)主要包括两部分,第一部分是压缩(Squeeze)操作,将各通道的全局空间特征作为该通道的表示,形成一个通道描述符;第二部分是激发(Excitation)操作,学习对各通道的依赖程度,并根据依赖程度的不同对特征图进行调整,调整后的特征图就是SE block的输出。SE block在增加极少计算量的情况下调整了每个通道的权重,极大的提升了网络的性能。
K-means++算法:
K-means++是为解决K-means算法中的初始值选取不当导致效果变差的问题提出来的。该算法在选取K个聚类中心时,首先随机选取一个聚类中心,然后计算其他目标与聚类中心的距离,距离最大的那个点有更大概率被选为下一个聚类中心,重复多次直到K个聚类中心被选出来。此算法使得群中各个目标之间距离越来越小,群间距离越来越大,改善了分类结果的最终误差,提高了网络的平均准确率。
发明内容
发明目的:针对YOLOv3网络在背景复杂的小麦头检测中存在的计算复杂度高、参数量大、检测率低的问题,本发明提出了一种在平均准确度提高的情况下检测速度大大提升的一种基于MobilenetV3的小麦头快速检测方法。
本发明思路:通过收集并处理Kaggle竞赛网站上公布的小麦头图片和相关标签文件获得全球小麦头检测数据集(GWHD)。以YOLOv3网络为基础,使用MobilenetV3_large代替Darknet53作为主干网络,并将自底向上的信息通道和注意力机制引入检测分支,形成Wheat-YOLO网络。利用K-means++算法对目标候选框重新聚类,同时根据数据集中目标分布情况对候选框进行线性缩放,将得到的满足需求的锚框应用到各尺度网络层,并在GWHD数据集上进行训练和检测,保存最优模型用于真实场景下的小麦头检测中。
进一步的,所述步骤(1)中获取全球小麦头检测数据集的具体步骤如下:
(1.1)从Kaggle竞赛网站上下载Global Wheat Detection数据集并进行处理得到数据集a0;
(1.2)利用图像增强技术对数据集a0中的样本进行扩充得到数据集a1;
(1.3)将数据集a1按照一定比例进行划分,仿照VOC2007的格式处理获得进一步的,所述步骤(2)中搭建Wheat_YOLO网络模型的具体步骤如下:
(2.1)搭建Wheat_YOLO的特征提取网络MobileNetV3-Large;
(2.2)在检测分支中通过DownSample操作增加一条自底向上的信息通道,并在每个concat操作后增加SE block,同时使用深度可分离卷积替换普通卷积搭建Wheat_YOLO的检测网络;
(2.3)设置二元交叉熵损失函数作为网络的置信度和分类损失函数,平方差损失函数作为网络的回归损失函数,三者相加得到网络的损失函数model_loss。
(2.4)将特征提取网络、检测网络和损失函数结合得到小麦头检测网络模型model。
进一步的,所述步骤(3)中使用GWHD数据集训练Wheat_YOLO网络模型的具体步骤如下:
(3.1)根据训练集中目标编号从包含所有目标所有信息的txt文件中提取所需信息得到train.txt文件;
(3.2)根据验证集中目标编号从包含所有目标所有信息的txt文件中提取所需信息得到val.txt文件;
(3.3)使用融合了线性尺度缩放的Kmean++算法对训练验证集中的所有目标执行聚类操作获得所需的anchor box;
(3.4)定义输入网络的图片的宽高、计数变量m、n和e并赋值;
(3.5)使用model加载MobilenetV3_large预训练权重;
(3.6)冻结训练模型前227层;
(3.7)设置Adam作为网络的优化函数,批训练数量epoch为200,初始学习率lr为0.001,批大小batch-size为8;
(3.8)进行模型训练并更新网络参数和计数变量;
(3.9)若n=2,则更新学习率,重置n;
(3.10)当
Figure BDA0003057255040000041
若m=10,则
Figure BDA0003057255040000042
执行步骤3.11,否则执行步骤3.8;
(3.11)当
Figure BDA0003057255040000043
若m=10或e=200,则执行步骤3.14,否则执行步骤3.12;
(3.12)若
Figure BDA0003057255040000044
则重新设置学习率;
(3.13)对所有网络层进行训练并更新网络参数和计数变量,执行步骤3.9;
(3.14)保存模型权重last1.h5,模型训练结束。
进一步的,所述步骤(4)中保存最优模型用于真实场景下的小麦头检测具体步骤如下:
(4.1)采集并处理原始数据使其符合输入要求;
(4.2)加载最优模型对输入网络中的图片进行预测;
(4.2)获得各检测目标的类别名、置信度分数和对应的目标框坐标信息,并展示在图片上,检测结束。
附图说明
图1为本发明的总体流程图;
图2为图1中获取GWHD数据集的流程图;
图3为图1中搭建Wheat_YOLO网络模型的流程图;
图4为图1中使用GWHD数据集训练Wheat_YOLO网络模型的流程图;
图5为图1中加载最优模型用于真实场景下的小麦头检测的流程图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明。
如图1-5所示,本发明包括如下步骤:
步骤一:如附图2,获取GWHD数据集步骤101从步骤201到步骤204:
步骤201:从Kaggle竞赛网站上下载Global Wheat Detection数据集,从数据集中的csv文件中提取目标的编号信息获得wheat_number.txt,提取坐标信息和类别名获得wheat_all.txt,得到数据集a0;
步骤202:利用数据增强技术将数据集a0中的图片进行翻转,大小在0.25到2之间进行缩放,宽高在0.5到1.5之间扭曲,色调hue为0.1,亮度和饱和度增强为原图的1.5倍,同时使用数据抖动方式进行样本的扩充,得到包含6746张图片和295538个目标框的数据集a1;
步骤203:按照8:1:1的比例将数据集a1划分为训练集、验证集和测试集,得到train_num.txt、val_num.txt和test_num.txt文件;
步骤204:仿照VOC2007的格式调整数据集a1得到GWHD数据集,其中中等目标占数据集的68%左右。
步骤二:如附图3,搭建Wheat_YOLO网络模型步骤102从步骤301到步骤305:
步骤301:使用Relu函数和h-swish函数作为激活函数,利用SE block、逆残差结构和深度可分离卷积搭建17个bneck结构,实现主干网络MobileNetV3-Large;
步骤302:通过DownSample操作在检测分支中增加一条自底向上的信息通道,采用concat操作进行横向特征融合;
步骤303:在concat操作后增加一个SE block,使用深度可分离卷积替换普通卷积并增加残差结构,实现Wheat_YOLO的检测网络;
步骤304:设置二元交叉熵损失函数作为网络的置信度和分类损失函数,平方差损失函数作为网络的回归损失函数,得到网络的损失函数model_loss;
步骤305:将主干网络、检测网络和损失函数结合得到小麦头检测网络模型model。
步骤三:如附图4,使用GWHD数据集训练Wheat_YOLO网络模型步骤103从步骤401到步骤414:
步骤401:根据训练集中各样本编号从wheat_all.txt文件中提取样本的(xmin,ymin,xmax,ymax)和所属类别编号得到train.txt文件;
步骤402:根据验证集中各样本编号从wheat_all.txt文件中提取样本的(xmin,ymin,xmax,ymax)和所属类别编号得到val.txt文件;
步骤403:使用融合了线性尺度缩放的Kmean++算法对训练验证集中的所有目标执行聚类操作获得9个anchor box,每个特征层分别对应3个anchor box;
步骤404:定义输入网络图片宽w和高h、计数变量m、n(表示检测指标无改善的训练轮数)和e以及val_loss减少量Δg,并赋值w=416,h=416,m=0,n=0,e=0;
步骤405:model加载MobilenetV3_large预训练权重,冻结前227层;
步骤406:设置Adam作为网络的优化函数,批训练数量epoch为200,初始学习率lr为0.001,批大小batch-size为8;
步骤407:进行模型训练并更新权值,e=e+1;
步骤408:若Δg<=0,则m=m+1,n=n+1,执行步骤409,否则执行步骤409;
步骤409:若n=2,则lr=lr*0.5,n=0,执行步骤410,否则执行步骤410;
步骤410:当
Figure BDA0003057255040000061
若m=10,则
Figure BDA0003057255040000062
执行步骤411,否则执行步骤407;
步骤411:当
Figure BDA0003057255040000063
若m=10或e=200,则执行步骤414,否则执行步骤412;
步骤412:若
Figure BDA0003057255040000064
则lr=0.0001,否则执行步骤413;
步骤413:对所有网络层进行训练并更新权值,e=e+1,执行步骤408;
步骤414:保存模型权重last1.h5,模型训练结束。
步骤四:如附图5,保存最优模型用于真实场景下的小麦头检测步骤105从步骤501到步骤504:
步骤501:采集并处理原始数据得到416×416×3的输入数据;
步骤502:对输入数据进行归一化处理;
步骤503:加载最优模型对输入网络中的图片进行预测;
步骤504:获得各检测目标的类别名、置信度分数和对应的目标框坐标信息,并展示在图片上,检测结束。
为了更好的说明本方法的有效性,通过对GHWD数据集进行测试,使用YOLOv3网络与Wheat_YOLO进行了对比,结果如表1所示:与YOLOv3相比,Wheat_YOLO网络的平均准确度提高5.15%,检测速度提升65.8%
表1 YOLOv3和Wheat_YOLO结果对比表
Figure BDA0003057255040000065
以上所述仅为本发明的实施例子而已,并不用于限制本发明。凡在本发明的原则之内,所作的等同替换,均应包含在本发明的保护范围之内。本发明未作详细阐述的内容属于本专业领域技术人员公知的已有技术。

Claims (1)

1.一种基于MobilenetV3的小麦头快速检测方法,其特征在于,具体步骤如下:
(1)通过收集并处理Kaggle网站上公布的小麦头图片和相关标签获得GWHD数据集;
(2)搭建Wheat_YOLO网络模型;
(3)使用处理好的GWHD数据集对模型进行训练;
(4)保存最优模型用于真实场景下的小麦头检测中;
所述步骤(1)中获取全球小麦头检测数据集的具体步骤如下:
(1.1)从Kaggle竞赛网站上下载Global Wheat Detection数据集并进行处理得到数据集a0;
(1.2)利用图像增强技术对数据集a0中的样本进行扩充得到数据集a1;
(1.3)将数据集a1按照一定比例进行划分,仿照VOC2007的格式处理获得;
所述步骤(2)中搭建Wheat_YOLO网络模型的具体步骤如下:
(2.1)搭建Wheat_YOLO的特征提取网络MobileNetV3-Large;
(2.2)在检测分支中通过DownSample操作增加一条自底向上的信息通道,并在每个concat操作后增加SE block,同时使用深度可分离卷积替换普通卷积搭建Wheat_YOLO的检测网络;
(2.3)设置二元交叉熵损失函数作为网络的置信度和分类损失函数,平方差损失函数作为网络的回归损失函数,三者相加得到网络的损失函数model_loss;
(2.4)将特征提取网络、检测网络和损失函数结合得到小麦头检测网络模型model;
所述步骤(3)中使用GWHD数据集训练Wheat_YOLO网络模型的具体步骤如下:
(3.1)根据训练集中目标编号从包含所有目标所有信息的txt文件中提取所需信息得到train.txt文件;
(3.2)根据验证集中目标编号从包含所有目标所有信息的txt文件中提取所需信息得到val.txt文件;
(3.3)使用融合了线性尺度缩放的K- means ++算法对训练验证集中的所有目标执行聚类操作获得所需的anchor box;
(3.4)定义输入网络的图片的宽高、计数变量m、n和e并赋值;
(3.5)使用model加载MobilenetV3_large预训练权重;
(3.6)冻结训练模型前227层;
(3.7)设置Adam作为网络的优化函数,批训练数量epoch为200,初始学习率lr为0.001,批大小batch-size为8;
(3.8)进行模型训练并更新网络参数和计数变量;
(3.9)若n=2,则更新学习率,重置n;
(3.10)当
Figure FDA0003057255030000021
若m=10,则
Figure FDA0003057255030000022
执行步骤3.11,否则执行步骤3.8;
(3.11)当
Figure FDA0003057255030000023
若m=10或e=200,则执行步骤3.14,否则执行步骤3.12;
(3.12)若
Figure FDA0003057255030000024
则重新设置学习率;
(3.13)对所有网络层进行训练并更新网络参数和计数变量,执行步骤3.9;
(3.14)保存模型权重last1.h5,模型训练结束;
所述步骤(4)中保存最优模型用于真实场景下的小麦头检测具体步骤如下:
(4.1)采集并处理原始数据使其符合输入要求;
(4.2)加载最优模型对输入网络中的图片进行预测;
(4.2)获得各检测目标的类别名、置信度分数和对应的目标框坐标信息,并展示在图片上,检测结束。
CN202110503290.1A 2021-05-10 2021-05-10 一种基于MobilenetV3的小麦头快速检测方法 Active CN113327227B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110503290.1A CN113327227B (zh) 2021-05-10 2021-05-10 一种基于MobilenetV3的小麦头快速检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110503290.1A CN113327227B (zh) 2021-05-10 2021-05-10 一种基于MobilenetV3的小麦头快速检测方法

Publications (2)

Publication Number Publication Date
CN113327227A CN113327227A (zh) 2021-08-31
CN113327227B true CN113327227B (zh) 2022-11-11

Family

ID=77415207

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110503290.1A Active CN113327227B (zh) 2021-05-10 2021-05-10 一种基于MobilenetV3的小麦头快速检测方法

Country Status (1)

Country Link
CN (1) CN113327227B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114724105B (zh) * 2021-11-29 2024-06-14 山东交通学院 一种基于云边端架构的复杂背景下锥桶识别方法
CN114782455B (zh) * 2022-06-27 2022-09-09 中国科学院合肥物质科学研究院 一种用于农机嵌入式设备的棉花行中心线图像提取方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11908149B2 (en) * 2019-10-10 2024-02-20 Andrew Thomas Busey Pattern-triggered object modification in augmented reality system
CN111209907B (zh) * 2019-12-20 2023-04-07 广西柳州联耕科技有限公司 一种复杂光污染环境下产品特征图像人工智能识别方法
CN111274930B (zh) * 2020-04-02 2022-09-06 成都鼎安华智慧物联网股份有限公司 一种基于深度学习的安全帽佩戴以及吸烟行为识别方法
CN111666836B (zh) * 2020-05-22 2023-05-02 北京工业大学 M-f-y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法
CN112131983A (zh) * 2020-09-11 2020-12-25 桂林理工大学 一种基于改进YOLOv3网络的安全帽佩戴检测方法
CN112270347A (zh) * 2020-10-20 2021-01-26 西安工程大学 一种基于改进ssd的医疗废弃物分类检测方法
CN112396002B (zh) * 2020-11-20 2023-05-30 重庆邮电大学 一种基于SE-YOLOv3的轻量级遥感目标检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Face recognition based on lightweight convolutional neural networks;Liu W 等;《Information》;20210428;第12卷(第5期);191 *
Three Stream 3D CNN with SE Block for Micro-Expression Recognition;Yao L 等;《2020 International Conference on Computer Engineering and Application》;20200529;439-443 *
基于轻量级无锚点深度卷积神经网络的树上苹果检测模型;夏雪等;《智慧农业(中英文)》;20200331(第01期);107-118 *

Also Published As

Publication number Publication date
CN113327227A (zh) 2021-08-31

Similar Documents

Publication Publication Date Title
CN110909800A (zh) 一种基于Faster R-CNN改进算法的车辆检测方法
CN112396002A (zh) 一种基于SE-YOLOv3的轻量级遥感目标检测方法
CN111461083A (zh) 基于深度学习的快速车辆检测方法
CN111460980B (zh) 基于多语义特征融合的小目标行人的多尺度检测方法
CN110991311A (zh) 一种基于密集连接深度网络的目标检测方法
CN113327227B (zh) 一种基于MobilenetV3的小麦头快速检测方法
CN114495029B (zh) 一种基于改进YOLOv4的交通目标检测方法及系统
CN110532946B (zh) 一种基于卷积神经网络识别绿通车车辆轴型的方法
CN111652273B (zh) 一种基于深度学习的rgb-d图像分类方法
CN111832546A (zh) 一种轻量级自然场景文本识别方法
CN111860587B (zh) 一种用于图片小目标的检测方法
CN112381030B (zh) 一种基于特征融合的卫星光学遥感图像目标检测方法
CN110222215A (zh) 一种基于f-ssd-iv3的作物害虫检测方法
CN110263731B (zh) 一种单步人脸检测系统
CN112528934A (zh) 一种基于多尺度特征层的改进型YOLOv3的交通标志检测方法
CN112308825A (zh) 一种基于SqueezeNet的农作物叶片病害识别方法
CN113435254A (zh) 一种基于哨兵二号影像的耕地深度学习提取方法
CN115393666A (zh) 图像分类中基于原型补全的小样本扩充方法及系统
CN114972753A (zh) 基于上下文信息聚合和辅助学习的轻量级语义分割方法及系统
CN112215241B (zh) 一种基于小样本学习的图像特征提取装置
CN115861595B (zh) 一种基于深度学习的多尺度域自适应异源图像匹配方法
CN117132910A (zh) 一种用于无人机的车辆检测方法、装置及存储介质
CN111797795A (zh) 一种基于YOLOv3与SSR的行人检测算法
CN117036897A (zh) 一种基于Meta RCNN的少样本目标检测方法
CN116071331A (zh) 一种基于改进ssd算法的工件表面缺陷检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant