CN116630720A - 一种基于YoloV7的抗原检测结果识别方法 - Google Patents

一种基于YoloV7的抗原检测结果识别方法 Download PDF

Info

Publication number
CN116630720A
CN116630720A CN202310684848.XA CN202310684848A CN116630720A CN 116630720 A CN116630720 A CN 116630720A CN 202310684848 A CN202310684848 A CN 202310684848A CN 116630720 A CN116630720 A CN 116630720A
Authority
CN
China
Prior art keywords
layer
data set
data
yolov7
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310684848.XA
Other languages
English (en)
Inventor
范科峰
曹旭光
徐存
陈海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
China Electronics Standardization Institute
Original Assignee
Guilin University of Electronic Technology
China Electronics Standardization Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology, China Electronics Standardization Institute filed Critical Guilin University of Electronic Technology
Priority to CN202310684848.XA priority Critical patent/CN116630720A/zh
Publication of CN116630720A publication Critical patent/CN116630720A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A50/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE in human health protection, e.g. against extreme weather
    • Y02A50/30Against vector-borne diseases, e.g. mosquito-borne, fly-borne, tick-borne or waterborne diseases whose impact is exacerbated by climate change

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于YoloV7的抗原检测结果识别方法,该方法包括以下步骤:S1、收集和构建符合Yolo标注格式的样本数据集,预处理数据集,将数据集格式转换为Yolo可训练和识别的.txt格式;S2、部署YoloV7,对YoloV7模型结构和权重参数进行优化调节,使得网络结构更好的适应小样本数据集的学习;S3、调整YoloV7模型参数进行训练学习;S4、利用训练好的神经网络模型进行抗原检测识别。本发明根据不同扩张率卷积核的感受野递进原理,对采集图片进行特征提取,对小样本数据集中的数据进行数据增强操作,提高了数据集的多样性,减少了因为数据集数据量小带来的过拟合问题,提高了模型的泛化能力。

Description

一种基于YoloV7的抗原检测结果识别方法
技术领域
本发明涉及计算机视觉目标检测识别技术领域,具体涉及一种基于YoloV7的抗原检测结果识别方法。
背景技术
现有技术中,采样方式多采用定时定点采样,如将待采样人群安排在固定的采样点进行集中采样,数据在采样点收集并汇总上传。但现有技术中,定时定点采样的方式在应对大规模检测时,存在采样人员高强度工作、待采样人员长时间排队以及交叉感染等问题。现有的解决方案为向待采样人群发放独立的采样装置,由待采样人群在居所自行完成采样,并通过采样装置中的试剂盒得到检测结果,然后对检测结果进行识别。
申请号为202210922527.4的发明专利公开了一种抗原试剂检测结果识别方法,能够实现抗原试剂检测结果的识别,但是对于小样本的数据集的学习,过拟合一直都是不可避免的问题。因此在抗原检测结果识别中,如何调节网络参数,使得网络能够适应小样本数据的学习,防止过拟合现象的发生是一个亟待解决的技术问题。
发明内容
针对现有技术中的上述不足,本发明的目的在于提供一种基于YoloV7的抗原检测结果识别方法,解决了抗原检测结果识别中数据集数据量小带来的过拟合问题,提高了目标检测的准确度。
为了达到上述发明目的,本发明采用的技术方案为:
提供一种基于YoloV7的抗原检测结果识别方法,该方法包括以下步骤:
S1、收集和构建符合Yolo标注格式的样本数据集,预处理数据集,将数据集格式转换为Yolo可训练和识别的.txt格式;
S2、部署YoloV7,对YoloV7模型结构和权重参数进行优化调节,使得网络结构更好的适应小样本数据集的学习;
S3、调整YoloV7模型参数进行训练学习;
S4、利用训练好的神经网络模型进行抗原检测识别。
进一步地,步骤S1中,预处理数据集的具体方法为:将数据集图片重塑为(640,640,3)的形状,进行数据增强操作,即通过旋转、平移和裁剪,增加数据集的多样性。
进一步地,步骤S2的方法具体包括以下子步骤:
S21、将增强后的图像输入Backbone进行提取特征,Backbone的组成结构如下,2×((3,1)CBS层(卷积核为(3,3),步长为(1,1),以下的CBS标注与此相同),(3,2)CBS层),3×(ELAN层,MP1层);
S22、将经过特征提取后的数据输入检测头部Head,经过SPCCSPC层后进入UP上采样层,将Backbone中第二个(ELAN层,MP1层)中的数据经过(1,1)CBS后,经由Concat层相加,再经过改进的ELAN层和UP层,与第一个(ELAN层,MP1层)的数据经过(1,1)CBS,由Concat层相加,经过ELAN和REP层后,卷积层输出。
进一步地,步骤S3的方法具体包括以下子步骤:
S31、使用从数据集中裁剪出大小为640×640的RGB图像块进行训练;
S32、选取Adam优化器,参数选用默认参数,初始学习率设置为1e-3,随着训练的加深,其以十分之一的速率进行下降;
S33、损失函数分为坐标损失、目标置信度损失和分类损失三部分,其中目标置信度损失和分类损失采用BCEWithLogitsLoss,坐标损失采用CIoU损失函数;
BCEWithLogitsLoss:LBCElog=-wn[yn·logσ(xn)+(1-yn)·log(1-σ(xn))]
CIOU:
将原图像集的输出结果,即区域坐标、置信度、分类标签,分别作为三类损失函数的输入,通过损失函数计算结果,实施反向传播,进行网络参数更新,经过预设的训练周期,获得训练好的卷积神经网络;
BCEWithLogitsLoss式子中,wn代表权重参数,xn,yn分别代表神经网络输出结果和真实数据,σ(xn)代表sigmoid函数。
CIOU式子中,ρ2(b,bgt)代表预测框与真实框的中心点欧氏距离,c代表能够同时包含预测框和真实框的最小闭包区域的对角线距离,IOU是一种测量在特定数据集中检测相应物体准确度的标准。
进一步地,步骤S4的方法具体包括以下子步骤:
S41、将需要检测的抗原检测结果图像输入已经训练好的卷积神经网络,得到输出的分类标签、置信度、区域坐标信息;
S42、设置置信度阈值,将低于0.7的样本标为阳性,高于0.7的样本标为阴性;
S43、可视化输出结果,在输入图像中标注分类信息、置信度和目标区域Box。
本发明的有益效果为:
本发明根据不同扩张率卷积核的感受野递进原理,对采集图片进行特征提取,对小样本数据集中的数据进行数据增强操作,提高了数据集的多样性,减少了因为数据集数据量小带来的过拟合问题,提高了模型的泛化能力。对模型进行针对数据集的精细调节,实现迁移学习的效果,提高了原生模型对数据集的匹配度,提高了抗原检测的准确度。
附图说明
图1为本发明使用的YoloV7结构图;
图2为YoloV7中子模块的详细构成图;
图3为本发明方法中简易训练流程图;
图4为本发明实验数据可视化结果图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
实施例
一种基于YoloV7的抗原检测结果识别方法,该方法包括以下步骤:
S1、收集和构建符合Yolo标注格式的样本数据集,预处理数据集,将数据集格式转换为Yolo可训练和识别的.txt格式;
S2、部署YoloV7,对YoloV7模型结构和权重参数进行优化调节,使得网络结构更好的适应小样本数据集的学习;
S3、调整YoloV7模型参数进行训练学习;
S4、利用训练好的神经网络模型进行新冠抗原检测识别。
S1的具体步骤为:搜寻开源的新冠抗原检测结果数据集,在本发明实施例中使用的是基于收集的居民抗原自测结果图片数据集,数据集数据已进行加密处理,屏蔽掉了涉及隐私的数据。数据集中的数据分为三类,分别为阳性、阴性和无效。数据集总量为670张图片,数据量较小训练集、测试集和验证集的划分比例为7:2:1。
数据集的标注采用XML文件标注,对每一幅图片中的检测对象分别标注类别信息和检测区域BoundingBox数据,数据格式为VOC格式。Yolo的数据集识别格式为,Label,X_center/Width,Y_center/High,Bbox/Width,Bbox/High。对数据集进行预处理,将数据集图片重塑为(640,640,3)的形状,进行数据增强操作,即通过旋转、平移和裁剪,增加数据集的多样性。对转换后的数据格式存储于.txt格式文件内,每一张图片样本对应一个.txt文件,文件内标注数量为图片内的目标样本数量,每个目标样本占一行,包含类别信息、目标样本中心点横坐标与图像整体宽度的比值,目标样本中心点纵坐标与图像整体宽度的比值,识别区域宽度与图像整体宽度比值,识别区域高度与图像整体宽度比值。
S2的具体步骤如下:部署YoloV7,获取开源模型结构,YoloV7相较于之前的Yolo,在主干网络Backbone中加入了更加高效的E-ELAN(扩展高效聚合网络),能够在不破坏原有梯度路径的情况下不断提升网络学习能力。提出了结构模型重参化,提高了计算效率。
参照图1-2,YoloV7模型结构分为两个部分,主干网络Backbone和检测头部Head。主干网络Backbone由CBS,ELAN,MP1三模块组成。CBS子模块由二维卷积层、批标准化层、SiLU激活函数层组成。卷积根据步长分为两类,其一是卷积核为3×3,步长为1×1的卷积神经网络,其二是卷积核为3×3,步长为2×2的卷积神经网络。ELAN由多个CBS模块组成,ELAN内的CBS模块使用残差连接,将更大程度上保留原有特征并且在特征提取过程中能够减少计算量。输入图像数据经过两路特征提取过程,将提取的特征进行维度堆叠,最后经由一层CBS模块输出。MP1模块由Maxpooling层和CBS模块组成,输入数据经过两路特征提取,其中一路经过Maxpooling层和CBS模块,另一路经过两个不同的CBS模块,最后再进行维度上的叠加。
检测头部Head整体结构类似于FPN(Feature Pyramid Networks)结构,将Backbone的输出结果作为Hend的输入,通过SPPCSPC模块将维度从1024降为512,通过上采样操作实现逐层递进的特征提取,特征层数越高所获得的语义信息越多,但是会丢失图像的位置信息,所以在模型中对不同特征层数分别进行预测,这样可以在得到更多的语义信息的同时,尽可能保留位置信息。在检测头部Head结构中,由SPPCSPC,UP,ELAN、MP2、REP和卷积层组成。检测头部的ELAN相较于主干网络Backbone的ELAN,区别在于残差连接的数量,Head中对每一层CBS模块都进行残差连接,将残差连接的数据经过维度叠加后经过CBS模块输出。MP2模块与MP1模块的区别在于输出的维度是二倍的输入维度。在每层经过维度叠加后经由REP模块输出,REP模块由两路不同步长的CBS模块和BN层组成,原数据经由BN层后与前两路进行张量相加输出。最终保留的特征图尺寸分别为F1(20,20,1024),F2(40,40,512),F3(80,80,256)。
将Backbone中的信息通过CBS模块输入进Head中与上采样后的结果进行维度叠加,丰富语义信息,在训练过程中Head结构分为三个特征提取层输出预测结果进行训练,在部署应用中,将前两层高维度的参数信息,重参数化的到最后的主分支上,可以加快实际使用时的识别速度。
参照图3,S3中训练步骤具体如下:
S31,使用从数据集中裁剪出大小为640×640的RGB图像块进行训练,通过对数据集数据进行数据增强操作,增加数据的多样性。
S32,选取Adam优化器,参数选用默认参数,初始学习率设置为1e-3,并且随着训练的加深,以十分之一的速率进行下降,进行更加细致的学习。
S33,损失函数分为坐标损失、目标置信度损失和分类损失三部分,其中目标置信度损失和分类损失采用BCEWithLogitsLoss(基于Log的二值交叉熵损失函数),坐标损失采用CIoU损失函数。
BCEWithLogitsLoss:LBCElog=-wn[yn·logσ(xn)+(1-yn)·log(1-σ(xn))]
CIOU:
将原图像集的输出结果,即区域坐标、置信度、分类标签,分别作为三类损失函数的输入,通过损失函数计算结果,实施反向传播,进行网络参数更新,经过预设的训练周期,获得训练好的卷积神经网络。
BCEWithLogitsLoss式子中,wn代表权重参数,xn,yn分别代表神经网络输出结果和真实数据,σ(xn)代表sigmoid函数。
CIOU式子中,ρ2(b,bgt)代表预测框与真实框的中心点欧氏距离,c代表能够同时包含预测框和真实框的最小闭包区域的对角线距离,IOU是一种测量在特定数据集中检测相应物体准确度的标准。
S4的具体检测过程为:
S41、将需要检测的抗原检测结果图像输入已经训练好的卷积神经网络,得到输出的分类标签、置信度、区域坐标信息;
S42、设置置信度阈值,将低于0.7的样本标为阳性,高于0.7的样本标为阴性;
S43、可视化输出结果(如图4所示),在输入图像中标注分类信息、置信度和目标区域Box。
本发明根据不同扩张率卷积核的感受野递进原理,对采集图片进行特征提取,对小样本数据集中的数据进行数据增强操作,提高了数据集的多样性,减少了因为数据集数据量小带来的过拟合问题,提高了模型的泛化能力。对模型进行针对数据集的精细调节,实现迁移学习的效果,提高了原生模型对数据集的匹配度,提高了抗原检测的准确度。
于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (5)

1.一种基于YoloV7的抗原检测结果识别方法,其特征在于,包括以下步骤:
S1、收集和构建符合Yolo标注格式的样本数据集,预处理数据集,将数据集格式转换为Yolo可训练和识别的.txt格式;
S2、部署YoloV7,对YoloV7模型结构和权重参数进行优化调节,使得网络结构更好的适应小样本数据集的学习;
S3、调整YoloV7模型参数进行训练学习;
S4、利用训练好的神经网络模型进行抗原检测识别。
2.根据权利要求1所述的基于YoloV7的抗原检测结果识别方法,其特征在于,步骤S1中,预处理数据集的具体方法为:将数据集图片重塑为(640,640,3)的形状,进行数据增强操作,即通过旋转、平移和裁剪,增加数据集的多样性。
3.根据权利要求2所述的基于YoloV7的抗原检测结果识别方法,其特征在于,步骤S2的方法具体包括以下子步骤:
S21、将增强后的图像输入Backbone进行提取特征,Backbone的组成结构如下,2×((3,1)CBS层(卷积核为(3,3),步长为(1,1),以下的CBS标注与此相同),(3,2)CBS层),3×(ELAN层,MP1层);
S22、将经过特征提取后的数据输入检测头部Head,经过SPCCSPC层后进入UP上采样层,将Backbone中第二个(ELAN层,MP1层)中的数据经过(1,1)CBS后,经由Concat层相加,再经过改进的ELAN层和UP层,与第一个(ELAN层,MP1层)的数据经过(1,1)CBS,由Concat层相加,经过ELAN和REP层后,卷积层输出。
4.根据权利要求1所述的基于YoloV7的抗原检测结果识别方法,其特征在于,步骤S3的方法具体包括以下子步骤:
S31、使用从数据集中裁剪出大小为640×640的RGB图像块进行训练;
S32、选取Adam优化器,参数选用默认参数,初始学习率设置为1e-3,随着训练的加深,其以十分之一的速率进行下降;
S33、损失函数分为坐标损失、目标置信度损失和分类损失三部分,其中目标置信度损失和分类损失采用BCEWithLogitsLoss,坐标损失采用CIoU损失函数;
BCEWithLogitsLoss:LBCElog=-wn[yn·logσ(xn)+(1-yn)·log(1-σ(xn))]
CIOU:
将原图像集的输出结果,即区域坐标、置信度、分类标签,分别作为三类损失函数的输入,通过损失函数计算结果,实施反向传播,进行网络参数更新,经过预设的训练周期,获得训练好的卷积神经网络;
BCEWithLogitsLoss式子中,wn代表权重参数,xn,yn分别代表神经网络输出结果和真实数据,σ(xn)代表sigmoid函数;
CIOU式子中,ρ2(b,bgt)代表预测框与真实框的中心点欧氏距离,c代表能够同时包含预测框和真实框的最小闭包区域的对角线距离,IOU是一种测量在特定数据集中检测相应物体准确度的标准。
5.根据权利要求1所述的基于YoloV7的抗原检测结果识别方法,其特征在于,步骤S4的方法具体包括以下子步骤:
S41、将需要检测的抗原检测结果图像输入已经训练好的卷积神经网络,得到输出的分类标签、置信度、区域坐标信息;
S42、设置置信度阈值,将低于0.7的样本标为阳性,高于0.7的样本标为阴性;
S43、可视化输出结果,在输入图像中标注分类信息、置信度和目标区域Box。
CN202310684848.XA 2023-06-09 2023-06-09 一种基于YoloV7的抗原检测结果识别方法 Pending CN116630720A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310684848.XA CN116630720A (zh) 2023-06-09 2023-06-09 一种基于YoloV7的抗原检测结果识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310684848.XA CN116630720A (zh) 2023-06-09 2023-06-09 一种基于YoloV7的抗原检测结果识别方法

Publications (1)

Publication Number Publication Date
CN116630720A true CN116630720A (zh) 2023-08-22

Family

ID=87609824

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310684848.XA Pending CN116630720A (zh) 2023-06-09 2023-06-09 一种基于YoloV7的抗原检测结果识别方法

Country Status (1)

Country Link
CN (1) CN116630720A (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538391A (zh) * 2021-07-25 2021-10-22 吉林大学 一种基于Yolov4和热红外图像的光伏缺陷检测方法
CN113762209A (zh) * 2021-09-22 2021-12-07 重庆邮电大学 一种基于yolo的多尺度并行特征融合路标检测方法
CN115049966A (zh) * 2022-07-06 2022-09-13 杭州梦视网络科技有限公司 一种基于GhostNet的轻量化YOLO宠物识别方法
CN115601307A (zh) * 2022-09-22 2023-01-13 重庆生物智能制造研究院(Cn) 一种细胞自动检测方法
CN115719338A (zh) * 2022-11-20 2023-02-28 西北工业大学 一种基于改进YOLOv5的PCB板表面缺陷检测方法
CN115731164A (zh) * 2022-09-14 2023-03-03 常州大学 基于改进YOLOv7的绝缘子缺陷检测方法
CN116091490A (zh) * 2023-03-16 2023-05-09 长春工业大学 一种基于YOLOv4-CA-CBAM-K-means++-SIOU的肺结节检测方法
CN116206185A (zh) * 2023-02-27 2023-06-02 山东浪潮科学研究院有限公司 一种基于改进YOLOv7的轻量级小目标检测方法
CN116229236A (zh) * 2023-03-09 2023-06-06 重庆邮电大学 一种基于改进YOLO v5模型的结核杆菌检测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538391A (zh) * 2021-07-25 2021-10-22 吉林大学 一种基于Yolov4和热红外图像的光伏缺陷检测方法
CN113762209A (zh) * 2021-09-22 2021-12-07 重庆邮电大学 一种基于yolo的多尺度并行特征融合路标检测方法
CN115049966A (zh) * 2022-07-06 2022-09-13 杭州梦视网络科技有限公司 一种基于GhostNet的轻量化YOLO宠物识别方法
CN115731164A (zh) * 2022-09-14 2023-03-03 常州大学 基于改进YOLOv7的绝缘子缺陷检测方法
CN115601307A (zh) * 2022-09-22 2023-01-13 重庆生物智能制造研究院(Cn) 一种细胞自动检测方法
CN115719338A (zh) * 2022-11-20 2023-02-28 西北工业大学 一种基于改进YOLOv5的PCB板表面缺陷检测方法
CN116206185A (zh) * 2023-02-27 2023-06-02 山东浪潮科学研究院有限公司 一种基于改进YOLOv7的轻量级小目标检测方法
CN116229236A (zh) * 2023-03-09 2023-06-06 重庆邮电大学 一种基于改进YOLO v5模型的结核杆菌检测方法
CN116091490A (zh) * 2023-03-16 2023-05-09 长春工业大学 一种基于YOLOv4-CA-CBAM-K-means++-SIOU的肺结节检测方法

Similar Documents

Publication Publication Date Title
US11315345B2 (en) Method for dim and small object detection based on discriminant feature of video satellite data
CN112418117B (zh) 一种基于无人机图像的小目标检测方法
CN112241762B (zh) 一种用于病虫害图像分类的细粒度识别方法
CN109977895B (zh) 一种基于多特征图融合的野生动物视频目标检测方法
CN110287879B (zh) 一种基于注意力机制的视频行为识别方法
CN111046732A (zh) 一种基于多粒度语义解析的行人重识别方法及存储介质
CN111353544A (zh) 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
CN114170666A (zh) 一种基于多区域卷积神经网络的人脸表情识别方法
CN112597324A (zh) 一种基于相关滤波的图像哈希索引构建方法、系统及设备
CN113112498A (zh) 一种基于细粒度对抗生成网络的葡萄叶片病斑识别方法
CN115410258A (zh) 基于注意力图像的人脸表情识别方法
CN113537173B (zh) 一种基于面部补丁映射的人脸图像真伪识别方法
Susa et al. Deep learning technique detection for cotton and leaf classification using the YOLO algorithm
CN114170657A (zh) 融合注意力机制与高阶特征表示的面部情感识别方法
CN116630720A (zh) 一种基于YoloV7的抗原检测结果识别方法
CN115810106A (zh) 一种复杂环境下茶叶嫩梢品级精准识别方法
CN113192076B (zh) 联合分类预测和多尺度特征提取的mri脑肿瘤图像分割方法
Kumar et al. Mediapipe and cnns for real-time asl gesture recognition
CN114359786A (zh) 一种基于改进时空卷积网络的唇语识别方法
CN107392225A (zh) 基于椭圆傅立叶描述符和加权稀疏表示的植物识别方法
Prakash-Borah et al. Real-Time Helmet Detection and Number Plate Extraction Using Computer Vision
Zhang et al. A text localization method based on weak supervision
Prabhakaran et al. Automated Non-Helmet Rider Detection using YOLO v7 and OCR for Enhanced Traffic Monitoring
CN116701695B (zh) 一种级联角点特征与孪生网络的图像检索方法及系统
CN116740688B (zh) 一种药品识别方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination