CN116524363A - 一种基于自监督学习的油菜亚健康区域嵌入式自动检测器及检测方法 - Google Patents
一种基于自监督学习的油菜亚健康区域嵌入式自动检测器及检测方法 Download PDFInfo
- Publication number
- CN116524363A CN116524363A CN202310560395.XA CN202310560395A CN116524363A CN 116524363 A CN116524363 A CN 116524363A CN 202310560395 A CN202310560395 A CN 202310560395A CN 116524363 A CN116524363 A CN 116524363A
- Authority
- CN
- China
- Prior art keywords
- rape
- sub
- self
- health area
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 72
- 238000012549 training Methods 0.000 claims abstract description 21
- 230000006870 function Effects 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 12
- 238000010586 diagram Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 3
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 7
- 230000001788 irregular Effects 0.000 abstract description 4
- 241000196324 Embryophyta Species 0.000 description 7
- 230000001965 increasing effect Effects 0.000 description 5
- 235000015097 nutrients Nutrition 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 235000014698 Brassica juncea var multisecta Nutrition 0.000 description 2
- 235000006008 Brassica napus var napus Nutrition 0.000 description 2
- 240000000385 Brassica napus var. napus Species 0.000 description 2
- 235000006618 Brassica rapa subsp oleifera Nutrition 0.000 description 2
- 235000004977 Brassica sinapistrum Nutrition 0.000 description 2
- 241000208822 Lactuca Species 0.000 description 2
- 235000003228 Lactuca sativa Nutrition 0.000 description 2
- 238000012271 agricultural production Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 235000021384 green leafy vegetables Nutrition 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000010355 oscillation Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 208000035143 Bacterial infection Diseases 0.000 description 1
- 241000519995 Stachys sylvatica Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 208000022362 bacterial infectious disease Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 238000004383 yellowing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明一种基于自监督学习的油菜亚健康区域嵌入式自动检测器及检测方法,涉及智慧农业技术领域。方法包括如下步骤:S1、获取油菜图像数据集;S2、对数据集中图像进行特征增强;S3、构建基于YOLOX算法的油菜亚健康区域检测网络,以带有SPP层DarkNet53网络为主干网络,并且主干网络头和颈部网络之间构建有CA注意力模块,并采用分类损失和回归损失;S4、采用Self‑EMD对所述主干网络进行自监督预训练,将得到的权重用于下游检测任务中,再进行有监督训练,得到油菜亚健康区域检测模型;S5、采用所述油菜亚健康区域检测模型对待检测油菜图像进行亚健康区域检测。本发明方法能够捕获不规则的小目标亚健康区域特征,具有较高的鲁棒性和泛化能力,同时具有较高精度准确性。
Description
技术领域
本发明涉及智慧农业技术领域,具体而言,涉及一种基于自监督学习的油菜亚健康区域嵌入式自动检测器及检测方法。
背景技术
中国高纬度地区通常受寒地气候所限制,因此影响了自然农业生产量。幸运的是,植物工厂的出现使得寒冷地区的四季连续生产成为了可能。植物工厂是一种设施农业,可以通过调控水培植物生长环境所需的光谱、温度、湿度、营养液PH值以及根系所需的营养液元素配比等条件,实现周年连续生长的高效农业系统,解决我国东北、内蒙古、青海等寒地限制农业生产的问题;植物工厂又是精准农业,随着人工智能信息化的发展,完全实现了全生长期的无人无损监测,既节省了大量人力财力又实现我国长期追求的全民共食了绿色食品。在水培油菜的生长监测过程中,常常会因为营养液中元素供给不足或者营养液污染等状况,导致一批油菜出现叶片出现白色斑点、叶片泛黄等亚健康问题,并且营养液污染会比土壤被细菌感染传播速度更快,只有及时对症下药并调整才能挽救一批油菜的商业价值,因此,对于水培叶菜植物在生长的产品器官形成期,对油菜的亚健康区域的识别和及时判别,对油菜健康茁壮生长尤为关键。
通用目标检测器依赖于大规模预标注的(监督的)目标检测数据集,例如PascalVOC和MS COCO。然而,标注数据是昂贵和耗时的,特别是为每个目标的回归框稠密标注。最近,目标检测方法来自ImageNet分类的监督的迁移学习预训练骨干,然后在这个骨干的顶端微调头,例如两阶段检测器Faster-RCNN,单阶段检测器YOLOv3 SSD RetinaNet。然而,这些迁移的特征被证明对于特定领域的目标检测是不适合的。最近的一些自监督预训练方法例如SimCLR、MoCo和BYOL允许用借口任务预训练骨干,表示的泛化性在下游任务上比基于监督迁移的方法更好。但是,由于毁坏了图像空间结构和定位信息,从而使学习到的图片的全局表示对目标检测来说可能不可靠。因此,针对油菜亚健康区域检测的难点:(1)形态各异即油菜的亚健康区域形状、大小和颜色多变,一般的检测模型难以识别;(2)由于油菜属于特定领域目标,通常的迁移学习去做预训练所提取的特征不可靠;(3)精准定位和分类油菜亚健康区域存在边界框和样本不平衡问题;亟需一种在未标注数据集上的自监督预训练,同时实现油菜亚健康区域的精准定位和分类的方法。
发明内容
本发明为解决上述技术问题所采用的技术方案:
本发明提供了一种基于自监督学习的油菜亚健康区域嵌入式检测方法,包括如下步骤:
S1、获取油菜图像数据集;
S2、对数据集中图像进行特征增强;
S3、构建基于YOLOX算法的油菜亚健康区域检测网络,所述油菜亚健康区域检测网络以带有SPP层DarkNet53网络为主干网络,并且所述主干网络的头和颈部网络之间构建有CA注意力模块,以用于融合特征图中的空间、位置和通道信息,并采用分类损失和回归损失;
S4、基于特征增强的未标注的油菜图像数据集,采用Self-EMD对所述主干网络进行自监督预训练,将得到的权重用于下游检测任务中,再采用特征增强的有标签的数据集进行有监督训练,得到油菜亚健康区域检测模型;
S5、采用所述油菜亚健康区域检测模型对待检测油菜图像进行亚健康区域检测。
进一步地,S2中所述对数据集中图像进行特征增强包括:采用颜色抖动,剪裁和伸缩,高斯噪声的方式对油菜图像进行特征增强。
进一步地,S3中所述分类损失和回归损失即focal EIoU&focal loss,其中,所述Focal Loss的公式为:
其中y表示样本标签,y'经过激活函数的输出,α为预设因子以平衡高质量样本和低质量样本,γ是控制权重的参数;
所述focal EIoU损失包括IoU损失LIoU、距离损失Ldis和边长损失Lasp,具体公式为:
其中,IoU为一个质量指示器,ρ2(·,·)是欧氏距离函数,(b,w,h)和(bgt,wgt,hgt)分别是预测和地面真实的中心、宽和高,C是两个框最小外接矩形的对角线长度,Cw和Ch分别是这个矩形的宽和高;
将focal loss与focal EIoU相结合,即
LFocal-EIoU=IoUγLEIoU。
进一步地,根据所述油菜亚健康区域检测网络的颈部有3个尺度的特征图用于预测小、中、大3个尺度的目标,所述Self-EMD的损失函数采用将小、中、大三个目标的损失函数进行求和,即:
其中X为在线网络预测的视图v的特征张量,作为prediction,Y为目标网络编码的视图v’的特征张量,作为ground truth,两个特征张量之间的最优传输问题被定义为从供应者X到需求者Y之间的传输损失的最小值,其中π和O分别是传输策略和传输损失矩阵,<·,·>F表示两个矩阵之间的Frobenius内积。
进一步地,S3中所述CA注意力模块包括以下两部分:
坐标信息嵌入部分:两个池化核(H,1)和(1,W)分别沿着水平和垂直坐标对每个通道进行池化;得到高度为h的第c个通道的输出和宽度为w的第c个通道的输出/>一对方向感知的特征图oh∈RH×c和ow∈RH×E可以经过沿通道的特征聚合获得;
坐标注意力生成部分:将一对特征图进行串联,用卷积核对其进行变换,即
f=σ(Conv([oh,ow]))
其中[·,·]是串联操作,f∈Rc/r×(H+W)是中间特征图,其中r是减少比率用来减少通道数,然后,将f分离为和/>并利用(1,1)的卷积核各自将它们转换为两个注意力图gh∈/>和/>且,/>为第c个通道的注意力向量,其中的元素/>分别代表特征张量X在第c个通道的特征点(i,j)的注意力权重;因此,增强的特征向量的第c个通道的输出是:
进一步地,S3中所述YOLOX算法为YOLOX_s算法。
一种基于自监督学习的油菜亚健康区域嵌入式自动检测器,所述检测器应用上述技术方案中任一项所述的基于自监督学习的油菜亚健康区域嵌入式检测方法。
相较于现有技术,本发明的有益效果是:
本发明一种基于自监督学习的油菜亚健康区域嵌入式自动检测器及检测方法;将自监督预训练与改进的YOLOX_s模型相结合,在特征图中保留潜在目标的空间结构和位置信息,利于后续的不规则小目标检测。通过在YOLOX_s网络中构建CA注意力模块,能为目标检测捕获带有空间结构和位置信息的特征张量,能解决捕获不规则亚健康区域特征困难的问题;由于本发明的YOLOX_s检测模型为轻量级模型,在检测速度上更有优势,可应用于植物工厂中巡检机器人,模型具有较高的鲁棒性和泛化能力,可以对现蕾抽薹期的油菜植株实现高精度的检测。本发明改进后的YOLOX_s的头部解耦为定位和分类两个输出,采用的focal EIoU&focal loss不仅可以解决低质量/高质量边界框不平衡问题,还可以自适应地拉高高质量边界框的权重,自适应地提高困难样本的权重,从而提高分类头的判别能力。
附图说明
图1为本发明实施例中基于自监督学习的油菜亚健康区域嵌入式检测方法;
图2为本发明实施例中的改进后YOLOX-DarkNet53的网络结构图;
图3为本发明实施例中的特征图可视化图;
图4为本发明实施例中不同网络模型的准确性比较图;
图5为本发明实施例中的IoU&Cross entropy和focal EIoU&focal loss的损失对比图。
具体实施方式
在本发明的描述中,应当说明的是,在本发明的实施例中所提到的术语“第一”、“第二”、“第三”仅用于描述目的,并不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括一个或者多个该特征。
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
如图1所示,本发明提供一种基于自监督学习的油菜亚健康区域嵌入式检测方法,包括如下步骤:
S1、获取油菜图像数据集。
S2、对数据集中图像进行特征增强;包括:采用颜色抖动,剪裁和伸缩,高斯噪声的方式对油菜图像进行特征增强。
S3、构建基于YOLOX算法的油菜亚健康区域检测网络,所述油菜亚健康区域检测网络以带有SPP层DarkNet53网络为主干网络,并且所述主干网络的头和颈部网络之间构建有CA注意力模块,以用于融合特征图中的空间、位置和通道信息,并采用分类损失和回归损失。
所述YOLOX算法为YOLOX_s算法。
所述分类损失和回归损失即focal EIoU&focal loss,其中,所述Focal Loss的公式为:
其中y表示样本标签,y'经过激活函数的输出,α为预设因子以平衡高质量样本和低质量样本,γ是控制权重的参数;
所述focal EIoU损失包括IoU损失LIoU、距离损失Ldis和边长损失Lasp,具体公式为:
其中,IoU为一个质量指示器,ρ2(·,·)是欧氏距离函数,(b,w,h)和(bgt,wgt,hgt)分别是预测和地面真实的中心、宽和高,C是两个框最小外接矩形的对角线长度,Cw和Ch分别是这个矩形的宽和高;
将Focal Loss与focal EIoU相结合,即
LFocal-EIoU=IoUγLEIoU。
所述CA注意力模块包括以下两部分:
坐标信息嵌入部分:由于全局池会将高和宽压缩到通道描述符中,因此很难保存空间和位置信息。两个池化核(H,1)和(1,W)分别沿着水平和垂直坐标对每个通道进行池化;得到高度为h的第c个通道的输出和宽度为w的第c个通道的输出/>一对方向感知的特征图oh∈RH×C和ow∈RH×W可以经过沿通道的特征聚合获得;
坐标注意力生成部分:为了充分利用捕获到的空间和位置信息,将一对特征图进行串联,用卷积核对其进行变换,即
f=σ(Conv([oh,ow]))
其中[·,·]是串联操作,f∈Rc/r×(H+W)是中间特征图,其中r是减少比率用来减少通道数,然后,将f分离为和/>并利用(1,1)的卷积核各自将它们转换为两个注意力图gh∈/>和/>且,/>为第c个通道的注意力向量,其中的元素/>分别代表特征张量X在第c个通道的特征点(i,j)的注意力权重;因此,增强的特征向量的第c个通道的输出是:
对于油菜上的亚健康区域,CA利用两个空间感知的注意力图反映不规则目标是否存在于相应特征图的行和列,提高模型发现和定位目标的准确性。
S4、基于特征增强的未标注的油菜图像数据集,采用Self-EMD对所述主干网络进行自监督预训练,将得到的权重用于下游检测任务中,再采用特征增强的有标签的数据集进行有监督训练,得到油菜亚健康区域检测模型。
根据所述油菜亚健康区域检测网络的颈部有3个尺度的特征图用于预测小、中、大3个尺度的目标,所述Self-EMD的损失函数采用将小、中、大三个目标的损失函数进行求和,即:
其中X为在线网络预测的视图v的特征张量,作为prediction,Y为目标网络编码的视图v’的特征张量,作为ground truth,两个特征张量之间的最优传输问题被定义为从供应者X到需求者Y之间的传输损失的最小值,其中π和O分别是传输策略和传输损失矩阵,<·,·>F表示两个矩阵之间的Frobenius内积。
S5、采用所述油菜亚健康区域检测模型对待检测油菜图像进行亚健康区域检测。
本发明中采用Self-EMD对所述主干网络进行自监督预训练,Self-EMD将相同图像的两个变换视图的特征张量分别视为供应者和需求者,然后以最小化Earth Mover'sDistance(EMD)的目标来优化特征图的一致性。具体地,对输入图片做两种变换,一种将视图v固定为图片进行拷贝,另一种对图像随机裁剪。在自监督学习阶段使用这种固定变换组合能够迫使网络学习一种在原始image上放大并聚焦微小目标的模式,会使接下来的生菜亚健康区域目标检测更有效。本发明:(1)网络结构允许执行多尺度特征图并行学习,以明确了解不同尺度之间的一致表示;(2)预训练的网络可以与下游目标检测任务直接匹配,而不破坏多尺度特征图的语义空间。因此,预训练抽取到的生菜亚健康区域的细粒度特征会确保被完整的迁移,有利于提高后续目标检测任务的精度。且减少预训练任务与下游目标检测任务之间的语义鸿沟。
本发明采用CA注意力机制,由于油菜亚健康区域的的检测属于小目标检测,所以浅层特征图的小感受野区域的信息尤为关键。协同注意力机制能够增强有效的特征信息并抑制背景噪声,以提高分层目标检测的准确性。首先,它不仅仅能捕获跨通道的信息,还能捕获方向感知和位置感知的信息,这能帮助模型更加精准地定位和识别感兴趣的目标;其次,协同注意力灵活且轻量,可以被容易地插入YOLOX_s,来通过强化信息表示的方法增强特征;最后,作为一个预训练模型,协同注意力可以在轻量级网络的基础上给下游任务带来巨大的增益。
本发明采用分类损失和回归损失,即focal EIoU&focal loss;将检测到的亚健康区域作为正样本,健康生长的油菜叶片作为负样本,而数据集中正负样本比例严重失衡,为解决前景类与背景类不平衡的问题从而提高模型检测性能,本发明通过α平衡因子平衡正负样本的比例不均,γ因子解决简单与困难样本不平衡的问题。该损失函数会降低大量负样本在训练中所占的权重,更适于困难样本挖掘,分类效果最优。为了解决低质量样本造成的损失值剧烈震荡的问题,本发明不仅考虑了重叠面积,中心点距离、长宽边长真实差,还拥有更快的收敛速度。
实施例1
本实施例在NVIDIA GeForce GTX 1080Ti GPU的64位windows系统上进行。对于软件,选择程序语言python 3.8和深度学习框架pytorch 1.10。此外,采用采集的油菜图片作为实验数据,输入尺寸规范化为640*640*3,MS-EMD(multi scale self-EMD,即本发明的将小、中、大三个目标的损失函数进行求和作为损失函数的Self-EMD)预训练基于所有实验数据,然后按照7:1:2的比例划分训练集、验证集和测试集。本实施例通过组合不同的模块设计了多个变体,如图2和图3所示,为采用本发明网络结构即特征图,这些变体的实验结果如表1所示。
表1
针对现有的目标检测模型RCNN家族和YOLO家族,作为油菜亚健康区域检测任务的基线,与本发明改进后的YOLOX_s网络模型的检测结果相比较。所有基线都输入640*640的尺寸的图像,然后,训练基线直到损失收敛,并采用基线的最优超参数。为了测试基线在油菜亚健康区域检测任务上的效率,也比较了模型尺寸和推理时延上的结果。
对于Faster RCNN和Mask RCNN两阶段检测器来说,识别亚健康区域的mAP值高于单阶段检测器。然而,两阶段检测器的效率却是很低的,在1080ti图形处理单元上每张图片的推理时延接近300ms。
对于包括YOLOv3、YOLOv4、YOLOv5和YOLOX的单阶段检测器,由于网络结构简单,推理时延明显比两阶段检测器小。此外,对于包括YOLOv3tiny、YOLOv4tiny、YOLOv5s和YOLOXs的轻量级单阶段检测器,以降低mAP为代价使推理时延进一步减小,达到了“实时检测”。
而本发明的轻量级检测器U3YOLOXs来检测油菜上的亚健康区域。在spot_rape(黄斑检出率)类上的AP值是90.09%,yellow_rape(黄叶检出率)类上的AP值是98.67%,mAP值是94.38%。此外,U3YOLOXs的模型尺寸是71.1MB,每张图片的推理时延是20.4ms,在效率较高的情况下,达到了相对较高的准确度,满足真实农业生产中对边缘计算的需求,同时为应用于更多品种的绿叶蔬菜的亚健康区域检测奠定基础。
实施例2
如图4所示,比较YOLOXs不同的预训练策略的结果。其中,变体1没有预训练,变体2从ImageNet分类上迁移,变体3和变体4在采集的油菜数据集上分别用未进行改进的self-EMD和本发明改进得到的MS-EMD方法预训练。结果,变体2相比于变体1的提升是细微的,在mAP上只有0.16%,在ImageNet通用数据集上的预训练对农业任务是低效的。变体3相比于变体2在mAP上增加了0.7%。这个结果证实了在农业数据集上,自监督预训练能够抽取到更可靠的特征。变体4取得了最好的性能,相比于变体3在mAP上增加了1.13%。因此,MS-EMD提供的这些的高质量的特征支持改进后的YOLOX_s缓解获取特定亚健康区域的特征难题。
尽管MS-EMD预训练提高了特征的质量,但亚健康区域的形状、大小和颜色的极端多变,检测任务仍面临着难题。为解决此难题,在颈部网络中添加了CA坐标注意力机制,检测结果的准确性明显提高,mAP增加了2.59%,其中漏掉的小目标被检测了和错误的目标被排除了。值得注意的是,来自CA块的参数规模和计算成本太小以至于被忽略,因此CA块的插入是非常高效和有效的。由于检测任务中还存在样本框不平衡的难题,采用focal EIoU&focal loss的损失进一步提高了检测结果的准确性。
如表2所示,在IoU&Cross entropy下,预测样本数(852)少于地面真实的样本数(896)。这是由于训练中梯度由大量的低质量边界框和简单样本提供,导致降低了模型的识别能力。如图5所示,低质量的梯度使得IoU&Cross entropy的损失震荡剧烈,并只收敛到0.15左右。采用focal EIoU&focal loss,自适应地增大高质量边界框和困难样本在损失中的权重。如图5所示,很明显地看到focal EIoU&focal loss的损失下降地更快、更稳定,收敛接近0。同时,如表格2所示,在focal EIoU&focal loss下,spot_rape的召回率明显地提高,预测的数量从852增加到了966,而且模型的mAP也提升了。
表2
虽然本发明公开披露如上,但本发明公开的保护范围并非仅限于此。本发明领域技术人员在不脱离本发明公开的精神和范围的前提下,可进行各种变更与修改,这些变更与修改均将落入本发明的保护范围。
Claims (7)
1.一种基于自监督学习的油菜亚健康区域嵌入式检测方法,其特征在于,包括如下步骤:
S1、获取油菜图像数据集;
S2、对数据集中图像进行特征增强;
S3、构建基于YOLOX算法的油菜亚健康区域检测网络,所述油菜亚健康区域检测网络以带有SPP层DarkNet53网络为主干网络,并且所述主干网络的头和颈部网络之间构建有CA注意力模块,以用于融合特征图中的空间、位置和通道信息,并采用分类损失和回归损失;
S4、基于特征增强的未标注的油菜图像数据集,采用Self-EMD对所述主干网络进行自监督预训练,将得到的权重用于下游检测任务中,再采用特征增强的有标签的数据集进行有监督训练,得到油菜亚健康区域检测模型;
S5、采用所述油菜亚健康区域检测模型对待检测油菜图像进行亚健康区域检测。
2.根据权利要求1所述的基于自监督学习的油菜亚健康区域嵌入式检测方法,其特征在于,S2中所述对数据集中图像进行特征增强包括:采用颜色抖动,剪裁和伸缩,高斯噪声的方式对油菜图像进行特征增强。
3.根据权利要求1所述的基于自监督学习的油菜亚健康区域嵌入式检测方法,其特征在于,S3中所述分类损失和回归损失即focal EIoU&focal loss,其中,所述Focal Loss的公式为:
其中y表示样本标签,y'经过激活函数的输出,α为预设因子以平衡高质量样本和低质量样本,γ是控制权重的参数;
所述focal EIoU损失包括IoU损失LIoU、距离损失Ldis和边长损失Lasp,具体公式为:
其中,IoU为一个质量指示器,ρ2(·,·)是欧氏距离函数,(b,w,h)和(bgt,wgt,hgt)分别是预测和地面真实的中心、宽和高,C是两个框最小外接矩形的对角线长度,Cw和Ch分别是这个矩形的宽和高;
将focal loss与focal EIoU相结合,即
LFocal-EIoU=IoUγLEIoU。
4.根据权利要求1所述的基于自监督学习的油菜亚健康区域嵌入式检测方法,其特征在于,根据所述油菜亚健康区域检测网络的颈部有3个尺度的特征图用于预测小、中、大3个尺度的目标,所述Self-EMD的损失函数采用将小、中、大三个目标的损失函数进行求和,即:
其中X为在线网络预测的视图v的特征张量,作为prediction,Y为目标网络编码的视图v’的特征张量,作为ground truth,两个特征张量之间的最优传输问题被定义为从供应者X到需求者Y之间的传输损失的最小值,其中π和O分别是传输策略和传输损失矩阵,<·,·>F表示两个矩阵之间的Frobenius内积。
5.根据权利要求1所述的基于自监督学习的油菜亚健康区域嵌入式检测方法,其特征在于,S3中所述CA注意力模块包括以下两部分:
坐标信息嵌入部分:两个池化核(H,1)和(1,W)分别沿着水平和垂直坐标对每个通道进行池化;得到高度为h的第c个通道的输出和宽度为w的第c个通道的输出/>一对方向感知的特征图oh∈RH×c和ow∈RH×W可以经过沿通道的特征聚合获得;
坐标注意力生成部分:将一对特征图进行串联,用卷积核对其进行变换,即
f=σ(Conv([oh,ow]))
其中[·,·]是串联操作,f∈Rc/r×(H+W)是中间特征图,其中r是减少比率用来减少通道数,然后,将f分离为和/>并利用(1,1)的卷积核各自将它们转换为两个注意力图/> 和/>且,/>为第c个通道的注意力向量,其中的元素/>分别代表特征张量X在第c个通道的特征点(i,j)的注意力权重;因此,增强的特征向量的第c个通道的输出是:
6.根据权利要求1所述的基于自监督学习的油菜亚健康区域嵌入式检测方法,其特征在于,S3中所述YOLOX算法为YOLOX_s算法。
7.一种基于自监督学习的油菜亚健康区域嵌入式自动检测器,其特征在于,所述检测器应用权利要求1~6任一项所述的基于自监督学习的油菜亚健康区域嵌入式检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310560395.XA CN116524363A (zh) | 2023-05-18 | 2023-05-18 | 一种基于自监督学习的油菜亚健康区域嵌入式自动检测器及检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310560395.XA CN116524363A (zh) | 2023-05-18 | 2023-05-18 | 一种基于自监督学习的油菜亚健康区域嵌入式自动检测器及检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116524363A true CN116524363A (zh) | 2023-08-01 |
Family
ID=87392070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310560395.XA Pending CN116524363A (zh) | 2023-05-18 | 2023-05-18 | 一种基于自监督学习的油菜亚健康区域嵌入式自动检测器及检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116524363A (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112966684A (zh) * | 2021-03-15 | 2021-06-15 | 北湾科技(武汉)有限公司 | 一种注意力机制下的协同学习文字识别方法 |
-
2023
- 2023-05-18 CN CN202310560395.XA patent/CN116524363A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112966684A (zh) * | 2021-03-15 | 2021-06-15 | 北湾科技(武汉)有限公司 | 一种注意力机制下的协同学习文字识别方法 |
Non-Patent Citations (1)
Title |
---|
XINJING GONG等: "《U3-YOLOXs: An improved YOLOXs for Uncommon Unregular Unbalance detection of the rape subhealth regions》", 《COMPUTERS AND ELECTRONICS IN AGRICULTURE》, pages 2 - 4 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fu et al. | Fast and accurate detection of kiwifruit in orchard using improved YOLOv3-tiny model | |
Zhang et al. | Real-time strawberry detection using deep neural networks on embedded system (rtsd-net): An edge AI application | |
Chen et al. | Weed detection in sesame fields using a YOLO model with an enhanced attention mechanism and feature fusion | |
CN108805070A (zh) | 一种基于嵌入式终端的深度学习行人检测方法 | |
Zhou et al. | A novel greenhouse-based system for the detection and plumpness assessment of strawberry using an improved deep learning technique | |
Wang et al. | YOLOv3-Litchi detection method of densely distributed litchi in large vision scenes | |
Wang et al. | Precision detection of dense plums in orchards using the improved YOLOv4 model | |
Shen et al. | Biomimetic vision for zoom object detection based on improved vertical grid number YOLO algorithm | |
CN109886267A (zh) | 一种基于最优特征选择的低对比度图像显著性检测方法 | |
CN112288022B (zh) | 一种基于ssd算法的特征融合的粮虫识别方法和识别系统 | |
CN113435254A (zh) | 一种基于哨兵二号影像的耕地深度学习提取方法 | |
Liu et al. | TomatoDet: Anchor-free detector for tomato detection | |
Lu et al. | Citrus green fruit detection via improved feature network extraction | |
Guo et al. | Grape leaf disease detection based on attention mechanisms | |
Zhong et al. | Identification and depth localization of clustered pod pepper based on improved Faster R-CNN | |
Zu et al. | Disease identification of Lentinus edodes sticks based on deep learning model | |
Wu et al. | A method for identifying grape stems using keypoints | |
Liu et al. | Tomato detection based on convolutional neural network for robotic application | |
Huang et al. | YOLO-EP: a detection algorithm to detect eggs of Pomacea canaliculata in rice fields | |
Jia et al. | YOLOF-Snake: An efficient segmentation model for green object fruit | |
CN117079125A (zh) | 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法 | |
Chen et al. | Deep convolutional network for citrus leaf diseases recognition | |
He et al. | Visual recognition and location algorithm based on optimized YOLOv3 detector and RGB depth camera | |
Tu et al. | Toward automatic plant phenotyping: starting from leaf counting | |
CN116524363A (zh) | 一种基于自监督学习的油菜亚健康区域嵌入式自动检测器及检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |