CN116704188A - 一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法 - Google Patents
一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法 Download PDFInfo
- Publication number
- CN116704188A CN116704188A CN202310684015.3A CN202310684015A CN116704188A CN 116704188 A CN116704188 A CN 116704188A CN 202310684015 A CN202310684015 A CN 202310684015A CN 116704188 A CN116704188 A CN 116704188A
- Authority
- CN
- China
- Prior art keywords
- wheat grain
- image
- net network
- network
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241000209140 Triticum Species 0.000 title claims abstract description 91
- 235000021307 Triticum Nutrition 0.000 title claims abstract description 91
- 235000013339 cereals Nutrition 0.000 title claims abstract description 73
- 238000003709 image segmentation Methods 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 claims abstract description 35
- 230000008569 process Effects 0.000 claims abstract description 17
- 230000007246 mechanism Effects 0.000 claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims description 31
- 230000011218 segmentation Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 11
- 238000011176 pooling Methods 0.000 claims description 10
- 238000012795 verification Methods 0.000 claims description 7
- 230000006872 improvement Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000010365 information processing Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 abstract description 3
- 239000007787 solid Substances 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000035784 germination Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进U‑Net网络的不同容重小麦籽粒图像分割算法,采用残差堆叠模块作为下采样过程中的主要骨干结构,在特征融合部分,在初级特征图后通过嵌入CBAM注意力机制模块,从通道和空间位置以自适应地调整不同像素点的特征融合权重;在解码器部分中嵌入自注意力模块,增强不同目标之间的相关性。本发明实现了对不同容重的小麦籽粒从图像角度进行识别检测,改变了传统的采用容重筒进行小麦容重检测的方法,从而可以提升效率,为后续应用图像方法实现小麦容重的检测奠定了坚实的基础。
Description
技术领域
本发明属于小麦籽粒识别技术领域,具体涉及一种不同容重小麦籽粒识别过程中的小麦图像分割方法。
背景技术
目前,在粮库和质检部门小麦容重的检测都采用人工操作仪器检测的方法,但该操作步骤繁琐,检测效率低,从而影响粮食的进出口等进度,利用X射线断层扫描小麦籽粒在发芽之后的内部结构,但仍需寻找更为有效的三维重建方法,多光谱成像技术具有计算机视觉和光谱分析的优点,但数据量大、系统昂贵等问题是不可避免的,传统的机器学习方法可以通过计算机视觉系统捕捉作物图像,根据颜色、形状、面积和纹理提取特征,但人工提取的特征依赖于人类的先验知识,且特征之间相互关联容易造成冗余,不满足外观质量的快速准确评价。
随着机器学习的发展,深度学习在特征提取等方面具有更大的优势,逐渐成为现阶段研究热点,并广泛应用于小麦等粮食作物的无损在线检测,进而实现小麦等粮食作物的品质检测与等级划定,国内外已经有许多学者采用基于深度学习的研究方法,通过提取图像特征,实现小麦杂质和不完善粒的检测,针对这些问题,提出一种新的不同容重小麦籽粒识别方法,从图像层面采用图像分割的方法实现不同容重小麦籽粒的识别检测。
发明内容
本发明的目的是提供一个基于改进U-Net网络的不同容重小麦籽粒图像分割算法,通过对不同容重小麦籽粒图像进行分割,获得单个小麦籽粒图像,能更好地表征图像特征,从而更好地指导识别检测过程,本发明针对不同容重小麦籽粒图像中小麦籽粒目标小、特征不明显等情况而造成的不同容重小麦籽粒图像分割准确率低的问题,提出了改进并优化的U-Net网络结构,以适应小麦籽粒的图像分割,实验结果显示本文的算法模型能够取得不错的分割效果,对小麦籽粒图像分割有一定的参考意义。
本发明采用的技术方案步骤如下:
步骤一:使用专业工业相机对不同容重小麦籽粒图像进行采集,建立数据集;
步骤二:对数据集进行数据增强处理,按比例划分训练集、验证集和测试集;
步骤三:以U-Net网络对称编码架构作为主干网络,搭建语义分割模型,针对小麦籽粒目标小、边缘分割不清晰等特点,主干网络采用残差堆叠模块来减少特征损失,通过嵌入CBAM注意力机制模块调整特征融合权重,并在解码器部分嵌入自注意力机制模块,还原细节信息。最后提出一种基于改进U-Net的CBSA_U-Net网络模型;
步骤四:训练图像分割网络,将步骤二中划分好的训练集图像送入步骤三构建的改进U-Net网络分割模型中进行训练;
步骤五:利用所述的U-Net网络模型对测试集中的小麦籽粒图像进行分割,得到网络最后的分割结果。
在上述的基于改进U-Net网络的不同容重小麦籽粒图像分割算法,在步骤二中,采用随机的图像处理方法来对原始数据集进行扩充,包括左右90°的旋转、亮度的调节、水平翻转、上下翻转,提高模型的泛化能力;最后将数据增强后的样本数据按照8:1:1的比例划分为训练集、验证集、测试集。
在上述的基于改进U-Net网络的不同容重小麦籽粒图像分割算法,步骤三中,U-Net网络将下采样过程中的主干结构替换为残差堆叠模块,由两个3×3的卷积层和一个跨层连接组成,通过跨层连接,将输入直接累加到下一层的输出上,完成对小麦籽粒图像的下采样过程,逐步提取小麦籽粒的图像特征信息。
在上述的基于改进U-Net网络的不同容重小麦籽粒图像分割算法,步骤三中,以U-Net网络对称编码架构作为主干网络,包括依次连接的输入层、编码器模块、解码器模块和输出层;输入为512×512大小的小麦籽粒图像,编码器模块采用4层卷积池化模块,卷积层的卷积核大小为3×3,池化层的核大小为2×2,以Resnet50作为编码器的主干网络,减少下采样过程中的特征损失并逐步提取小麦籽粒的图像特征信息;在特征融合部分,嵌入CBAM注意力机制模块来增强模型的表达能力;CBAM模块包括两个子模块:通道注意力模块CAM通过学习每个通道的权重来调整不同通道之间的重要性,SAM则借助softmax函数来计算每个像素与周围像素的相似度,以此加强有用的空间位置信息;从通道和空间位置以自适应地调整不同像素点的特征融合权重;这些操作使得网络能够更好地捕获图像中的关键特征,小麦籽粒边界细节获得更多关注。
在上述的基于改进U-Net网络的不同容重小麦籽粒图像分割算法,步骤三中,上采样部分经过重复的反卷积池化操作,通过加入自注意力机制模块,加强上下文之间的联系还原细节信息,增强不同目标之间的相关性和模型的表示能力;先将一维输入向量映射到两个隐藏空间中,根据内容相似性计算每个位置与所有其他位置的相关性,并在最后通过一个softmax函数对每个特征位置进行加权,得到上下文信息处理后的特征,最后得到输出为同样512×512大小的小麦籽粒图像。
在上述的基于改进U-Net网络的不同容重小麦籽粒图像分割算法,步骤四中,用划分好的训练集来训练小麦籽粒分割网络,利用反向传播策略,使用收敛速度快的Adam优化器更新训练权重,每次送入网络的训练样本批量为8,训练次数为100次,最优学习率为0.0001。
在上述的基于改进U-Net网络的不同容重小麦籽粒图像分割算法,步骤四中,模型训练过程中,采用以Dice损失函数和二分类交叉熵值损失函数为基础的加权损失函数,其形式定义为:
Loss=0.5*(1-2|X∩Y|/(|X|+|Y|))+∑(YlogX+(1-Y)log(1-X))
式中,第一部分属于BCE损失,而第二部分为Dice损失;X代表预测分割结果;Y代表实际的标签值。
在上述的基于改进U-Net网络的不同容重小麦籽粒图像分割算法,步骤五中,采用IoU分割精度指标来评估图像分割性能,
IoU=TP/(FP+TP+FN)
式中,TP表示小麦籽粒边界像素类被正确分类样本面积;FP表示背景像素类被错分为小麦籽粒边界像素类样本面积;FN表示小麦籽粒边界像素类被错分为背景像素类样本面积,使用测试集进行实验结果验证,实验结果表明小麦籽粒图像分割的准确率达到了81.5%。
本发明提出的一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法,针对小麦籽粒目标较小的特点,考虑到一些图像分割网络对小麦籽粒图像中籽粒边界无法精确识别分割出来,存在分割线条不连贯、欠分割等的问题;本发明采用残差堆叠模块作为下采样过程中的主要骨干结构,减少小目标在下采样过程中损失的特征;在特征融合部分,由于目标较小,初级特征图特征提取不足,故而在初级特征图后通过嵌入CBAM注意力机制模块,从通道和空间位置以自适应地调整不同像素点的特征融合权重,从而更好地提取小麦籽粒的细节信息;在解码器部分中,由于经过一系列的下采样操作使得与目标之间呈现弱相关性,因此在解码器部分中嵌入自注意力模块,增强不同目标之间的相关性;通过本发明,可以从不同容重小麦籽粒图像中较好的分割出来单个小麦籽粒,解决不同容重小麦籽粒图像分割欠分割与过分割的问题,对后续的不同容重小麦籽粒特征提取奠定基础。
附图说明
后文将参照附图以示例性而非限制性的方式详细描述本发明的一些具体实施例。附图中相同的附图标记标示了相同或类似的部件或部分。本领域技术人员应该理解,这些附图未必是按比例绘制的。附图中:
图1是本发明一实施例中一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法的整体流程示意图。
图2为本发明中使用的注意力机制模块。
图3为本发明提供的一种基于U-Net网络改进的卷积神经网络结构示意图。
图4是本发明一实施例中一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法分割单个小麦籽粒边界的效果示意图。
具体实施方式
图1是本发明流程图
步骤一:数据准备
采集同一水分下的不同容重小麦籽粒图像,得到原始小麦籽粒图像Po;对原始的小麦籽粒图像Po中的小麦边缘分别进行像素级标注,得到人工小麦分割图像Ps,Po与Ps共同建立不同容重小麦籽粒图像数据集;
步骤二:数据增强处理
对专业工业相机拍摄所获得的小麦籽粒图像样本Po和对应的人工手动做出的分割图像Ps分别进行旋转、调节亮度、翻转等操作进行数据增强处理得到样本图像,将所有样本图像按照比例划分为训练集、验证集和测试集;数据增强是指通过一系列随即变换对原始数据进行扩充从而提高数据量的方法;结合实际情况,本系统采用随机的图像处理方法来对原始数据集进行扩充,包括左右90°的旋转、亮度的调节、水平翻转、上下翻转,提高模型的泛化能力;最后将数据增强后的样本数据按照8:1:1的比例划分为训练集、验证集、测试集。
步骤三:搭建语义分割模型
以U-Net网络对称编码架构作为主干网络,包括依次连接的输入层、编码器模块、解码器模块和输出层;输入为512×512大小的小麦籽粒图像,编码器模块采用4层卷积池化模块,卷积层的卷积核大小为3×3,池化层的核大小为2×2,以Resnet50作为编码器的主干网络,减少下采样过程中的特征损失并逐步提取小麦籽粒的图像特征信息;在特征融合部分,嵌入CBAM注意力机制模块,从通道和空间位置以自适应地调整不同像素点的特征融合权重;上采样部分经过重复的反卷积池化操作,通过加入自注意力机制模块,增强不同目标之间的相关性,加强上下文之间的联系还原细节信息;最后经过一个1×1的卷积和Sigmoid激活函数,得到输出为同样512×512大小的小麦籽粒图像;基于U-Net网络改进的卷积神经网络结构如图3所示。
本实施例中,U-Net网络将下采样过程中的主干结构替换为残差堆叠模块,由两个3×3的卷积层和一个跨层连接组成,通过跨层连接,将输入直接累加到下一层的输出上,增强梯度流动,使得梯度能更好地向前传递,避免梯度消失或梯度爆炸的问题,从而提高模型的训练效率和性能,完成对小麦籽粒图像的下采样过程,逐步提取小麦籽粒的图像特征信息;在特征融合部分,嵌入CBAM注意力机制模块来增强模型的表达能力;CBAM模块包括两个子模块:通道注意力模块CAM通过学习每个通道的权重来调整不同通道之间的重要性,SAM则借助softmax函数来计算每个像素与周围像素的相似度,以此加强有用的空间位置信息;从通道和空间位置以自适应地调整不同像素点的特征融合权重;这些操作使得网络能够更好地捕获图像中的关键特征,小麦籽粒边界细节获得更多关注;上采样部分经过重复的反卷积池化操作,通过加入自注意力机制模块,加强上下文之间的联系还原细节信息,增强不同目标之间的相关性和模型的表示能力;先将一维输入向量映射到两个隐藏空间中,根据内容相似性计算每个位置与所有其他位置的相关性,并在最后通过一个softmax函数对每个特征位置进行加权,得到上下文信息处理后的特征;这些操作使得网络能够在不丢失细节信息的情况下更好地实现小麦籽粒的分割。
步骤四:训练图像分割网络
将步骤二中划分好的训练集图像送入步骤三构建的改进U-Net网络分割模型中进行训练。
本实施例中,模型训练过程中,采用以Dice损失函数和二分类交叉熵值损失函数为基础的加权损失函数,其形式定义为:
Loss=0.5*(1-2|X∩Y|/(|X|+|Y|))+∑(YlogX+(1-Y)log(1-X))
式中,第一部分属于BCE损失,而第二部分为Dice损失;X代表预测分割结果;Y代表实际的标签值。
进一步地,用划分好的训练集来训练小麦籽粒图像分割网络,利用反向传播策略,使用收敛速度较快的Adam优化器更新训练权重,每次送入网络的训练样本批量为8,训练次数为100次,最优学习率为0.0001。
步骤五:利用所述U-Net神经网络模型对测试集中的小麦籽粒图像进行识别分割,得到网络最后的分割结果,如图4所示。
本发明采用IoU分割精度指标(IoU=TP/(FP+TP+FN)式中,TP表示小麦籽粒边界像素类被正确分类样本面积;FP表示背景像素类被错分为小麦籽粒边界像素类样本面积;FN表示小麦籽粒边界像素类被错分为背景像素类样本面积)来评估网络的性能,使用测试集进行实验结果验证,实验结果表明小麦籽粒图像分割的准确率达到了81.5%。
应当理解的是,本说明未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (8)
1.一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法,其特征在于,包括以下步骤:
步骤一:使用专业工业相机对不同容重小麦籽粒图像进行采集,建立数据集;
步骤二:对数据集进行数据增强处理,按比例划分训练集、验证集和测试集;
步骤三:以U-Net网络对称编码架构作为主干网络,搭建语义分割模型,针对小麦籽粒目标小、边缘分割不清晰等特点,主干网络采用残差堆叠模块来减少特征损失,通过嵌入CBAM注意力机制模块调整特征融合权重,并在解码器部分嵌入自注意力机制模块,还原细节信息。最后提出一种基于改进U-Net的CBSA_U-Net网络模型;
步骤四:训练图像分割网络,将步骤二中划分好的训练集图像送入步骤三构建的改进U-Net网络分割模型中进行训练;
步骤五:利用所述的U-Net网络模型对测试集中的小麦籽粒图像进行分割,得到网络最后的分割结果。
2.根据权利要求1所述的一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法,其特征在于,在所述步骤二中,采用随机的图像处理方法来对原始数据集进行扩充,包括左右90°的旋转、亮度的调节、水平翻转、上下翻转,提高模型的泛化能力;最后将数据增强后的样本数据按照8:1:1的比例划分为训练集、验证集、测试集。
3.根据权利要求1所述的一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法,其特征在于,在所述步骤三中,U-Net网络将下采样过程中的主干结构替换为残差堆叠模块,由两个3×3的卷积层和一个跨层连接组成,通过跨层连接,将输入直接累加到下一层的输出上,完成对小麦籽粒图像的下采样过程,逐步提取小麦籽粒的图像特征信息。
4.根据权利要求1所述的一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法,其特征在于,在所述步骤三中,以U-Net网络对称编码架构作为主干网络,包括依次连接的输入层、编码器模块、解码器模块和输出层;输入为512×512大小的小麦籽粒图像,编码器模块采用4层卷积池化模块,卷积层的卷积核大小为3×3,池化层的核大小为2×2,以Resnet50作为编码器的主干网络,减少下采样过程中的特征损失并逐步提取小麦籽粒的图像特征信息;在特征融合部分,嵌入CBAM注意力机制模块来增强模型的表达能力;CBAM模块包括两个子模块:通道注意力模块CAM通过学习每个通道的权重来调整不同通道之间的重要性,SAM则借助softmax函数来计算每个像素与周围像素的相似度,以此加强有用的空间位置信息;从通道和空间位置以自适应地调整不同像素点的特征融合权重;这些操作使得网络能够更好地捕获图像中的关键特征,小麦籽粒边界细节获得更多关注。
5.根据权利要求1所述的一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法,其特征在于,在所述步骤三中,上采样部分经过重复的反卷积池化操作,通过加入自注意力机制模块,加强上下文之间的联系还原细节信息,增强不同目标之间的相关性和模型的表示能力;先将一维输入向量映射到两个隐藏空间中,根据内容相似性计算每个位置与所有其他位置的相关性,并在最后通过一个softmax函数对每个特征位置进行加权,得到上下文信息处理后的特征,最后得到输出为同样512×512大小的小麦籽粒图像。
6.根据权利要求1所述的一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法,其特征在于,在所述步骤四中,用划分好的训练集来训练小麦籽粒分割网络,利用反向传播策略,使用收敛速度快的Adam优化器更新训练权重,每次送入网络的训练样本批量为8,训练次数为100次。
7.根据权利要求1所述的一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法,其特征在于,在所述步骤四中,模型训练过程中,采用以Dice损失函数和二分类交叉熵值损失函数为基础的加权损失函数,其形式定义为:
式中,第一部分属于BCE损失,而第二部分为Dice损失;X代表预测分割结果;Y代表实际的标签值。
8.根据权利要求1所述的一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法,其特征在于,步骤五中,采用IoU分割精度指标来评估图像分割性能,
式中,TP表示小麦籽粒边界像素类被正确分类样本面积;FP表示背景像素类被错分为小麦籽粒边界像素类样本面积;FN表示小麦籽粒边界像素类被错分为背景像素类样本面积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310684015.3A CN116704188A (zh) | 2023-06-10 | 2023-06-10 | 一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310684015.3A CN116704188A (zh) | 2023-06-10 | 2023-06-10 | 一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116704188A true CN116704188A (zh) | 2023-09-05 |
Family
ID=87823385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310684015.3A Pending CN116704188A (zh) | 2023-06-10 | 2023-06-10 | 一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116704188A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116912244A (zh) * | 2023-09-12 | 2023-10-20 | 中储粮成都储藏研究院有限公司 | 基于机器视觉的粮食质量指标智能检测方法 |
-
2023
- 2023-06-10 CN CN202310684015.3A patent/CN116704188A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116912244A (zh) * | 2023-09-12 | 2023-10-20 | 中储粮成都储藏研究院有限公司 | 基于机器视觉的粮食质量指标智能检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135366B (zh) | 基于多尺度生成对抗网络的遮挡行人重识别方法 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN111080629B (zh) | 一种图像拼接篡改的检测方法 | |
CN111401384B (zh) | 一种变电设备缺陷图像匹配方法 | |
CN110032925B (zh) | 一种基于改进胶囊网络与算法的手势图像分割与识别方法 | |
CN112150493A (zh) | 一种基于语义指导的自然场景下屏幕区域检测方法 | |
CN110334656B (zh) | 基于信源概率加权的多源遥感图像水体提取方法及装置 | |
CN114972208B (zh) | 一种基于YOLOv4的轻量化小麦赤霉病检测方法 | |
CN116012721B (zh) | 一种基于深度学习的水稻叶片病斑检测方法 | |
CN116704188A (zh) | 一种基于改进U-Net网络的不同容重小麦籽粒图像分割算法 | |
CN116052016A (zh) | 基于深度学习的遥感图像云和云影的精细分割检测方法 | |
CN115331104A (zh) | 一种基于卷积神经网络的农作物种植信息提取方法 | |
CN114841961A (zh) | 基于图像增强和改进YOLOv5的小麦赤霉病检测方法 | |
CN113763417B (zh) | 一种基于孪生网络和残差结构的目标跟踪方法 | |
CN107358625B (zh) | 基于SPP Net和感兴趣区域检测的SAR图像变化检测方法 | |
CN116630960B (zh) | 基于纹理-颜色多尺度残差收缩网络的玉米病害识别方法 | |
CN117315481A (zh) | 基于光谱-空间自注意力和Transformer网络的高光谱图像分类方法 | |
CN110503157B (zh) | 基于细粒度图像的多任务卷积神经网络的图像隐写分析方法 | |
CN112991257B (zh) | 基于半监督孪生网络的异质遥感图像变化快速检测方法 | |
CN113205484B (zh) | 一种基于迁移学习的乳腺组织分类识别方法 | |
CN113283428A (zh) | 一种基于fce-ssd方法的图像目标检测方法 | |
CN113011506A (zh) | 一种基于深度重分形频谱网络的纹理图像分类方法 | |
CN117649610B (zh) | 一种基于YOLOv5的害虫检测方法及系统 | |
CN117011918B (zh) | 基于线性注意力机制的人脸活体检测模型的构建方法 | |
Hu et al. | Detection of Tea Leaf Blight in Low-Resolution UAV Remote Sensing Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |