CN116152524A - 一种小麦种子分类方法 - Google Patents
一种小麦种子分类方法 Download PDFInfo
- Publication number
- CN116152524A CN116152524A CN202310205638.8A CN202310205638A CN116152524A CN 116152524 A CN116152524 A CN 116152524A CN 202310205638 A CN202310205638 A CN 202310205638A CN 116152524 A CN116152524 A CN 116152524A
- Authority
- CN
- China
- Prior art keywords
- image
- matrix
- rgb
- hyperspectral
- spatial resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 241000209140 Triticum Species 0.000 title claims abstract description 45
- 235000021307 Triticum Nutrition 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000003595 spectral effect Effects 0.000 claims abstract description 22
- 238000002310 reflectometry Methods 0.000 claims abstract description 14
- 238000007500 overflow downdraw method Methods 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 59
- 230000006870 function Effects 0.000 claims description 15
- 238000011176 pooling Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000008901 benefit Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000005316 response function Methods 0.000 claims description 6
- 238000000354 decomposition reaction Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 5
- 238000001228 spectrum Methods 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 238000003709 image segmentation Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 2
- 238000000926 separation method Methods 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 5
- 239000000126 substance Substances 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000001066 destructive effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 235000013339 cereals Nutrition 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/58—Extraction of image or video features relating to hyperspectral data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种小麦种子分类方法,是基于ICNMF融合方法和3DResnetCBAM网络为基础的方法,它主要将小麦种子的高光谱图像和RGB图像分别进行背景分离,之后再分别得到RGB反射率图像和低空间分辨率高光谱图像,使用ICNMF融合方法融合为高空间分辨率高光谱分辨率的高光谱图像后,送至构建的3DResnetCBAM网络进行识别,得到种子品种。该方法采用易于获取的RGB图像来增强高光谱图像特征,降低采集成本,进而降低小麦种子分类识别的成本。
Description
技术领域
本发明涉及高光谱应用技术领域,具体的说,涉及了一种小麦种子分类方法。
背景技术
小麦是世界第二大粮食作物,具有众多品种。不同品种的小麦之间,其适宜种植区域、种植管理和其他一些作物性状差异巨大。在收获、运输和储存过程中,不同品种的小麦种子可能会混合在一起,就有可能导致小麦的生产过程出现一系列严重问题。因此,开发一种高效、快速、非破坏性的方法来鉴定小麦种子的品种是非常重要的。
基于形态学和化学的鉴定方法首先被用于种子鉴定。农业专家根据不同小麦种子的外观特征确定种子品种,但种子的形态特征不太明显,鉴定需要大量的经验,限制了形态学的应用和发展。随着化学分析技术的发展,化学方法鉴定取得了较高的识别率,但会对种子本身产生损伤,且需要花费较长的时间。所以这两种方法不符合当前的实际生产要求。
随着机器学习的发展,基于图像分析的识别方法逐渐被应用于小麦种子的识别中。基于图像分析的方法只需要小麦种子图像,并采用机器学习方法构建小麦种子识别模型。在早期的研究中,RGB图像被用于种子识别。基于RGB图像的种子识别具有快速和非破坏性的优势。然而,RGB图像只包含三个光谱带,包含信息不足的缺点限制了它的应用。
高光谱图像相对于普通可见光图像具有更加丰富的光谱信息,不同种子间具有不同的化学物质差异,因此不同种类种子的光谱分布差异较大,具有较高的分类准确率。
但由于高光谱采集设备价格较高,因此获取具有高空间分辨率的高光谱数据往往成本较高,很难采集到小麦种子包含的纹理信息。小麦种子中包含的纹理信息是十分关键的判别性特征,因此找到一种能够以较低成本获取包含纹理信息的高空间分辨率高光谱小麦种子图像对提升小麦种子分类准确率具有积极作用。
如申请号202111287410.5、发明名称为:一种基于轻量型卷积神经网络的小麦种子品种鉴别的方法的发明专利中提出,在采集到高光谱图像后对图像进行降维后输入轻量型卷积网络对高光谱小麦种子图像进行分类。但是使用直接采集的高光谱数据轻量卷积神经网络进行分类,丢失了部分小麦种子纹理信息,而轻量型网络采用2D卷积核,在提取特征方面也存在不足。
为了解决以上存在的问题,人们一直在寻求一种理想的技术解决方案。
发明内容
本发明的目的是针对现有技术的不足,从而提供一种降低小麦种子分类识别成本的小麦种子分类方法。
为了实现上述目的,本发明所采用的技术方案是:一种小麦种子分类方法,基于ICNMF和3DResnetCBAM网络的融合执行,包括以下步骤:
步骤1)输入配准后的高光谱图像与RGB图像。
分别对高光谱图像与RGB图像进行图像背景去除,对所有像素点进行归一化处理,将原始数据灰度矩阵中所有值除以矩阵中最大值,得到所有值均为0~1之间的归一化矩阵,采用阈值分割法将小麦种子区域与背景区域分离。
在实际应用中采用灰度值150作为阈值分割法的阈值,灰度值大于150则视为种子部分,灰度值小于150为背景部分。根据阈值分割获得背景蒙版矩阵,并采用获得的蒙版计算分离小麦种子与背景区域,得到去背景的高光谱图像与RGB图像。
步骤2)使用步骤1)中获得的RGB去背景图像进行灰度化,并由以下公式将RGB灰度图像转化为反射率图像。
式中,I代表校正后的RGB反射率图像,R、G、B分别为RGB图像中三通道值,WRGB为扫描标准白色校正板得到的白色定标图(反射率接近100%),XRGB为用黑色镜头盖完全遮住镜头得到的黑色标定图(反射率接近0%)。
步骤3)将步骤1)中分离背景后的高光谱图像采用CARS降维方法降维,降低数据冗余,选择有价值波段。
步骤4)将步骤2)得到的RGB反射率图像与步骤3)得到的降维后高光谱图像使用步骤5)ICNMF融合方法进行融合。得到高空间分辨率高光谱小麦种子图像,并通过图像分割得到独立种子图像样本。
其中,低空间分辨率高光谱图像与目标图像之间关系可以用矩阵形式表示为:
X=ZS+Ns (1)
同样,RGB图像与高空间分辨率高光谱数据关系可以用矩阵形式表示为
Y=RZ+Nr (2)
在线性光谱混合假设下,X和Y表示如下:
X=WhHh+Eh (3)
Y=WmHm+Em (4)
其中,和/>分别是低空间分辨率高光谱数据的端元矩阵、丰度矩阵和残差矩阵。/>和为RGB图像的端元矩阵、丰度矩阵和残差矩阵。NMF光谱分解通常用于最小化线性光谱混合模型中残差矩阵的平方F范数,(3)和(4)的F范数表示为/>和分别表示。该规则保证在分解两个矩阵的非负约束下收敛到局部最优。我们使用MUR乘法更新规则对X和Y进行NMF分解。我们假设,高空间分辨率高光谱数据包含与低空间分辨率高谱数据相同的端元矩阵,以及与多光谱数据相同的丰度矩阵。因此,Z可以近似为
Z≈WhHm (5)
从上述公式可得到端元和丰度矩阵关系如下:
Hh≈HmS (6)
Wm≈RWh (7)
ICNMF算法从X的NMF开始,以利用其频谱优势。在初始化阶段,将端点数量D设置为某个值,通过顶点分量分析(VAC)对Wh进行初始化。Hh设置为恒定值1/D,并由MUR更新,Wh固定。作为优化阶段,MUR更新Wh和Hh,直到收敛,收敛后即得到融合高空间分辨率高光谱图像。
步骤5)构建3DResnetCBAM网络。其中网络由3DResnet卷积模块、CBAM注意力模块和全连接模块构成。3DResnetCBAM采用3D卷积模块,共有4个识别模块,每个识别模块由2个(2,2,2)卷积核与CBAM注意力模块连接构成。通过4个识别模块后将特征通过Flatten转为一维特征,最后连接三层全连接层。
其中CBAM注意力模块分为空间注意力与通道注意力,空间注意力模块使网络更加关注目标感兴趣区域,减小背景等无关要素对结果的影响。输入特征图经过平均池化与最大池化,经过卷积后转化为通道数为1的特征图,经过sigmoid激活函数得到空间注意力权重图。将空间注意力权重乘以输入特征图得到输出结果。其计算过程表示如下:
Ms(F′)=σ(f7×7x1([AvgPool(F′);MaxPool(F′)])),
其中通道注意力模块能够使网络更加关注输入高光谱图像中更有意义的通道。通道注意力模块将输入特征F经过并行的平均池化和最大池化层将特征图压缩,经过SharedMLP模块压缩并还原通道后经过sigmoid激活函数得到通道层权重。将通道层权重乘以原始特征F得到输出结果。较高权重的通道包含更显著的特征,通道注意力模块能够使网络更加关注具有显著判别性特征的通道。通道注意力计算过程表示为:
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F))),
其中MLP表示多层感知机,σ表示sigmoid激活函数,F为输入特征图。
步骤6)将步骤4)得到的独立种子样本使用步骤5)构建的3DResnetCBAM网络进行分类,得到最终分类结果。
本发明相对现有技术具有突出的实质性特点和显著的进步,具体的说,本发明具有以下优点:
1、通过ICNMF融合RGB图像与高光谱图像得到融合图像,融合图像包含RGB图像中的纹理信息与高光谱中的光谱信息。采用易于获取的RGB图像增强高光谱图像特征,从而达到高配置高光谱采集设备的效果,有效降低小麦种子分类识别成本。
2、3DResnetCBAM网络采用3D卷积核,能够更加契合融合图像具有多个光谱波段和较高空间分辨率的特点。3D卷积核能够有效提取融合图像中的波段间关联信息,提高分类准确率。
3、3DResnetCBAM网络加入注意力机制,能够有效提取图像中更具有判别性信息的部分,排除无用信息干扰,相较于传统网络提高了特征提取能力,提高了网络的整体分类效率与准确率。
附图说明
图1是本发明中小麦种子分类方法的流程示意图。
图2是本发明中3DResnetCBAM网络的流程图。
具体实施方式
下面通过具体实施方式,对本发明的技术方案做进一步的详细描述。
为了验证本发明小麦种子分类的有效性,选取5类小麦种子各100粒作为测试样本,分别为杂交F2、百农107、官麦916、阳光688、金育68。同时与Resnet,CNN,3DCNN,3Dresnet方法作为对照。
如图1和图2所示,一种小麦种子分类方法,其特征在于:包括以下步骤:
步骤1)输入配准后的高光谱图像和RGB图像,分别对高光谱图像和RGB图像进行图像背景去除,得到去除背景的高光谱图像和RGB图像;
对所有像素点进行归一化处理,将原始数据灰度矩阵中所有值除以矩阵中最大值,得到所有值均为0~1之间的归一化矩阵;采用阈值分割法将小麦种子区域与背景区域分离,根据阈值分割获得背景蒙版矩阵,在实际应用中采用灰度值150作为阈值分割法的阈值,灰度值大于150则视为种子部分,灰度值小于150为背景部分。根据阈值分割获得背景蒙版矩阵。并采用获得的蒙版计算分离小麦种子与背景区域,得到去背景的高光谱图像与RGB图像。
步骤2)将步骤1)获得的去除背景后的RGB图像进行灰度化,将RGB灰度化图像转化为RGB反射率图像,得到反射率图像的公式表达如下:
式中,I代表校正后的RGB反射率图像,R、G、B分别为RGB图像中三通道值,WRGB为扫描标准白色校正板得到的白色定标图,反射率接近100%;XRGB为用黑色镜头盖完全遮住镜头得到的黑色标定图,反射率接近0%。
步骤3)将步骤1)获得的去除背景后的高光谱图像采用CARS降维方法降维,降低数据冗余,选择有价值波段。
步骤4)将步骤2)得到的RGB反射率图像为高空间分辨率RGB图像,步骤3)得到的降维后的高光谱图像为低空间分辨率高光谱图像,采用ICNMF融合方法将低空间分辨率高光谱图像的丰度矩阵与高空间分辨率RGB图像的端元矩阵进行融合,得到高空间分辨率高光谱小麦种子图像,并通过图像分割得到独立种子图像样本;
所述的ICNMF融合方法包括:
低空间分辨率高光谱图像与目标图像之间的关系可以用矩阵形式表示为:
X=ZS+Ns (1)
同样,RGB图像与高空间分辨率高光谱数据关系可以用矩阵形式表示为
Y=RZ+Nr (2)
当应用于实际数据时,S通过图像配准和点扩散函数估计确定,R通过辐射定标获得光谱响应函数;
在线性光谱混合假设下,X和Y表示如下:
X=WhHh+Eh (3)
Y=WmHm+Em (4)
该规则保证在分解两个矩阵的非负约束下收敛到局部最优;使用MUR乘法更新规则对X和Y进行NMF分解,假设,高空间分辨率高光谱数据包含与低空间分辨率高谱数据相同的端元矩阵,以及与多光谱数据相同的丰度矩阵,因此,Z可以近似为
Z≈WhHm (5)
从上述公式可得到端元和丰度矩阵关系如下:
Hh≈HmS (6)
Wm≈RWh (7)
ICNMF算法从X的NMF开始,以利用其频谱优势,在初始化阶段,将端点数量D设置为某个值,通过顶点分量分析(VAC)对Wh进行初始化,Hh设置为恒定值1/D,并由MUR更新,Wh固定;作为优化阶段,MUR更新Wh和Hh,直到收敛,收敛后即得到融合高空间分辨率高光谱图像。
步骤5)构建3DResnetCBAM网络,包括3DResnet卷积模块、CBAM注意力模块和全连接模块,所述的3DResnet卷积模块共有4个识别模块,每个识别模块由2个(2,2,2)卷积核与CBAM注意力模块连接构成,通过4个识别模块后将特征通过Flatten转为一维特征,最后连接三层全连接层;其中学习率为0.01,batchsize为5。
CBAM注意力模块分为空间注意力与通道注意力;
空间注意力输入特征图经过平均池化与最大池化,经过卷积后转化为通道数为1的特征图,经过sigmoid激活函数得到空间注意力权重图,将空间注意力权重乘以输入特征图得到输出结果,其计算过程表示如下:
Ms(F′)=σ(f7×7x1([AvgPool(F′);MaxPool(F′)])),
通道注意力模块将输入特征F经过并行的平均池化和最大池化层将特征图压缩,经过Shared MLP模块压缩并还原通道后经过sigmoid激活函数得到通道层权重,将通道层权重乘以原始特征F得到输出结果;通道注意力计算过程表示为:
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F))),
其中MLP表示多层感知机,σ表示sigmoid激活函数,F为输入特征图。
步骤6)将步骤4)得到的独立种子图像样本使用步骤5)构建的3DResnetCBAM网络进行分类,得到最终的分类结果如表1所示。
Model | Train Acc | Test Acc | F1 score | Recall | Precision | Time |
CNN | 99.96 | 96.20 | 96.13 | 95.86 | 96.41 | 402 |
3D CNN | 99.64 | 98.20 | 98.14 | 97.94 | 98.35 | 683 |
Resnet | 99.89 | 97.40 | 97.45 | 97.67 | 97.23 | 427 |
3D Resnet | 100.00 | 98.80 | 98.78 | 98.74 | 98.82 | 716 |
3DResnetCBAM | 100.00 | 99.20 | 99.18 | 99.15 | 99.22 | 781 |
表1 5类小麦种子分类结果对比表
经对比,采用3DResnetCBAM网络进行分类的效果具有显著优势。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制;尽管参照较佳实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者对部分技术特征进行等同替换;而不脱离本发明技术方案的精神,其均应涵盖在本发明请求保护的技术方案范围当中。
Claims (5)
1.一种小麦种子分类方法,其特征在于:包括以下步骤:
步骤1)输入配准后的高光谱图像和RGB图像,分别对高光谱图像和RGB图像进行图像背景去除,得到去除背景的高光谱图像和RGB图像;
步骤2)将步骤1)获得的去除背景后的RGB图像进行灰度化,将RGB灰度化图像转化为RGB反射率图像;
步骤3)将步骤1)获得的去除背景后的高光谱图像采用CARS降维方法降维,降低数据冗余,选择有价值波段;
步骤4)将步骤2)得到的RGB反射率图像为高空间分辨率RGB图像,步骤3)得到的降维后的高光谱图像为低空间分辨率高光谱图像,采用ICNMF融合方法将低空间分辨率高光谱图像的丰度矩阵与高空间分辨率RGB图像的端元矩阵进行融合,得到高空间分辨率高光谱小麦种子图像,并通过图像分割得到独立种子图像样本;
步骤5)构建3DResnetCBAM网络,包括3DResnet卷积模块、CBAM注意力模块和全连接模块,所述的3DResnet卷积模块共有4个识别模块,每个识别模块由2个(2,2,2)卷积核与CBAM注意力模块连接构成,通过4个识别模块后将特征通过Flatten转为一维特征,最后连接三层全连接层;
步骤6)将步骤4)得到的独立种子图像样本使用步骤5)构建的3DResnetCBAM网络进行分类,得到最终的分类结果。
2.根据权利要求1所述的小麦种子分类方法,其特征在于:步骤4)中,所述的ICNMF融合方法包括:
低空间分辨率高光谱图像与目标图像之间的关系可以用矩阵形式表示为:
同样,RGB图像与高空间分辨率高光谱数据关系可以用矩阵形式表示为
Y=RZ+Nr (2)
当应用于实际数据时,S通过图像配准和点扩散函数估计确定,R通过辐射定标获得光谱响应函数;
在线性光谱混合假设下,X和Y表示如下:
X=WhHh+Eh (3)
Y=WmHm+Em (4)
该规则保证在分解两个矩阵的非负约束下收敛到局部最优;使用MUR乘法更新规则对X和Y进行NMF分解,假设,高空间分辨率高光谱数据包含与低空间分辨率高谱数据相同的端元矩阵,以及与多光谱数据相同的丰度矩阵,因此,Z可以近似为
Z≈WhHm (5)
从上述公式可得到端元和丰度矩阵关系如下:
Hh≈HmS (6)
Wm≈RWh (7)
ICNMF算法从X的NMF开始,以利用其频谱优势,在初始化阶段,将端点数量D设置为某个值,通过顶点分量分析(VAC)对Wh进行初始化,Hh设置为恒定值1/D,并由MUR更新,Wh固定;作为优化阶段,MUR更新Wh和Hh,直到收敛,收敛后即得到融合高空间分辨率高光谱图像。
3.根据权利要求1或2所述的小麦种子分类方法,其特征在于:步骤1)中,对所有像素点进行归一化处理,将原始数据灰度矩阵中所有值除以矩阵中最大值,得到所有值均为0~1之间的归一化矩阵;采用阈值分割法将小麦种子区域与背景区域分离,根据阈值分割获得背景蒙版矩阵,并采用获得的蒙版计算分离小麦种子与背景区域,得到去背景的高光谱图像与RGB图像。
5.根据权利要求4所述的小麦种子分类方法,其特征在于:步骤5)中,CBAM注意力模块分为空间注意力与通道注意力;
空间注意力输入特征图经过平均池化与最大池化,经过卷积后转化为通道数为1的特征图,经过sigmoid激活函数得到空间注意力权重图,将空间注意力权重乘以输入特征图得到输出结果,其计算过程表示如下:
Ms(F')=σ(f7×7x1([AvgPool(F');MaxPool(F')])),
通道注意力模块将输入特征F经过并行的平均池化和最大池化层将特征图压缩,经过Shared MLP模块压缩并还原通道后经过sigmoid激活函数得到通道层权重,将通道层权重乘以原始特征F得到输出结果;通道注意力计算过程表示为:
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F))),
其中MLP表示多层感知机,σ表示sigmoid激活函数,F为输入特征图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310205638.8A CN116152524A (zh) | 2023-03-06 | 2023-03-06 | 一种小麦种子分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310205638.8A CN116152524A (zh) | 2023-03-06 | 2023-03-06 | 一种小麦种子分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116152524A true CN116152524A (zh) | 2023-05-23 |
Family
ID=86358209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310205638.8A Withdrawn CN116152524A (zh) | 2023-03-06 | 2023-03-06 | 一种小麦种子分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116152524A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117011607A (zh) * | 2023-08-08 | 2023-11-07 | 安徽农业大学 | 一种基于注意力残差网络的水稻种子分类方法 |
CN117831301A (zh) * | 2024-03-05 | 2024-04-05 | 西南林业大学 | 一种结合三维残差卷积神经网络和时空注意力机制的交通流量预测方法 |
-
2023
- 2023-03-06 CN CN202310205638.8A patent/CN116152524A/zh not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117011607A (zh) * | 2023-08-08 | 2023-11-07 | 安徽农业大学 | 一种基于注意力残差网络的水稻种子分类方法 |
CN117831301A (zh) * | 2024-03-05 | 2024-04-05 | 西南林业大学 | 一种结合三维残差卷积神经网络和时空注意力机制的交通流量预测方法 |
CN117831301B (zh) * | 2024-03-05 | 2024-05-07 | 西南林业大学 | 一种结合三维残差卷积神经网络和时空注意力机制的交通流量预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110399909B (zh) | 一种基于标签约束弹性网图模型的高光谱图像分类方法 | |
Alhassan et al. | A deep learning framework for land-use/land-cover mapping and analysis using multispectral satellite imagery | |
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
CN111160273B (zh) | 一种高光谱图像空谱联合分类方法及装置 | |
CN116152524A (zh) | 一种小麦种子分类方法 | |
Lin et al. | Hyperspectral image denoising via matrix factorization and deep prior regularization | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
CN111476170A (zh) | 一种结合深度学习和随机森林的遥感影像语义分割方法 | |
CN110110596B (zh) | 高光谱图像特征提取、分类模型构建及分类方法 | |
CN110596280B (zh) | 基于高光谱图像和光谱信息融合的小麦呕吐毒素污染水平快速检测方法 | |
CN109190511B (zh) | 基于局部与结构约束低秩表示的高光谱分类方法 | |
CN111160396B (zh) | 一种基于多图结构的图卷积网络的高光谱图像分类方法 | |
CN107563442A (zh) | 基于稀疏低秩正则图张量化嵌入的高光谱图像分类方法 | |
CN113920376B (zh) | 一种基于轻量型卷积神经网络的小麦种子品种鉴别的方法 | |
CN111222545B (zh) | 基于线性规划增量学习的图像分类方法 | |
CN109946241A (zh) | 一种基于高光谱计算成像系统的土壤分类方法 | |
CN111563577B (zh) | 基于Unet的跳跃层分频和多尺度鉴别的本征图像分解方法 | |
CN108256557B (zh) | 结合深度学习和邻域集成的高光谱图像分类方法 | |
CN110889358A (zh) | 一种基于相关系数和联合稀疏表示的高光谱图像分类方法及装置 | |
CN109460788B (zh) | 基于低秩-稀疏信息组合网络的高光谱图像分类方法 | |
CN114511470B (zh) | 一种基于注意力机制的双分支全色锐化方法 | |
CN116452872A (zh) | 一种基于改进的Deeplabv3+的森林场景树种分类方法 | |
CN114998725A (zh) | 基于自适应空谱注意力核生成网络的高光谱图像分类方法 | |
CN113627329A (zh) | 基于混合卷积网络的小麦种子高光谱图像分类方法及系统 | |
CN114972889A (zh) | 一种基于数据增强与注意力机制的小麦种子分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20230523 |