CN117036904A - 注意力引导的半监督玉米高光谱图像数据扩充方法 - Google Patents
注意力引导的半监督玉米高光谱图像数据扩充方法 Download PDFInfo
- Publication number
- CN117036904A CN117036904A CN202310999500.XA CN202310999500A CN117036904A CN 117036904 A CN117036904 A CN 117036904A CN 202310999500 A CN202310999500 A CN 202310999500A CN 117036904 A CN117036904 A CN 117036904A
- Authority
- CN
- China
- Prior art keywords
- attention
- corn
- supervised
- image data
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 240000008042 Zea mays Species 0.000 title claims abstract description 30
- 235000005824 Zea mays ssp. parviglumis Nutrition 0.000 title claims abstract description 30
- 235000002017 Zea mays subsp mays Nutrition 0.000 title claims abstract description 30
- 235000005822 corn Nutrition 0.000 title claims abstract description 30
- 238000009826 distribution Methods 0.000 claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 29
- 238000011176 pooling Methods 0.000 claims description 20
- 238000001228 spectrum Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 4
- 230000008447 perception Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 230000035945 sensitivity Effects 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000000513 principal component analysis Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 5
- 238000002372 labelling Methods 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种注意力引导的半监督玉米高光谱图像数据扩充方法,本发明首先利用生成器能够将随机噪声从潜在的空间映射分布生成给定分布的新样本的能力。然后利用判别器能够通过学习来推断输入样本是属于训练集还是由生成器创建的优势。通过对生成器和判别器嵌入注意力模型,进一步提高了生成样本与原样本的相似性。最后嵌入一个额外的分类实现生成数据的自动标记。本发明在嵌入注意力模块后对玉米高光谱图像的特征提取能力更强,实现了玉米高光谱图像的更有效生成和准确判别,并在满足深度学习技术对大量训练样本需求的同时解决高光谱标记标签困难的问题。
Description
技术领域
本发明涉及高光谱图像处理技术领域,具体的说,涉及了一种注意力引导的半监督玉米高光谱图像数据扩充方法。
背景技术
在高光谱玉米鉴别领域,玉米是一种重要的粮食作物,也是全球重要的饲料来源。防止玉米种子的混杂,玉米种子鉴别变得越来越重要。然而高光谱图像获取和处理困难,导致高光谱图像存在的样本较少不能满足深度学习需要的大量样本的条件。目前,存在的高光谱小样本分类方法主要是基于样本扩充的方法和基于迁移学习的方法。基于样本扩充的方法大多对提取后的光谱信息进行扩充,而这种方法忽视了高光谱图像的空间纹理信息,对于深度学习方法的泛化能力是非常有限的,难以提高分类精度。其它的一些利用空间光谱信息进行样本扩充的方法,又不能对生成后的图像进行标注。
如申请号为:CN202211526054.2,发明名称为:一种基于光谱扩展方法的农作物目标检测方法及系统的发明专利中提出,将RGB图像,通过光谱超分辨网络和光谱扩展生成对抗网络,得到目标高光谱图像和近红外图像,将高光谱图像合成目标可见光图像。在通道维度拼接可见光图像和近红外图像,输入早期融合目标检测网络得到农作物目标检测结果。该方法将RGB图像转换为高光谱图像时,可能无法完全恢复高光谱图像的所有细节和信息。同时将高光谱图像合成目标可见光图像,RGB图像是通过从高光谱图像中选择三个波段获得的也会存在信息丢失的问题。而在面对大量的生成样本时,网络无法进行自动标注,还会出现耗时耗力的情况。
总的来说,该类方法在进行高光谱数据扩充时,信息丢失严重,扩充后的样本依然需要人工进行标注。不能有效的满足深度学习所需求的大量样本。
为了解决以上存在的问题,人们一直在寻求一种理想的技术解决方案。
发明内容
本发明的目的是针对现有技术的不足,从而提供一种针对高光谱玉米种子样本扩充后的图像在空间和光谱与原图像相类似,且仅需少量标签便能够生成大量带有标签的高光谱玉米图像的注意力引导的半监督玉米高光谱图像数据扩充方法。
为了实现上述目的,本发明所采用的技术方案是:一种注意力引导的半监督玉米高光谱图像数据扩充方法,包括以下步骤:
步骤1):针对原图像进行预处理,包括主成分分析降维处理和多元散射校正增强光谱特异性;
步骤2):对预处理后的图像数据进行划分处理,其中80%作为训练数据集,余下20%作为测试数据集;
步骤3):构建注意力模块,包括通道注意力和空间注意力;
具体的,通道注意力是将特征图在空间维度上进行压缩,得到一个一维矢量后利用平均值池化和最大值池化来聚合特征映射的空间信息;
平均值池化对特征图上的每一个像素点都有反馈,计算公式为:
其中,X为输入的特征图,H和W分别表示特征图的高度和宽度;
最大值池化在进行梯度反向传播计算时,只有特征图中响应最大的地方有梯度的反馈,计算公式为:
fmax=maxX(h,w),h∈{1,2,…,H},w∈{1,2,…,W}
因此,通道注意力的公式为:
fCAM(X)=α(MLP(favg(X))+MLP(fmax(X)))⊙X
其中,σ表示sigmoid函数,⊙表示逐元素相乘,MLP表示多层感知器;空间注意力机制是对通道进行压缩,在通道维度分别进行了平均值池化和最大值池化;将所提取到的特征图合并得到一个两通道的特征图,因此,空间注意力机制的公式为:
fSAM(X)=o(conv(concat(avg(X),max(x))))⊙X
其中,concat表示将平均值和最大值按通道维度进行拼接,conv表示卷积操作;
最终,注意力模块将通道注意力张量和空间注意力张量进行加权融合,得到最终的注意力张量,即输出的特征图,其公式为:
fCBAM(X)=fSAM(fCAM(X));
步骤4):通过将注意力模块嵌入生成器模型,用于指导生成器生成过程中的关注位置和权重分配,并将判别器中关于噪声的项作为损失函数;
生成器则是为了最小化真实分布与生成分布之间的距离;由于早期训练阶段,判别器能够容易地区分真实样本和生成样本。这时由于D(G(z))无限趋近于0,1-D(G(z))是饱和的,所以我们训练生成器最大化D(G(z)),即最大化噪声分布与生成分布之间的距离,生成器损失函数公式为:
其中,G为生成器,D为判别器,z为随机噪声,Pz为噪声的分布,为负是为了使模型方便调整参数;
步骤5):通过将注意力模块嵌入判别器模型,增强判别器对输入数据中的重要信息的感知能力并减少判别器对无关信息或噪声的敏感性,构建判别器损失函数;
通过最小化判别器的损失函数,可以使判别器更好地区分真实数据和生成数据,从而推动生成器生成更逼真的数据,判别器损失函数为:
其中,Pr和Pg为真实样本分布和生成样本分布;
步骤6):构建分类器模型,引入交叉熵损失函数作为分类器的损失函数;
交叉熵表示的是两个概率分布的距离,交叉熵值越小,两个概率分布越接近,因此分类器的损失函数为:
其中p(xi)表示真实标签分布,q(xi)表示预测分布;
步骤7):构建注意力引导的半监督生成对抗网络,将生成的样本与生成器给定的标签与分类器强制连接,以达到生成带有标签的高光谱样本;
生成器将生成图像输入判别器,判别器需要判断其是否为真实图像,如果为真则输入到分类器中进行分类并标记标签,因此半监督生成对抗网络的损失函数定义为:
LossT=LossD+LossG+α×LossC
其中,α是用于控制分类器损失的权重。
本发明相对现有技术具有突出的实质性特点和显著的进步,具体的说,本发明是在生成对抗网络的基础上,重点解决高光谱生成过程中特征提取不足且依然需要人工标注的问题。
本发明的生成器能够将随机噪声从潜在的空间映射分布生成给定分布的新样本,鉴别器通过学习并推断输入的样本是属于训练集还是由生成器创建的,通过对生成器和判别器嵌入注意力模型,提高了模型自动学习和聚焦于图像中最相关和有区分性的特征,减少了对噪声和冗余信息的敏感性,进一步提高了生成样本与原样本的相似性。
分类器通过与生成器中的标签和生成的样本强制连接,使其能够生成图像的同时又能够对生成图像进行准确标注。
总的来说,本发明利用生成对抗网络结合注意力模块:即在生成器和判别器中嵌入注意力模块,利用模型能够生成样本和注意力模块可以使模型更加关注关键区域和特征的优势,使得空间和光谱特征之间的相互作用更加明确和有效。通过强化空间和光谱信息的关联,提高对玉米高光谱图像中细微变化和特征之间复杂关系的建模能力。本发明解决了生成对抗网络无法对高光谱图像进行有效扩充问题。
另外,本发明通过将分类器与生成器输入的标签和生成的样本进行强制连接,实现模型在具有少量标签的情况下也能够生成大量具有标签的高光谱玉米图像,大大减少了设备和人工标记成本,得以在高光谱图像处理技术领域广泛推广应用。
附图说明
图1是本发明中注意力引导的半监督生成对抗网络的高光谱玉米种子图像扩充方法的流程框图。
图2是在10类原始品种随机选择一粒种子的平均光谱。
图3是在10类生成品种随机选择一粒种子的平均光谱。
具体实施方式
下面通过具体实施方式,对本发明的技术方案做进一步的详细描述。
为了验证本发明半监督生成对抗网络对高光谱玉米种子图像扩充的有效性,使用由课题组拍摄的高光谱玉米种子作为训练测试集,选取机器学习模型:支持向量机(SVM)、K-邻近算法(KNN)、随机森林(RF)、决策树(DT)四类和深度学习模型:卷积神经网络(CNN)、多尺度密集卷积网络(MSDN)、混合光谱网络(HybridSN)、空间、光谱和纹理感知注意网络(SSTNet)四类,共8类作为对比模型进行客观对比实验。
如图1所示,一种注意力引导的半监督玉米高光谱图像数据扩充方法,包括以下步骤:
步骤1):针对原图像进行预处理,包括主成分分析降维处理和多元散射校正增强光谱特异性;
步骤2):对预处理后的图像数据进行划分处理,其中80%作为训练数据集,余下20%作为测试数据集;
步骤3):构建注意力模块,包括通道注意力和空间注意力;
具体的,通道注意力是将特征图在空间维度上进行压缩,得到一个一维矢量后利用平均值池化和最大值池化来聚合特征映射的空间信息;
平均值池化对特征图上的每一个像素点都有反馈,计算公式为:
其中,X为输入的特征图,H和W分别表示特征图的高度和宽度;
最大值池化在进行梯度反向传播计算时,只有特征图中响应最大的地方有梯度的反馈,计算公式为:
fmax=maxX(h,w),h∈{1,2,…,H},w∈{1,2,…,W}
因此,通道注意力的公式为:
fCAM(X)=σ(MLP(favg(X))+MLP(fmax(X)))⊙X
其中,σ表示sigmoid函数,⊙表示逐元素相乘,MLP表示多层感知器;空间注意力机制是对通道进行压缩,在通道维度分别进行了平均值池化和最大值池化;将所提取到的特征图合并得到一个两通道的特征图,因此,空间注意力机制的公式为:
fSAM(X)=σ(conv(concat(avg(X),max(x))))⊙X
其中,concat表示将平均值和最大值按通道维度进行拼接,conv表示卷积操作;
最终,注意力模块将通道注意力张量和空间注意力张量进行加权融合,得到最终的注意力张量,即输出的特征图,其公式为:
fCBAM(X)=fSAM(fCAM(X));
步骤4):通过将注意力模块嵌入生成器模型,用于指导生成器生成过程中的关注位置和权重分配,并将判别器中关于噪声的项作为损失函数;
生成器则是为了最小化真实分布与生成分布之间的距离;由于早期训练阶段,判别器能够容易地区分真实样本和生成样本。这时由于D(G(z))无限趋近于0,1-D(G(z))是饱和的,所以我们训练生成器最大化D(G(z)),即最大化噪声分布与生成分布之间的距离,生成器损失函数公式为:
其中,G为生成器,D为判别器,z为随机噪声,Pz为噪声的分布,为负是为了使模型方便调整参数;
步骤5):通过将注意力模块嵌入判别器模型,增强判别器对输入数据中的重要信息的感知能力并减少判别器对无关信息或噪声的敏感性,构建判别器损失函数;
通过最小化判别器的损失函数,可以使判别器更好地区分真实数据和生成数据,从而推动生成器生成更逼真的数据,判别器损失函数为:
其中,Pr和Pg为真实样本分布和生成样本分布;
步骤6):构建分类器模型,引入交叉熵损失函数作为分类器的损失函数;
交叉熵表示的是两个概率分布的距离,交叉熵值越小,两个概率分布越接近,因此分类器的损失函数为:
其中p(xi)表示真实标签分布,q(xi)表示预测分布;
步骤7):构建注意力引导的半监督生成对抗网络,将生成的样本与生成器给定的标签与分类器强制连接,以达到生成带有标签的高光谱样本;
生成器将生成图像输入判别器,判别器需要判断其是否为真实图像,如果为真则输入到分类器中进行分类并标记标签,因此半监督生成对抗网络的损失函数定义为:
LossT=LossD+LossG+α×LossC
其中,α是用于控制分类器损失的权重。
本实施例通过对比8种不同的分类模型方法在生成样本、原始样本和混合生成图像与原始图像的样本上的F1-sorce、Recall、Precision和Accuracy的加权平均,通过表1和表2中的数据发现生成样本的准确率相较于原始样本的准确率略微降低。
这可能是因为其在某些真实光谱的一个子集上存在过拟合现象。然而,在对混合生成图像和原始图像进行分类测试时,结果表明使用生成样本扩充数据集可以略微提高准确率。这一结果是可以预料的,因为与真实样本相比,生成样本不会提供任何新的信息。需要注意的是,虽然生成样本的准确率略有下降,但是生成样本可以提供额外的数据样本,帮助模型更好地捕捉数据分布的细节和边界情况,从而提高模型的鲁棒性和泛化能力。
表1机器学习对原始样本,生成样本和混合样本进行分类的结果
表2深度学习对原始样本,生成样本和混合样本进行分类的结果
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制;尽管参照较佳实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者对部分技术特征进行等同替换;而不脱离本发明技术方案的精神,其均应涵盖在本发明请求保护的技术方案范围当中。
Claims (10)
1.一种注意力引导的半监督玉米高光谱图像数据扩充方法,其特征在于:包括以下步骤:
步骤1):针对原图像进行预处理,包括主成分分析降维处理和多元散射校正增强光谱特异性;
步骤2):对预处理后的图像数据进行划分处理,其中80%作为训练数据集,余下20%作为测试数据集;
步骤3):构建注意力模块,包括通道注意力和空间注意力;
具体的,通道注意力是将特征图在空间维度上进行压缩,得到一个一维矢量后利用平均值池化和最大值池化来聚合特征映射的空间信息;
平均值池化对特征图上的每一个像素点都有反馈;最大值池化在进行梯度反向传播计算时,只有特征图中响应最大的地方有梯度的反馈;
空间注意力机制是对通道进行压缩,在通道维度分别进行了平均值池化和最大值池化,将所提取到的特征图合并得到一个两通道的特征图;
最终,注意力模块将通道注意力张量和空间注意力张量进行加权融合,得到最终的注意力张量,即输出的特征图;
步骤4):通过将注意力模块嵌入生成器模型,用于指导生成器生成过程中的关注位置和权重分配,并将判别器中关于噪声的项作为损失函数;
步骤5):通过将注意力模块嵌入判别器模型,增强判别器对输入数据中的重要信息的感知能力,并减少判别器对无关信息或噪声的敏感性,构建判别器损失函数;
步骤6):构建分类器模型,引入交叉熵损失函数作为分类器的损失函数;
步骤7):构建注意力引导的半监督生成对抗网络,将生成的样本与生成器给定的标签与分类器强制连接,以达到生成带有标签的高光谱样本;
生成器将生成图像输入判别器,判别器需要判断其是否为真实图像,如果为真则输入到分类器中进行分类并标记标签。
2.根据权利要求1所述的注意力引导的半监督玉米高光谱图像数据扩充方法,其特征在于:步骤3)中,平均值池化对特征图上的每一个像素点都有反馈,计算公式为:
其中,X为输入的特征图,H和W分别表示特征图的高度和宽度。
3.根据权利要求2所述的注意力引导的半监督玉米高光谱图像数据扩充方法,其特征在于:步骤3)中,最大值池化在进行梯度反向传播计算时,只有特征图中响应最大的地方有梯度的反馈,计算公式为:
fmax=maxX(h,w),h∈{1,2,…,H},w∈{1,2,…,W}。
4.根据权利要求3所述的注意力引导的半监督玉米高光谱图像数据扩充方法,其特征在于:步骤3)中,通道注意力的公式为:
fCAM(X)=σ(MLP(favg(X))+MLP(fmax(X)))⊙X
其中,σ表示sigmoid函数,⊙表示逐元素相乘,MLP表示多层感知器。
5.根据权利要求4所述的注意力引导的半监督玉米高光谱图像数据扩充方法,其特征在于:步骤3)中,空间注意力机制的公式为:
fSAM(X)=σ(conv(concat(avg(X),max(X))))⊙X
其中,concat表示将平均值和最大值按通道维度进行拼接,conv表示卷积操作。
6.根据权利要求5所述的注意力引导的半监督玉米高光谱图像数据扩充方法,其特征在于:步骤3)中,最终的注意力张量,即输出的特征图,其公式为:
fCBAM(X)=fSAM(fCAM(X))。
7.根据权利要求6所述的注意力引导的半监督玉米高光谱图像数据扩充方法,其特征在于:步骤4)中,生成器损失函数公式为:
其中,G为生成器,D为判别器,z为随机噪声,Pz为噪声的分布,为负是为了使模型方便调整参数。
8.根据权利要求6所述的注意力引导的半监督玉米高光谱图像数据扩充方法,其特征在于:步骤5)中,判别器损失函数为:
其中,Pr和Pg为真实样本分布和生成样本分布。
9.根据权利要求8所述的注意力引导的半监督玉米高光谱图像数据扩充方法,其特征在于:步骤6)中,分类器的损失函数为:
其中p(xi)表示真实标签分布,q(xi)表示预测分布。
10.根据权利要求8所述的注意力引导的半监督玉米高光谱图像数据扩充方法,其特征在于:步骤7)中,半监督生成对抗网络的损失函数定义为:
LossT=LossD+LossG+α×LossC
其中,α是用于控制分类器损失的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310999500.XA CN117036904A (zh) | 2023-08-09 | 2023-08-09 | 注意力引导的半监督玉米高光谱图像数据扩充方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310999500.XA CN117036904A (zh) | 2023-08-09 | 2023-08-09 | 注意力引导的半监督玉米高光谱图像数据扩充方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117036904A true CN117036904A (zh) | 2023-11-10 |
Family
ID=88642459
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310999500.XA Pending CN117036904A (zh) | 2023-08-09 | 2023-08-09 | 注意力引导的半监督玉米高光谱图像数据扩充方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117036904A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117292274A (zh) * | 2023-11-22 | 2023-12-26 | 成都信息工程大学 | 基于深度语义字典零次学习的高光谱湿地图像分类方法 |
-
2023
- 2023-08-09 CN CN202310999500.XA patent/CN117036904A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117292274A (zh) * | 2023-11-22 | 2023-12-26 | 成都信息工程大学 | 基于深度语义字典零次学习的高光谱湿地图像分类方法 |
CN117292274B (zh) * | 2023-11-22 | 2024-01-30 | 成都信息工程大学 | 基于深度语义字典零次学习的高光谱湿地图像分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN106446933B (zh) | 基于上下文信息的多目标检测方法 | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
Zhou et al. | Remote sensing scene classification based on rotation-invariant feature learning and joint decision making | |
Kadam et al. | Detection and localization of multiple image splicing using MobileNet V1 | |
CN109410184B (zh) | 基于稠密对抗网络半监督学习的直播色情图像检测方法 | |
CN104866524A (zh) | 一种商品图像精细分类方法 | |
Gu et al. | Blind image quality assessment via vector regression and object oriented pooling | |
CN111898736A (zh) | 基于属性感知的高效行人重识别方法 | |
CN113076994A (zh) | 一种开集域自适应图像分类方法及系统 | |
Tanwar et al. | Deep learning-based hybrid model for severity prediction of leaf smut rice infection | |
CN111126361A (zh) | 基于半监督学习和特征约束的sar目标鉴别方法 | |
CN111639697B (zh) | 基于非重复采样与原型网络的高光谱图像分类方法 | |
CN117036904A (zh) | 注意力引导的半监督玉米高光谱图像数据扩充方法 | |
CN114626476A (zh) | 基于Transformer与部件特征融合的鸟类细粒度图像识别方法及装置 | |
Avola et al. | Real-time deep learning method for automated detection and localization of structural defects in manufactured products | |
Yang et al. | Representation and classification of auroral images based on convolutional neural networks | |
Symeonidis et al. | Neural attention-driven non-maximum suppression for person detection | |
CN116503636A (zh) | 一种基于自监督预训练的多模态遥感影像分类方法 | |
White et al. | Digital fingerprinting of microstructures | |
CN117333948A (zh) | 一种融合时空注意力机制的端到端多目标肉鸡行为识别方法 | |
CN111401434A (zh) | 一种基于无监督特征学习的图像分类方法 | |
Akram et al. | Weber Law Based Approach forMulti-Class Image Forgery Detection. | |
Branikas et al. | Instance selection techniques for multiple instance classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |