CN116310471A - 一种高光谱影像分类方法 - Google Patents

一种高光谱影像分类方法 Download PDF

Info

Publication number
CN116310471A
CN116310471A CN202211288031.2A CN202211288031A CN116310471A CN 116310471 A CN116310471 A CN 116310471A CN 202211288031 A CN202211288031 A CN 202211288031A CN 116310471 A CN116310471 A CN 116310471A
Authority
CN
China
Prior art keywords
classification
features
retinex
hyperspectral
standard deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211288031.2A
Other languages
English (en)
Inventor
刘冰
王瑞瑞
孙一帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information Engineering University of PLA Strategic Support Force
Original Assignee
Information Engineering University of PLA Strategic Support Force
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Information Engineering University of PLA Strategic Support Force filed Critical Information Engineering University of PLA Strategic Support Force
Priority to CN202211288031.2A priority Critical patent/CN116310471A/zh
Publication of CN116310471A publication Critical patent/CN116310471A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像分类领域,具体涉及一种高光谱影像分类方法。本发明的高光谱影像分类方法通过选取不同的高斯函数标准差值,获取不同尺度的Retinex特征,并将其进行融合形成融合空‑谱特征用于高光谱影像分类,从而兼顾高光谱影像的全局特征和细节特征,因此能够使用于分类的融合特征包含了更多影像信息,从而提高分类精度。并且选取能够使对应单尺度Retinex特征达到最大分类精度的高斯函数标准差值以及其相邻的标准差值用于获取Retinex特征并融合,获取分类精度更高的特征值。最后通过与光谱特征、单尺度Retinex特征以及其他分类方法的分类结果的比较,验证了本发明分类方法相对其他方法具有更高的分类精度。

Description

一种高光谱影像分类方法
技术领域
本发明属于图像分类领域,具体涉及一种高光谱影像分类方法。
背景技术
由于高光谱影像中获取标记样本费时费力,因此需要通过特征提取,提高高光谱影像分类精度。但是仅仅使用光谱特征区分不同地物具有局限性,在高光谱影像中相邻像素属于同一个类的概率很大,因此引入空间信息可以得到更加准确的地物要素分类图,即联合空间特征和光谱特征进行高光谱影像分类。
由于高光谱影像是三维的数据立方体,因此能够直接提取三维的空-谱特征。为保证对不同高光谱数据的适应性,通常采用深度学习方法进行高光谱影像分类。虽然深度学习方法能够提升高光谱影像的分类性能,但在训练样本有限的条件下,用于进行分类的特征本身也同样对高光谱影像分类的精度具有较大影响,如果分类特征中包含的全局信息与细节信息不足,也会导致高光谱影像分类精度较低。
发明内容
本发明的目的在于提供一种高光谱影像分类方法,用于解决现有技术中在训练样本有限的条件下,针对高光谱影像分类的精度较低的问题。
为了实现上述目的,本发明提供了一种高光谱影像分类方法,步骤如下:
1)获取待分类高光谱影像的原始光谱特征,通过设置至少两个不同的高斯函数标准差对高光谱影像进行Retinex特征,得到至少两种不同尺度的Retinex特征;
2)将得到的不同尺度的Retinex特征进行特征融合作为该待分类高光谱影像的多尺度融合特征;
3)将待分类高光谱影像的多尺度融合特征与该影像的原始光谱特征进行特征融合,得到高光谱影像的融合空-谱特征;
4)将融合空-谱特征输入分类器,对高光谱影像进行分类。
当Retinex特征尺度较小时,原波段局部细节较为突出;当尺度较大时,能够体现图像全局特征,图像颜色较自然,但以某一像素点为中心的周围其他像素对这个像素点的影响就越小,这样就会导致对图像的细节信息保留较少,图像的对比度信息不强。因此,该方法将不同尺度的Retinex特征进行融合,能够兼顾高光谱影像的全局特征和细节特征,因此能够使用于分类的特征包含更多影像信息,提高分类精度。
进一步地,所述步骤1)中设置的高斯函数标准差中包括有最优高斯函数标准差,最优高斯函数标准差指的是按照该高斯函数标准差提取Retinex特征使分类器分类精度达到最高。
进一步地,所述步骤1)中设置高斯函数标准差包括三个,分别是最优高斯函数标准差以及最优高斯函数标准差的两个相邻值。
进一步地,采用支持向量机作为分类器。
进一步地,为获得更高的分类精度,采用拼接的方式进行特征融合。
附图说明
图1为本发明高光谱影像分类方法实施例中获取融合空-谱特征的流程图;
图2为本发明比较例中从University of Pavia数据集选取的标记样本示意图;
图3为本发明比较例中从Salinas数据集中选取的标记样本示意图;
图4为本发明比较例中University of Pavia数据集上不同sigma值数据的实验结果示意图;
图5为本发明比较例中Salinas数据集上不同sigma值数据的实验结果示意图;
图6为本发明比较例中不同方法针对University of Pavia数据集的定量评价结果;
图7为本发明比较例中不同方法针对Salinas数据集的定量评价结果;
图8a为本发明比较例中University of Pavia数据集对应的地面真实图像;
图8b为本发明比较例中University of Pavia数据集采用EMP分类方法得到的分类结果;
图8c为本发明比较例中University of Pavia数据集采用Gabor纹理特征分类方法得到的分类结果;
图8d为本发明比较例中University of Pavia数据集采用3DCAE分类方法得到的分类结果;
图8e为本发明比较例中University of Pavia数据集采用VGG19分类方法得到的分类结果;
图8f为本发明比较例中University of Pavia数据集采用CNN分类方法得到的分类结果;
图8g为本发明比较例中University of Pavia数据集采用FContNet分类方法得到的分类结果;
图8h为本发明比较例中University of Pavia数据集采用本发明提出的MRetinex分类方法得到的分类结果;
图9a为本发明比较例中Salians数据集对应的地面真实图像;
图9b为本发明比较例中Salians数据集采用EMP分类方法得到的分类结果;
图9c为本发明比较例中Salians数据集采用Gabor纹理特征分类方法得到的分类结果;
图9d为本发明比较例中Salians数据集采用3DCAE分类方法得到的分类结果;
图9e为本发明比较例中Salians数据集采用VGG19分类方法得到的分类结果;
图9f为本发明比较例中Salians数据集采用CNN分类方法得到的分类结果;
图9g为本发明比较例中Salians数据集采用FContNet分类方法得到的分类结果;
图9h为本发明比较例中Salians数据集采用本发明提出的MRetinex分类方法得到的分类结果。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明了,以下结合附图及实施例,对本发明进行进一步详细说明。
高光谱影像分类方法实施例
本实施例提供了一种高光谱影像分类方法,具体步骤如下:
1)获取待分类高光谱影像的原始光谱特征,通过设置至少两个不同的高斯函数标准差对高光谱影像进行Retinex特征,得到至少两种不同尺度的Retinex特征。
Retinex理论将一幅给定的图像S(x,y)分解为两个不同的图像:反射图像R(x,y)和亮度图像L(x,y)。图像可以看作是入射图像和反射图像共同构成的,入射光照射在反射物体上,通过反射物体的反射,形成反射光进入人眼。其中Retinex特征即为表现本质信息的反射图像R(x,y)对应的特征,该特征能够减弱因光照因素产生的对图像的影响,因此可以增强图像的细节信息,获得代表图像本质信息的特征。
Retinex理论形式化地描述为下式:
S(x,y)=R(x,y)·L(x,y)
通过高斯函数与图像进行卷积近似表现入射分量,即:
L(x,y)=S(x,y)*G(x,y)
通常Retinex算法是把S(x,y)=R(x,y)·L(x,y)乘法式转换到对数域,即把乘法转换至加法,则对数域的反射图像r(x,y)可以表示为:
Figure BDA0003900676220000041
r(x,y)=logS(x,y)-logL(x,y)
r(x,y)=logS(x,y)-log(S(x,y)*G(x,y))
其中,G(x,y)是高斯函数,可以表示为:
Figure BDA0003900676220000042
上式中的c为高斯函数标准差;λ为归一化因子,取值满足下式:
∫∫G(x,y)dxdy=1
对于高光谱影像而言,先逐波段地提取反射图像,然后将不同波段的反射图像堆叠起来形成Retinex特征。
2)将得到的不同尺度的Retinex特征进行特征融合作为该待分类高光谱影像的多尺度融合特征。
根据上述公式可知,高斯函数标准差c的值决定了Retinex特征的尺度,当c较小时,原波段局部细节较为突出;当c较大时,高斯函数的邻域范围就大,颜色较自然,但以某一像素点为中心的周围其他像素对这个像素点的影响就越小,这样就会导致对图像的细节信息保留较少,图像的对比度信息不强。
为了增强特征提取效果,如图1所示,本实施例选取3个c值,对应三个不同尺度的Retinex特征;c值选取越多特征提取效果越好,但会增加计算复杂度,因此在其他实施例中,为兼顾分类精确度和计算成本,选取的不同的c值的个数需要限定在3-5个的范围内;分别提取高光谱影像三个不同尺度的Retinex特征后,然后将多尺度Retinex特征进行融合;选取的不同c值之间的变化区间范围足够大,如0.25、0.5、1、2、4、8、16、32、64、128以及256等数值。单纯选择过大或过小的值效果都会降低最终的分类效果;通常情况下可以采用交叉验证的方法从较多候选的不同c值中选取较优参数。在一个优选实施例中,选取最优高斯函数标准差值和其相邻的两个值分别提取Retinex特征,获取三种不同尺度的Retinex特征用于特征融合,比如最优高斯函数标准差值为2,就选2、4、8三个参数提取特征后进行特征融合。
本实施例中,为了获得更高的分类精度,本实施例采用拼接的方式进行融合,获取多尺度融合Retinex特征。
3)将待分类高光谱影像的多尺度融合特征与该影像的原始光谱特征进行特征融合,得到高光谱影像的融合空-谱特征。
在多尺度融合Retinex特征后,将该融合特征与原始光谱特征再次进行特征融合,形成最终用于分类的融合空-谱特征,为了获得更高的分类精度,本实施例同样采用拼接的方式进行融合,获取融合空-谱特征。
4)将融合空-谱特征输入分类器,对高光谱影像进行分类。在本实施例中,采用支持向量机作为分类器。
比较例:
为了验证该分类方法的有效,本比较例选取两组真实的高光谱影像进行分类实验。第一幅高光谱影像是University of Pavia数据集,该数据由ROSIS传感器获取,空间分辨率1.3米,光谱范围为430~860nm,103个波段,数据大小610×340。为了定量评价不同分类算法,University of Pavia数据集人工标注了9类地物,共有42776个标记样本。
如图2所示,本比较例从每类地物中随机选取48个标记样本作为训练数据,用于训练的标记样本共432个,剩余样本作为测试数据。
第二幅高光谱影像是Salinas数据集,该数据由AVIRIS传感器获取,空间分辨率3米,光谱范围为400~2500nm,204个有效波段,数据大小145×145。Salinas数据集共标注了16类地物,共54128个标记样本,如图3所示,本比较例从每类地物中随机选取27个标记样本作为训练数据,可用于训练的标记样本共432个,剩余样本作为测试数据。
本比较例中,选择应用最为广泛的支持向量机SVM作为分类器。Retinex只需要设置参数sigma,选取不同的sigma值,分别提取两组高光谱影像不同sigma值对应的单尺度Retinex特征,再与原始光谱特征进行拼接融合后,进行分类实验,两组高光谱影像以及不同sigma值数据的实验结果如表1、图4和图5所示,其中。通过观察表1、图4和图5中的实验结果可知,sigma值在两组数据集上都有明显的局部最优值,在University of Pavia数据集(简称为PU)上sigma取32能够获得最高的分类精度,在Salinas数据集(简称为SA)上sigma取128能够获得最高的分类精度,当sigma大于或小于这个值时分类精度都会降低。这是由于过大的sigma值会导致细节信息丢失过多,因此会降低分类精度,而sigma过小则会导致提取不到具有判别性的特征,也会导致分类精度降低。
表1
sigma 0.25 0.5 1 2 4 8 16 32 64 128 256
PU 83.05 79.25 85.84 87.81 90.78 92.46 92.87 94.26 92.20 88.29 84.20
SA 89.21 88.44 84.38 86.27 88.57 90.20 90.49 94.05 96.78 97.23 94.95
为了进一步提升分类精度,本比较例每个数据集上选取最优sigma值,即使对应的单尺度Retinex特征能够获得相对最大分类精度的sigma值和其相邻的两个值分别提取Retinex特征,然后将它们和原始光谱特征拼接后作为最终输入到SVM的融合空-谱特征。为了证明多尺度特征的有效性,表2中给出了原始光谱特征、单尺度Retinex特征、多尺度融合Retinex特征的分类结果。从表2中可以发现,单尺度Retinex特征的分类精度明显高于仅使用光谱特征时的分类精度,这充分说明了本文提出方法的有效性,而使用多尺度特征则能够进一步提升分类精度。
表2
Figure BDA0003900676220000071
针对分类结果进行评价时,本比较例选取总体分类精度(OA)、平均分类精度(AA)以及Kappa系数作为评价指标。参与分类结果对比的各方法中包括经典的拓展形态学属性剖面特征(EMP)、Gabor纹理特征、基于深度三维自编码器的特征提取(3DCAE)、基于VGG19预训练模型的特征提取方法、监督的卷积神经网络方法(CNN)以及全卷积网络方法(FContNet),本发明提出的分类方法用MRetinex表示。
为了公平的比较,所有方法的训练和测试样本保持一致,除了监督的CNN和FContNet,其它的特征提取方法均采用支持向量机SVM完成分类,SVM的参数设置均采用交叉验证的方法确定最优参数。图6和图7给出了两组高光谱影像上不同方法针对不同的高光谱影像获得的定量评价结果,其中图6表示不同方法针对University of Pavia数据集的定量评价结果,图7表示不同方法针对Salinas数据集的定量评价结果。
根据图6和图7,可以发现整体上基于深度学习的特征提取方法或分类方法能够获得比EMP和Gabor更高的分类精度,而本发明提出的分类方法在两组高光谱影像即两个数据集上则能够获得最高的分类精度,且总体分类精度提升幅度较大,例如University ofPavia数据集上,本发明方法的分类精度比VGG19高2%以上,在Salians数据集上,本发明方法的分类精度比FContNet高4%以上,这充分说明了本文方法的有效性。为了便于观察不同分类方法的效果,图8a-8h、图9a-9h中分别给出了两个数据集中不同分类方法得到的分类结果图,其中图8a为University of Pavia数据集对应的地面真实图像,图8b为Universityof Pavia数据集采用EMP分类方法得到的分类结果,图8c为University of Pavia数据集采用Gabor纹理特征分类方法得到的分类结果,图8d为University of Pavia数据集采用3DCAE分类方法得到的分类结果;图8e为University of Pavia数据集采用VGG19分类方法得到的分类结果;图8f为University of Pavia数据集采用CNN分类方法得到的分类结果;图8g为University of Pavia数据集采用FContNet分类方法得到的分类结果;图8h为University of Pavia数据集采用本发明提出的MRetinex分类方法得到的分类结果;图9a为Salians数据集对应的地面真实图像,图9b为Salians数据集采用EMP分类方法得到的分类结果,图9c为Salians数据集采用Gabor纹理特征分类方法得到的分类结果,图9d为Salians数据集采用3DCAE分类方法得到的分类结果,图9e为Salians数据集采用VGG19分类方法得到的分类结果,图9f为Salians数据集采用CNN分类方法得到的分类结果,图9g为Salians数据集采用FContNet分类方法得到的分类结果,图9h为Salians数据集采用本发明提出的MRetinex分类方法得到的分类结果。
根据图8a-8h、图9a-9h可以发现本发明方法的分类噪声明显少于其它方法,这进一步验证了本发明方法的有效性。
本发明的高光谱影像分类方法通过将不同尺度的Retinex特征进行融合,能够兼顾高光谱影像的全局特征和细节特征,因此能够使用于分类的融合特征包含了更多影像信息,从而提高分类精度。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细地说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。

Claims (5)

1.一种高光谱影像分类方法,其特征在于,步骤如下:
1)获取待分类高光谱影像的原始光谱特征,通过设置至少两个不同的高斯函数标准差对高光谱影像进行Retinex特征,得到至少两种不同尺度的Retinex特征;
2)将得到的不同尺度的Retinex特征进行特征融合作为该待分类高光谱影像的多尺度融合特征;
3)将待分类高光谱影像的多尺度融合特征与该影像的原始光谱特征进行特征融合,得到高光谱影像的融合空-谱特征;
4)将融合空-谱特征输入分类器,对高光谱影像进行分类。
2.根据权利要求1所述的高光谱影像分类方法,其特征在于,所述步骤1)中设置的高斯函数标准差中包括有最优高斯函数标准差,最优高斯函数标准差指的是按照该高斯函数标准差提取Retinex特征使分类器分类精度达到最高。
3.根据权利要求2所述的高光谱影像分类方法,其特征在于,所述步骤1)中设置高斯函数标准差包括三个,分别是最优高斯函数标准差以及最优高斯函数标准差的两个相邻值。
4.根据权利要求1-3任一项所述的高光谱影像分类方法,其特征在于,采用支持向量机作为分类器。
5.根据权利要求1-3任一项所述的高光谱影像分类方法,其特征在于,所述步骤2)和步骤3)中均采用拼接的方式进行特征融合。
CN202211288031.2A 2022-10-20 2022-10-20 一种高光谱影像分类方法 Pending CN116310471A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211288031.2A CN116310471A (zh) 2022-10-20 2022-10-20 一种高光谱影像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211288031.2A CN116310471A (zh) 2022-10-20 2022-10-20 一种高光谱影像分类方法

Publications (1)

Publication Number Publication Date
CN116310471A true CN116310471A (zh) 2023-06-23

Family

ID=86811866

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211288031.2A Pending CN116310471A (zh) 2022-10-20 2022-10-20 一种高光谱影像分类方法

Country Status (1)

Country Link
CN (1) CN116310471A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116883852A (zh) * 2023-08-29 2023-10-13 北京建工环境修复股份有限公司 一种基于高光谱的岩芯数据获取方法及系统
CN117423004A (zh) * 2023-12-19 2024-01-19 深圳大学 高光谱图像的波段选择方法、装置、终端及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116883852A (zh) * 2023-08-29 2023-10-13 北京建工环境修复股份有限公司 一种基于高光谱的岩芯数据获取方法及系统
CN116883852B (zh) * 2023-08-29 2024-03-08 北京建工环境修复股份有限公司 一种基于高光谱的岩芯数据获取方法及系统
CN117423004A (zh) * 2023-12-19 2024-01-19 深圳大学 高光谱图像的波段选择方法、装置、终端及存储介质
CN117423004B (zh) * 2023-12-19 2024-04-02 深圳大学 高光谱图像的波段选择方法、装置、终端及存储介质

Similar Documents

Publication Publication Date Title
Garcia-Lamont et al. Segmentation of images by color features: A survey
US10074006B2 (en) Methods and systems for disease classification
CN116310471A (zh) 一种高光谱影像分类方法
CN109978848B (zh) 基于多光源颜色恒常模型检测眼底图像中硬性渗出的方法
CN108764358B (zh) 一种太赫兹图像识别方法、装置、设备及可读存储介质
CN111125416A (zh) 一种基于多特征融合的图像检索方法
Agrawal et al. Grape leaf disease detection and classification using multi-class support vector machine
Zhang et al. An unsupervised evaluation method for remotely sensed imagery segmentation
US9418440B2 (en) Image segmenting apparatus and method
CN111160273A (zh) 一种高光谱图像空谱联合分类方法及装置
Sun et al. An adaptive segmentation method combining MSRCR and mean shift algorithm with K-means correction of green apples in natural environment
CN109409389B (zh) 一种融合多特征的面向对象变化检测方法
Su A filter-based post-processing technique for improving homogeneity of pixel-wise classification data
WO2021118463A1 (en) Defect detection in image space
Chawathe Rice disease detection by image analysis
Fathi et al. General rotation-invariant local binary patterns operator with application to blood vessel detection in retinal images
Liu et al. Hyperspectral open set classification with unknown classes rejection towards deep networks
Pramunendar et al. New Workflow for Marine Fish Classification Based on Combination Features and CLAHE Enhancement Technique.
CN114170418A (zh) 一种以图搜图的汽车线束连接器多特征融合图像检索方法
CN112733736A (zh) 基于增强过采样的类别不平衡高光谱图像分类方法
Cui et al. Spectral-spatial hyperspectral image classification based on superpixel and multi-classifier fusion
Qin et al. Color image denoising by means of three-dimensional discrete fuzzy numbers
Azam et al. Using feature maps to unpack the CNN ‘Black box’theory with two medical datasets of different modality
CN113449603A (zh) 一种高分辨率遥感影像地表要素识别方法及存储介质
CN117115675A (zh) 一种跨时相轻量化空谱特征融合高光谱变化检测方法、系统、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination