CN111339935A - 一种基于可解释cnn图像分类模型的光学遥感图片分类方法 - Google Patents
一种基于可解释cnn图像分类模型的光学遥感图片分类方法 Download PDFInfo
- Publication number
- CN111339935A CN111339935A CN202010117224.6A CN202010117224A CN111339935A CN 111339935 A CN111339935 A CN 111339935A CN 202010117224 A CN202010117224 A CN 202010117224A CN 111339935 A CN111339935 A CN 111339935A
- Authority
- CN
- China
- Prior art keywords
- interpretable
- layer
- model
- layers
- cnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本发明公开了一种基于可解释CNN图像分类模型的光学遥感图片分类方法,搭建由6组共51层基础卷积层、3层全连接层和1层Softmax层组成的可解释CNN网络ResNet模型,利用ResNet进行下采样,得到包含上下文信息的特征图,之后针对ResNet模型进行可解释性修改,得到新的基于ResNet模型的可解释CNN网络,ResNet模型通过多组带有残差模块的卷积‑池化层提取特征,最终输入到全连接层对图像进行分类。本发明能够增强现有深度学习模型的可解释性,并进一步提高模型的性能。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于可解释CNN(ConvolutionalNeural Networks)图像分类模型的光学遥感图片分类方法,可用于包括飞机、舰船等地物目标的分类。
背景技术
国外如谷歌、微软,国内如百度、腾讯和阿里巴巴等顶级互联网公司不约而同的提高了在人工智能这一产业的上投资力度。人工智能产业的实际应用潜移默化的影响着人们的生活方式。在人工智能的研究领域之中,深度学习的研究是一大重点,可以在人工智能的各个领域中得到应用,例如语音处理(speech signal processing)、计算机视觉(computervision)和自然语言处理(natural language processing)等。卷积神经网络CNNs(Convolution Nerual Networks)能够采取结合局部的感知区域、网络内共享权重以及在空间和时间上的池化进行降采样三种手段提取数据原本的特征,改进网络的整体结构,能够实现在一定范围内位移的不变性。CNNs的具体结构由卷积部分和全连接部分组成。其中卷积部分的组成层包含卷积层(Convolutional layer)、激活层和下采样层。其中卷积部分的作用是叠加并提取数据的特征;全连接部分的作用是连接提取出来的特征和输出计算损失,并进行识别分类等功能。然而,即使CNNs的表现如此出众,其端到端(end to end)的学习策略仍然令CNNs像一个黑匣子一样令人难以理解和解释。我们仅能直观的看到网络的最后输出结果,却很难去理解包含在网络里面的被隐藏起来的CNNs进行预测的逻辑网络。自CNNs提出以来,研究人员们愈发认识到一个具有良好解释性的模型不仅在理论层面上非常重要,而且在实践中也具有及其重要的价值。因此我们要研究探索具有可解释的知识表示的CNNs网络模型。
现有方法只是重点着重于对细胞知识图谱的建模,并没有充分考虑到神经网络的可解释性,这样会导致神经网络在训练过程中效率低下,在推理过程中分类精度不高等问题;或者仅能适用于早期的简单模型,当加深神经网络的层数,网络的稳定性就会显著降低。并且作为一项探索性研究,可解释性设计还降低了网络模型原本的区分能力。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于可解释CNN图像分类模型的光学遥感图片分类方法,解决现有技术中训练过程效率低下以及图片分类准确率低的问题。
本发明采用以下技术方案:
一种基于可解释CNN图像分类模型的光学遥感图片分类方法,搭建由6组共51层基础卷积层、3层全连接层和1层Softmax层组成的可解释CNN网络ResNet模型,利用ResNet进行下采样,得到包含上下文信息的特征图,之后针对ResNet模型进行可解释性修改,得到新的基于ResNet模型的可解释CNN网络,ResNet模型通过多组带有残差模块的卷积-池化层提取特征,最终输入到全连接层对图像进行分类。
具体的,包括以下步骤:
S1、依次搭建输入层、第一个基础卷积层、第一个池化层、ResNet50模型中用来进行特征提取的四组block、一个可解释卷积层、最后一个池化层、第一个全连接层、第一个dropout层、第二个全连接层、第二个dropout层、第三个全连接层和一个Softmax层;
S2、选取训练样本和测试样本并对数据进行预处理;
S3、将训练集和验证集输入到卷积神经网络ResNet中进行迭代训练,直至卷积神经网络ResNet的损失函数值小于10-4,得到训练好的可解释CNN网络ResNet模型,输入到全连接层对图像进行分类。
进一步的,步骤S1中,可解释卷积层使用3*3的卷积核,输入为512,输出为512,步长为1,补零为1;最后一个池化层size为2*2,步长为2;第一个全连接层输入为512,输出为4096,步长为1;第一个dropout层dropout率为0.5;第二个全连接层输入为4096,输出为4096,步长为1;第二个dropout层dropout率为0.5;第三个全连接层输入为4096,输出为45,步长为1。
进一步的,步骤S2中,预处理具体为:
对45类图片每类选560张做训练集,70张做验证集,70张做测试集;然后将训练图像的大小统一调整为256*256;最后标签按从0到44进行划分,每个数字表示一类。
进一步的,步骤S3中,通过端到端的方式训练可解释CNN网络ResNet模型,在前向传播过程中,可解释CNN网络ResNet模型中的每个滤波器以自底向上的方式传递信息;在反向传播期间,可解释的卷积层中的每个滤波器接收关于其从第k个样本上的最终任务损失和滤波器损失的特征映射的梯度。
更进一步的,可解释CNN网络ResNet模型的损失函数如下:
其中,第一项H(T)表示部位模板的常数先验熵;第二项是激励类别间激活的低条件熵;第三项是激励神经激活的空间分布的低条件熵;x是特征映射,T-和T+分别表示负模板和正模板。
进一步的,步骤S3完成后,输出顶层卷积层中滤波器的有效感受野并核对是否处在目标的正确部位,将可解释的卷积层中的滤波器的特征映射进行可视化,以解释滤波器的语义;使用对象部分的可解释性和位置不稳定性对滤波器的部分语义的清晰度进行评估。
与现有技术相比,本发明至少具有以下有益效果:
本发明一种基于可解释CNN图像分类模型的光学遥感图片分类方法,搭建一个由6组共51层基础卷积层、3层全连接层和1层Softmax层组成的卷积神经网络ResNet模型,克服了现有技术中模型构建过于繁琐,导致神经网络在训练过程中效率低下的问题,使得本发明能够快速达到要求的识别率,降低了网络训练过程的耗时,克服了现有技术中没有充分考虑到神经网络的可解释性,在推理过程中分类精度不高的问题,实现了对遥感图像分类准确率的提高。
进一步的,本发明搭建了1层步长为1的可解释卷积层和3层全连接层代替了传统ResNet50卷积神经网络的全连接层部分,在增加的卷积层的滤波器加上遮掩限制使得滤波器回归到目标的单一部位。目标部位的位置由滤波器的特征映射估算,得到的位置即为感兴趣区域(ROI)。以此在反向传播过程中对网络的损失进行修正,使得顶层卷积层中滤波器的有效感受野映射在目标部位上,来解释这些滤波器的语义。克服了现有技术中仅能适用于早期的简单模型,当加深神经网络的层数,网络的稳定性就会显著降低,且网络模型原本的区分能力的问题,使得本发明提高了神经网络模型的稳定性,并进一步提高模型的可解释性。
进一步的,选取NWPU-RESISC45数据集是因为该数据集图片数量充足且类别广泛,在同一领域的分类训练中具有足够的代表性;对图片数据进行的预处理能够增强数据的特征信息,使本发明中的神经网络模型能够更加充分地学到数据的特征,提高模型的分类效果。
进一步的,对ResNet模型进行可解释性修改,得到新的基于ResNet模型的可解释CNN网络,我们为卷积层中的每个滤波器提出简单但有效的损失,将滤波器的表示推向目标的特定部分。损失促进了类别间激活的低熵和神经激活的空间分布的低熵。给定图像,只有特征映射的单个区域才能激活特定滤波器,这样的对应关系提高了模型的可解释性。
综上所述,本发明能够增强现有深度学习模型的可解释性,并进一步提高模型的性能。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明的流程图;
图2为本发明仿真实验的滤波器感受野图。
具体实施方式
本发明提供了一种基于可解释CNN图像分类模型的光学遥感图片分类方法,通过搭建可解释CNN网络后选取训练样本和测试样本;再训练卷积神经网络ResNet模型;进行可解释性测试;使用所训练的模型对测试集进行最终测试。本发明能够快速达到要求的识别率,降低了网络训练过程的耗时,提高了对遥感图像分类的准确率,并且提高了神经网络模型的可解释性。
请参阅图1,本发明一种基于可解释CNN图像分类模型的光学遥感图片分类方法,34是否要删掉。一般的卷积神经网络在光学遥感图像分类过程中,下采样得到的特征丢失了很多细节信息,因此考虑利用ResNet进行下采样,得到包含上下文信息的特征图。之后针对ResNetT改成ResNet进行可解释性修改,得到新的基于ResNet的可解释网络,具体步骤如下:
S1、搭建可解释CNN网络
搭建一个由6组共51层基础卷积层、3层全连接层和1层Softmax层组成的卷积神经网络ResNet模型;
可解释CNN模型的结构依次为:输入层→第一个基础卷积层→第一个池化层→ResNet50模型中用来进行特征提取的四组block→一个可解释卷积层→最后一个池化层→第一个全连接层→第一个dropout层→第二个全连接层→第二个dropout层→第三个全连接层→一个Softmax层。
可解释神经网络各层的参数设置如下:
可解释卷积层前的部分与普通ResNet50模型保持一致不做更改;
可解释卷积层使用3*3的卷积核,输入为512,输出为512,步长为1,补零为1;
最后一个池化层size为2*2,步长为2;
第一个全连接层输入为512,输出为4096,步长为1;
第一个dropout层dropout率为0.5;
第二个全连接层输入为4096,输出为4096,步长为1;
第二个dropout层dropout率为0.5;
第三个全连接层输入为4096,输出为45,步长为1。
S2、选取训练样本和测试样本
数据集使用西北工业大学制作的NWPU-RESISC45数据集,包含31,500个图像,涵盖45个场景类,每个类有700个图像。
对数据的预处理如下:
对45类图片每类选560张做训练集,70张做验证集,70张做测试集;
将训练图像的大小统一调整为256*256;
标签按从0到44进行划分,每个数字表示一类。
S3、训练卷积神经网络ResNet模型
将训练集和验证集输入到卷积神经网络ResNet中进行迭代训练,直至卷积神经网络ResNet的损失函数值小于10-4,得到训练好的可解释CNN;
通过端到端的方式训练可解释的CNN。在前向传播过程中,CNN中的每个滤波器都像传统CNN一样以自底向上的方式传递信息。在反向传播期间,可解释的卷积层中的每个滤波器接收关于它从第k个样本上的最终任务损失和滤波器损失的特征映射的梯度。
可解释CNN网络ResNet模型的损失函数如下:
其中,第一项H(T)表示部位模板的常数先验熵;第二项是激励类别间激活的低条件熵,即,良好学习的过滤器需要由某个类别专门激活,并对其他类别保持沉默;第三项是激励神经激活的空间分布的低条件熵。即,给定图像,只有特征图的单个区域才能激活熟悉的滤波器,而不是重复地出现在不同的位置;x是特征映射,T-和T+分别表示负模板和正模板,∑表示求和操作。
S4、可解释性测试
输出顶层卷积层中滤波器的有效感受野并核对是否处在目标的正确部位。图2展示的是顶层的卷积层中滤波器的关注部位,可解释CNNs中的滤波器主要由特定的对象部分激活,而普通CNNs经过ReLU操作后的特征映射通常不描述明确的语义。
在反向传播过程中,上述损失会推动滤波器f来表示特定类别c的特定对象部分,并且对其他类别的图像保持静默。
将可解释的卷积层中的滤波器的特征映射进行可视化,以解释这些滤波器的语义。评估滤波器的部分语义的清晰度使用的是两种类型的度量,即对象部分的可解释性和位置不稳定性。图2表明,可解释CNNs中的滤波器在语义上具有意义,滤波器的关注点明显的集中在了机翼和机头部分。
S5、使用所训练的模型对测试集进行最终测试:
由Matlab官方深度学习工具箱Deep Learning Toolbox上迁移的ResNet50模型经同样的训练集训练后在测试集上获得的准确率为95.2%,使用训练好的模型对测试集进行验证,将测试图像的大小统一调整为256*256,验证测试结果,最终分类准确率为96.8%,证明本发明经ResNet50改造的可解释CNN具有良好的遥感图像分类性能,且高于普通的ResNet50网络。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中的描述和所示的本发明实施例的组件可以通过各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合仿真实验对本发明的效果做进一步的说明
仿真条件
本发明的仿真实验是在主频3.4GHz的Intel(R)Core(TM)i5-7500 CPU、核心频率1569-1784MHz的GTX1060-6GD5、内存为8GB的硬件环境和Matlab的软件环境下进行的。
仿真内容与结果分析:
采用本发明的方法,在上述仿真条件下,按照本发明的步骤进行了仿真实验。
本发明的仿真实验搭建了一个由6组共51层基础卷积层、3层全连接层和1层Softmax层组成的卷积神经网络ResNet模型,选取NWPU-RESISC45数据集制作训练集和测试集,训练可解释的卷积神经网络ResNet模型,将测试样本依次输入到预训练的可解释CNN中,可解释CNN能够在增加的卷积层的滤波器加上遮掩限制使得滤波器回归到目标的单一部位。在反向传播过程中对网络的损失进行修正,使得顶层卷积层中滤波器的有效感受野映射在目标部位上,来解释这些滤波器的语义。可解释CNNs中的滤波器主要由特定的对象部分激活,而普通CNNs经过ReLU操作后的特征映射通常不描述明确的语义。输出顶层卷积层中滤波器的有效感受野并核对是否处在目标的正确部位。最后输出的顶层卷积层滤波器感受野如图2所示。
本发明的仿真实验搭建了一个由6组共51层基础卷积层、3层全连接层和1层Softmax层组成的卷积神经网络ResNet模型,选取NWPU-RESISC45数据集制作训练集和测试集,训练可解释的卷积神经网络ResNet模型,将测试样本依次输入到预训练的可解释CNN中,我们通过端到端的方式训练可解释的CNN。在前向传播过程中,CNN中的每个滤波器都像传统CNN一样以自底向上的方式传递信息。在反向传播期间,可解释的卷积层中的每个滤波器接收关于它从第k个样本上的最终任务损失和滤波器损失的特征映射的梯度。最终训练好的可解释CNN模型在测试集上的进行分类检测,得到了96.8%的准确率。
图2中红色框出的高亮部分即为卷积层中滤波器的感受野位置。
从仿真实验得到的感受野图可以看出,本发明的方法能够使输出的顶层卷积层中滤波器的有效感受野处在目标部位。
综上所述,本发明一种基于可解释CNN图像分类模型的光学遥感图片分类方法,通过可解释的卷积神经网络ResNet改成ResNet模型对光学遥感图像进行图像分类,搭建一个由6组共51层基础卷积层、3层全连接层和1层Softmax层组成的卷积神经网络ResNet改成ResNet模型,在构建可解释CNN改成CNN,增强顶层卷积层中滤波器的语义表达的同时,还提高了模型对图像分类任务的准确率,降低了网络训练的耗时,实现了对遥感图片进行分类的功能。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
Claims (7)
1.一种基于可解释CNN图像分类模型的光学遥感图片分类方法,其特征在于,搭建由6组共51层基础卷积层、3层全连接层和1层Softmax层组成的可解释CNN网络ResNet模型,利用ResNet进行下采样,得到包含上下文信息的特征图,之后针对ResNet模型进行可解释性修改,得到新的基于ResNet模型的可解释CNN网络,ResNet模型通过多组带有残差模块的卷积-池化层提取特征,最终输入到全连接层对图像进行分类。
2.根据权利要求1所述的基于可解释CNN图像分类模型的光学遥感图片分类方法,其特征在于,包括以下步骤:
S1、依次搭建输入层、第一个基础卷积层、第一个池化层、ResNet50模型中用来进行特征提取的四组block、一个可解释卷积层、最后一个池化层、第一个全连接层、第一个dropout层、第二个全连接层、第二个dropout层、第三个全连接层和一个Softmax层;
S2、选取训练样本和测试样本并对数据进行预处理;
S3、将训练集和验证集输入到卷积神经网络ResNet中进行迭代训练,直至卷积神经网络ResNet的损失函数值小于10-4,得到训练好的可解释CNN网络ResNet模型,输入到全连接层对图像进行分类。
3.根据权利要求2所述的基于可解释CNN图像分类模型的光学遥感图片分类方法,其特征在于,步骤S1中,可解释卷积层使用3*3的卷积核,输入为512,输出为512,步长为1,补零为1;最后一个池化层size为2*2,步长为2;第一个全连接层输入为512,输出为4096,步长为1;第一个dropout层dropout率为0.5;第二个全连接层输入为4096,输出为4096,步长为1;第二个dropout层dropout率为0.5;第三个全连接层输入为4096,输出为45,步长为1。
4.根据权利要求2所述的基于可解释CNN图像分类模型的光学遥感图片分类方法,其特征在于,步骤S2中,预处理具体为:
对45类图片每类选560张做训练集,70张做验证集,70张做测试集;然后将训练图像的大小统一调整为256*256;最后标签按从0到44进行划分,每个数字表示一类。
5.根据权利要求2所述的基于可解释CNN图像分类模型的光学遥感图片分类方法,其特征在于,步骤S3中,通过端到端的方式训练可解释CNN网络ResNet模型,在前向传播过程中,可解释CNN网络ResNet模型中的每个滤波器以自底向上的方式传递信息;在反向传播期间,可解释的卷积层中的每个滤波器接收关于其从第k个样本上的最终任务损失和滤波器损失的特征映射的梯度。
7.根据权利要求2所述的基于可解释CNN图像分类模型的光学遥感图片分类方法,其特征在于,步骤S3完成后,输出顶层卷积层中滤波器的有效感受野并核对是否处在目标的正确部位,将可解释的卷积层中的滤波器的特征映射进行可视化,以解释滤波器的语义;使用对象部分的可解释性和位置不稳定性对滤波器的部分语义的清晰度进行评估。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010117224.6A CN111339935B (zh) | 2020-02-25 | 2020-02-25 | 一种基于可解释cnn图像分类模型的光学遥感图片分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010117224.6A CN111339935B (zh) | 2020-02-25 | 2020-02-25 | 一种基于可解释cnn图像分类模型的光学遥感图片分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111339935A true CN111339935A (zh) | 2020-06-26 |
CN111339935B CN111339935B (zh) | 2023-04-18 |
Family
ID=71181834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010117224.6A Active CN111339935B (zh) | 2020-02-25 | 2020-02-25 | 一种基于可解释cnn图像分类模型的光学遥感图片分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111339935B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111858353A (zh) * | 2020-07-23 | 2020-10-30 | 深圳慕智科技有限公司 | 一种基于特征图和类激活映射的深度学习应用组件可解释方法 |
CN112115779A (zh) * | 2020-08-11 | 2020-12-22 | 浙江师范大学 | 可解释性课堂学生情感分析方法、系统、装置及介质 |
CN112434790A (zh) * | 2020-11-10 | 2021-03-02 | 西安理工大学 | 一种对于卷积神经网络判别部分黑箱问题的自解释方法 |
CN113486969A (zh) * | 2021-07-15 | 2021-10-08 | 重庆邮电大学 | 一种基于改进的Resnet网络的X光图像分类方法 |
CN114065620A (zh) * | 2021-11-11 | 2022-02-18 | 四川大学 | 基于像素图表征和cnn的可解释性分子动力学轨迹分析方法 |
CN117496375A (zh) * | 2024-01-02 | 2024-02-02 | 中国科学院空天信息创新研究院 | 面向遥感基础模型的异构npu训练方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170169567A1 (en) * | 2014-05-23 | 2017-06-15 | Ventana Medical Systems, Inc. | Systems and methods for detection of structures and/or patterns in images |
CN108614997A (zh) * | 2018-04-04 | 2018-10-02 | 南京信息工程大学 | 一种基于改进AlexNet的遥感图像识别方法 |
CN108830296A (zh) * | 2018-05-18 | 2018-11-16 | 河海大学 | 一种改进的基于深度学习的高分遥感影像分类方法 |
WO2018214195A1 (zh) * | 2017-05-25 | 2018-11-29 | 中国矿业大学 | 一种基于卷积神经网络的遥感图像桥梁检测方法 |
CN110728224A (zh) * | 2019-10-08 | 2020-01-24 | 西安电子科技大学 | 一种基于注意力机制深度Contourlet网络的遥感图像分类方法 |
-
2020
- 2020-02-25 CN CN202010117224.6A patent/CN111339935B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170169567A1 (en) * | 2014-05-23 | 2017-06-15 | Ventana Medical Systems, Inc. | Systems and methods for detection of structures and/or patterns in images |
WO2018214195A1 (zh) * | 2017-05-25 | 2018-11-29 | 中国矿业大学 | 一种基于卷积神经网络的遥感图像桥梁检测方法 |
CN108614997A (zh) * | 2018-04-04 | 2018-10-02 | 南京信息工程大学 | 一种基于改进AlexNet的遥感图像识别方法 |
CN108830296A (zh) * | 2018-05-18 | 2018-11-16 | 河海大学 | 一种改进的基于深度学习的高分遥感影像分类方法 |
CN110728224A (zh) * | 2019-10-08 | 2020-01-24 | 西安电子科技大学 | 一种基于注意力机制深度Contourlet网络的遥感图像分类方法 |
Non-Patent Citations (1)
Title |
---|
宫浩;张秀再;胡敬锋;: "一种基于深度学习的遥感图像分类及农田识别方法" * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111858353A (zh) * | 2020-07-23 | 2020-10-30 | 深圳慕智科技有限公司 | 一种基于特征图和类激活映射的深度学习应用组件可解释方法 |
CN112115779A (zh) * | 2020-08-11 | 2020-12-22 | 浙江师范大学 | 可解释性课堂学生情感分析方法、系统、装置及介质 |
CN112434790A (zh) * | 2020-11-10 | 2021-03-02 | 西安理工大学 | 一种对于卷积神经网络判别部分黑箱问题的自解释方法 |
CN112434790B (zh) * | 2020-11-10 | 2024-03-29 | 西安理工大学 | 一种对于卷积神经网络判别部分黑箱问题的自解释方法 |
CN113486969A (zh) * | 2021-07-15 | 2021-10-08 | 重庆邮电大学 | 一种基于改进的Resnet网络的X光图像分类方法 |
CN114065620A (zh) * | 2021-11-11 | 2022-02-18 | 四川大学 | 基于像素图表征和cnn的可解释性分子动力学轨迹分析方法 |
CN114065620B (zh) * | 2021-11-11 | 2022-06-03 | 四川大学 | 基于像素图表征和cnn的可解释性分子动力学轨迹分析方法 |
CN117496375A (zh) * | 2024-01-02 | 2024-02-02 | 中国科学院空天信息创新研究院 | 面向遥感基础模型的异构npu训练方法及系统 |
CN117496375B (zh) * | 2024-01-02 | 2024-03-19 | 中国科学院空天信息创新研究院 | 面向遥感基础模型的异构npu训练方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111339935B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111339935B (zh) | 一种基于可解释cnn图像分类模型的光学遥感图片分类方法 | |
CN109409222B (zh) | 一种基于移动端的多视角人脸表情识别方法 | |
CN108615010B (zh) | 基于平行卷积神经网络特征图融合的人脸表情识别方法 | |
CN107122375B (zh) | 基于图像特征的图像主体的识别方法 | |
CN106980858B (zh) | 一种语言文本检测与定位系统及应用该系统的语言文本检测与定位方法 | |
CN109034210A (zh) | 基于超特征融合与多尺度金字塔网络的目标检测方法 | |
CN105574550A (zh) | 一种车辆识别方法及装置 | |
Zhang et al. | Small Object Detection via Precise Region-Based Fully Convolutional Networks. | |
CN105654066A (zh) | 一种车辆识别方法及装置 | |
CN113822209B (zh) | 高光谱图像识别方法、装置、电子设备及可读存储介质 | |
Agarwal et al. | Image understanding using decision tree based machine learning | |
Lu et al. | P_SegNet and NP_SegNet: New neural network architectures for cloud recognition of remote sensing images | |
CN110674685B (zh) | 一种基于边缘信息增强的人体解析分割模型及方法 | |
Liu et al. | Coastline extraction method based on convolutional neural networks—A case study of Jiaozhou Bay in Qingdao, China | |
CN107967461A (zh) | Svm 差分模型训练及人脸验证方法、装置、终端及存储介质 | |
CN103617417B (zh) | 植物自动识别方法和系统 | |
Liu et al. | Image retrieval using CNN and low-level feature fusion for crime scene investigation image database | |
CN115222950A (zh) | 一种面向嵌入式平台的轻量化目标检测方法 | |
CN111310820A (zh) | 基于交叉验证深度cnn特征集成的地基气象云图分类方法 | |
CN114494777A (zh) | 一种基于3D CutMix-Transformer的高光谱图像分类方法及系统 | |
Ouadiay et al. | Simultaneous object detection and localization using convolutional neural networks | |
CN117011274A (zh) | 自动化玻璃瓶检测系统及其方法 | |
CN113408651B (zh) | 基于局部判别性增强的无监督三维物体分类方法 | |
Li et al. | Incremental learning of infrared vehicle detection method based on SSD | |
CN114419372A (zh) | 一种多尺度点云分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |