CN108830195A - 基于现场可编程门阵列fpga的图像分类方法 - Google Patents

基于现场可编程门阵列fpga的图像分类方法 Download PDF

Info

Publication number
CN108830195A
CN108830195A CN201810549729.2A CN201810549729A CN108830195A CN 108830195 A CN108830195 A CN 108830195A CN 201810549729 A CN201810549729 A CN 201810549729A CN 108830195 A CN108830195 A CN 108830195A
Authority
CN
China
Prior art keywords
layer
neural networks
convolutional neural
convolutional
test data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810549729.2A
Other languages
English (en)
Inventor
田小林
逯甜甜
张晰
焦李成
丁鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201810549729.2A priority Critical patent/CN108830195A/zh
Publication of CN108830195A publication Critical patent/CN108830195A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于现场可编程门阵列FPGA的图像分类方法,实现的步骤是:(1)获取测试数据集;(2)获取训练数据集;(3)搭建一个含有10个卷积层,3个最大池化层,1个平均池化层和一个柔性最大值softmax层共15层的卷积神经网络;(4)设置卷积神经网络中各层的内核参数;(5)利用训练数据集训练卷积神经网络;(6)将测试图片输入到卷积神经网络中,对测试数据集进行分类;(7)计算测试数据集的准确率。本发明可用在现场可编程门阵列FPGA上实现对光学图像,SAR图像,自然图像进行分类。

Description

基于现场可编程门阵列FPGA的图像分类方法
技术领域
本发明属于计算机技术领域,更进一步涉及深度学习技术领域中的一种基于现场可编程门阵列FPGA(Field Programmable GateArray)的图像分类方法。本发明可以对基于深度卷积神经网络的图像分类方法加速,可用在FPGA上实现对合成孔径雷达SAR(Synthetic Aperture Radar)图像,光学图像,自然图像进行分类。
背景技术
具有高速、高性能的SAR图像分类方法是计算机视觉领域的核心技术。近年来基于深度卷积神经网络在计算机视觉领域大放异彩,基于深度卷积神经网络的图像分类算法与传统的方法相比,分类准确率显著提升。对于复杂场景的图像分类,基于深度卷积神经网络的算法有着更强的鲁棒性。
电子科技大学在其申请的专利文献“基于分数谱稀疏表示的SAR图像目标识别方法”(申请日:2014年06月16日,申请号:201410270929.6,公开号:104021400A)中公开了一种基于分数谱稀疏表示的SAR图像目标识别方法。该方法用训练图像集构建原子库和对待测图像的分类识别两个过程,具体的在特征提取方面同时提取了分数谱域和图像像素域两类特征;在特征分类方面,利用图像分数谱和像素两类特征的相关性,设计新的联合稀疏表示和稀疏分类方法对待测图像进行分类识别,通过利用分数域时频变换获得了信号的高分辨频谱特征,将其与图像空间像素域特征进行联合稀疏表示和稀疏分类,提高了SAR目标识别的准确率。但是,该方法仍然存在不足之处是,利用图像分数谱和像素两类特征对图像进行分类,虽然适用于SAR图像的分类,但是对光学图像,自然图像分类效果较差,大大限制了其应用范围。
杭州电子科技大学在其申请的专利文献“基于CS和SVM决策级融合的SAR图像目标识别方法”(申请日:2014年07月10日,申请号:201410328277.7,公开号:104134076B)中公开了一种基于GPU加速的Haar分类器的目标检测方法。该方法公开了一种基于CS和SVM决策级融合的SAR图像目标识别方法。该方法结合了压缩感知和支持向量机各自的优势,利用压缩感知的优化求解数据校正方位角,并对压缩感知和支持向量机的识别结果进行决策级融合。首先将SAR图像目标识别问题转化为稀疏信号恢复问题,基于恢复的稀疏系数分别获得目标分类结果和目标方位角估计,然后对测试图像进行姿态校正,利用支持向量机获取目标分类结果,最后将三者分类结果根据投票法进行决策级融合。该方法存在的不足之处是,由于使用支持向量机SVM对图像进行分类,检测精度较低。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于SF-RCNN的光学遥感图像陆地飞机和水中舰船目标检测方法。本发明与现有其他光学遥感图像目标检测方法相比,能够将全卷积语义分割网络加入到深度卷积目标检测网络中辅助检测网络以提高检测准确率,并且实现检测网络与语义分割网络一体化。
实现本发明目的的思路是:先构造测试数据集和训练数据集,再搭建一个共24层的基于全卷积语义分割的深度卷积网络并设置每层参数,用训练数据集对SF-RCNN网络进行训练,得到训练好的SF-RCNN网络,最后将测试样本集送入训练好的SF-RCNN网络得到光学遥感图像的最终检测结果。
本发明的具体步骤包括如下:
(1)获取测试数据集:
从含有4种目标类别的图片集的每一个类别中随机选取132幅图片,组成测试数据集;
(2)获取训练数据集:
从含有4种目标类别的图片集的每一个类别中随机选取220幅图片,组成训练数据集;
(3)搭建卷积神经网络:
搭建一个含有10个卷积层,3个最大池化层,1个平均池化层和一个柔性最大值softmax层共15层的卷积神经网络;
(4)设置卷积神经网络中各层的内核参数;
(5)训练卷积神经网络:
(5a)将训练数据集输入到卷积神经网络中;
(5b)使用随机梯度下降法,更新卷积神经网络卷积层的每一个节点的权值,得到训练好的卷积神经网络;
(6)对测试数据集进行测试:
(6a)将训练好的卷积神经网络保存到现场可编程门阵列FPGA的全局内存中;
(6b)将测试数据集输入到训练好的卷积神经网络中,对测试数据集中的每幅图片进行分类;
(7)计算测试数据集的准确率。
本发明与现有的技术相比具有以下优点:
第一,由于本发明搭建的卷积神经网络具有很强的通用性,针对不同种类的图像只需重新训练卷积神经网络而无需修改卷积神经网络的结构,克服了现有技术中采用的算法适用于SAR图像的分类,但是对光学图像,自然图像分类效果差的问题,使得本发明可用于对不同种类的图像进行分类,大大增强了应用范围。
第二,由于本发明基于现场可编程门阵列FPGA用大规模训练样本训练卷积神经网络,克服了现有技术中使用支持向量机SVM对图像进行分类,图像分类准确率较低的问题,使得本发明在保证分类速度的同时,大大提高了图像分类的准确率。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合附图1对本发明的具体步骤作进一步详细描述。
步骤1,获取测试数据集。
从含有4种目标类别的图片集的每一个类别中随机选取132幅图片成测试数据集。
步骤2,获取训练数据集。
从含有4种目标类别的图片集的每一个类别中随机选取220幅图片组成训练数据集。
步骤3,搭建卷积神经网络。
搭建一个含有10个卷积层,3个最大池化层,1个平均池化层和一个柔性最大值softmax层共15层的卷积神经网络。
其中15层的卷积神经网络的结构如下:该网络的第1,3,5,6,7,8,9,10,11,13层为卷积层,第2,4,12层为最大池化层,第14层为平均池化层,第15层为柔性最大值softmax层,第1、3、11层卷积层的输出值作为第2、4、12层最大池化层的输入值,第13层卷积层的输出值作为第14层平均池化层的输入值,第14层平均池化层的输出值作为第15层柔性最大值softmax层的输入值。
步骤4,设置卷积神经网络中各层的内核参数。
将卷积神经网络的第1,11层卷积层的特征映射图的总数设置为32个,卷积核的尺度设置为3×3个节点,步长为1,激活函数为修正线性单元relu函数。
将卷积神经网络的第3,9,10层卷积层的特征映射图的总数设置为64个,卷积核的尺度设置为3×3个节点,步长为1,激活函数为修正线性单元relu函数。
将卷积神经网络的第5,8层卷积层的特征映射图的总数设置为128个,卷积核的尺度设置为3×3个节点,步长为1,激活函数为修正线性单元relu函数。
将卷积神经网络的第6,7层卷积层的特征映射图的总数设置为256个,卷积核的尺度设置为3×3个节点,步长为1,激活函数为修正线性单元relu函数。
将卷积神经网络的第13层卷积层的特征映射图的总数设置为4个,卷积核的尺度设置为3×3个节点,步长为1,激活函数为修正线性单元leaky函数。
将卷积神经网络的第2,4,12层最大池化层的特征映射图的尺寸设置为2×2个节点。
将卷积神经网络的第14层平均池化层的特征映射图的尺寸设置为4个节点。
步骤5,训练卷积神经网络。
将训练数据集输入到卷积神经网络中。
使用随机梯度下降法,更新卷积神经网络卷积层的每一个节点的权值,得到训练好的卷积神经网络的具体步骤如下:
第1步,用卷积神经网络输出值的均方误差值,对卷积神经网络卷积层中每一个节点的权值取偏导,得到卷积神经网络卷积层中每一个节点更新前的权值的梯度值。
第2步,按照下式,计算卷积神经网络卷积层中每一个节点更新后的权值:
其中,表示卷积神经网络卷积层第n个节点更新后的权值,wn表示卷积神经网络卷积层第n个节点更新前的权值,α表示学习率,其取值范围为(0,1),Δwn表示卷积神经网络卷积层中每一个节点更新前的权值的梯度值。
步骤6,对测试数据集进行测试。
将训练好的卷积神经网络保存到现场可编程门阵列FPGA的全局内存中。
将测试数据集输入到训练好的卷积神经网络中,对测试数据集中的每幅图片进行分类。
步骤7,计算测试数据集的准确率。
测试数据集的准确率的公式如下:
c=k/n
其中,c表示测试数据集的准确率,k表示分类正确的图片数,n表示测试数据集总图片数。
下面结合仿真实验对本发明的效果做进一步详细描述。
1.仿真条件:
本发明的仿真实验的平台为英伟达FPGA开发平台,其中主机端CPU为Xeon E5-1603,FPGA为de5net,操作系统为windows7,软件环境为vs2015。
2.仿真内容与结果分析:
本发明的仿真实验1是分别采用本发明的方法与现有技术基于CPU的卷积神经网络方法,对测试数据集中所有图片进行图像分类。
表1中分别列出了本发明与现有技术基于CPU的卷积神经网络方法分类一幅图片所用的时间对比表。
表1分类一幅图片所用时间对比表(单位:ms)
基于CPU的卷积神经网络方法耗时 160
本发明方法耗时 40
由表1可见,本发明所提出的基于可编程逻辑器件FPGA的图像分类方法,相比基于CPU的卷积神经网络方法,分类一幅图片所用时间明显减少。
本发明的仿真实验2是分别采用本发明的方法与现有技术SVM分类方法,对测试数据集中所有图片进行图像分类。利用下式,分别计算本发明与现有技术SVM分类方法的分类准确率:
分类准确率=总分类正确图片数/总分类图片数
表2中分别列出了本发明与现有技术SVM分类方法的分类准确率对比表。
表2分类准确率对比表
SVM分类方法准确率 0.88
本发明方法准确率 0.93
由表2可见,本发明所提出的基于可编程逻辑器件FPGA的图像分类方法,相比SVM分类方法,准确率明显提升。

Claims (5)

1.一种基于现场可编程门阵列FPGA的图像分类方法,其特征在于,构建卷积神经网络,训练卷积神经网络参数,提取图像特征,在现场可编程门阵列FPGA上进行图像分类;该方法的步骤包括如下:
(1)获取测试数据集:
从含有4种目标类别的图片集的每一个类别中随机选取132幅图片,组成测试数据集;
(2)获取训练数据集:
从含有4种目标类别的图片集的每一个类别中随机选取220幅图片,组成训练数据集;
(3)搭建卷积神经网络:
搭建一个含有10个卷积层,3个最大池化层,1个平均池化层和一个柔性最大值softmax层共15层的卷积神经网络;
(4)设置卷积神经网络中各层的内核参数;
(5)训练卷积神经网络:
(5a)将训练数据集输入到卷积神经网络中;
(5b)使用随机梯度下降法,更新卷积神经网络卷积层的每一个节点的权值,得到训练好的卷积神经网络;
(6)对测试数据集进行测试:
(6a)将训练好的卷积神经网络保存到现场可编程门阵列FPGA的全局内存中;
(6b)将测试数据集输入到训练好的卷积神经网络中,对测试数据集中的每幅图片进行分类;
(7)计算测试数据集的准确率。
2.根据权利要求1所述的基于现场可编程门阵列FPGA的图像分类方法,其特征在于,步骤(3)中所述15层的卷积神经网络的结构如下:该网络的第1,3,5,6,7,8,9,10,11,13层为卷积层,第2,4,12层为最大池化层,第14层为平均池化层,第15层为柔性最大值softmax层,第1、3、11层卷积层的输出值作为第2、4、12层最大池化层的输入值,第13层卷积层的输出值作为第14层平均池化层的输入值,第14层平均池化层的输出值作为第15层柔性最大值softmax层的输入值。
3.根据权利要求1所述的基于现场可编程门阵列FPGA的图像分类方法,其特征在于,步骤(4)中所述卷积神经网络中各层的内核参数如下:
将卷积神经网络的第1,11层卷积层的特征映射图的总数设置为32个,卷积核的尺度设置为3×3个节点,步长为1,激活函数为修正线性单元relu函数;
将卷积神经网络的第3,9,10层卷积层的特征映射图的总数设置为64个,卷积核的尺度设置为3×3个节点,步长为1,激活函数为修正线性单元relu函数;
将卷积神经网络的第5,8层卷积层的特征映射图的总数设置为128个,卷积核的尺度设置为3×3个节点,步长为1,激活函数为修正线性单元relu函数;
将卷积神经网络的第6,7层卷积层的特征映射图的总数设置为256个,卷积核的尺度设置为3×3个节点,步长为1,激活函数为修正线性单元relu函数;
将卷积神经网络的第13层卷积层的特征映射图的总数设置为4个,卷积核的尺度设置为3×3个节点,步长为1,激活函数为修正线性单元leaky函数;
将卷积神经网络的第2,4,12层最大池化层的特征映射图的尺寸设置为2×2个节点;
将卷积神经网络的第14层平均池化层的特征映射图的尺寸设置为4个节点。
4.根据权利要求1所述的基于现场可编程门阵列FPGA的图像分类方法,其特征在于,步骤(5b)中所述的使用随机梯度下降法,更新卷积神经网络卷积层的每一个节点的权值,得到训练好的卷积神经网络的具体步骤如下:
第1步,用卷积神经网络输出值的均方误差值,对卷积神经网络卷积层中每一个节点的权值取偏导,得到卷积神经网络卷积层中每一个节点更新前的权值的梯度值;
第2步,按照下式,计算卷积神经网络卷积层中每一个节点更新后的权值:
其中,表示卷积神经网络卷积层第n个节点更新后的权值,wn表示卷积神经网络卷积层第n个节点更新前的权值,α表示学习率,其取值范围为(0,1),Δwn表示卷积神经网络卷积层中每一个节点更新前的权值的梯度值。
5.根据权利要求1所述的基于现场可编程门阵列FPGA的图像分类方法,其特征在于,步骤(7)中所述测试数据集的准确率的公式如下:
c=k/n
其中,c表示测试数据集的准确率,k表示分类正确的图片数,n表示测试数据集总图片数。
CN201810549729.2A 2018-05-31 2018-05-31 基于现场可编程门阵列fpga的图像分类方法 Pending CN108830195A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810549729.2A CN108830195A (zh) 2018-05-31 2018-05-31 基于现场可编程门阵列fpga的图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810549729.2A CN108830195A (zh) 2018-05-31 2018-05-31 基于现场可编程门阵列fpga的图像分类方法

Publications (1)

Publication Number Publication Date
CN108830195A true CN108830195A (zh) 2018-11-16

Family

ID=64146990

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810549729.2A Pending CN108830195A (zh) 2018-05-31 2018-05-31 基于现场可编程门阵列fpga的图像分类方法

Country Status (1)

Country Link
CN (1) CN108830195A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110585A (zh) * 2019-03-15 2019-08-09 西安电子科技大学 基于深度学习的智能阅卷实现方法及系统、计算机程序
CN110458079A (zh) * 2019-08-05 2019-11-15 黑龙江电力调度实业有限公司 一种基于fpga和卷积神经网络的图像采集与目标识别方法
CN110660046A (zh) * 2019-08-30 2020-01-07 太原科技大学 基于轻量级深度神经网络的工业产品缺陷图像分类方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330446A (zh) * 2017-06-05 2017-11-07 浙江工业大学 一种面向图像分类的深度卷积神经网络的优化方法
CN107463990A (zh) * 2016-06-02 2017-12-12 国家计算机网络与信息安全管理中心 一种卷积神经网络的fpga并行加速方法
CN107563392A (zh) * 2017-09-07 2018-01-09 西安电子科技大学 使用OpenCL加速的YOLO目标检测方法
CN108090565A (zh) * 2018-01-16 2018-05-29 电子科技大学 一种卷积神经网络并行化训练加速方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107463990A (zh) * 2016-06-02 2017-12-12 国家计算机网络与信息安全管理中心 一种卷积神经网络的fpga并行加速方法
CN107330446A (zh) * 2017-06-05 2017-11-07 浙江工业大学 一种面向图像分类的深度卷积神经网络的优化方法
CN107563392A (zh) * 2017-09-07 2018-01-09 西安电子科技大学 使用OpenCL加速的YOLO目标检测方法
CN108090565A (zh) * 2018-01-16 2018-05-29 电子科技大学 一种卷积神经网络并行化训练加速方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈梓乐等: "《感应电机智能调速》", 30 June 2014, 国防工业出版社 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110585A (zh) * 2019-03-15 2019-08-09 西安电子科技大学 基于深度学习的智能阅卷实现方法及系统、计算机程序
CN110110585B (zh) * 2019-03-15 2023-05-30 西安电子科技大学 基于深度学习的智能阅卷实现方法及系统、计算机程序
CN110458079A (zh) * 2019-08-05 2019-11-15 黑龙江电力调度实业有限公司 一种基于fpga和卷积神经网络的图像采集与目标识别方法
CN110660046A (zh) * 2019-08-30 2020-01-07 太原科技大学 基于轻量级深度神经网络的工业产品缺陷图像分类方法
CN110660046B (zh) * 2019-08-30 2022-09-30 太原科技大学 基于轻量级深度神经网络的工业产品缺陷图像分类方法

Similar Documents

Publication Publication Date Title
CN109934282B (zh) 一种基于sagan样本扩充和辅助信息的sar目标分类方法
CN110136170B (zh) 一种基于卷积神经网络的遥感影像建筑物变化检测方法
CN108710863A (zh) 基于深度学习的无人机航拍场景语义分割方法及系统
CN106355151B (zh) 一种基于深度置信网络的三维sar图像目标识别方法
CN105320965B (zh) 基于深度卷积神经网络的空谱联合的高光谱图像分类方法
CN105809198B (zh) 基于深度置信网络的sar图像目标识别方法
CN107944483B (zh) 基于双通道dcgan和特征融合的多光谱图像分类方法
CN107832797B (zh) 基于深度融合残差网的多光谱图像分类方法
CN108549893A (zh) 一种任意形状的场景文本端到端识别方法
CN104050507B (zh) 基于多层神经网络的超光谱图像分类方法
CN108256424A (zh) 一种基于深度学习的高分辨率遥感图像道路提取方法
CN110245711B (zh) 基于角度旋转生成网络的sar目标识别方法
CN109165660A (zh) 一种基于卷积神经网络的显著物体检测方法
CN110084159A (zh) 基于联合多级空谱信息cnn的高光谱图像分类方法
CN108427912A (zh) 基于稠密目标特征学习的光学遥感图像目标检测方法
CN108229589B (zh) 一种基于迁移学习的地基云图分类方法
CN112308152B (zh) 基于光谱分割与同质区域检测的高光谱图像地物分类方法
CN104463249B (zh) 一种基于弱监督学习框架的遥感图像机场检测方法
CN108830195A (zh) 基于现场可编程门阵列fpga的图像分类方法
CN106600595A (zh) 一种基于人工智能算法的人体特征尺寸自动测量方法
CN108734199A (zh) 基于分段深度特征及低秩表示的高光谱图像鲁棒分类方法
CN110852369B (zh) 联合3d/2d卷积网络和自适应光谱解混的高光谱图像分类方法
CN109741340B (zh) 基于fcn-aspp网络的冰盖雷达图像冰层精细化分割方法
CN113033520A (zh) 一种基于深度学习的树木线虫病害木识别方法及系统
CN104298974A (zh) 一种基于深度视频序列的人体行为识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20181116

WD01 Invention patent application deemed withdrawn after publication