CN116721343A - 一种基于深度卷积神经网络的跨域田间棉铃识别方法 - Google Patents

一种基于深度卷积神经网络的跨域田间棉铃识别方法 Download PDF

Info

Publication number
CN116721343A
CN116721343A CN202310665969.XA CN202310665969A CN116721343A CN 116721343 A CN116721343 A CN 116721343A CN 202310665969 A CN202310665969 A CN 202310665969A CN 116721343 A CN116721343 A CN 116721343A
Authority
CN
China
Prior art keywords
domain
cotton boll
module
field
mdlnet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310665969.XA
Other languages
English (en)
Inventor
李亚楠
刘弈飞
黄雨涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Institute of Technology
Original Assignee
Wuhan Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Institute of Technology filed Critical Wuhan Institute of Technology
Priority to CN202310665969.XA priority Critical patent/CN116721343A/zh
Publication of CN116721343A publication Critical patent/CN116721343A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度卷积神经网络的跨域田间棉铃识别方法,该方法包括以下步骤:以田间棉铃图像为处理对象,构建基于深度卷积神经网络的MDLNet网络模型,MDLNet网络模型包括特征提取模块、分类模块和判别模块;初始化模型参数,将源域中的棉铃图像输入到MDLNet网络模型进行参数调整;将目标域中的棉铃图像输入到训练好的MDLNet网络模型,计算分类精确度和损失结果以验证模型的有效性和收敛性;将实时获取的待识别的棉铃图像输入至训练好的MDLNet网络模型,输出田间棉铃状态识别结果。本发明的MDLNet网络模型能对田间棉铃图像进行识别,自动对田间棉铃图像进行特征提取,并利用提取到的图像特征判定目标域田间棉铃状态的类别,检测结果准确率高,鲁棒性强。

Description

一种基于深度卷积神经网络的跨域田间棉铃识别方法
技术领域
本发明涉及农业计算机视觉技术领域,尤其涉及一种基于深度卷积神经网络的跨域田间棉铃识别方法。
背景技术
棉花是世界上重要的经济作物之一,也是重要的纤维和饲料来源。棉铃的生长状态是影响棉花产量和品质的决定性因素。及时掌控棉铃的生长状态,可以进行预防,避免棉铃的早熟或过熟腐烂,增加棉花产量和提高棉花品质。由于棉花生长环境、生长年份、生长地域等的不同,对不同领域的棉铃状态识别存在一定困难。因此,借助一定数量的棉铃数据集完成对不同领域棉铃状态识别的研究具有重要意义。
迁移学习技术的发展提高了农业应用领域的泛化能力。Sofia Marino等人2020年发表论文“Unsupervised adversarial deep domain adaptation method for potatodefects classification”利用对抗学习的策略,使用伪标签损失来训练分类器,在构建的马铃薯数据集得到验证。李亚楠等人在2020年发表论文“Unsupervised domainadaptation for in-field cotton boll status identification”首次将无监督域适应运用在田间棉铃状态识别,为实现源域到目标域的自适应,使用深度神经网络提取特征,近邻成分分析方法生成特征变换矩阵,最后得到目标标签,实现了对目标域的棉铃状态识别。与早期的基于手工提取特征的方法相比,其分类精度大幅提升。
但是这些迁移学习方法没有从特征提取的角度出发,导致提取到的特征仍然具有大量域特定特征。因此,有必要从特征提取的角度出发,探索如何获得更加精确的域不变特征来解决跨域棉铃状态识别问题。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种基于深度卷积神经网络的跨域田间棉铃识别方法。
本发明解决其技术问题所采用的技术方案是:
本发明提供一种基于深度卷积神经网络的跨域田间棉铃识别方法,该方法包括以下步骤:
步骤1、构建田间棉铃图像数据集,并将其划分为源域和目标域;
步骤2、构建基于深度卷积神经网络的MDLNet网络模型,MDLNet网络模型包括特征提取模块、分类模块和判别模块;其中:特征提取模块用于提取图像的深度特征,分类模块用于监督图像分类,判别模块用于判定图像来自源域或目标域;
步骤3、训练模型:初始化模型参数,将源域中的棉铃图像输入到MDLNet网络模型进行参数调整;
步骤4、验证模型:将目标域中的棉铃图像输入到训练好的MDLNet网络模型,计算分类精确度和损失结果以验证模型的有效性和收敛性;
步骤5、将实时获取的待识别的棉铃图像输入至训练好的MDLNet网络模型,输出田间棉铃状态识别结果。
进一步地,本发明的所述步骤1的方法具体为:
田间棉铃图像数据集一部分拍摄于试验田中,选取不同种植年份、不同种植区域条件的棉铃;另一部分从网络棉铃图像中截取;经过筛选分类后构建田间棉铃图像数据集,具体包括源域和目标域。
进一步地,本发明的所述步骤2的特征提取模块具体为:
MDLNet网络模型的特征提取模块由ResNet基础模块组成;使用ResNet50作为特征提取器,ResNet50包括1层7×7卷积和四个卷积块组成;输入的源域中的棉铃图像经过四个卷积块后,输出四个特征图像;
分别构建与卷积块相同的四个差异块,输入的目标域中的棉铃图像经过四个差异块后,输出四个特征图像;
构建与卷积块、差异块的输出均相连的视差模块,视差模块中使用每个卷积块的中间结果cl减去差异块的结果gl得到域不变特征rl,使用上采样和卷积将四个中间输出转化为相同尺寸和维度;将四个结果相加得到最终结果g,称为“视差”,解释为每层源域或目标域的独有特征;g定义如下:
rl=cl-gl
其中,ip为上采样操作,为了更好的获得域不变特征,减少领域独有特征对域迁移的影响,使g最小化;特征提取损失定义如下:
其中,Ns、Ny为源域、目标域样本数;C为类别数;L为骨干网络层数;g为第i个样本的独有特征,特征提取损失的目标是最小化领域独有特征,在特征提取阶段获得更好的域不变特征。
进一步地,本发明的所述步骤2的分类模块具体为:
MDLNet网络模型的分类模块使用ResNet50的线形层作为分类器,输入为特征提取模块的输出,通过平均池化层和softmax函数进行映射得到分类结果;分类模块通过交叉熵损失进行监督,保证分类的准确度,分类损失的定义如下:
其中,Lce为交叉熵损失,为特征提取模块的输出,/>为真实标签;交叉熵损失衡量预测结果与真实结果之间的差异,交叉熵损失越小,分类性能越高。
进一步地,本发明的所述步骤2的判别模块具体为:
MDLNet网络模型的判别模块包括线性层、dropout层和sigmod层,用于判断图片的领域标签,即图片来自与哪个领域;通过判别模块与特征提取模块进行对抗,定义对抗损失,具体如下:
其中,D为判别模块,通过对抗损失,判别模块无法分辨图片来自哪个领域,特征提取模块更容易提取到域不变特征,实现跨域棉铃状态识别鲁棒性的提高。
进一步地,本发明的所述步骤4中验证模型的方法具体为:
将目标域中的棉铃图像输入到训练好的MDLNet网络模型,计算分类精确度和损失结果以验证模型的有效性和收敛性;棉铃图像的分类精度通过计算MDLNet网络模型预测正确的棉铃图像个数与棉铃图像总数的比值得到。
进一步地,本发明的所述特征提取模块,在特征提取过程中,使用了预训练的ResNet50模型参数,以保证生成的特征图像质量。
本发明产生的有益效果是:
本发明提供了一种基于深度卷积神经网络的跨域田间棉铃识别方法,以田间棉铃图像为处理对象,构建一种深度卷积神经网络模型,自动对田间棉铃图像进行特征提取,并利用对抗学习的领域适应方法,获取到域不变特征输入分类模块,更好的识别来自不同领域的棉铃图像;本发明通过训练和迭代反馈,得到棉铃数据集中棉铃状态的分类结果,具有准确率高,鲁棒性好的特点。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的整体流程图;
图2是本发明实施例的MDLNet网络结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例一
本发明实施例的基于深度卷积神经网络的跨域田间棉铃识别方法,该方法包括以下步骤:
步骤1、构建田间棉铃图像数据集,并将其划分为源域和目标域;
获取不同种植区域、种植年份的田间棉铃图像,经过筛选分类后构建田间棉铃图像数据集,具体包括源域(训练集)和目标域(测试集);
步骤2、构建基于深度卷积神经网络的MDLNet网络模型,MDLNet网络模型包括特征提取模块、分类模块和判别模块;其中:特征提取模块用于提取图像的深度特征,分类模块用于监督图像分类,判别模块用于判定图像来自源域或目标域;
步骤3、训练模型:初始化模型参数,将源域中的棉铃图像输入到MDLNet网络模型进行参数调整;
步骤4、验证模型:将目标域中的棉铃图像输入到训练好的MDLNet网络模型,计算分类精确度和损失结果以验证模型的有效性和收敛性;
步骤5、将实时获取的待识别的棉铃图像输入至训练好的MDLNet网络模型,输出田间棉铃状态识别结果。
实施例二
本发明实施例的基于深度卷积神经网络的跨域田间棉铃识别方法,该方法包括以下步骤:
1.获取田间棉铃图像,经过筛选分类后构建田间棉铃图像数据集,具体包括源域和目标域;
其中,数据集中的棉铃图像一部分拍摄于新疆的试验田,综合考虑了不同种植年份、不同种植区域条件;另一部分从网络棉铃图像中截取。从采集到的棉铃图像数据中选取了1400幅图像,分别为五个不同种植年份,三个不同种植地区,每个地区或年份文件夹包含200张棉铃图片;网络图片总1000张,都包含棉铃的四种生长状态。
2.构建基于深度卷积神经网络的MDLNet网络模型;
所述的MDLNet网络模型由特征提取模块、分类模块和判别模块三个部分组成。其中特征提取模块用于提取图像的深度特征;分类模块用于监督图像分类,判别模块用于判定图像来自源域或目标域。
MDLNet的特征提取模块由ResNet基础模块组成。使用ResNet50作为特征提取器,ResNet50包括1层7×7卷积和四个卷积块组成。输入图像(尺寸为H×W×3)。经过四个卷积块之后,特征图像的尺寸大小分别为(56×56×256),(28×28×512),(14×14×1024),(7×7×2048)。然后分别构建与卷积块相同的四个差异块,与特征提取模块做相同操作。同时使用每个卷积块的中间结果cl减去差异块gl的结果得到域不变特征rl,使用上采样和卷积将四个中间输出转化为相同尺寸和维度。最后,将四个结果相加得到最终结果g,称为“视差”,可解释为每层源域或目标域的独有特征。g定义如下:
rl=cl-gl
其中ip为上采样操作,为了更好的获得域不变特征,减少领域独有特征对域迁移的影响,需要最小化g,具体来说,特征提取损失定义如下:
其中Ns,Nt为源域、目标域样本数;C为类别数;L为骨干网络层数,此时L=4;g为第i个样本的独有特征,特征提取损失的目标是最小化领域独有特征,在特征提取阶段获得更好的域不变特征。
此外,在特征提取过程中,使用了预训练的ResNet50模型参数,以保证生成的特征图像质量。
MDLNet的分类模块使用的ResNet50的线形层作为分类器,输入为特征提取模块的输出,尺寸为(7×7×2048),通过平均池化层和softmax函数进行映射得到分类结果,在本方法中分类数为4。分类模块通过交叉熵损失进行监督,保证分类的准确度,分类损失的定义如下:
其中Lce为交叉熵损失,为特征提取模块的输出,/>为真实标签。交叉熵损失衡量预测结果与真实结果之间的差异,交叉熵损失越小,分类性能越高。
MDLNet的判别模块由线性层,dropout层和sigmod层组成,主要是判断图片的领域标签,即图片来自与哪个领域。通过判别模块与特征提取模块进行对抗,定义对抗损失,具体如下:
其中D为判别模块,通过对抗损失,判别模块会无法分辨图片来自哪个领域,特征提取模块会更容易提取到域不变特征,实现跨域棉铃状态识别鲁棒性的提高。
3.训练模型。
初始化模型参数,将源域棉铃图像输入到MDLNet网络模型进行参数调整;其中,在棉铃图像输入到MDLNet网络模型之前需要修改尺寸至224*224;训练时并行学习数(batchsize)设置为16,训练迭代次数(iteration)为4000,学习率设置为0.001。
4.验证模型。
将目标域中的棉铃图像输入到MDLNet网络模型,计算分类精确度和损失结果以验证模型的有效性和收敛性。棉铃图像的精度是通过计算网络预测正确的棉铃图像个数与棉铃图像总数的百分比。
5.将实时获取的棉铃图像输入至训练好的MDLNet网络模型,输出结果即为田间棉铃状态识别结果;
本发明自动对田间棉铃图像进行特征提取,并利用对抗学习的领域适应方法,获取到域不变特征输入分类模块,更好的识别来自不同领域的棉铃图像。增强了棉铃状态识别的鲁棒性。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (7)

1.一种基于深度卷积神经网络的跨域田间棉铃识别方法,其特征在于,该方法包括以下步骤:
步骤1、构建田间棉铃图像数据集,并将其划分为源域和目标域;
步骤2、构建基于深度卷积神经网络的MDLNet网络模型,MDLNet网络模型包括特征提取模块、分类模块和判别模块;其中:特征提取模块用于提取图像的深度特征,分类模块用于监督图像分类,判别模块用于判定图像来自源域或目标域;
步骤3、训练模型:初始化模型参数,将源域中的棉铃图像输入到MDLNet网络模型进行参数调整;
步骤4、验证模型:将目标域中的棉铃图像输入到训练好的MDLNet网络模型,计算分类精确度和损失结果以验证模型的有效性和收敛性;
步骤5、将实时获取的待识别的棉铃图像输入至训练好的MDLNet网络模型,输出田间棉铃状态识别结果。
2.根据权利要求1所述的基于深度卷积神经网络的跨域田间棉铃识别方法,其特征在于,所述步骤1的方法具体为:
田间棉铃图像数据集一部分拍摄于试验田中,选取不同种植年份、不同种植区域条件的棉铃;另一部分从网络棉铃图像中截取;经过筛选分类后构建田间棉铃图像数据集,具体包括源域和目标域。
3.根据权利要求1所述的基于深度卷积神经网络的跨域田间棉铃识别方法,其特征在于,所述步骤2的特征提取模块具体为:
MDLNet网络模型的特征提取模块由ResNet基础模块组成;使用ResNet50作为特征提取器,ResNet50包括1层7×7卷积和四个卷积块组成;输入的源域中的棉铃图像经过四个卷积块后,输出四个特征图像;
分别构建与卷积块相同的四个差异块,输入的目标域中的棉铃图像经过四个差异块后,输出四个特征图像;
构建与卷积块、差异块的输出均相连的视差模块,视差模块中使用每个卷积块的中间结果cl减去差异块的结果gl得到域不变特征rl,使用上采样和卷积将四个中间输出转化为相同尺寸和维度;将四个结果相加得到最终结果g,称为“视差”,解释为每层源域或目标域的独有特征;g定义如下:
rl=cl-gl
其中,ip为上采样操作,为了更好的获得域不变特征,减少领域独有特征对域迁移的影响,使g最小化;特征提取损失定义如下:
其中,Ns、Nt为源域、目标域样本数;C为类别数;L为骨干网络层数;g为第i个样本的独有特征,特征提取损失的目标是最小化领域独有特征,在特征提取阶段获得更好的域不变特征。
4.根据权利要求3所述的基于深度卷积神经网络的跨域田间棉铃识别方法,其特征在于,所述步骤2的分类模块具体为:
MDLNet网络模型的分类模块使用ResNet50的线形层作为分类器,输入为特征提取模块的输出,通过平均池化层和softmax函数进行映射得到分类结果;分类模块通过交叉熵损失进行监督,保证分类的准确度,分类损失的定义如下:
其中,Lce为交叉熵损失,为特征提取模块的输出,/>为真实标签;交叉熵损失衡量预测结果与真实结果之间的差异,交叉熵损失越小,分类性能越高。
5.根据权利要求4所述的基于深度卷积神经网络的跨域田间棉铃识别方法,其特征在于,所述步骤2的判别模块具体为:
MDLNet网络模型的判别模块包括线性层、dropout层和sigmod层,用于判断图片的领域标签,即图片来自与哪个领域;通过判别模块与特征提取模块进行对抗,定义对抗损失,具体如下:
其中,D为判别模块,通过对抗损失,判别模块无法分辨图片来自哪个领域,特征提取模块更容易提取到域不变特征,实现跨域棉铃状态识别鲁棒性的提高。
6.根据权利要求1所述的基于深度卷积神经网络的跨域田间棉铃识别方法,其特征在于,所述步骤4中验证模型的方法具体为:
将目标域中的棉铃图像输入到训练好的MDLNet网络模型,计算分类精确度和损失结果以验证模型的有效性和收敛性;棉铃图像的分类精度通过计算MDLNet网络模型预测正确的棉铃图像个数与棉铃图像总数的比值得到。
7.根据权利要求3所述的基于深度卷积神经网络的跨域田间棉铃识别方法,其特征在于,所述特征提取模块,在特征提取过程中,使用了预训练的ResNet50模型参数,以保证生成的特征图像质量。
CN202310665969.XA 2023-06-06 2023-06-06 一种基于深度卷积神经网络的跨域田间棉铃识别方法 Pending CN116721343A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310665969.XA CN116721343A (zh) 2023-06-06 2023-06-06 一种基于深度卷积神经网络的跨域田间棉铃识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310665969.XA CN116721343A (zh) 2023-06-06 2023-06-06 一种基于深度卷积神经网络的跨域田间棉铃识别方法

Publications (1)

Publication Number Publication Date
CN116721343A true CN116721343A (zh) 2023-09-08

Family

ID=87869179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310665969.XA Pending CN116721343A (zh) 2023-06-06 2023-06-06 一种基于深度卷积神经网络的跨域田间棉铃识别方法

Country Status (1)

Country Link
CN (1) CN116721343A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117372416A (zh) * 2023-11-13 2024-01-09 北京透彻未来科技有限公司 一种对抗训练的高鲁棒性数字病理切片诊断系统及方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117372416A (zh) * 2023-11-13 2024-01-09 北京透彻未来科技有限公司 一种对抗训练的高鲁棒性数字病理切片诊断系统及方法

Similar Documents

Publication Publication Date Title
CN112308158B (zh) 一种基于部分特征对齐的多源领域自适应模型及方法
CN109190665B (zh) 一种基于半监督生成对抗网络的通用图像分类方法和装置
CN111126386B (zh) 场景文本识别中基于对抗学习的序列领域适应方法
CN111583263B (zh) 一种基于联合动态图卷积的点云分割方法
CN113076994B (zh) 一种开集域自适应图像分类方法及系统
Krishnan et al. An automated segmentation and classification model for banana leaf disease detection
CN107194418B (zh) 一种基于对抗特征学习的水稻蚜虫检测方法
CN110197205A (zh) 一种多特征来源残差网络的图像识别方法
CN111611905A (zh) 一种可见光与红外融合的目标识别方法
CN110728694B (zh) 一种基于持续学习的长时视觉目标跟踪方法
CN110688968B (zh) 基于多示例深度卷积记忆网络的高光谱目标检测方法
CN113127857B (zh) 针对对抗性攻击的深度学习模型防御方法及深度学习模型
Travieso et al. Pollen classification based on contour features
CN108596044B (zh) 基于深度卷积神经网络的行人检测方法
CN116721343A (zh) 一种基于深度卷积神经网络的跨域田间棉铃识别方法
CN112749675A (zh) 一种基于卷积神经网络的马铃薯病害识别方法
CN113033345B (zh) 基于公共特征子空间的v2v视频人脸识别方法
Adaïmé et al. Deep learning approaches to the phylogenetic placement of extinct pollen morphotypes
CN116977834A (zh) 一种开放条件下分布内外图像识别方法
Pereira et al. Assessing active learning strategies to improve the quality control of the soybean seed vigor
CN116630700A (zh) 基于引入通道-空间注意力机制的遥感图像分类方法
CN115565182A (zh) 一种基于复杂度分组的手写汉字识别方法
CN115511798A (zh) 一种基于人工智能技术的肺炎分类方法及装置
CN114663791A (zh) 一种非结构化环境下面向剪枝机器人的枝条识别方法
CN112085170A (zh) 一种图像类对抗样本的差异性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination