CN112446350B - 一种改进YOLOv3复杂棉田背景下棉花检测方法 - Google Patents
一种改进YOLOv3复杂棉田背景下棉花检测方法 Download PDFInfo
- Publication number
- CN112446350B CN112446350B CN202011450660.1A CN202011450660A CN112446350B CN 112446350 B CN112446350 B CN 112446350B CN 202011450660 A CN202011450660 A CN 202011450660A CN 112446350 B CN112446350 B CN 112446350B
- Authority
- CN
- China
- Prior art keywords
- time
- cotton
- feature
- downsampling
- scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Abstract
本发明提供一种基于改进YOLOv3复杂棉田背景下棉花检测方法,对预处理后的复杂棉田背景图像进行特征提取,得到2倍、4倍、8倍、16倍和32倍下采样特征图;构建改进型YOLOv3模型,在模型中构建空间金字塔卷积模块,将2倍下采样后得到的特征图,作为空间金字塔卷积模块的输入,得到特征增强后的特征图,分别进行下采样得到对应的4倍、8倍、16倍下采样增强特征图P1、P2、P3;将R2、R1_U、P3融合作为16倍下采样尺度的特征信息,将R3、R2_U、P2融合作为8倍下采样尺度的特征信息,将R4、R3_U、P1融合作为4倍下采样尺度的特征信息,利用增强的多尺度特征信息进行预测得到棉花目标的位置信息,作为改进型YOLOv3模型的输出;训练后,对实例进行检测与识别。
Description
技术领域
本发明涉及计算机视觉技术与农业自动观测结合领域,具体涉及一种改进YOLOv3复杂棉田背景下棉花检测方法。
背景技术
随着计算机视觉技术的发展,图像目标检测技术被广泛应用于各个领域,与此同时,将计算机视觉技术应用到农业领域能够使农业向着高质量,高产量的方向发展。棉花的自动识别能够很好的完成棉花的数量统计、棉花的定位检测、棉花的产量估测等任务,为棉花的形态与长势分析,棉花的自动采摘,病虫害检测等任务提供有力的视觉依据,进而有助于棉花产地的规划管理。而棉花田间情况复杂,依靠人力很难做到有效的统计,即使通过专业的拍摄仪器得到棉花的图像,也需要耗费管理者很大的精力去分析图像,由于棉花分布密集,在一定程度上增大了人工维护棉田的难度。
传统的目标检测算法在特征提取模块通常使用人为设计的算子,如Taigman Y等人在文章Closing the Gap to Human-Level Performance in Face Verification中提出的HOG算子,Lowe等人在文章Distinctive Image Featuresfrom Scale-InvariantKeypoints提出SIFT算子,提供了一组对象的特征,并检测图像中的关键点,Bay 等人在论文SURF: Speeded Up Robust Features提出的 SURF是对 SIFT的加速版,而这些工作是相对困难且比较耗时的,并且需要相关领域的专业知识,除此之外,这些人为设计的特征由于信息量太少,无法将图像中的特征提取的很到位,特别是棉田这类有着特别复杂背景的图像。
随着人工智能的发展,尤其是海量的数据以及计算机运算性能的提升,基于卷积神经网络的特征提取模型框架被广泛应用于目标检测领域。根据算法的设计方式可以将目标检测算法分为两类,一种是基于区域候选的两阶段的检测算法(anchor-based method),首先通过候选区域生成器产生众多可能包含目标的候选框,然后使用卷积神经网络对产生的候选框进行分类筛选,得到最终的检测结果,这类算法主要以Girshick R等人在文章Rich Feature Hierarchies for Accurate Object Detection and SemanticSegmentation中提出的R-CNN, Ross等人在论文Fast R-CNN中提出的Fast-RCNN,He K等人在文章Towards Real-Time Object Detection with Region Proposal中提出的Faster-RCNN,He K等人在论文Mask R-CNN中提出的Mask-RCNN等算法为代表;另一种为单阶段检测算法(anchor-free method),这类算法未使用候选区域生成器,而是直接使用卷积神经网络对图像进行特征提取并且预测目标的位置以及类别,这类算法主要以Liu W等人在论文SSD: Single Shot MultiBox Detector中提出的SSD,Girshick Ross等人在论文You onlylook once: unified, real-time object detection提出的YOLO,FARHADI A等人在论文YOLO9000: better,faster,stronger中提出的YOLOv2,REDMON J等人在YOLOv3: anincremental improvement中提出的YOLOv3等为代表。然而很少有用于棉花检测的算法。
但是,对于复杂背景下的棉花目标检测任务,YOLOv3网络模型仍需要进行改进以适应棉花检测的任务。
发明内容
本发明要解决的技术问题是:提供了一种基于改进YOLOv3复杂棉田背景下棉花检测方法,能够提升模型的整体检测性能。
本发明为解决上述技术问题所采取的技术方案为:一种基于改进YOLOv3复杂棉田背景下棉花检测方法,其特征在于:本方法包括以下步骤:
S1、将采集到的复杂棉田背景图像进行预处理,然后作为输入对象,对预处理后的复杂棉田背景图像进行特征提取,得到2倍、4倍、8倍、16倍和32倍下采样特征图;
S2、构建改进型YOLOv3模型,具体包括:
采用Darknet网络提取所述4倍、8倍、16倍和32倍下采样特征图R4、R3、R2和R1,相应上采样得到特征图R4_U、R3_U、R2_U和R1_U;
构建空间金字塔卷积模块SPC,将2倍下采样后得到的特征图,作为空间金字塔卷积模块的输入,得到特征增强后的特征图,将特征增强后的特征图分别进行下采样,得到对应的4倍、8倍、16倍下采样增强特征图P1、P2、P3;
将R2、R1_U、P3融合作为16倍下采样尺度的特征信息,将R3、R2_U、P2融合作为8倍下采样尺度的特征信息,将R4、R3_U、P1融合作为4倍下采样尺度的特征信息,利用增强的多尺度特征信息进行预测得到棉花目标的位置信息,作为改进型YOLOv3模型的输出;
S3、对改进型YOLOv3模型进行训练,直到达到预设条件;
S4、采用训练好的改进型YOLOv3模型,对复杂棉田图像中棉花实例进行检测与识别。
按上述方法,所述的预处理包括边缘填充和尺寸变换,将所有采集到的复杂棉田背景图像的分辨率调整为640×640。
按上述方法,所述的空间金字塔卷积模块SPC具体包括:
将S1中2倍下采样特征图F0作为输入;
通过route层对F0进行4个不同尺度局部特征信息的并行提取,得到多尺度局部特征信息图F1、F2、F3、F4;
将F0、F1、F2、F3、F4作为输入进行Concat操作,得到所述特征增强后的特征图。
按上述方法,所述的4个不同尺度局部特征信息的并行提取,具体分别使用大小为1×1、3×3、5×5、7×7的卷积核。
按上述方法,所述的S2中,以1个卷积块作为1个单元、以1个残差单元作为1组,进行改进型YOLOv3模型的轻量化操作。
按上述方法,所述的S3在训练过程中,采用Adam 算法对模型参数进行优化。
按上述方法,所述的S3采用flip镜像翻转图像增强的方式进行训练。
按上述方法,所述的复杂棉田背景图像进行预处理时,采用读取txt文件的方式访问标签。
本发明的有益效果为:本发明通过在YOLOv3模型中增加了空间金字塔卷积模块SPC对低层特征图不同尺度的局部空间信息进行了充分提取,然后采用特定的融合方式,进一步丰富了检测阶段不同尺度的特征信息,从而进一步提升了模型的整体检测性能。
附图说明
图1是本发明一实施例的方法流程图。
图2是本发明提供的空间金字塔卷积模块(SPC)。
图3是本发明提供的改进模型的整体框架图。
图4是本发明提供的一张复杂棉田背景图像。
图5是对图4使用原YOLOv3模型得到的棉花定位检测图。
图6是对图4采用本发明方法得到的棉花定位检测图。
图7是本发明提供的一张密集棉花图像。
图8是对图7使用原YOLOv3模型得到的棉花定位检测图。
图9是对图7采用本发明方法得到的棉花定位检测图。
具体实施方式
下面将结合附图和实施例对本发明作进一步的详细描述,需要指出的是,此处所描述的实施例旨在便于对本发明的理解,而对其不起任何限定作用。
本发明提供一种基于改进YOLOv3复杂棉田背景下棉花检测方法,如图1至图3所示,本方法包括以下步骤:
S1、将采集到的复杂棉田背景图像(如图4所示)进行预处理,然后作为输入对象,对预处理后的复杂棉田背景图像进行特征提取,得到2倍、4倍、8倍、16倍和32倍下采样特征图。
所述的预处理包括边缘填充和尺寸变换,将所有采集到的复杂棉田背景图像的分辨率调整为640×640。所述的复杂棉田背景图像进行预处理时,采用读取txt文件的方式访问标签。
S2、构建改进型YOLOv3模型,具体包括:
采用Darknet网络提取所述4倍、8倍、16倍和32倍下采样特征图R4、R3、R2和R1,相应上采样得到特征图R4_U、R3_U、R2_U和R1_U。
构建空间金字塔卷积模块SPC,将2倍下采样后得到的特征图,作为空间金字塔卷积模块的输入,得到特征增强后的特征图,将特征增强后的特征图分别进行下采样,得到对应的4倍、8倍、16倍下采样增强特征图P1、P2、P3。
所述的空间金字塔卷积模块SPC具体包括:将S1中2倍下采样特征图F0作为输入;通过route层对F0进行4个不同尺度局部特征信息的并行提取,得到多尺度局部特征信息图F1、F2、F3、F4;将F0、F1、F2、F3、F4作为输入进行Concat操作,得到所述特征增强后的特征图。
所述的4个不同尺度局部特征信息的并行提取,具体分别使用大小为1×1、3×3、5×5、7×7的卷积核。
将R2、R1_U、P3融合作为16倍下采样尺度的特征信息,将R3、R2_U、P2融合作为8倍下采样尺度的特征信息,将R4、R3_U、P1融合作为4倍下采样尺度的特征信息,利用增强的多尺度特征信息进行预测得到棉花目标的位置信息,作为改进型YOLOv3模型的输出。
S2中,在原YOLOv3模型的基础上,引入上述空间金字塔卷积Spatial PyramidConvolution(SPC)模块作为特征增强模块并且采用新的特征融合方式,同时对其进行规律化的剪枝,从而提高模型的检测效率,将原YOLOv3模型以1个卷积块作为1个单元、以1个残差单元作为1组,进行改进型YOLOv3模型的轻量化操作。
S3、对改进型YOLOv3模型进行训练,直到达到预设条件。本实施例采用flip镜像翻转图像增强的方式进行训练。在训练过程中,采用Adam 算法对模型参数进行优化。进一步地,将初始学习率learning_rate设置为1e-3,权重衰减decay设置为5e-3,动量momentum设置为0.9。
S4、采用训练好的改进型YOLOv3模型,对复杂棉田图像中棉花实例进行检测与识别。
本发明依据空间金字塔池化层Spatial Pyramid Pooling (SPP)进行改进得到了空间金字塔卷积模块Spatial Pyramid Convolution (SPC)。将空间金字塔池化层SpatialPyramid Pooling (SPP)中所使用到的池化层全部替换为卷积层,并新增信息感知尺度,通过卷积层的步长Stride实现对特征图大小的控制;使用4类不同大小的卷积核实现对特征图的多尺度局部信息感知;再通过Concat将4尺度局部特征信息与原来全局特征信息进行特征融合。空间金字塔池化层Spatial Pyramid Pooling (SPP)是Kaiming He于2014年提出的用以解决输入图像大小不一致导致最终不满足全连接层输入要求的问题(He K ,Zhang X , Ren S , et al. Spatial Pyramid Pooling in Deep ConvolutionalNetworks for Visual Recognition[J]. IEEE Transactions on Pattern Analysis &Machine Intelligence, 2014, 37(9):1904-16.),而空间金字塔池化不仅仅能够解决输入图像不一致的情况,由于该网络结构通过对特征图进行不同尺度的池化,可以获得多尺度局部特征信息,将经过多尺度池化的特征图与原特征图进行融合,从而可以得到更将丰富的特征表达。将空间金字塔池化层Spatial Pyramid Pooling (SPP)中所使用到的池化层全部替换为卷积层,并新增信息感知尺度,通过卷积层的步长Stride实现对特征图大小的控制;使用4类不同大小的卷积核实现对特征图的多尺度局部信息感知;再通过Concat将4尺度局部特征信息与原来全局特征信息进行特征融合。
本实施例中,通过route层实现对F0进行4个不同尺度局部特征信息的并行提取,即对F0特征图进行卷积,第一个尺度的卷积层的卷积核大小为1×1,卷积核的数目为64,步长stride为1,采用Leay_Relu作为激活函数;第二个尺度的卷积层的卷积核大小为3×3,卷积核的数目为64,步长stride为1,采用Leay_Relu作为激活函数;第三个尺度的卷积层的卷积核大小为5×5,卷积核的数目为64,步长stride为1,采用Leay_Relu作为激活函数;第四个尺度的卷积层的卷积核大小为7×7,卷积核的数目为64,步长stride为1,采用Leay_Relu作为激活函数;从而得到多尺度局部特征信息图F1,F2,F3,F4。
对模型2倍下采样后得到的特征图送入改进后的特征金字塔池化模块——空间金字塔卷积模块Spatial Pyramid Convolution (SPC),对得到的融合特征图进行三次下采样,具体操作为:第一个卷积层的卷积核大小为3×3,卷积核的数目为64,步长stride为2,采用Leay_Relu作为激活函数,得到160×160×64的特征图P1;第二个卷积层的卷积核大小为3×3,卷积核的数目为64,步长stride为2,采用Leay_Relu作为激活函数,得到80×80×64的特征图P2;第三个卷积层的卷积核大小为3×3,卷积核的数目为64,步长stride为2,采用Leay_Relu作为激活函数,得到40×40×64的特征图P3。最终得到下采样分别为4、8、16倍的特征图分别是P1,P2,P3。
在原YOLOv3模型的基础上,引入上述所提空间金字塔卷积Spatial PyramidConvolution(SPC)模块作为特征增强模块并且采用新的特征融合方式,同时对其进行规律化的剪枝,从而提高模型的检测效率,将原YOLOv3模型以1个卷积块作为1个单元,以1个残差单元作为1组进行模型的轻量化操作。在8倍下采样阶段由原来的8个残差单元裁剪为6个残差单元,在16倍下采样阶段由原来的8个残差单元裁剪为6个残差单元,在32倍下采样阶段由原来的4个残差单元裁剪为2个残差单元。同时对检测阶段中的卷积层进行裁剪操作,对于每个尺度,分别裁剪2个卷积层。模型大小相比原模型减少1半左右。
本发明将YOLOv3模型中三尺度检测进行增减操作,删去代表大目标检测的32倍下采样尺度的Y1层的输出,并新增代表更小目标检测的4倍下采样尺度的Y4层输出。在2倍下采样后得到的特征图处使用改进后的特征金字塔池化模块进行特征增强,并且通过卷积的方式进行三次下采样分别对应三尺度的检测。并将相应的特征图与原有特征图以及上一尺度上采样后的特征图进行融合。
图片输入尺寸设为640,采用Adam 算法对模型参数进行优化,将初始学习率learning_rate设置为1e-3,权重衰减decay设置为5e-3,动量momentum设置为0.9。提出一种新的训练策略,本发明的训练分为两部分,在实验的前10个epoch Batch_size设置为1,每一次迭代以当前样本为依据进行梯度方向的修正,能够快速的寻找到模型优化的方向,根据实验结果,之后的40个epoch Batch_size设置为3能够达到比较好的泛化效果。
使用测试代码以及可视化代码对模型进行测试,并且得到相应的可视化结果。所谓可视化输出就是将模型的数据化输出进行提取并以目标框的形式显示在原图中,如图5、图6、图8、图9所示。其中图4和图7为输入图像,然后分别采用传统方法进行检测得到图5和图8所示,采用本发明方法检测得到图6和图9所示,从图中能够发现,本发明方案与现有技术相比,具有更好的棉花识别能力。
Claims (8)
1.一种基于改进YOLOv3复杂棉田背景下棉花检测方法,其特征在于:本方法包括以下步骤:
S1、将采集到的复杂棉田背景图像进行预处理,然后作为输入对象,对预处理后的复杂棉田背景图像进行特征提取,得到2倍、4倍、8倍、16倍和32倍下采样特征图;
S2、构建改进型YOLOv3模型,具体包括:
采用Darknet网络提取所述4倍、8倍、16倍和32倍下采样特征图R4、R3、R2和R1,相应上采样得到特征图R4_U、R3_U、R2_U和R1_U;
构建空间金字塔卷积模块SPC,将2倍下采样后得到的特征图,作为空间金字塔卷积模块的输入,得到特征增强后的特征图,将特征增强后的特征图分别进行下采样,得到对应的4倍、8倍、16倍下采样增强特征图P1、P2、P3;
将R2、R1_U、P3融合作为16倍下采样尺度的特征信息,将R3、R2_U、P2融合作为8倍下采样尺度的特征信息,将R4、R3_U、P1融合作为4倍下采样尺度的特征信息,利用增强的多尺度特征信息进行预测得到棉花目标的位置信息,作为改进型YOLOv3模型的输出;
S3、对改进型YOLOv3模型进行训练,直到达到预设条件;
S4、采用训练好的改进型YOLOv3模型,对复杂棉田图像中棉花实例进行检测与识别。
2.根据权利要求1所述的棉花检测方法,其特征在于:所述的预处理包括边缘填充和尺寸变换,将所有采集到的复杂棉田背景图像的分辨率调整为640×640。
3.根据权利要求1所述的棉花检测方法,其特征在于:所述的空间金字塔卷积模块SPC具体包括:
将S1中2倍下采样特征图F0作为输入;
通过route层对F0进行4个不同尺度局部特征信息的并行提取,得到多尺度局部特征信息图F1、F2、F3、F4;
将F0、F1、F2、F3、F4作为输入进行Concat操作,得到所述特征增强后的特征图。
4.根据权利要求3所述的棉花检测方法,其特征在于:所述的4个不同尺度局部特征信息的并行提取,具体分别使用大小为1×1、3×3、5×5、7×7的卷积核。
5.根据权利要求1所述的棉花检测方法,其特征在于:所述的S2中,以1个卷积块作为1个单元、以1个残差单元作为1组,进行改进型YOLOv3模型的轻量化操作。
6.根据权利要求1所述的棉花检测方法,其特征在于:所述的S3在训练过程中,采用Adam 算法对模型参数进行优化。
7.根据权利要求1所述的棉花检测方法,其特征在于:所述的S3采用flip镜像翻转图像增强的方式进行训练。
8.根据权利要求1或2所述的棉花检测方法,其特征在于:所述的复杂棉田背景图像进行预处理时,采用读取txt文件的方式访问标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011450660.1A CN112446350B (zh) | 2020-12-09 | 2020-12-09 | 一种改进YOLOv3复杂棉田背景下棉花检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011450660.1A CN112446350B (zh) | 2020-12-09 | 2020-12-09 | 一种改进YOLOv3复杂棉田背景下棉花检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112446350A CN112446350A (zh) | 2021-03-05 |
CN112446350B true CN112446350B (zh) | 2022-07-19 |
Family
ID=74739097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011450660.1A Active CN112446350B (zh) | 2020-12-09 | 2020-12-09 | 一种改进YOLOv3复杂棉田背景下棉花检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112446350B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344877A (zh) * | 2021-06-08 | 2021-09-03 | 武汉工程大学 | 基于卷积神经网络的钢筋模型训练方法及装置 |
CN113361655B (zh) * | 2021-07-12 | 2022-09-27 | 武汉智目智能技术合伙企业(有限合伙) | 一种基于残差网络与特征差拟合的异纤分类方法 |
CN113837087B (zh) * | 2021-09-24 | 2023-08-29 | 上海交通大学宁波人工智能研究院 | 一种基于YOLOv3的动物目标检测系统和方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647652A (zh) * | 2018-05-14 | 2018-10-12 | 北京工业大学 | 一种基于图像分类和目标检测的棉花发育期自动识别方法 |
CN110751195A (zh) * | 2019-10-12 | 2020-02-04 | 西南交通大学 | 一种基于改进YOLOv3的细粒度图像分类方法 |
CN110766098A (zh) * | 2019-11-07 | 2020-02-07 | 中国石油大学(华东) | 基于改进YOLOv3的交通场景小目标检测方法 |
CN111209921A (zh) * | 2020-01-07 | 2020-05-29 | 南京邮电大学 | 基于改进的YOLOv3网络的车牌检测模型及构建方法 |
CN111727457A (zh) * | 2020-05-14 | 2020-09-29 | 安徽中科智能感知产业技术研究院有限责任公司 | 一种基于计算机视觉的棉花作物行检测方法、装置及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10713484B2 (en) * | 2018-05-24 | 2020-07-14 | Blue River Technology Inc. | Semantic segmentation to identify and treat plants in a field and verify the plant treatments |
-
2020
- 2020-12-09 CN CN202011450660.1A patent/CN112446350B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108647652A (zh) * | 2018-05-14 | 2018-10-12 | 北京工业大学 | 一种基于图像分类和目标检测的棉花发育期自动识别方法 |
CN110751195A (zh) * | 2019-10-12 | 2020-02-04 | 西南交通大学 | 一种基于改进YOLOv3的细粒度图像分类方法 |
CN110766098A (zh) * | 2019-11-07 | 2020-02-07 | 中国石油大学(华东) | 基于改进YOLOv3的交通场景小目标检测方法 |
CN111209921A (zh) * | 2020-01-07 | 2020-05-29 | 南京邮电大学 | 基于改进的YOLOv3网络的车牌检测模型及构建方法 |
CN111727457A (zh) * | 2020-05-14 | 2020-09-29 | 安徽中科智能感知产业技术研究院有限责任公司 | 一种基于计算机视觉的棉花作物行检测方法、装置及存储介质 |
Non-Patent Citations (1)
Title |
---|
王建林等.改进YOLOv2卷积神经网络的多类型合作目标检测.《光学精密工程》.2020,(第01期), * |
Also Published As
Publication number | Publication date |
---|---|
CN112446350A (zh) | 2021-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112446350B (zh) | 一种改进YOLOv3复杂棉田背景下棉花检测方法 | |
US11119235B2 (en) | Automated seismic interpretation using fully convolutional neural networks | |
US20230418250A1 (en) | Operational inspection system and method for domain adaptive device | |
CN109086811B (zh) | 多标签图像分类方法、装置及电子设备 | |
CN111259779B (zh) | 一种基于中心点轨迹预测的视频动作检测方法 | |
CN110633758A (zh) | 针对小样本或样本不平衡的癌症区域检测定位的方法 | |
CN111401293B (zh) | 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法 | |
CN110096994A (zh) | 一种基于模糊标签语义先验的小样本PolSAR图像分类方法 | |
CN113392931B (zh) | 基于自监督学习及多任务学习的高光谱开放集分类方法 | |
CN110533100A (zh) | 一种基于机器学习进行cme检测和跟踪的方法 | |
CN112686902B (zh) | 核磁共振影像中脑胶质瘤识别与分割的两阶段计算方法 | |
Hussain et al. | A simple and efficient deep learning-based framework for automatic fruit recognition | |
JP2024513596A (ja) | 画像処理方法および装置、ならびにコンピュータ可読ストレージ媒体 | |
CN115578770A (zh) | 基于自监督的小样本面部表情识别方法及系统 | |
CN114511710A (zh) | 一种基于卷积神经网络的图像目标检测方法 | |
Yadav et al. | An improved deep learning-based optimal object detection system from images | |
Ma et al. | Efficient small object detection with an improved region proposal networks | |
Kajabad et al. | YOLOv4 for urban object detection: Case of electronic inventory in St. Petersburg | |
CN116824488A (zh) | 一种基于迁移学习的目标检测方法 | |
Jafrasteh et al. | Generative adversarial networks as a novel approach for tectonic fault and fracture extraction in high resolution satellite and airborne optical images | |
Zhou et al. | A low-resolution image restoration classifier network to identify stored-grain insects from images of sticky boards | |
CN115797929A (zh) | 基于双注意力机制的小型农田图像分割方法、装置 | |
Zhang et al. | A Spectrum-Aware Transformer Network for Change Detection in Hyperspectral Imagery | |
Sluser et al. | Model-based probabilistic relaxation segmentation applied to threat detection in airport x-ray imagery | |
Ching et al. | Understanding the Amazon from space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |