CN112766409A - 一种遥感图像目标检测的特征融合方法 - Google Patents

一种遥感图像目标检测的特征融合方法 Download PDF

Info

Publication number
CN112766409A
CN112766409A CN202110138256.9A CN202110138256A CN112766409A CN 112766409 A CN112766409 A CN 112766409A CN 202110138256 A CN202110138256 A CN 202110138256A CN 112766409 A CN112766409 A CN 112766409A
Authority
CN
China
Prior art keywords
feature
remote sensing
target detection
features
sensing image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110138256.9A
Other languages
English (en)
Inventor
王靖宇
吴虞霖
张科
苏雨
谭明虎
王�琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110138256.9A priority Critical patent/CN112766409A/zh
Publication of CN112766409A publication Critical patent/CN112766409A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种遥感图像目标检测的特征融合方法,使用深度残差网络ResNet101提取图像的特征,利用特征金字塔网络提取特征并生成感兴趣区域,其中在特征金字塔的横向连接中加入Inception结构,扩大感受野,融合多尺度特征,提高对多尺度目标的检测效率,生成候选区域后,提取候选区域的局部上下文信息,使用特征池化对齐特征,利用全连接层对特征进行分类,生成目标类别及边框。本发明通过不同的感受野,充分考虑多尺度特征信息,通过融合不同尺度的特征,增加对小目标的识别准确率,对大目标的识别率也有一定优化,从而整体提高遥感图像中的目标检测性能。

Description

一种遥感图像目标检测的特征融合方法
技术领域
本发明涉及图像处理技术领域,尤其是一种遥感图像的特征融合方法。
背景技术
遥感技术发展迅速,高质量的卫星和航空图像已成为各种应用的主要数据来源,包括自然灾害应急响应、地表迁移分析、气象观测、交通监测和城市道路建设等。遥感图像中的目标检测是计算机视觉的重要研究课题,是获取遥感图像中信息的最有效手段之一。然而,由于在采集图像时飞行器的姿态和高度的变化,遥感图像中的目标和自然图像中的目标特性存在一定的差异,主要包括以下三点:.
·目标尺度不固定,大部分数据集是从不同分辨率的不同资源中收集的。
·遥感图像非常大,包含许多小目标,这些小目标有时以密集的群体出现,例如车辆和储罐。
·不同类别的目标周围区域是不同的。例如,船只出现在港口,飞机出现在机场等。
由于存在上述问题,尽管针对遥感图像目标检测已经提出了一些算法,但是效果并没有得到最佳,性能提升空间很大,因此遥感图像目标检测依然有很大的研究价值。
姜珊(《基于特征增强及密集场景优化的遥感目标检测算法》,传感器与微系统,2020,39(01):102-104+108.)针对遥感图像中的目标检测问题,提出了一种基于特征增强及密集场景优化的目标检测算法。通过对Faster RCNN(Faster Region withConvolutional Neural Network)框架进行优化,加入特征增强卷积层使得小目标特征更加显著,同时采用改进的非极大值抑制算法对密集场景的目标置信度进行更新,从而提高遥感图像目标检测性能。但是该方法主要改进网络的后处理部分,针对小目标加入特征增强模块,没有考虑到多尺度特征的整体增强,提升效果比较有限。
发明内容
为了克服现有技术的不足,本发明提供一种遥感图像目标检测的特征融合方法。目前已有的遥感图像目标检测算法大多使用通用目标检测方法,针对解决遥感图像中单幅图像目标尺度不固定,存在多类目标,背景复杂的问题,本发明设计一种特征融合方法,通过在特征金字塔网络的横向连接中插入Inception结构,充分利用网络中的多尺度特征,提高遥感图像中目标识别的准确性。
为了实现对遥感图像中目标的检测识别,本发明提出了一种特征融合方法,使用深度残差网络ResNet 101提取图像的特征,利用特征金字塔网络(FPN,Feature PyramidNetwork)进一步提取特征并生成感兴趣区域,其中在特征金字塔的横向连接中加入Inception结构,扩大感受野,融合多尺度特征,提高对多尺度目标的检测效率。生成候选区域后,提取候选区域的局部上下文信息,使用特征池化对齐特征,利用全连接层对特征进行分类,生成目标类别及边框。
本发明解决其技术问题所采用的技术方案包括如下步骤:
(1)输入图像先通过深度残差网络Res101自下而上提取特征;
(2)FPN的特征金字塔通过横向连接分别连接Res101的特征层,而且处理FPN的每一层通过一个自上而下的路径融合高层信息,因为高层信息与低层信息相比含有更多的语义特征,有利于后续的目标检测及分类;
(3)Inception结构插入FPN特征金字塔的横向连接中,当前层的特征通过Inception结构后,将特征向量相加,并通过ReLU函数激活;
(4)通过FPN的特征层,区域生成网络在每个尺度上根据预测中心点坐标和宽、高生成候选区域(x,y,w,h),x,y,w,h分别代表中心点的横坐标,纵坐标,宽和高;将候选区域进行池化操作,进一步提取降维后的候选区域特征,作为全连接层分类的输入;
(5)将池化特征输入全连接层,自动输目标类别和边界框。
所述步骤(1)中,输入图像的尺寸为1024*1024,先通过深度残差网络Res101自下而上提取特征,Res101输入为7*7*64的卷积,依次经过级联的3个、4个、23个和3个结构组件(building block),一个全连接层用于分类。
所述Inception结构包括三个分支,第一个分支包括1*1卷积,1*3卷积,3*1卷积;第二个分支包括3*3卷积,1*1卷积;第三个分支为1*1卷积,每个卷积层输出特征通道为256个,当前层的特征通过三个分支后,将特征向量相加,并通过ReLU函数激活;Inception结构不影响特征金字塔的输出维度,Inception结构的三个分支是并联的。
所述使用锚点anchor生成候选区域proposals时,计算公式为:
Figure BDA0002927626080000031
其中,(xc,yc)分别为预测的anchor点坐标,(w,h)分别为预测proposals的宽度和高度,(x1,y1)和(x2,y2)为proposals的左上角和右下角坐标。
所述训练候选区域所采用的标签(对应于每个anchor)用交并比IoU(Intersection over Union)确定,如果IoU>0.7,则为正样本,如果IoU<0.3则为负样本。
本发明的有益效果在于本发明的深度神经网络结构针对遥感图像目标检测识别进行优化,原有的FPN检测算法对于遥感图像中的多尺度目标检测效果较差,对于大目标的检测效果要明显好于小目标。这是因为在特征金字塔网络中,高层特征由于不断地降采样小目标的特征已经不可见,因此网络难以识别小目标。
本发明在特征金字塔的横向连接中加入Inception结构,通过不同的感受野,充分考虑多尺度特征信息,通过融合不同尺度的特征,增加对小目标的识别准确率,对大目标的识别率也有一定优化,从而整体提高遥感图像中的目标检测性能。
附图说明
图1是本发明深度神经网络结构图。
图2是本发明Inception结构图。
图3是本发明特征融合方法的流程图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明一种遥感图像目标检测的特征融合方法基本流程以遥感图像检测为实例说明本发明的具体实施方式,但本发明的技术内容不限于所述的范围,具体实施方式包括以下步骤:
步骤一、处理DOTA数据集。由于DOTA数据集原始数据图像尺寸不定,且测试集的标注数据未公开,因此为了方便神经网络训练,将有标注的1869幅图像统一裁剪为1024*1024的图像,裁剪时为了防止目标因为图像裁剪而缺失,宽度和高度分别保留10%像素的重合率。处理后得到19219幅图像及其标注信息,随机划分为训练集11531幅图像,验证集3844幅图像,测试集3844幅图像,保证训练集、验证集和测试集在图像样本空间上没有交集。
步骤二、搭建深度神经网络,并采用梯度下降和反向传播算法训练深度神经网络模型,具体过程如下:
(1)根据图1构建深度神经网络模型,模型主要包括Res101提取特征,FPN生成候选区域,对候选区域进行局部上下文感知,最后经过特征池化和全连接层得到目标类别和边界框。
(2)由于神经网络参数繁多且比较难训练,因此本发明在训练模型之前,使用预训练模型初始化Res101模型参数,以提高训练效率。
(3)在密集数据集上对神经网络进行训练,对于每一张输入神经网络的尺寸为1024*1024的图像,经过Res101残差网络提取特征后,生成6种不同大小的特征图featuremap,记为C1~C6,尺度分别为512*512,256*256,128*128,64*64,32*32,16*16,选择C2、C3、C4和C5建立金字塔。不使用是因为C6为最高层特征,经过特征提取后包含的信息少;而使用C1则会占用过多内存,因此也不用C1建立金字塔。
(4)根据C2、C3、C4和C5生成特征金字塔,结果记为P2、P3、P4和P5。P2、P3、P4是将高层特征下采样,并与经过Inception结构的同层C2、C3、C4特征相加。Inception结构共有三个分支,第一个分支包括1*1卷积,1*3卷积,3*1卷积;第二个分支包括3*3卷积,1*1卷积;第三个分支只有一个1*1卷积。当前层的特征通过这三个分支后,将特征向量相加,并通过ReLU函数激活。其中,Inception结构中的1*1卷积是为了保证相加的特征图通道数相同。
(5)特征金字塔中的每张特征图使用区域生成网络生成锚点anchor的时候只使用一种尺寸,P2、P3、P4、P5和P6分别对应322、642、1282、2562和5122,每个anchor对应的宽高比为1:2,1:1和2:1。这样,在整个特征金字塔中有15种不同的anchor。注意,后续阶段不使用P6。
使用锚点anchor生成候选区域proposals时,采取的计算公式为:
Figure BDA0002927626080000041
其中,(xc,yc)分别为预测的anchor点坐标,(w,h)分别为预测proposals的宽度和高度。(x1,y1)和(x2,y2)为proposals的左上角和右下角坐标。
训练候选区域所采用的标签(对应于每个anchor)用交并比IoU(Intersectionover Union)来确定,如果IoU>0.7,则为正样本,如果IoU<0.3则为负样本。
(6)因为4种尺度的特征图上都有从原图上的anchor映射过来的proposals,所以使用特征池化的时候,也必须对应4种不同的特征层,采用如下公式计算特征池化对应的特征层:
Figure BDA0002927626080000051
其中,w和h为对应的proposals的尺寸,1024为原图尺寸,k0为基准值,设置为4。
由于P2、P3、P4和P5为特征金字塔的特征图,因此对应特征层的取值规则为:
Figure BDA0002927626080000052
特征金字塔中的每张特征图中的proposals经过对应的特征池化层,分别输出7*7的结果,也就是这4张特征图上的proposals经过特征池化之后,提取出了49个特征。
(7)把局部上下文和对应的proposals的7*7结果分布连接两个全连接层,两个全连接层输出结果为目标类别和目标边界框。
与已有的深度神经网络相比,本发明的神经网络在横向连接中加入了Inception结构,通过对不同尺度特征进行融合,增强了目标区域的特征表示,从而提高了遥感图像目标识别的准确率。

Claims (5)

1.一种遥感图像目标检测的特征融合方法,其特征在于包括下述步骤:
(1)输入图像先通过深度残差网络Res101自下而上提取特征;
(2)FPN的特征金字塔通过横向连接分别连接Res101的特征层,而且处理FPN的每一层通过一个自上而下的路径融合高层信息,因为高层信息与低层信息相比含有更多的语义特征,有利于后续的目标检测及分类;
(3)Inception结构插入FPN特征金字塔的横向连接中,当前层的特征通过Inception结构后,将特征向量相加,并通过ReLU函数激活;
(4)通过FPN的特征层,区域生成网络在每个尺度上根据预测中心点坐标和宽、高生成候选区域(x,y,w,h),x,y,w,h分别代表中心点的横坐标,纵坐标,宽和高;将候选区域进行池化操作,进一步提取降维后的候选区域特征,作为全连接层分类的输入;
(5)将池化特征输入全连接层,自动输目标类别和边界框。
2.根据权利要求1所述的一种遥感图像目标检测的特征融合方法,其特征在于:
所述步骤(1)中,输入图像的尺寸为1024*1024,先通过深度残差网络Res101自下而上提取特征,Res101输入为7*7*64的卷积,依次经过级联的3个、4个、23个和3个结构组件,一个全连接层用于分类。
3.根据权利要求1所述的一种遥感图像目标检测的特征融合方法,其特征在于:
所述Inception结构包括三个分支,第一个分支包括1*1卷积,1*3卷积,3*1卷积;第二个分支包括3*3卷积,1*1卷积;第三个分支为1*1卷积,每个卷积层输出特征通道为256个,当前层的特征通过三个分支后,将特征向量相加,并通过ReLU函数激活;Inception结构不影响特征金字塔的输出维度,Inception结构的三个分支是并联的。
4.根据权利要求1所述的一种遥感图像目标检测的特征融合方法,其特征在于:
所述使用锚点anchor生成候选区域proposals时,计算公式为:
Figure FDA0002927626070000011
其中,(xc,yc)分别为预测的anchor点坐标,(w,h)分别为预测proposals的宽度和高度,(x1,y1)和(x2,y2)为proposals的左上角和右下角坐标。
5.根据权利要求1所述的一种遥感图像目标检测的特征融合方法,其特征在于:
所述训练候选区域所采用的标签用交并比IoU确定,如果IoU>0.7,则为正样本,如果IoU<0.3则为负样本。
CN202110138256.9A 2021-02-01 2021-02-01 一种遥感图像目标检测的特征融合方法 Pending CN112766409A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110138256.9A CN112766409A (zh) 2021-02-01 2021-02-01 一种遥感图像目标检测的特征融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110138256.9A CN112766409A (zh) 2021-02-01 2021-02-01 一种遥感图像目标检测的特征融合方法

Publications (1)

Publication Number Publication Date
CN112766409A true CN112766409A (zh) 2021-05-07

Family

ID=75704516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110138256.9A Pending CN112766409A (zh) 2021-02-01 2021-02-01 一种遥感图像目标检测的特征融合方法

Country Status (1)

Country Link
CN (1) CN112766409A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255589A (zh) * 2021-06-25 2021-08-13 北京电信易通信息技术股份有限公司 一种基于多卷积融合网络的目标检测方法及系统
CN113610024A (zh) * 2021-08-13 2021-11-05 天津大学 一种多策略的深度学习遥感影像小目标检测方法
CN113807362A (zh) * 2021-09-03 2021-12-17 西安电子科技大学 基于层间语义信息融合深度卷积网络的图像分类方法
CN114519819A (zh) * 2022-02-10 2022-05-20 西北工业大学 一种基于全局上下文感知的遥感图像目标检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019047248A1 (zh) * 2017-09-07 2019-03-14 深圳大学 高光谱遥感图像的特征提取方法及装置
CN109902693A (zh) * 2019-02-16 2019-06-18 太原理工大学 一种基于多注意力空间金字塔特征图像识别方法
CN111368775A (zh) * 2020-03-13 2020-07-03 西北工业大学 一种基于局部上下文感知的复杂场景密集目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019047248A1 (zh) * 2017-09-07 2019-03-14 深圳大学 高光谱遥感图像的特征提取方法及装置
CN109902693A (zh) * 2019-02-16 2019-06-18 太原理工大学 一种基于多注意力空间金字塔特征图像识别方法
CN111368775A (zh) * 2020-03-13 2020-07-03 西北工业大学 一种基于局部上下文感知的复杂场景密集目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHU MINGJIAN ET AL.: "Dynamic Feature Pyramid Networks for Object Detection", ARXIV, pages 1 - 5 *
公明;刘妍妍;李国宁;: "改进YOLO-v3的遥感图像舰船检测方法", 电光与控制, vol. 27, no. 05 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255589A (zh) * 2021-06-25 2021-08-13 北京电信易通信息技术股份有限公司 一种基于多卷积融合网络的目标检测方法及系统
CN113255589B (zh) * 2021-06-25 2021-10-15 北京电信易通信息技术股份有限公司 一种基于多卷积融合网络的目标检测方法及系统
CN113610024A (zh) * 2021-08-13 2021-11-05 天津大学 一种多策略的深度学习遥感影像小目标检测方法
CN113610024B (zh) * 2021-08-13 2022-08-12 天津大学 一种多策略的深度学习遥感影像小目标检测方法
CN113807362A (zh) * 2021-09-03 2021-12-17 西安电子科技大学 基于层间语义信息融合深度卷积网络的图像分类方法
CN113807362B (zh) * 2021-09-03 2024-02-27 西安电子科技大学 基于层间语义信息融合深度卷积网络的图像分类方法
CN114519819A (zh) * 2022-02-10 2022-05-20 西北工业大学 一种基于全局上下文感知的遥感图像目标检测方法
CN114519819B (zh) * 2022-02-10 2024-04-02 西北工业大学 一种基于全局上下文感知的遥感图像目标检测方法

Similar Documents

Publication Publication Date Title
CN111461114B (zh) 一种基于分割的多尺度特征金字塔文本检测方法
CN108764063B (zh) 一种基于特征金字塔的遥感影像时敏目标识别系统及方法
Hu et al. Pavement crack detection method based on deep learning models
CN112766409A (zh) 一种遥感图像目标检测的特征融合方法
CN113780296B (zh) 基于多尺度信息融合的遥感图像语义分割方法及系统
CN110909642A (zh) 一种基于多尺度语义特征融合的遥感图像目标检测方法
CN112380921A (zh) 一种基于车联网的道路检测方法
CN111753677B (zh) 基于特征金字塔结构的多角度遥感船舶图像目标检测方法
CN113688836A (zh) 一种基于深度学习的实时性道路图像语义分割方法及系统
CN113255589B (zh) 一种基于多卷积融合网络的目标检测方法及系统
CN114155481A (zh) 一种基于语义分割的非结构化田间道路场景识别方法及装置
CN112287983B (zh) 一种基于深度学习的遥感图像目标提取系统和方法
Ye et al. Real-time object detection network in UAV-vision based on CNN and transformer
CN113256649B (zh) 一种基于深度学习的遥感图像选站选线语义分割方法
CN110781850A (zh) 道路识别的语义分割系统和方法、计算机存储介质
CN113591617B (zh) 基于深度学习的水面小目标检测与分类方法
CN113723377A (zh) 一种基于ld-ssd网络的交通标志检测方法
CN114612835A (zh) 一种基于YOLOv5网络的无人机目标检测模型
CN113313094B (zh) 一种基于卷积神经网络的车载图像目标检测方法和系统
CN113052106A (zh) 一种基于PSPNet网络的飞机起降跑道识别方法
CN114820655A (zh) 可靠区域作为注意力机制监督的弱监督建筑物分割方法
CN114519819B (zh) 一种基于全局上下文感知的遥感图像目标检测方法
CN113903022A (zh) 基于特征金字塔与注意力融合的文本检测方法及系统
CN117079163A (zh) 一种基于改进yolox-s的航拍图像小目标检测方法
CN112699889A (zh) 基于多任务监督的无人驾驶实时道路场景语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination