CN115661569A - 一种高精度的细粒度sar目标检测方法 - Google Patents
一种高精度的细粒度sar目标检测方法 Download PDFInfo
- Publication number
- CN115661569A CN115661569A CN202211268984.2A CN202211268984A CN115661569A CN 115661569 A CN115661569 A CN 115661569A CN 202211268984 A CN202211268984 A CN 202211268984A CN 115661569 A CN115661569 A CN 115661569A
- Authority
- CN
- China
- Prior art keywords
- target
- grained
- fine
- sar image
- sar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种高精度的细粒度SAR目标检测方法,包括:并将待检测SAR图像输入到训练后的SAR图像细粒度检测模型中,输出待检测SAR图像中,所有感兴趣目标的坐标位置和所属类别;上述模型的训练方法为:构建全局实例集;将训练数据集作为输入;由模型对训练集中感兴趣目标的坐标位置进行提取,以及识别所提取出来的感兴趣目标的所属类别;将提取和识别的内容组合成模型采集数据集;从全局实例集随机抽取实例,组成抽样数据集;分别对模型采集数据集和抽样数据集中的感兴趣目标编码后,进行全局实例对比;根据对比结果对模型进行优化,直至获得最终的SAR图像细粒度检测模型;通过该方法可以减少对比学习方法中的样本数量。
Description
技术领域
本发明属于计算机视觉与模式识别技术领域,特别是一种高精度的细粒度SAR目标检测方法。
背景技术
合成孔径雷达(Synthetic Aperture Radar,SAR)是一种主动式的对地观测系统,能实现全天时,全天候对地观测,在灾害监测、环境监测、海洋监测、测绘和军事等方面的应用上具有独特的优势,可发挥其他遥感手段难以发挥的作用。目标检测任务为给出图像中所有感兴趣目标的坐标位置并识别目标所属的具体类别,是SAR图像处理的重要基础任务之一。更进一步,细粒度检测要求模型准确地识别出SAR图像中相似但不同类的目标。由于SAR图像中的目标缺乏细节信息,其异类目标的类间差异较小,如何更精确地进行细粒度检测具有理论上的研究价值与实际的应用价值。
目前主流的先进目标检测算法大多更加关注如何准确地定位目标,不能有效地处理检测中的细粒度分类识别问题,会出现定位准确但分类错误的情况。并且,相比于光学图像,SAR图像因其成像方式的特殊性会缺乏细节纹理信息,且容易受到噪声和冗余背景的干扰,这使得一般的检测算法更难在SAR图像中区分容易混淆的异类相似目标。
对比学习有增大类间目标差异,提高类内目标相似度的作用,是增强细粒度分类性能的一种有效方法。然而目前的对比学习技术大多基于图像级分类任务开发,且集中于无监督预训练领域,在监督学习尤其是目标检测任务上的应用较少。同时,一些较成功的对比学习方法需要提取大量的正负样本对进行对比训练,而SAR图像幅面广的特性以及飞机目标分布的稀疏性导致在检测模型的训练中无法一次提取大量的样本。此外,对比学习的关键在于在投影空间拉近相同类别特征向量的距离,同时使得不同类别的特征具有足够的差异性。然而考虑到定位任务对特征的需求,过于追求特征的差异性可能会损害定位的精度。
因此,实现准确的SAR细粒度目标检测需要提出一种实例级的,不需要在一次训练步骤中提取大量样本的对比学习方法,同时还要注意修正其对定位任务精度的影响,而这也成为当前研究的关键问题。
发明内容
鉴于上述问题,本发明提供一种至少解决上述部分技术问题的一种高精度的细粒度SAR目标检测方法,通过该方法可以减少对比学习方法中的样本数量。
本发明实施例提供了一种高精度的细粒度SAR目标检测方法,包括:
获取待检测SAR图像,并将所述待检测SAR图像输入到训练后的SAR图像细粒度检测模型中,输出所述待检测SAR图像中,所有感兴趣目标的坐标位置和所属类别;
其中,所述SAR图像细粒度检测模型的训练方法如下:
S1、基于训练数据集,构建全局实例集;
S2、构建SAR图像细粒度检测模型框架;将所述训练数据集输入至所述SAR图像细粒度检测模型框架中;由所述SAR图像细粒度检测模型框架对所述训练集中感兴趣目标的坐标位置进行提取,以及识别所提取出来的感兴趣目标的所属类别;将提取和识别的内容组合成模型采集数据集;
S3、从全局实例集随机抽取实例,组成抽样数据集;
S4、分别对模型采集数据集和抽样数据集中的感兴趣目标编码后,进行全局实例对比;
S5、根据对比结果对所述SAR图像细粒度检测模型框架进行优化,直至获得最终的SAR图像细粒度检测模型。
进一步地,所述S1具体包括:
获取SAR图像训练样本;所述SAR图像训练样本中包括多个目标区域;
将SAR图像训练样本,以及所有目标区域内已知的所有感兴趣目标的坐标位置和所属类别作为训练数据集;
对训练数据集中的所有目标区域进行裁剪和缩放,组成一个全局实例集。
进一步地,在所述S2中,由所述SAR图像细粒度检测模型框架对所述训练集中感兴趣目标的坐标位置进行提取,以及识别所提取出来的感兴趣目标的所属类别,具体包括:
通过SAR图像细粒度检测模型框架中的骨干卷积网络对输入的SAR图像训练样本进行特征图提取,并通过计算特征金字塔得到多个不同尺寸的特征图;
将每个所述特征图送入检测头,对每个所述特征图中感兴趣目标的坐标位置进行提取,以及识别所提取出来的感兴趣目标的所属类别。
进一步地,对于每个所述特征图,进入全局实例对比前的准备工作包括:
根据输入的感兴趣目标的所属类别,将该特征图裁剪为多个区域,记作第一特征区域集;
从所述全局实例集中的目标区域进行随机抽样,并采用骨干卷积网络对抽样得到的目标区域进行特征提取,记作第二特征区域集;
分别对所述第一特征区域集和第二特征区域集中的感兴趣目标编码后,进行全局实例对比。
进一步地,采用由平均池化和全连接层组成的编码器,使用tanh做为非线性激活函数来对感兴趣目标进行编码。
进一步地,全局实例对比所采用的实例级对比损失定义如下:
其中,LCTLi表示每个特征图的对比损失;分子表示类内特征相似度之和;分母表示所有特征的相似度之和;fi和fj分表表示两个不同的特征向量;ci和cj分别代表对应向量的类别标签;i和j均代表遍历的指示下标;cos<fi,fj>表示两个特征间的余弦相似度;τ代表温度参数;M表示第一特征区域集中的目标区域数量;N表示第二特征区域集中的目标区域数量;ci表示每个特征对应的已知类别标签;LCTL表示求平均后得到的总体的对比损失。
进一步地,所述检测头使用了全卷积的anchor-free结构;
所述检测头用于在不同尺度的特征图上对每个感兴趣目标的位置和类别置信度进行预测。
进一步地,所述检测头采用基于定位质量感知的焦点损失作为分类损失;
所述基于定位质量感知的焦点损失表示为:
其中,q表示在该点的预测边框和真实边框的交并比;p表示SAR图像细粒度检测模型得出的当前样本分类置信度;y=1/0表示该点属于或不属于该类别;当y=0时,对应的q也将被设为0;t,β,γ均为控制损失各项比例的超参数。
进一步地,所述SAR图像细粒度检测模型采用两阶段定位方式;
在第一阶段,所述SAR图像细粒度检测模型所有正样本点预测向量,分别表示样本点到真实边框四个边界的粗糙距离预测;
在第二阶段,基于第一阶段的预测结果,采用边界感知边框精细优化模块对边框进行调整。
进一步地,所述SAR图像细粒度检测模型的总体损失函数由分类损失,定位损失和目标定位损失函数三部分组成。
与现有技术相比,本发明记载的一种高精度的细粒度SAR目标检测方法,具有如下有益效果:
首先,本发明将监督对比学习方法运用到了检测模型中,从数据集中构建了实例集合并提出全局实例采样来增大对比学习的样本量。
本发明在训练过程中,模型将对图像中的目标和采样得到的目标一同计算对比损失来强化表示学习能力。
为同时增强模型的定位能力,本发明设计了一个边缘感知的精细边框优化模块。通过分别提取目标上、下、左、右的边界特征,模型能够实现更加精准地定位。
本发明提出了一种定位质量感知的焦点损失,通过给予定位准确但分类错误的样本更大的权重,让模型更加关注高质量定位下的精细分类问题。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例提供的基于全局实例对比的SAR图像细粒度检测模型框架示意图。
图2为本发明实施例提供的边缘感知的精细边框优化示意图。
图3为本发明实施例提供的全局实例对比对细粒度检测性能的效果对比示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明实施例提供了一种高精度的SAR图像细粒度目标检测方法,能够为学术界细粒度目标检测领域的研究提供理论与技术支撑,同时也能够应用于实践中SAR图像的处理与感兴趣目标的提取中;该方法具体包括如下步骤:
获取待检测SAR图像,并将所述待检测SAR图像输入到训练后的SAR图像细粒度检测模型中,输出所述待检测SAR图像中,所有感兴趣目标的坐标位置和所属类别;
其中,所述SAR图像细粒度检测模型的训练方法如下:
S1、获取SAR图像训练样本;该SAR图像训练样本中包括多个目标区域;将SAR图像训练样本,以及所有目标区域内已知的所有感兴趣目标的坐标位置和所属类别作为训练数据集;对训练数据集中的所有目标区域进行裁剪和缩放,组成一个全局实例集;
S2、构建SAR图像细粒度检测模型框架;将所述训练数据集输入至所述SAR图像细粒度检测模型框架中;由所述SAR图像细粒度检测模型框架对所述训练集中感兴趣目标的坐标位置进行提取,以及识别所提取出来的感兴趣目标的所属类别;将提取和识别的内容组合成模型采集数据集;
S3、从全局实例集随机抽取实例,组成抽样数据集;
S4、分别对模型采集数据集和抽样数据集中的感兴趣目标编码后,进行全局实例对比;
S5、根据对比结果对所述SAR图像细粒度检测模型框架进行优化,直至获得最终的SAR图像细粒度检测模型。
上述S1、S2、S3、S4和S5仅为了便于理解,而不会对训练方法的具体步骤构成限定。
接下来对上述SAR图像细粒度检测模型的训练方法进行具体说明。
(1)任务定义
SAR图像细粒度检测模型的任务定义如下:给定SAR图像I,经过训练的模型能够在图像上推理得到所有待检测目标的坐标位置和所属的类别:
(2)SAR图像细粒度检测模型的总体架构
模型训练时的输入为SAR图像I及其对应的待检测目标位置和类别标注,这里表示为集合B:
对于输入的SAR图像,模型采用骨干卷积网络G(·)进行特征图的提取,并通过计算特征金字塔得到P2,P3,P4,P5四个不同尺寸的特征图。随后,将不同大小的特征图送入检测头,对每个所述特征图中感兴趣目标的坐标位置进行提取,以及识别所提取出来的感兴趣目标的所属类别;
就特征图P2举例来讲,将P2中待检测目标区域提取出来,并从构建好的全局实例集合中进行随机采样,将提取出的目标和采样得到的实例编码后进行全局实例对比。
(3)全局实例对比(Global Instance Contrast,GIC)
在模型训练前,将训练数据集中的所有目标区域裁剪、缩放,组成一个全局实例集合(如图1右上角所示)。训练中,首先根据输入的标注(即感兴趣目标的所属类别)将P2中对应的区域裁剪所有的目标区域,记为F1,F2,...,FM。其次,从全局实例集合随机抽取N个实例,并用相同的G(·)提取特征,从P2层中得到FM+1,FM+2,...,FM+N。
在本发明实施例中,在编码时,采用一个由平均池化和全连接层组成的编码器,使用tanh做为非线性激活函数来对感兴趣目标进行编码:
fi=tanh(FC(avgpool(Fi))),i=1,2,...,M+N (1)
上式中,FC(·)表示全连接层;avgpool(·)表示平均池化计算。对于一个来自实例集合或训练图片中的目标Fi,fi为经过全连接层、平均池化和tanh计算后得到的256维的特征向量。此外,ci表示每个特征对应的已知类别标签。最终,集合F表示监督表示学习用到的所有目标特征及其类别信息:
F={<f1,c1>,<f2,c2>,...,<fM+N,cM+N>} (2)
式(2)中<f1,c1>,<f2,c2>,...,<fM+N,cM+N>代表一个个目标的特征向量及其类别标签。
本发明实施例中,全局实例对比所采用的实例级对比损失定义如下:
其中,LCTLi表示每个特征图的对比损失;分子表示类内特征相似度之和;分母表示所有特征的相似度之和;fi,fj分表表示两个不同的特征向量,ci,cj代表对应向量的类别标签,i,j代表遍历的指示下标;cos<fi,fj>表示两个特征间的余弦相似度;τ代表温度参数;M表示第一特征区域集中的目标区域数量;N表示第二特征区域集中的目标区域数量;ci表示每个特征对应的已知类别标签;对于每一个fi,模型将与其不同类别的样本视为负样本。LCTL表示求平均后得到的总体的对比损失。对这一对比损失的最小化能够增大实例层级的同类别相似性,同时增大不同类别特征的差异。类别特异性特征有助于模型在下游的分类任务中取得更高的精度。
(4)边缘感知精细优化
本方法实施例中,检测头使用了全卷积的anchor-free结构。检测器在不同尺度特征图上的每个点对目标的位置和类别置信度进行预测。对于中的任意一个真实目标(x1,y1,x2,y2,c),将所有落入此框中的特征点视为正样本点,并将分类的真实标签cT设为c。如果特征点没有在任何一个真实边框的范围内,这一点会被视为负样本点并设置cT=0。对于分类任务,模型为每一个样本点生成了一个C-D的置信度向量,C为总的类别数。
为了增强检测器的定位能力,本发明实施例中,SAR图像细粒度检测模型采用两阶段定位方式;在第一阶段,所述SAR图像细粒度检测模型为所有正样本点预测向量(l0,r0,t0,b0),分别表示样本点到真实边框的左、右、上、下边界的粗糙距离预测;在第二阶段,基于第一阶段的预测结果,采用边界感知边框精细优化模块对边框进行调整。如图2所示,4个分支的可分离卷积被用于提取粗边框四个边界区域的特征并预测边框的修正值。最终,模型为特征图上的每个点计算出一个修正向量(Δl,Δt,Δr,Δb),其中四个参数分别代表四个边框距离的原始预测值相对于真实值的修正系数。二阶段的边框预测结果由下式给出:
式(5)中l,r,t,b分别为正样本点与真实边框四个边界距离的最终预测结果。
对于特征图上某一正样本点(x,y),其映射到输入图片上的坐标表示为其中,s为特征图相对于原始图像的缩放比例,为输入图像上的坐标表示。对于此样本属于的真实边框bbox*=(x1,y1,x2,y2),两个阶段的预测对应的真值均为:
式(6)中(x1,y1,x2,y2)为真实边框的左上角和右下角坐标,为样本点对应输入图像上的坐标表示,(l*,r*,t*,b*)为两个阶段模型需要预测的真值。记两个阶段的预测的粗边框和最终边框分别为bboxc=(l0,r0,t0,b0),bboxf=(l,r,t,b),本方法采用GIOULoss来计算定位任务的损失:
Lreg=LGIOU(bboxc,bbox*)+LGIOU(bboxf,bbox*) (7)
式(7)中bbox*,bboxc,bboxf分别为待预测真值、一阶段预测的粗糙边框和二阶段得到的精细边框,LGIOU为两个边框间的GIOU损失函数,Lreg为定位任务的总损失。
(5)定位质量感知的焦点损失
目前主流的一阶段检测器大多采用焦点损失(FocalLoss)作为分类损失。然而FocalLoss在计算时并没有考虑定位精度的影响。为避免出现边框预测准确但分类发生错误的情况,分类损失应当能够对定位精度较高的预测边框给与更多的关注,提高高质量边框的分类正确率。因此,本方法将预测的边界框与真实值的交并比(IntersectionoverUnion,IOU)引入,提出了定位质量感知的焦点损失(IOU-AwareFocalLoss,IAFL),定义如下:
对于正样本点,用q表示在该点的预测边框和真实边框的IOU;p为模型得出的当前样本分类置信度。检测器为每一个点都预测了一个长度为C的向量(p1,p2,...,pC),分别表示属于每个类别的概率。模型对于每一个类别都进行二分类的误差计算,y=1/0表示该点属于/不属于该类别。当y=0时,对应的q也将被设为0。式(8)中的t,β,β均为控制损失各项比例的超参数;在本发明实施例中取t=1,γ=1.5,γ=1。
IAFL在Focal Loss的基础上增加了IOU权重q和边框质量系数(t+max(q-p,0))β。其中,IOU权重q能引导检测器关注定位质量较高的样本,(t+max(q-p,0))β则会在定位精度高但分类结果较差时增大损失函数的值,t为防止此项为0而添加的参数。
(6)总体损失函数
模型的损失函数由分类损失,定位损失和目标定位损失函数三部分组成,总体损失函数如下:
其中K为样本点总数,P为所有正样本点组成的集合,i为遍历的指标,bboxc (i),bboxf (i),bbox*(i)分别为第i个样本点对应的粗糙边框预测、精细边框预测、以及回归阶段的真值;Lreg为式(7)定义的回归损失;IAFL为式(8)定义的定位质量感知的焦点损失,pi,qi,yi分别为当前样本分类置信度,当前预测边框与对应真值的交并比,当前样本的分类标签;LCTL为式(4)定义的全局对比学习损失;L为模型单次训练过程中得到的总损失;式(9)表明定位损失仅对正样本点计算,而负样本点仅参与分类损失的计算。
接下来通过一个具体的实施例对上述内容进行具体说明。
SAR图像细粒度飞机目标检测:
使用GaoFen-3号遥感卫星得到的SAR图像数据进行细粒度飞机目标检测任务的训练,并与其他的目标检测方法进行对比,得到的结果如表1所示:
表1本方法与其他检测模型在SAR图像细粒度飞机检测的精度对比
由表1可知,实验结果表明,本发明所提供的一种高精度的细粒度SAR目标检测方法,能够很好地处理SAR图像细粒度识别问题,在不同骨干网络上几乎都超越了现有的检测方法。使用ResneXt作为骨干网络的最佳模型取得了74.7的AP,98的AP50以及84.7的AP75,达到了现阶段SAR细粒度飞机检测任务的SOTA结果。实验结果充分验证了本方法的有效性。值得一提的是,模型的AP75在ResNet-50和ResNeXt-101上相比于次优的检测方法分别有3.0/0.6的性能提升,这表明此模型在准确定位的情况下具有更强的细粒度分类能力。
此外,本方法还在检测模型FCOS上测试了全局实例对比的效果,效果图可参见图3所示;从图3可以看出,加入全局实例对比模块后,原模型中许多的误检结果被纠正,这表明提取类别特异性特征对细粒度检测的分类正确率是非常重要的。上述结果也验证了本方法的有效性和普遍性。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种高精度的细粒度SAR目标检测方法,其特征在于,包括:
获取待检测SAR图像,并将所述待检测SAR图像输入到训练后的SAR图像细粒度检测模型中,输出所述待检测SAR图像中,所有感兴趣目标的坐标位置和所属类别;
其中,所述SAR图像细粒度检测模型的训练方法如下:
S1、基于训练数据集,构建全局实例集;
S2、构建SAR图像细粒度检测模型框架;将所述训练数据集输入至所述SAR图像细粒度检测模型框架中;由所述SAR图像细粒度检测模型框架对所述训练集中感兴趣目标的坐标位置进行提取,以及识别所提取出来的感兴趣目标的所属类别;将提取和识别的内容组合成模型采集数据集;
S3、从全局实例集随机抽取实例,组成抽样数据集;
S4、分别对模型采集数据集和抽样数据集中的感兴趣目标编码后,进行全局实例对比;
S5、根据对比结果对所述SAR图像细粒度检测模型框架进行优化,直至获得最终的SAR图像细粒度检测模型。
2.如权利要求1所述的一种高精度的细粒度SAR目标检测方法,其特征在于,所述S1具体包括:
获取SAR图像训练样本;所述SAR图像训练样本中包括多个目标区域;
将SAR图像训练样本,以及所有目标区域内已知的所有感兴趣目标的坐标位置和所属类别作为训练数据集;
对训练数据集中的所有目标区域进行裁剪和缩放,组成一个全局实例集。
3.如权利要求1所述的一种高精度的细粒度SAR目标检测方法,其特征在于,在所述S2中,由所述SAR图像细粒度检测模型框架对所述训练集中感兴趣目标的坐标位置进行提取,以及识别所提取出来的感兴趣目标的所属类别,具体包括:
通过SAR图像细粒度检测模型框架中的骨干卷积网络对输入的SAR图像训练样本进行特征图提取,并通过计算特征金字塔得到多个不同尺寸的特征图;
将每个所述特征图送入检测头,对每个所述特征图中感兴趣目标的坐标位置进行提取,以及识别所提取出来的感兴趣目标的所属类别。
4.如权利要求3所述的一种高精度的细粒度SAR目标检测方法,其特征在于,对于每个所述特征图,进入全局实例对比前的准备工作包括:
根据输入的感兴趣目标的所属类别,将该特征图裁剪为多个区域,记作第一特征区域集;
从所述全局实例集中的目标区域进行随机抽样,并采用骨干卷积网络对抽样得到的目标区域进行特征提取,记作第二特征区域集;
分别对所述第一特征区域集和第二特征区域集中的感兴趣目标编码后,进行全局实例对比。
5.如权利要求4所述的一种高精度的细粒度SAR目标检测方法,其特征在于,采用由平均池化和全连接层组成的编码器,使用tanh做为非线性激活函数来对感兴趣目标进行编码。
7.如权利要求3所述的一种高精度的细粒度SAR目标检测方法,其特征在于,所述检测头使用了全卷积的anchor-free结构;
所述检测头用于在不同尺度的特征图上对每个感兴趣目标的位置和类别置信度进行预测。
9.如权利要求1所述的一种高精度的细粒度SAR目标检测方法,其特征在于,所述SAR图像细粒度检测模型采用两阶段定位方式;
在第一阶段,所述SAR图像细粒度检测模型所有正样本点预测向量,分别表示样本点到真实边框四个边界的粗糙距离预测;
在第二阶段,基于第一阶段的预测结果,采用边界感知边框精细优化模块对边框进行调整。
10.如权利要求1所述的一种高精度的细粒度SAR目标检测方法,其特征在于,所述SAR图像细粒度检测模型的总体损失函数由分类损失,定位损失和目标定位损失函数三部分组成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211268984.2A CN115661569A (zh) | 2022-10-17 | 2022-10-17 | 一种高精度的细粒度sar目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211268984.2A CN115661569A (zh) | 2022-10-17 | 2022-10-17 | 一种高精度的细粒度sar目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115661569A true CN115661569A (zh) | 2023-01-31 |
Family
ID=84987903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211268984.2A Pending CN115661569A (zh) | 2022-10-17 | 2022-10-17 | 一种高精度的细粒度sar目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115661569A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117456368A (zh) * | 2023-12-22 | 2024-01-26 | 安徽大学 | 一种果蔬识别采摘方法、系统及装置 |
CN117611856A (zh) * | 2023-10-12 | 2024-02-27 | 中国科学院声学研究所 | 合成孔径声纳图像感兴趣小目标回波数据聚类分析方法 |
CN117746193A (zh) * | 2024-02-21 | 2024-03-22 | 之江实验室 | 一种标签优化方法、装置、存储介质及电子设备 |
-
2022
- 2022-10-17 CN CN202211268984.2A patent/CN115661569A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117611856A (zh) * | 2023-10-12 | 2024-02-27 | 中国科学院声学研究所 | 合成孔径声纳图像感兴趣小目标回波数据聚类分析方法 |
CN117456368A (zh) * | 2023-12-22 | 2024-01-26 | 安徽大学 | 一种果蔬识别采摘方法、系统及装置 |
CN117456368B (zh) * | 2023-12-22 | 2024-03-08 | 安徽大学 | 一种果蔬识别采摘方法、系统及装置 |
CN117746193A (zh) * | 2024-02-21 | 2024-03-22 | 之江实验室 | 一种标签优化方法、装置、存储介质及电子设备 |
CN117746193B (zh) * | 2024-02-21 | 2024-05-10 | 之江实验室 | 一种标签优化方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111460984B (zh) | 一种基于关键点与梯度均衡损失的全局车道线检测方法 | |
KR102171122B1 (ko) | 장면의 다차원 특징을 기반으로 하는 선박 탐지 방법 및 시스템 | |
CN107818571B (zh) | 基于深度学习网络和均值漂移的船只自动跟踪方法及系统 | |
CN109241913B (zh) | 结合显著性检测和深度学习的船只检测方法及系统 | |
CN113223059B (zh) | 基于超分辨率特征增强的弱小空域目标检测方法 | |
CN115661569A (zh) | 一种高精度的细粒度sar目标检测方法 | |
CN110781262B (zh) | 基于视觉slam的语义地图的构建方法 | |
CN115223063B (zh) | 基于深度学习的无人机遥感小麦新品种倒伏面积提取方法及系统 | |
CN110533100B (zh) | 一种基于机器学习进行cme检测和跟踪的方法 | |
CN109919223B (zh) | 基于深度神经网络的目标检测方法及装置 | |
CN108428220A (zh) | 静止轨道卫星序列遥感影像海岛礁区域自动几何校正方法 | |
CN112818905B (zh) | 一种基于注意力和时空信息的有限像素车辆目标检测方法 | |
CN114067118B (zh) | 一种航空摄影测量数据的处理方法 | |
CN112541403B (zh) | 一种利用红外摄像头的室内人员跌倒检测方法 | |
CN112634368A (zh) | 场景目标的空间与或图模型生成方法、装置及电子设备 | |
CN113052108A (zh) | 基于深度神经网络的多尺度级联航拍目标检测方法和系统 | |
CN116469020A (zh) | 一种基于多尺度和高斯Wasserstein距离的无人机图像目标检测方法 | |
CN117649526A (zh) | 一种面向自动驾驶道路场景的高精度语义分割方法 | |
Sriram et al. | Analytical review and study on object detection techniques in the image | |
CN113379603B (zh) | 一种基于深度学习的船舶目标检测方法 | |
Petković et al. | An overview on horizon detection methods in maritime video surveillance | |
CN117496154A (zh) | 基于概率图表征边缘的高分辨率遥感影像语义分割方法 | |
CN115719368B (zh) | 一种多目标船舶跟踪方法及系统 | |
CN109740405B (zh) | 一种非对齐相似车辆前窗差异信息检测方法 | |
CN115457080A (zh) | 基于像素级图像融合的多目标车辆轨迹提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |