CN113392782B - 面向弱小目标检测的遥感影像深度学习训练样本增强方法 - Google Patents

面向弱小目标检测的遥感影像深度学习训练样本增强方法 Download PDF

Info

Publication number
CN113392782B
CN113392782B CN202110677543.7A CN202110677543A CN113392782B CN 113392782 B CN113392782 B CN 113392782B CN 202110677543 A CN202110677543 A CN 202110677543A CN 113392782 B CN113392782 B CN 113392782B
Authority
CN
China
Prior art keywords
grid
translation
center
slice
typical target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110677543.7A
Other languages
English (en)
Other versions
CN113392782A (zh
Inventor
曾喆
沈永田
刘善伟
吴中恒
任江华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Petroleum East China
Original Assignee
China University of Petroleum East China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Petroleum East China filed Critical China University of Petroleum East China
Priority to CN202110677543.7A priority Critical patent/CN113392782B/zh
Publication of CN113392782A publication Critical patent/CN113392782A/zh
Application granted granted Critical
Publication of CN113392782B publication Critical patent/CN113392782B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向弱小目标检测的遥感影像深度学习训练样本增强方法,包括在一幅镶嵌好的遥感影像中搜寻典型目标;以其中一个典型目标为中心,建立中心网格,围绕中心网格构建8‑邻域网格,中心网格与8‑邻域网格合称初始网格;将初始网格的中心分别平移到每个邻域网格的中心得到8个平移后的平移网格;获得初始样本和获得平移样本集。融合获得的初始样本和获得的平移样本集,得到一个典型目标的样本集,最终获得所有的典型目标的样本集。本发明利用典型目标在8‑邻域网格的相对位置关系,裁剪8‑邻域网格区域并标注典型目标在切片中的位置得到典型目标的样本数据,将样本数量扩大了8倍,实现基于目标的遥感影像深度学习训练样本增强。

Description

面向弱小目标检测的遥感影像深度学习训练样本增强方法
技术领域
本发明涉及遥感影像数据目标检测技术领域,具体涉及一种面向目标检测的遥感影像深度学习训练样本增强处理方法。
背景技术
深度卷积神经网络(CNN)由于其强大的特征提取能力,广泛的应用于目标检测领域。然而,目标检测网络含有大量的参数,样本数量过少会造成参数过拟合或模型无法收敛,导致网络泛化能力不强,达不到理想的效果。
目前,针对遥感影像中通用目标检测数据集很多,包括DOTA、UCAS-AOD、NWPU VHR-10和RSOD-Dataset等,但针对某一类特定领域来说,针对某一类典型目标的样本不多,数据增强可以有效解决这个问题,常见的数据增强方式有图像裁剪、图像旋转、增加对比度和颜色转换等。但是此类生成伪样本的方法所获得的有效样本数量有限,且极易引入噪声。
发明内容
针对现有技术存在的问题,本发明提供了一种面向目标检测的遥感影像深度学习训练样本增强处理方法。
本发明采用以下的技术方案:
一种面向弱小目标检测的遥感影像深度学习训练样本增强方法,包括以下步骤:
步骤1:收集包含典型目标T的遥感图像,对遥感图像预处理后,获得镶嵌好的遥感图像,在一幅镶嵌好的遥感影像中搜寻典型目标T,获得此镶嵌好的遥感影像中所有典型目标中心的坐标;
步骤2:以其中一个典型目标T为中心,建立以δ为网格半径的中心网格,围绕中心网格构建8-邻域网格,其中每个邻域网格为Gi,i取1至8,每个邻域网格的大小与中心网格相同,且每个邻域网格均与中心网格相接,中心网格与其构建8-邻域网格合称初始网格N(T);
步骤3:将初始网格的中心分别平移到每个邻域网格Gi的中心得到8个平移后的平移网格Ni(T),i取1至8,在平移过程中,典型目标的位置不变;
步骤4:获得初始网格的切片,并获取典型目标T的外接矩形在初始网格的切片中的位置信息,从而获得初始样本
Figure GDA0003624650320000011
步骤5:获得8个平移后的平移网格Ni(T)的切片,并分别获取典型目标T的外接矩形在各个平移网格的切片中的位置信息,从而获得平移样本集
Figure GDA0003624650320000021
i取1至8;
步骤6:融合步骤4获得的初始样本
Figure GDA0003624650320000022
和步骤5获得的平移样本集
Figure GDA0003624650320000023
得到一个典型目标的样本集S;
步骤7:对遥感影像中的所有的典型目标T执行步骤2-步骤6,获得所有的典型目标的样本集。
优选地,步骤2中,G1为中心网格的左侧邻域网格,G2为中心网格的左上侧邻域网格,G3中心网格的上侧邻域网格,G4中心网格的右上侧邻域网格,G5中心网格的右侧邻域网格,G6中心网格的右下侧邻域网格,G7中心网格的下侧邻域网格,G8中心网格的左下侧邻域网格。
优选地,步骤3中,N1(T)代表将初始网格的中心平移到中心网格的左侧邻域网格的中心位置后得到的平移网格,称为左侧平移网格,此时典型目标位于左侧平移网格的右侧邻域网格的中心;
N2(T)代表将初始网格的中心平移到中心网格的左上侧邻域网格的中心位置后得到的平移网格,称为左上侧平移网格,此时典型目标位于左上侧平移网格的右下侧邻域网格的中心;
N3(T)代表将初始网格的中心平移到中心网格的上侧邻域网格的中心位置后得到的平移网格,称为上侧平移网格,此时典型目标位于上侧平移网格的下侧邻域网格的中心;
N4(T)代表将初始网格的中心平移到中心网格的右上侧邻域网格的中心位置后得到的平移网格,称为右上侧平移网格,此时典型目标位于右上侧平移网格的左下侧邻域网格的中心;
N5(T)代表将初始网格的中心平移到中心网格的右侧邻域网格的中心位置后得到的平移网格,称为右侧平移网格,此时典型目标位于右侧平移网格的左侧邻域网格的中心;
N6(T)代表将初始网格的中心平移到中心网格的右下侧邻域网格的中心位置后得到的平移网格,称为右下侧平移网格,此时典型目标位于右下侧平移网格的左上侧邻域网格的中心;
N7(T)代表将初始网格的中心平移到中心网格的下侧邻域网格的中心位置后得到的平移网格,称为下侧平移网格,此时典型目标位于下侧平移网格的上侧邻域网格的中心;
N8(T)代表将初始网格的中心平移到中心网格的左下侧邻域网格的中心位置后得到的平移网格,称为左下侧平移网格,此时典型目标位于左下侧平移网格的右上侧邻域网格的中心。
优选地,步骤4中,初始样本
Figure GDA0003624650320000031
包括初始网格的切片和典型目标T的外接矩形在初始网格的切片中的位置信息,其中,初始网格的切片的大小为3δ×3δ,典型目标T的外接矩形在初始网格的切片中的位置信息用典型目标T的外接矩形的左下角和右上角的位置信息表示:
Figure GDA0003624650320000032
其中,
Figure GDA0003624650320000033
分别是典型目标T外接矩形在初始网格的切片中的左下角、右上角的坐标,w、h分别是典型目标T的外接矩形的宽度和长度。
优选地,步骤5中,
Figure GDA0003624650320000034
为左侧平移网格的样本,包括左侧平移网格的切片和典型目标T的外接矩形在左侧平移网格的切片中的位置信息,典型目标T的外接矩形在左侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000035
其中,
Figure GDA0003624650320000036
分别为典型目标T外接矩形在左侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA0003624650320000037
为左上侧平移网格的样本,包括左上侧平移网格的切片和典型目标T的外接矩形在左上侧平移网格的切片中的位置信息,典型目标T的外接矩形在左上侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000038
其中,
Figure GDA0003624650320000039
分别为典型目标T外接矩形在左上侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA00036246503200000310
为上侧平移网格的样本,包括上侧平移网格的切片和典型目标T的外接矩形在上侧平移网格的切片中的位置信息,典型目标T的外接矩形在上侧平移网格的切片中的位置信息表示为:
Figure GDA00036246503200000311
其中,
Figure GDA0003624650320000041
分别为典型目标T外接矩形在上侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA0003624650320000042
为右上侧平移网格的样本,包括右上侧平移网格的切片和典型目标T的外接矩形在右上侧平移网格的切片中的位置信息,典型目标T的外接矩形在右上侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000043
其中,
Figure GDA0003624650320000044
分别为典型目标T外接矩形在右上侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA0003624650320000045
为右侧平移网格的样本,包括右侧平移网格的切片和典型目标T的外接矩形在右侧平移网格的切片中的位置信息,典型目标T的外接矩形在右侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000046
其中,
Figure GDA0003624650320000047
分别为典型目标T外接矩形在右侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA0003624650320000048
为右下侧平移网格的样本,包括右下侧平移网格的切片和典型目标T的外接矩形在右下侧平移网格的切片中的位置信息,典型目标T的外接矩形在右下侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000049
其中,
Figure GDA00036246503200000410
分别为典型目标T外接矩形在右下侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA00036246503200000411
为下侧平移网格的样本,包括下侧平移网格的切片和典型目标T的外接矩形在下侧平移网格的切片中的位置信息,典型目标T的外接矩形在下侧平移网格的切片中的位置信息表示为:
Figure GDA00036246503200000412
其中,
Figure GDA0003624650320000051
分别为典型目标T外接矩形在下侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA0003624650320000052
为左下侧平移网格的样本,包括左下侧平移网格的切片和典型目标T的外接矩形在左下侧平移网格的切片中的位置信息,典型目标T的外接矩形在左下侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000053
其中,
Figure GDA0003624650320000054
分别为典型目标T外接矩形在左下侧平移网格的切片中的左下角、右上角的坐标。
本发明具有的有益效果是:
本发明提供的面向目标检测的遥感影像深度学习训练样本增强处理方法,基于遥感图像中的典型目标,考虑遥感影像深度学习不同训练样本之间的局部特征差异性,构建典型目标周围的8-邻域网格,利用典型目标在8-邻域网格的相对位置关系,裁剪8-邻域网格区域并标注典型目标在切片中的位置得到典型目标的样本数据,将样本数量扩大了8倍,实现基于目标的遥感影像深度学习训练样本增强。
附图说明
图1为本发明的步骤流程图。
图2为中心网格与8-邻域网格构成的初始网格的示意图。
图3为中心网格移动为左侧平移网格。
图4为中心网格移动为左上侧平移网格。
图5为中心网格移动为上侧平移网格。
图6为中心网格移动为右上侧平移网格。
图7为中心网格移动为右侧平移网格。
图8为中心网格移动为右下侧平移网格。
图9为中心网格移动为下侧平移网格。
图10为中心网格移动为左下侧平移网格。
具体实施方式
下面结合附图和具体实施例对本发明的具体实施方式做进一步说明:
结合图1至图10,一种面向弱小目标检测的遥感影像深度学习训练样本增强方法,包括以下步骤:
步骤1:收集包含典型目标T的遥感图像,对遥感图像预处理后,获得镶嵌好的遥感图像,在一幅镶嵌好的遥感影像中搜寻典型目标T,获得此镶嵌好的遥感影像中所有典型目标中心的坐标。
步骤2:以其中一个典型目标T为中心,建立以δ为网格半径的中心网格,围绕中心网格构建8-邻域网格,其中每个邻域网格为Gi,i取1至8,每个邻域网格的大小与中心网格相同,且每个邻域网格均与中心网格相接,中心网格与其构建8-邻域网格合称初始网格N(T)。如图2。
G1为中心网格的左侧邻域网格,G2为中心网格的左上侧邻域网格,G3中心网格的上侧邻域网格,G4中心网格的右上侧邻域网格,G5中心网格的右侧邻域网格,G6中心网格的右下侧邻域网格,G7中心网格的下侧邻域网格,G8中心网格的左下侧邻域网格。
图2中,五角星为典型目标T,典型目标T位于中心网格的中心位置。
步骤3:将初始网格的中心分别平移到每个邻域网格Gi的中心得到8个平移后的平移网格Ni(T),i取1至8,在平移过程中,典型目标的位置不变。
如图3,N1(T)代表将初始网格的中心平移到中心网格的左侧邻域网格的中心位置后得到的平移网格,称为左侧平移网格,此时典型目标位于左侧平移网格的右侧邻域网格的中心。
如图4,N2(T)代表将初始网格的中心平移到中心网格的左上侧邻域网格的中心位置后得到的平移网格,称为左上侧平移网格,此时典型目标位于左上侧平移网格的右下侧邻域网格的中心。
如图5,N3(T)代表将初始网格的中心平移到中心网格的上侧邻域网格的中心位置后得到的平移网格,称为上侧平移网格,此时典型目标位于上侧平移网格的下侧邻域网格的中心。
如图6,N4(T)代表将初始网格的中心平移到中心网格的右上侧邻域网格的中心位置后得到的平移网格,称为右上侧平移网格,此时典型目标位于右上侧平移网格的左下侧邻域网格的中心。
如图7,N5(T)代表将初始网格的中心平移到中心网格的右侧邻域网格的中心位置后得到的平移网格,称为右侧平移网格,此时典型目标位于右侧平移网格的左侧邻域网格的中心。
如图8,N6(T)代表将初始网格的中心平移到中心网格的右下侧邻域网格的中心位置后得到的平移网格,称为右下侧平移网格,此时典型目标位于右下侧平移网格的左上侧邻域网格的中心。
如图9,N7(T)代表将初始网格的中心平移到中心网格的下侧邻域网格的中心位置后得到的平移网格,称为下侧平移网格,此时典型目标位于下侧平移网格的上侧邻域网格的中心。
如图10,N8(T)代表将初始网格的中心平移到中心网格的左下侧邻域网格的中心位置后得到的平移网格,称为左下侧平移网格,此时典型目标位于左下侧平移网格的右上侧邻域网格的中心。
步骤4:获得初始网格的切片,并获取典型目标T的外接矩形在初始网格的切片中的位置信息,从而获得初始样本
Figure GDA0003624650320000071
初始样本
Figure GDA0003624650320000072
包括初始网格的切片和典型目标T的外接矩形在初始网格的切片中的位置信息,其中,初始网格的切片的大小为3δ×3δ,典型目标T的外接矩形在初始网格的切片中的位置信息用典型目标T的外接矩形的左下角和右上角和右下角的位置信息表示:
Figure GDA0003624650320000073
其中,
Figure GDA0003624650320000074
分别是典型目标T外接矩形在初始网格的切片中的左下角、右上角的坐标,w、h分别是典型目标T的外接矩形的宽度和长度。
步骤5:获得8个平移后的平移网格Ni(T)的切片,并分别获取典型目标T的外接矩形在各个平移网格的切片中的位置信息,从而获得平移样本集
Figure GDA0003624650320000075
i取1至8。
Figure GDA0003624650320000076
为左侧平移网格的样本,包括左侧平移网格的切片和典型目标T的外接矩形在左侧平移网格的切片中的位置信息,典型目标T的外接矩形在左侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000077
其中,
Figure GDA0003624650320000078
分别为典型目标T外接矩形在左侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA0003624650320000079
为左上侧平移网格的样本,包括左上侧平移网格的切片和典型目标T的外接矩形在左上侧平移网格的切片中的位置信息,典型目标T的外接矩形在左上侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000081
其中,
Figure GDA0003624650320000082
分别为典型目标T外接矩形在左上侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA0003624650320000083
为上侧平移网格的样本,包括上侧平移网格的切片和典型目标T的外接矩形在上侧平移网格的切片中的位置信息,典型目标T的外接矩形在上侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000084
其中,
Figure GDA0003624650320000085
分别为典型目标T外接矩形在上侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA0003624650320000086
为右上侧平移网格的样本,包括右上侧平移网格的切片和典型目标T的外接矩形在右上侧平移网格的切片中的位置信息,典型目标T的外接矩形在右上侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000087
其中,
Figure GDA0003624650320000088
分别为典型目标T外接矩形在右上侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA0003624650320000089
为右侧平移网格的样本,包括右侧平移网格的切片和典型目标T的外接矩形在右侧平移网格的切片中的位置信息,典型目标T的外接矩形在右侧平移网格的切片中的位置信息表示为:
Figure GDA00036246503200000810
其中,
Figure GDA00036246503200000811
分别为典型目标T外接矩形在右侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA00036246503200000812
为右下侧平移网格的样本,包括右下侧平移网格的切片和典型目标T的外接矩形在右下侧平移网格的切片中的位置信息,典型目标T的外接矩形在右下侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000091
其中,
Figure GDA0003624650320000092
分别为典型目标T外接矩形在右下侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA0003624650320000093
为下侧平移网格的样本,包括下侧平移网格的切片和典型目标T的外接矩形在下侧平移网格的切片中的位置信息,典型目标T的外接矩形在下侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000094
其中,
Figure GDA0003624650320000095
分别为典型目标T外接矩形在下侧平移网格的切片中的左下角、右上角的坐标;
Figure GDA0003624650320000096
为左下侧平移网格的样本,包括左下侧平移网格的切片和典型目标T的外接矩形在左下侧平移网格的切片中的位置信息,典型目标T的外接矩形在左下侧平移网格的切片中的位置信息表示为:
Figure GDA0003624650320000097
其中,
Figure GDA0003624650320000098
分别为典型目标T外接矩形在左下侧平移网格的切片中的左下角、右上角的坐标。
步骤6:融合步骤4获得的初始样本
Figure GDA0003624650320000099
和步骤5获得的平移样本集
Figure GDA00036246503200000910
得到一个典型目标的样本集S;
步骤7:对遥感影像中的所有的典型目标T执行步骤2-步骤6,获得所有的典型目标的样本集。
当然,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术邻域的技术人员在本发明的实质范围内所做出的变化、改型、添加或替换,也应属于本发明的保护范围。

Claims (5)

1.一种面向弱小目标检测的遥感影像深度学习训练样本增强方法,其特征在于,包括以下步骤:
步骤1:收集包含典型目标T的遥感图像,对遥感图像预处理后,获得镶嵌好的遥感图像,在一幅镶嵌好的遥感影像中搜寻典型目标T,获得此镶嵌好的遥感影像中所有典型目标中心的坐标;
步骤2:以其中一个典型目标T为中心,建立以δ为网格半径的中心网格,围绕中心网格构建8-邻域网格,其中每个邻域网格为Gi,i取1至8,每个邻域网格的大小与中心网格相同,且每个邻域网格均与中心网格相接,中心网格与其构建8-邻域网格合称初始网格N(T);
步骤3:将初始网格的中心分别平移到每个邻域网格Gi的中心得到8个平移后的平移网格Ni(T),i取1至8,在平移过程中,典型目标的位置不变;
步骤4:获得初始网格的切片,并获取典型目标T的外接矩形在初始网格的切片中的位置信息,从而获得初始样本
Figure FDA0003624650310000011
步骤5:获得8个平移后的平移网格Ni(T)的切片,并分别获取典型目标T的外接矩形在各个平移网格的切片中的位置信息,从而获得平移样本集
Figure FDA0003624650310000012
i取1至8;
步骤6:融合步骤4获得的初始样本
Figure FDA0003624650310000013
和步骤5获得的平移样本集
Figure FDA0003624650310000014
得到一个典型目标的样本集S;
步骤7:对遥感影像中的所有的典型目标T执行步骤2-步骤6,获得所有的典型目标的样本集。
2.根据权利要求1所述的一种面向弱小目标检测的遥感影像深度学习训练样本增强方法,其特征在于,步骤2中,G1为中心网格的左侧邻域网格,G2为中心网格的左上侧邻域网格,G3中心网格的上侧邻域网格,G4中心网格的右上侧邻域网格,G5中心网格的右侧邻域网格,G6中心网格的右下侧邻域网格,G7中心网格的下侧邻域网格,G8中心网格的左下侧邻域网格。
3.根据权利要求1所述的一种面向弱小目标检测的遥感影像深度学习训练样本增强方法,其特征在于,步骤3中,N1(T)代表将初始网格的中心平移到中心网格的左侧邻域网格的中心位置后得到的平移网格,称为左侧平移网格,此时典型目标位于左侧平移网格的右侧邻域网格的中心;
N2(T)代表将初始网格的中心平移到中心网格的左上侧邻域网格的中心位置后得到的平移网格,称为左上侧平移网格,此时典型目标位于左上侧平移网格的右下侧邻域网格的中心;
N3(T)代表将初始网格的中心平移到中心网格的上侧邻域网格的中心位置后得到的平移网格,称为上侧平移网格,此时典型目标位于上侧平移网格的下侧邻域网格的中心;
N4(T)代表将初始网格的中心平移到中心网格的右上侧邻域网格的中心位置后得到的平移网格,称为右上侧平移网格,此时典型目标位于右上侧平移网格的左下侧邻域网格的中心;
N5(T)代表将初始网格的中心平移到中心网格的右侧邻域网格的中心位置后得到的平移网格,称为右侧平移网格,此时典型目标位于右侧平移网格的左侧邻域网格的中心;
N6(T)代表将初始网格的中心平移到中心网格的右下侧邻域网格的中心位置后得到的平移网格,称为右下侧平移网格,此时典型目标位于右下侧平移网格的左上侧邻域网格的中心;
N7(T)代表将初始网格的中心平移到中心网格的下侧邻域网格的中心位置后得到的平移网格,称为下侧平移网格,此时典型目标位于下侧平移网格的上侧邻域网格的中心;
N8(T)代表将初始网格的中心平移到中心网格的左下侧邻域网格的中心位置后得到的平移网格,称为左下侧平移网格,此时典型目标位于左下侧平移网格的右上侧邻域网格的中心。
4.根据权利要求1所述的一种面向弱小目标检测的遥感影像深度学习训练样本增强方法,其特征在于,步骤4中,初始样本
Figure FDA0003624650310000021
包括初始网格的切片和典型目标T的外接矩形在初始网格的切片中的位置信息,其中,初始网格的切片的大小为3δ×3δ,典型目标T的外接矩形在初始网格的切片中的位置信息用典型目标T的外接矩形的左下角和右上角的位置信息表示:
Figure FDA0003624650310000022
其中,
Figure FDA0003624650310000023
分别是典型目标T外接矩形在初始网格的切片中的左下角、右上角的坐标,w、h分别是典型目标T的外接矩形的宽度和长度。
5.根据权利要求3所述的一种面向弱小目标检测的遥感影像深度学习训练样本增强方法,其特征在于,步骤5中,
Figure FDA0003624650310000024
为左侧平移网格的样本,包括左侧平移网格的切片和典型目标T的外接矩形在左侧平移网格的切片中的位置信息,典型目标T的外接矩形在左侧平移网格的切片中的位置信息表示为:
Figure FDA0003624650310000031
其中,
Figure FDA0003624650310000032
分别为典型目标T外接矩形在左侧平移网格的切片中的左下角、右上角的坐标;
Figure FDA0003624650310000033
为左上侧平移网格的样本,包括左上侧平移网格的切片和典型目标T的外接矩形在左上侧平移网格的切片中的位置信息,典型目标T的外接矩形在左上侧平移网格的切片中的位置信息表示为:
Figure FDA0003624650310000034
其中,
Figure FDA0003624650310000035
分别为典型目标T外接矩形在左上侧平移网格的切片中的左下角、右上角的坐标;
Figure FDA0003624650310000036
为上侧平移网格的样本,包括上侧平移网格的切片和典型目标T的外接矩形在上侧平移网格的切片中的位置信息,典型目标T的外接矩形在上侧平移网格的切片中的位置信息表示为:
Figure FDA0003624650310000037
其中,
Figure FDA0003624650310000038
分别为典型目标T外接矩形在上侧平移网格的切片中的左下角、右上角的坐标;
Figure FDA0003624650310000039
为右上侧平移网格的样本,包括右上侧平移网格的切片和典型目标T的外接矩形在右上侧平移网格的切片中的位置信息,典型目标T的外接矩形在右上侧平移网格的切片中的位置信息表示为:
Figure FDA00036246503100000310
其中,
Figure FDA00036246503100000311
分别为典型目标T外接矩形在右上侧平移网格的切片中的左下角、右上角的坐标;
Figure FDA00036246503100000312
为右侧平移网格的样本,包括右侧平移网格的切片和典型目标T的外接矩形在右侧平移网格的切片中的位置信息,典型目标T的外接矩形在右侧平移网格的切片中的位置信息表示为:
Figure FDA0003624650310000041
其中,
Figure FDA0003624650310000042
分别为典型目标T外接矩形在右侧平移网格的切片中的左下角、右上角的坐标;
Figure FDA0003624650310000043
为右下侧平移网格的样本,包括右下侧平移网格的切片和典型目标T的外接矩形在右下侧平移网格的切片中的位置信息,典型目标T的外接矩形在右下侧平移网格的切片中的位置信息表示为:
Figure FDA0003624650310000044
其中,
Figure FDA0003624650310000045
分别为典型目标T外接矩形在右下侧平移网格的切片中的左下角、右上角的坐标;
Figure FDA0003624650310000046
为下侧平移网格的样本,包括下侧平移网格的切片和典型目标T的外接矩形在下侧平移网格的切片中的位置信息,典型目标T的外接矩形在下侧平移网格的切片中的位置信息表示为:
Figure FDA0003624650310000047
其中,
Figure FDA0003624650310000048
分别为典型目标T外接矩形在下侧平移网格的切片中的左下角、右上角的坐标;
Figure FDA0003624650310000049
为左下侧平移网格的样本,包括左下侧平移网格的切片和典型目标T的外接矩形在左下侧平移网格的切片中的位置信息,典型目标T的外接矩形在左下侧平移网格的切片中的位置信息表示为:
Figure FDA00036246503100000410
其中,
Figure FDA00036246503100000411
分别为典型目标T外接矩形在左下侧平移网格的切片中的左下角、右上角的坐标。
CN202110677543.7A 2021-06-18 2021-06-18 面向弱小目标检测的遥感影像深度学习训练样本增强方法 Active CN113392782B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110677543.7A CN113392782B (zh) 2021-06-18 2021-06-18 面向弱小目标检测的遥感影像深度学习训练样本增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110677543.7A CN113392782B (zh) 2021-06-18 2021-06-18 面向弱小目标检测的遥感影像深度学习训练样本增强方法

Publications (2)

Publication Number Publication Date
CN113392782A CN113392782A (zh) 2021-09-14
CN113392782B true CN113392782B (zh) 2022-06-17

Family

ID=77621885

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110677543.7A Active CN113392782B (zh) 2021-06-18 2021-06-18 面向弱小目标检测的遥感影像深度学习训练样本增强方法

Country Status (1)

Country Link
CN (1) CN113392782B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107563411A (zh) * 2017-08-07 2018-01-09 西安电子科技大学 基于深度学习的在线sar目标检测方法
CN111709960A (zh) * 2020-04-30 2020-09-25 广东利元亨智能装备股份有限公司 一种基于元胞自动机理论的图像边缘精准定位方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7522779B2 (en) * 2004-06-30 2009-04-21 Accuray, Inc. Image enhancement method and system for fiducial-less tracking of treatment targets
US10430961B2 (en) * 2015-12-16 2019-10-01 Objectvideo Labs, Llc Using satellite imagery to enhance a 3D surface model of a real world cityscape
US11004461B2 (en) * 2017-09-01 2021-05-11 Newton Howard Real-time vocal features extraction for automated emotional or mental state assessment
CN112084871B (zh) * 2020-08-10 2024-02-13 浙江工业大学 一种基于弱监督学习的高分遥感目标边界提取方法
CN112381730B (zh) * 2020-11-12 2024-02-02 上海航天计算机技术研究所 一种遥感影像数据扩增方法
CN112348758B (zh) * 2020-11-12 2022-09-02 中国电子科技集团公司第五十四研究所 一种光学遥感图像数据增强方法及目标识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107563411A (zh) * 2017-08-07 2018-01-09 西安电子科技大学 基于深度学习的在线sar目标检测方法
CN111709960A (zh) * 2020-04-30 2020-09-25 广东利元亨智能装备股份有限公司 一种基于元胞自动机理论的图像边缘精准定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
On the influence of image enhancement on fractal-based automatic osteoporosis detection from calcaneum x-rays;L. Darlea, et.al;《International Symposium on Signals, Circuits and Systems》;20050926;全文 *
基于八邻域的自适应P-Laplace图像修复算法;张波;《软件导刊 》;20170327;全文 *

Also Published As

Publication number Publication date
CN113392782A (zh) 2021-09-14

Similar Documents

Publication Publication Date Title
CN111723585B (zh) 一种风格可控的图像文本实时翻译与转换方法
US10817741B2 (en) Word segmentation system, method and device
CN108764229B (zh) 一种基于计算机视觉技术的水尺图像自动识别方法
CN111626190A (zh) 基于聚类分区进行刻度识别的水位监测方法
CN112052853B (zh) 一种基于深度学习的手写气象档案资料的文本定位方法
CN109448001B (zh) 一种图片自动裁剪方法
CN107563379B (zh) 用于对自然场景图像中文本的定位方法
CN107871316B (zh) 基于深度神经网络的x光片手骨兴趣区域自动提取方法
CN113919442B (zh) 一种基于卷积神经网络烟叶成熟度状态识别方法
CN108629762B (zh) 一种骨龄评测模型减少干扰特征的图像预处理方法及系统
CN112989995B (zh) 文本检测方法、装置及电子设备
CN109544564A (zh) 一种医疗图像分割方法
CN111640128A (zh) 一种基于U-Net网络的细胞图像分割方法
CN114120094A (zh) 一种基于人工智能的水污染识别方法及系统
CN109766892A (zh) 一种基于边缘检测的射线检测图像标记信息字符分割方法
CN107220644B (zh) 一种心电图扫描图像倾斜度校正方法
CN104050674B (zh) 一种显著性区域检测方法及装置
CN111445386A (zh) 基于文本内容四点检测的图像校正方法
CN110889374A (zh) 印章图像处理方法、装置、计算机及存储介质
Huang et al. Retinal vessel segmentation using simple SPCNN model and line connector
CN113392782B (zh) 面向弱小目标检测的遥感影像深度学习训练样本增强方法
CN110084810B (zh) 一种肺结节图像检测方法、模型训练方法、装置及存储介质
CN109615626B (zh) 一种芯片表面印刷符号结构缺陷的质量评估方法
CN115115939B (zh) 基于特征注意力机制的遥感图像目标细粒度识别方法
CN108460383B (zh) 基于神经网络与图像分割的图像显著性精化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant