CN117292337A - 遥感图像目标检测方法 - Google Patents
遥感图像目标检测方法 Download PDFInfo
- Publication number
- CN117292337A CN117292337A CN202311576046.3A CN202311576046A CN117292337A CN 117292337 A CN117292337 A CN 117292337A CN 202311576046 A CN202311576046 A CN 202311576046A CN 117292337 A CN117292337 A CN 117292337A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- sample
- undetected
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 113
- 238000000034 method Methods 0.000 claims abstract description 56
- 230000000877 morphologic effect Effects 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims description 40
- 238000003702 image correction Methods 0.000 claims description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 9
- 238000005260 corrosion Methods 0.000 claims description 8
- 230000007797 corrosion Effects 0.000 claims description 8
- 238000004140 cleaning Methods 0.000 claims description 7
- 230000001965 increasing effect Effects 0.000 claims description 7
- 230000003247 decreasing effect Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 7
- 238000002372 labelling Methods 0.000 description 7
- 230000010339 dilation Effects 0.000 description 5
- 238000003708 edge detection Methods 0.000 description 5
- 230000003628 erosive effect Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005530 etching Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000001502 supplementing effect Effects 0.000 description 2
- 244000181917 Rubus leucodermis Species 0.000 description 1
- 235000011036 Rubus leucodermis Nutrition 0.000 description 1
- 235000003942 Rubus occidentalis Nutrition 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000008961 swelling Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/36—Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nonlinear Science (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种遥感图像目标检测方法,包括:在待测遥感图像中,确定目标出现区域;根据目标出现区域,对待测遥感图像进行裁剪及切片,得到待测图像;采用预先训练好的目标检测模型对待测图像进行检测,确定遥感图像目标;其中,遥感图像目标为移动目标;以及预先训练好的目标检测模型由形态学方法训练得到,形态学方法包括数据增强、目标描框确定和目标最小外接矩形确定中的一项或多项。本发明的方法,提高了模型对遥感图像的目标检测率,以及大幅减少了数据计算量。
Description
技术领域
本发明涉及遥感图像检测技术领域,尤其涉及一种遥感图像目标检测方法。
背景技术
随着社会的发展和科技的进步,城市化进程加速与交通需求不断增长,车辆目标检测成为了智能交通系统、城市规划、环境监测、军事侦察等领域的关键技术之一。遥感技术作为一种获取地表信息的重要手段,具有广泛的应用前景,因此基于遥感影像的车辆目标快速检测方法备受关注。遥感影像数据与传统的自然图像存在一些明显的区别,这些特点对于车辆目标检测提出了新的挑战。
首先,遥感影像通常具有高分辨率和大尺度的特点,涵盖范围广,车辆目标大小和形状多样。其次,遥感影像中车辆目标与复杂的背景环境交织在一起,可能出现遮挡、部分遮挡或与其他目标混合的情况。此外,由于云层、阴影等因素的影响,遥感影像可能存在光照不均匀和图像质量不佳的问题,影响了目标检测的稳定性。
传统的车辆目标检测方法主要基于手工特征提取,这些方法通常涉及边缘检测、形状匹配、色彩特征等。然而,传统方法的性能受限于手工特征的选择和提取,无法应对复杂多变的车辆目标及背景干扰,且其在大规模遥感影像中的检测效率较低。针对遥感影像特点,结合深度学习技术进行车辆目标快速检测,可解决上述问题,但是深度学习技术工程化应用时往往受限于端节点本身的计算能力,导致计算速度较慢。
发明内容
(一)要解决的技术问题
针对现有的技术问题,本发明提供一种遥感图像目标检测方法,用于至少部分解决以上技术问题。
(二)技术方案
本发明提供一种遥感图像目标检测方法,包括:在待测遥感图像中,确定目标出现区域;根据目标出现区域,对待测遥感图像进行裁剪及切片,得到待测图像;采用预先训练好的目标检测模型对待测图像进行检测,确定遥感图像目标;其中,遥感图像目标为移动目标;以及预先训练好的目标检测模型由形态学方法训练得到,形态学方法包括数据增强、目标描框确定和目标最小外接矩形确定中的一项或多项。
可选地,在待测遥感图像中,确定目标出现区域包括:根据遥感图像目标的移动信息,确定目标出现区域的经纬度范围;其中,移动信息包括遥感图像目标的移动时间、线速度、角速度、移动方向和初始经纬度。
可选地,对目标检测模型进行训练包括:获取开源图像样本集;统一样本集中的图像尺寸;对样本集进行随机变换或增减操作,得到扩充样本集;采用扩充样本集对目标检测模型进行训练;其中,随机变换包括翻转、旋转、拉伸和明暗度变化中的一项或多项,增减操作包括负样本添加。
可选地,对目标检测模型进行训练还包括:获取目标标注信息,目标标注信息包括目标中心点的像素坐标;采用k-means算法对目标中心点的像素坐标进行聚类,确定目标描框。
可选地,在采用扩充样本集对目标检测模型进行训练之后,对目标检测模型进行训练还包括:确定模型检测结果,模型检测结果包括已检出目标和未检出目标;将已检出目标对应的样本作为再次训练样本集;对未检出目标对应的样本进行图像修正,确定目标最小外接矩形;以及根据再次训练样本集和已确定目标最小外接矩形的样本对目标检测模型进行迭代训练,直至模型检测结果不包括未检出目标。
可选地,对未检出目标对应的样本进行图像修正,确定目标最小外接矩形包括:对未检出目标对应的样本进行锐化处理,确定图像目标;对图像目标和未检出目标对应的样本进行线性组合,得到图像修正样本;对图像修正样本进行目标提取,确定目标最小外接矩形。
可选地,对未检出目标对应的样本进行图像修正,确定目标最小外接矩形还包括:选取预设尺寸的矩形核;采用矩形核对未检出目标对应的样本进行膨胀及腐蚀处理,以去除未检出目标对应的样本中的噪声。
可选地,对未检出目标对应的样本进行图像修正,确定目标最小外接矩形还包括:根据未检出目标对应的样本的影像灰度分布概率,对未检出目标对应的样本进行排序;确定预设比例位置的样本灰度值为二值化阈值;在未检出目标对应的样本的灰度大于二值化阈值的情况下,调整未检出目标对应的样本的灰度值为1;以及在未检出目标对应的样本的灰度小于二值化阈值的情况下,调整未检出目标对应的样本的灰度值为0。
可选地,对未检出目标对应的样本进行图像修正,确定目标最小外接矩形还包括:确定未检出目标对应的样本的无地物归属像素点;对无地物归属像素点的相邻像素点进行相似度判断;在无地物归属像素点与相邻像素点的相似度大于预设阈值的情况下,将无地物归属像素点与相邻像素点合并在同一区域;以及以同一区域中的像素点为中心,重复进行相似相邻像素点合并,直至未检出目标对应的样本中的像素点均有地物归属。
可选地,在根据已确定目标最小外接矩形的样本对目标检测模型进行训练之前,对目标检测模型进行训练还包括:对已确定目标最小外接矩形的样本进行样本清洗,以去除检测错误或未完全检测出目标的样本。
(三)有益效果
与现有技术相比,本发明提供的遥感图像目标检测方法,至少具有以下有益效果:
(1)本发明的遥感图像目标检测方法,通过结合形态学方法,如数据增强、目标描框确定和目标最小外接矩形确定,对目标检测模型进行训练,提高了模型检测精度,进而提高了该模型对遥感图像的目标检测率。
(2)本发明的遥感图像目标检测方法,利用目标的移动信息,对数据源进行筛选检测,为端节点遥感图像目标检测工程应用提供实现方案,可大幅减少数据计算量。
附图说明
通过以下参照附图对本发明实施例的描述,本发明的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本发明实施例的遥感图像目标检测方法的流程图;
图2示意性示出了根据本发明实施例的遥感图像目标检测装置的结构框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
需要说明的是,在附图或说明书描述中,相似或相同的部分都使用相同的图号。说明书中示例的各个实施例中的技术特征在无冲突的前提下可以进行自由组合形成新的方案,且在附图中,实施例的形状或是厚度可扩大,并以简化或是方便标示。再者,附图中未绘示或描述的元件或实现方式,为所属技术领域中普通技术人员所知的形式。另外,虽然本文可提供包含特定值的参数的示范,但应了解,参数无需确切等于相应的值,而是可在可接受的误差容限或设计约束内近似于相应的值。
除非存在技术障碍或矛盾,本发明的上述各种实施方式可以自由组合以形成另外的实施例,这些另外的实施例均在本发明的保护范围中。
虽然结合附图对本发明进行了说明,但是附图中发明的实施例旨在对本发明优选实施方式进行示例性说明,而不能理解为对本发明的一种限制。附图中的尺寸比例仅仅是示意性的,并不能理解为对本发明的限制。
虽然本发明总体构思的一些实施例已被显示和说明,本领域普通技术人员将理解,在不背离本总体发明构思的原则和精神的情况下,可对这些实施例做出改变。
图1示意性示出了根据本发明实施例的遥感图像目标检测方法的流程图。
根据本发明的实施例,如图1所示,该实施例的遥感图像目标检测方法例如包括操作S110~操作S130。
在操作S110,在待测遥感图像中,确定目标出现区域。
在操作S120,根据目标出现区域,对待测遥感图像进行裁剪及切片,得到待测图像。
在操作S130,采用预先训练好的目标检测模型对待测图像进行检测,确定遥感图像目标。其中,遥感图像目标为移动目标。以及预先训练好的目标检测模型由形态学方法训练得到,形态学方法包括数据增强、目标描框确定和目标最小外接矩形确定中的一项或多项。
例如,移动目标为车辆。在待测遥感图像中,首先要确定车辆可能出现的区域。这可以通过图像分析技术,例如颜色阈值、边缘检测等方法来实现。例如,可以通过搜索图像中的边缘和纹理,来识别出道路和车辆的可能位置。根据目标出现区域,可以将待测遥感图像中包含车辆的部分裁剪出来,形成待测图像。使用预先训练好的目标检测模型来检测待测图像中的车辆。这个模型已经通过形态学方法(如数据增强、目标描框确定和目标最小外接矩形确定等)进行过训练。通过分析目标检测模型在待测图像上的检测结果,可以确定遥感图像中是否存在车辆。如果存在,还可以进一步获取车辆的位置、尺寸、方向等信息。
其中,形态学方法可以帮助更好地理解图像中的目标。例如,数据增强可以通过改变图像的尺寸、旋转角度、对比度等方式来增加数据的多样性,提高模型的泛化能力。目标描框可以帮助明确地标识出车辆的位置。目标最小外接矩形则可以提供一个最简单的包围车辆的矩形,这对于后续的目标跟踪和行为分析非常重要。
可以理解的是,本发明的方法也可以应用到其他类型的移动目标的检测中,如行人、飞机等。
根据本发明的实施例,例如通过操作S211来确定目标出现区域。
在操作S211,根据遥感图像目标的移动信息,确定目标出现区域的经纬度范围。其中,移动信息包括遥感图像目标的移动时间、线速度、角速度、移动方向和初始经纬度。
例如,目标出现区域的经纬度范围可以为目标在一段时间内的移动距离在经纬度方向上的投影。通过如下公式计算得到:
(1)
其中,Lon、Lat为车辆移动距离在经纬度方向上的投影,preLon、preLat为初始经纬度,v为车辆线速度,w为车辆角速度,t为行驶时间,direction为车辆方向,根据目标经纬度范围对遥感影像进行裁剪并切片。
根据本发明的实施例,例如通过操作S331~S334来对目标检测模型进行训练。
在操作S331,获取开源图像样本集。
在操作S332,统一样本集中的图像尺寸。
在操作S333,对样本集进行随机变换或增减操作,得到扩充样本集。
在操作S334,采用扩充样本集对目标检测模型进行训练。其中,随机变换包括翻转、旋转、拉伸和明暗度变化中的一项或多项,增减操作包括负样本添加。
例如,首先,可以从开源数据集中获取包含想要检测目标的图像样本集。例如,如果想要检测车辆,可以从开源数据集中获取包含车辆的图像样本集。为了确保目标检测模型的训练效果,需要将样本集中所有图像的尺寸统一。这样做的目的是为了避免因为图像尺寸不同而导致的模型训练不均匀。可以采用裁剪及补0的方法将初始车辆遥感图像样本集修改至统一尺寸。利用样本集对车辆目标检测模型进行训练,得到训练完成的车辆目标检测模型。
其中,遥感车辆样本集尺寸修改分四种情况:第一种图像的宽和高都大于512,通过裁剪的方式将图像裁剪为以目标为中心的图像,尺寸为512*512。第二种图像的宽大于等于512高小于512,列大于512的地方裁剪掉,添加值都为0的行直至高为512。第三种图像的宽小于512高大于等于512,添加值都为0的列直至宽为512,行大于512的地方进行裁剪。第四种图像的宽和高都小于512,通过补0的方式使得目标尺寸为512*512。
然后,为了提高模型对各种情况下的车辆检测能力,还可以采用数据增强(DataAugmentation)技术对目标检测模型训练样本集进行扩充。该数据增强技术为对原始训练样本进行一系列随机变换或增减操作,生成新的样本,从而增加了模型在不同场景下的适应性,减轻了过拟合问题。
其中,随机变换例如包括:翻转(Flip):将图像水平或垂直翻转,相当于在图像中左右或上下翻转目标。旋转(Rotation):对图像进行随机角度的旋转,模拟目标在不同角度下的外观。拉伸(Scaling):随机调整图像的宽度和高度,模拟目标在不同尺度下的表现。明暗度变化(Brightness/Contrast):调整图像的亮度和对比度,模拟不同光照条件下的目标。以及
通过添加对应数量的负样本(正负样本比例为1:1),可以帮助模型更好地区分目标和背景,提高目标检测的准确性。负样本是指在训练中不属于目标类别(无目标信息)的样本。
例如,在训练目标检测模型之前,首先需要确保样本集中的所有图像具有相同的尺寸。这是因为,模型训练过程中,输入尺寸的一致性对于模型的准确性和稳定性至关重要。比如,可以将所有图像调整为512x512的尺寸。
为了提高模型的泛化能力,可以通过对样本集进行一些随机变换或增减操作来创建扩充样本集。这些操作可以包括:随机翻转:随机将图像水平或垂直翻转,模拟实际场景中车辆可能出现的各种朝向。随机旋转:给定一个旋转角度范围,随机旋转图像,使车辆在各种角度下都能被模型正确检测。随机拉伸:在一定范围内随机改变图像的宽高比,模拟车辆在行驶过程中的各种变形。随机改变明暗度:通过改变图像的亮度或对比度,模拟不同光照条件下的车辆图像。负样本添加:从非车辆图像中随机选择一些图像,添加到样本集中,帮助模型更好地识别和区分车辆和非车辆。
使用经过上述处理后的扩充样本集进行模型训练,可以使模型学习到更多样化的数据分布,提高其在实际应用中的泛化能力。其中,可以选择一些深度学习模型,如YOLO、SSD或Faster R-CNN等来进行训练。这些模型都是专门为目标检测任务设计的,可以有效地从图像中识别出目标,并给出目标的边界框和类别信息。
经过训练后,就可以使用这个模型来检测遥感图像中的车辆了。通过采用样本集对目标检测模型进行训练,并利用扩充样本集来增加模型的泛化能力,可以有效地提高遥感图像目标检测的准确性和鲁棒性。
根据本发明的实施例,例如还可以通过操作S431~S432来对目标检测模型进行训练。
在操作S431,获取目标标注信息,目标标注信息包括目标中心点的像素坐标。
在操作S432,采用k-means算法对目标中心点的像素坐标进行聚类,确定目标描框。
例如,目标检测模型的训练参数(anchor boxes,目标描框)可以通过k-means算法聚类确定。首先,批量读取图像及标注文件夹,将标注信息与图像的宽、高对应相乘,计算出实际标注框大小。将标注框列表输入至Kmeans算法进行聚类计算,从而确定参数anchorboxes的值(宽、高),增加模型先验知识。
其中,Kmeans聚类算法是先在数据集中随机选取K个样本为聚类初始中心点,然后计算其余所有样本与K个样本点的欧式距离:
(2)
其中,(a 1,b 1)和(a 2,b 2)是2个对象的坐标点,D为2个对象间的欧氏距离值。比较样本点与K个中心点的距离值,离哪个中心点距离最近就归为哪一类。然后重新计算簇中心点,并且重复聚类的步骤,直到簇中心点位置收敛时结束。
例如,在训练目标检测模型之前,需要获取车辆的目标标注信息,包括车辆中心点的像素坐标。这可以通过人工标注或使用现有标注工具实现。为了确定目标描框,可以采用k-means算法对目标中心点的像素坐标进行聚类。假设已知车辆的中心点像素坐标,可以将这些坐标作为k-means算法的输入,并设定聚类数量为1。这样,算法将根据距离将这些中心点聚合成一个簇,即车辆的描框。使用经过上述处理后的扩充样本集进行模型训练,可以使模型学习到更多样化的数据分布,提高其在实际应用中的泛化能力。此外,还可以将车辆描框作为训练样本的一部分,用于训练模型学习车辆的形状和大小。
根据本发明的实施例,在采用扩充样本集对目标检测模型进行训练之后,对目标检测模型进行训练例如还包括操作S531~操作S534。
在操作S531,确定模型检测结果,模型检测结果包括已检出目标和未检出目标。
在操作S532,将已检出目标对应的样本作为再次训练样本集。
在操作S533,对未检出目标对应的样本进行图像修正,确定目标最小外接矩形。以及
在操作S534,根据再次训练样本集和已确定目标最小外接矩形的样本对目标检测模型进行迭代训练,直至模型检测结果不包括未检出目标。
例如,使用扩充的样本集来训练模型,这些样本集可能包含了一些噪声或者模糊的目标表示,因此模型在某些情况下不能很好地检测到目标。对于检测结果中未被正确检测到的目标对应的图像,可以采用一系列图像处理技术对其进行修正。例如:锐化:通过增强图像的边缘和细节来提高目标的对比度,使目标更加突出。滤波:通过应用平滑或锐化滤波器来减少图像中的噪声,或者增强图像中的特定特征。二值化:将图像转换为黑白二值图像,以突出目标并减少背景干扰。区域增长:通过将邻近的目标区域合并来扩大目标的大小,从而提高模型对目标的识别能力。
使用修正后的图像和原始扩充样本集中已检出目标对应的样本,一起再次(迭代)训练模型。由于修正后的图像可以提供更清晰、更突出的目标表示,因此模型有可能在这些图像上表现得更好。此外,再次训练也可以帮助模型学习到更多的目标特征和模式,提高其泛化能力。通过结合使用图像修正技术和已成功检测目标的样本集,可以进一步提高模型的检测性能和对不同类型图像的适应能力。
可以理解的是,迭代训练可以是多次基于模型检测结果及对图像进行修正后的不断迭代更新的模型训练。
根据本发明的实施例,例如可以通过操作S6331~S6333对未检出目标对应的样本进行图像修正,确定目标最小外接矩形。
在操作S6331,对未检出目标对应的样本进行锐化处理,确定图像目标。
在操作S6332,对图像目标和未检出目标对应的样本进行线性组合,得到图像修正样本。
在操作S6333,对图像修正样本进行目标提取,确定目标最小外接矩形。
例如,可以对未检出目标的样本进行影像增强。影像增强为影像的高频目标与低频背景线性组合。通过对图像进行锐化处理,得到图像高频成分,再将图像和高频信息按照一定的比例相加,它的原理公式是:
(3)
其中,q表示输出图像,p表示原始输入图像,P HP 是图像的高频信息,可以通过拉普拉斯滤波得到,α是高频增强调节系数。
例如,对于未被检测到的车辆对应的图像样本,可以进行锐化处理,以增强图像中的边缘和细节。例如可以使用拉普拉斯算子或锐化滤波器来增强图像中的边缘。通过锐化处理,可以更好地突出图像中的目标,并更清楚地显示车辆的形状和轮廓。在锐化处理后,可以将锐化后的图像目标和原始图像进行线性组合,以得到修正后的图像。例如可以通过调整锐化图像和原始图像的权重,将它们线性组合在一起。通过这种组合方式,可以平衡锐化处理带来的噪声和细节突出,得到更好的修正效果。
接下来,可以使用一些图像提取技术,如边缘检测、梯度阈值等,从修正后的图像中提取目标。再根据提取的目标来确定车辆的最小外接矩形。例如可以找到目标的四个角点,然后计算这四个角点之间的距离和角度,以此确定一个最小外接矩形。通过将未检出目标对应的样本进行锐化处理、线性组合得到修正样本、目标提取以及确定最小外接矩形,可以对未被检测到的车辆进行修正和提取,进一步提高遥感图像中车辆检测的准确性和鲁棒性。
根据本发明的实施例,例如还可以通过操作S7331~S7332对未检出目标对应的样本进行图像修正,确定目标最小外接矩形。
在操作S7331,选取预设尺寸的矩形核。
在操作S7332,采用矩形核对未检出目标对应的样本进行膨胀及腐蚀处理,以去除未检出目标对应的样本中的噪声。
例如,还可以对未检出目标的样本进行形态学滤波。影像的形态学滤波为闭运算。首先选取一个适当的结构元素(如3*3的矩形核),并且定义其锚定点(如3*3矩形核的中心点),然后通过结构元素对原始图像进行运算,其中以结构元素的最小值填充锚定点的做法为腐蚀,以结构元素的最大值填充锚定点的做法为膨胀。
算法步骤例如为先膨胀后腐蚀,具体地,对于给定的一幅灰度图像I和结构元素b,膨胀和腐蚀操作具体定义如下:
(4)
其中z xy 表示以像素点(x, y)为中心的矩形窗口内像素点集合,结构元素b可按实际情况选择,s、r是矩形核内的像素坐标,表示膨胀运算,/>表示腐蚀运算。将闭运算的结果与原图像作差,进行黑帽运算,可弥合较窄的间断和细长的沟壑,消除小的孔洞,填补轮廓线中的断裂。
例如,首先,选择一个预设尺寸的矩形核。这个矩形核将用于接下来的膨胀和腐蚀处理。选择矩形核的尺寸时,需要考虑未检出目标的大小和形状,以确保能够有效地去除噪声,同时不会过度地改变目标的形状。接下来,将采用矩形核对未检出目标对应的样本进行膨胀和腐蚀处理。膨胀处理可以扩大图像中的目标,而腐蚀处理可以缩小图像中的目标。通过这两种处理方式,可以去除未检出目标对应的样本中的噪声,同时不会对目标本身造成太大的影响。
具体来说,可以先对图像进行膨胀处理,然后进行腐蚀处理。在膨胀处理中,使用矩形核在图像上滑动,并将每个像素与其邻近的像素进行比较。如果一个像素的灰度值高于其邻近的像素,那么这个像素就会被设置为更高的灰度值。在腐蚀处理中,再次使用矩形核对图像进行操作,但这次是将每个像素与其邻近的像素进行比较,并将灰度值较低的像素设置为更低的灰度值。
经过膨胀和腐蚀处理后,未检出目标对应的样本中的噪声将被有效地去除。可以通过阈值分割或边缘检测等技术来提取出目标,并确定其最小外接矩形。对于那些仍然难以检测到的目标,可以进一步使用图像增强技术(如旋转、缩放等)来改变图像的视角和尺度,以帮助模型更好地识别它们。通过选取预设尺寸的矩形核、采用矩形核对未检出目标对应的样本进行膨胀及腐蚀处理、去除未检出目标对应的样本中的噪声,可以进一步修正和优化遥感图像中的车辆检测结果。
根据本发明的实施例,例如还可以通过操作S8331~S8334对未检出目标对应的样本进行图像修正,确定目标最小外接矩形。
在操作S8331,根据未检出目标对应的样本的影像灰度分布概率,对未检出目标对应的样本进行排序。
在操作S8332,确定预设比例位置的样本灰度值为二值化阈值。
在操作S8333,在未检出目标对应的样本的灰度大于二值化阈值的情况下,调整未检出目标对应的样本的灰度值为1。以及
在操作S8334,在未检出目标对应的样本的灰度小于二值化阈值的情况下,调整未检出目标对应的样本的灰度值为0。
例如,影像二值化阈值为统计影像累计灰度直方图,按照影像灰度分布概率从大到小排列,取90%位置的灰度值作为二值化阈值。
例如,首先,计算未检出目标对应的样本的影像灰度分布概率。这可以帮助了解图像中哪些区域的像素值更有可能代表目标。然后,可以根据这些分布概率对样本进行排序。排序的依据可以是灰度值的平均值、中位数、标准差等。在完成排序后,可以选择一个预设的比例位置作为二值化阈值。这个比例位置可以根据需求和目标的特点来确定。例如可以在排序后的样本中找到灰度值的中位数,然后将这个中位数设定为二值化阈值。然后,再根据二值化阈值来调整未检出目标对应的样本的灰度值。具体来说,如果一个样本的灰度值大于二值化阈值,那么就将其调整为1;如果一个样本的灰度值小于二值化阈值,那么就将其调整为0。这样,就可以将原始的灰度图像转换为二值图像,使得目标更加突出。最后,根据调整后的二值图像来确定目标的最小外接矩形。例如可以使用边缘检测算法来找到图像中的边缘,然后根据这些边缘找到目标的四个角点。通过这四个角点确定目标的最小外接矩形。通过根据未检出目标对应的样本的影像灰度分布概率进行排序、确定预设比例位置的样本灰度值为二值化阈值、调整未检出目标对应的样本的灰度值、以及确定目标最小外接矩形,可以进一步优化遥感图像中的车辆检测结果。
根据本发明的实施例,例如还可以通过操作S9331~S9334对未检出目标对应的样本进行图像修正,确定目标最小外接矩形。
在操作S9331,确定未检出目标对应的样本的无地物归属像素点。
在操作S9332,对无地物归属像素点的相邻像素点进行相似度判断。
在操作S9333,在无地物归属像素点与相邻像素点的相似度大于预设阈值的情况下,将无地物归属像素点与相邻像素点合并在同一区域。以及
在操作S9334,以同一区域中的像素点为中心,重复进行相似相邻像素点合并,直至未检出目标对应的样本中的像素点均有地物归属。
例如,还可以采用区域增长算法来确定目标最小外接矩形。区域增长算法为将具有相似性质的像素集合起来构成区域。
首先,对图像顺序扫描,找到第1个还没有地物归属的像素,设该像素为(x 0, y 0)。以(x 0, y 0)为中心,考虑(x 0, y 0)的4邻域像素(x, y)。如果(x 0, y 0)满足生长准则,将(x,y)与(x 0, y 0)合并在同一区域内,同时将(x, y)压入堆栈。从堆栈中取出一个像素,把它当作(x 0, y 0)继续往外生长。当堆栈为空时(有像素可能不属于前面的区域),重复上述步骤,直到图像中的每个点都有归属时,生长结束。
例如,首先,确定未检出目标对应的样本中哪些像素点是无地物归属的。这可以通过比较目标检测模型输出的结果和原始图像来实现。具体来说,可以将目标检测模型的输出与原始图像进行比较,找到那些在目标检测模型输出中没有被分配到任何目标但在原始图像中存在的像素点。这些像素点就是无地物归属的像素点。接下来,可以对无地物归属像素点的相邻像素点进行相似度判断。具体来说,可以计算无地物归属像素点与其相邻像素点的颜色、纹理等特征的相似度。如果相似度大于预设阈值,那么就可以认为这两个像素点是相似的。在无地物归属像素点与相邻像素点的相似度大于预设阈值的情况下,可以将它们合并在同一区域。这个区域可以是一个矩形、圆形或其他形状。通过合并相似的像素点,可以将原本无地物归属的像素点重新分配到有地物归属的区域。
在完成第一轮合并后,可能会发现新的无地物归属的像素点。这时,可以重复执行上述的合并过程,直至未检出目标对应的样本中的所有像素点都有地物归属。通过确定未检出目标对应的样本的无地物归属像素点、对无地物归属像素点的相邻像素点进行相似度判断、将无地物归属像素点与相邻像素点合并在同一区域、以及重复进行相似相邻像素点合并,直至未检出目标对应的样本中的像素点均有地物归属,可以进一步修正遥感图像中的车辆检测结果。
根据本发明的实施例,在根据已确定目标最小外接矩形的样本对目标检测模型进行训练之前,对目标检测模型进行训练例如还包括操作S1031。
在操作S1031,对已确定目标最小外接矩形的样本进行样本清洗,以去除检测错误或未完全检测出目标的样本。
例如,样本清洗为将原数据集及检测出的目标切片样本集中,影像质量差的、检测错误的、目标未检测全的样本删除。在进行再次训练之前,对已确定目标最小外接矩形的样本进行样本清洗,以去除那些检测错误或未完全检测出目标的样本。具体来说,可以根据最小外接矩形的形状和大小对样本进行筛选。例如,如果一个样本的最小外接矩形与周围的其他目标过于接近,或者其形状与实际车辆的形状相差较大,那么就可以将其视为错误的检测结果并去除。在完成样本清洗后,可以使用清洗后的样本对目标检测模型进行训练。通过将已确定目标最小外接矩形的样本进行样本清洗以去除错误或未完全检测出的样本、以及根据这些样本对目标检测模型进行训练,可以提高模型的准确性和鲁棒性,从而更好地识别和检测目标。
综上所述,本发明实施例提出一种遥感图像目标检测方法。针对遥感车辆样本集少、算法检测率不高等问题,在深度学习目标检测的基础上增加了目标移动的先验知识,对可能的目标影像进行切片检测,并且将成功检出的目标影像作为新一轮迭代训练的样本进行训练。该方法可以为遥感车辆目标检测工程应用提供实现方案,极大的提升了车辆目标检测率。
基于上述遥感图像目标检测方法,本发明还提供了一种遥感图像目标检测装置。以下将结合图2对该遥感图像目标检测装置进行详细描述。
图2示意性示出了根据本发明实施例的
遥感图像目标检测装置的结构框图。
如图2所示,该实施例的遥感图像目标检测装置200例如包括:第一确定模块210、裁剪切片模块220和第二确定模块230。
第一确定模块210用于在待测遥感图像中,确定目标出现区域。在一实施例中,第一确定模块210可以用于执行前文描述的操作S110,在此不再赘述。
裁剪切片模块220用于根据目标出现区域,对待测遥感图像进行裁剪及切片,得到待测图像。在一实施例中,裁剪切片模块220可以用于执行前文描述的操作S120,在此不再赘述。
第二确定模块230用于采用预先训练好的目标检测模型对待测图像进行检测,确定遥感图像目标。其中,遥感图像目标为移动目标。以及预先训练好的目标检测模型由形态学方法训练得到,形态学方法包括数据增强、目标描框确定和目标最小外接矩形确定中的一项或多项。在一实施例中,第二确定模块230可以用于执行前文描述的操作S130,在此不再赘述。
根据本发明的实施例,第一确定模块210、裁剪切片模块220和第二确定模块230中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本发明的实施例,第一确定模块210、裁剪切片模块220和第二确定模块230中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一确定模块210、裁剪切片模块220和第二确定模块230中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
产品实施例部分未尽细节之处与方法实施例部分类似,请参见方法实施例部分,此处不再赘述。
应该明白,公开的过程中的步骤的特定顺序或层次是示例性方法的实例。基于设计偏好,应该理解,过程中的步骤的特定顺序或层次可以在不脱离本发明的保护范围的情况下得到重新安排。所附的方法实施例以示例性的顺序给出了各种步骤的要素,并且不是要限于的特定顺序或层次。
还需要说明的是,实施例中提到的方向术语,例如“上”、“下”、“前”、“后”、“左”、“右”等,仅是参考附图的方向,并非用来限制本发明的保护范围。贯穿附图,相同的元素由相同或相近的附图标记来表示。可能导致本发明的理解造成混淆时,将省略常规结构或构造。并且图中各部件的形状、尺寸、位置关系不反映真实大小、比例和实际位置关系。
在上述的详细描述中,各种特征一起组合在单个的实施方案中,以简化本发明。不应该将这种公开方法解释为反映了这样的意图。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。因此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个、三个等,除非另有明确具体的限定。就说明书中使用的术语“包含”,该词的涵盖方式类似于术语“包括”。使用在说明书中的任何一个术语“或者”是要表示“非排它性的或者”。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种遥感图像目标检测方法,其特征在于,包括:
在待测遥感图像中,确定目标出现区域;
根据所述目标出现区域,对所述待测遥感图像进行裁剪及切片,得到待测图像;
采用预先训练好的目标检测模型对所述待测图像进行检测,确定遥感图像目标;
其中,所述遥感图像目标为移动目标;以及
所述预先训练好的目标检测模型由形态学方法训练得到,所述形态学方法包括数据增强、目标描框确定和目标最小外接矩形确定中的一项或多项。
2.根据权利要求1所述的方法,其特征在于,所述在待测遥感图像中,确定目标出现区域包括:
根据所述遥感图像目标的移动信息,确定所述目标出现区域的经纬度范围;
其中,所述移动信息包括所述遥感图像目标的移动时间、线速度、角速度、移动方向和初始经纬度。
3.根据权利要求1所述的方法,其特征在于,对所述目标检测模型进行训练包括:
获取开源图像样本集;
统一所述样本集中的图像尺寸;
对所述样本集进行随机变换或增减操作,得到扩充样本集;
采用所述扩充样本集对所述目标检测模型进行训练;
其中,所述随机变换包括翻转、旋转、拉伸和明暗度变化中的一项或多项,所述增减操作包括负样本添加。
4.根据权利要求3所述的方法,其特征在于,对所述目标检测模型进行训练还包括:
获取目标标注信息,所述目标标注信息包括目标中心点的像素坐标;
采用k-means算法对所述目标中心点的像素坐标进行聚类,确定所述目标描框。
5.根据权利要求3所述的方法,其特征在于,在采用所述扩充样本集对所述目标检测模型进行训练之后,对所述目标检测模型进行训练还包括:
确定模型检测结果,所述模型检测结果包括已检出目标和未检出目标;
将所述已检出目标对应的样本作为再次训练样本集;
对所述未检出目标对应的样本进行图像修正,确定所述目标最小外接矩形;以及
根据所述再次训练样本集和已确定所述目标最小外接矩形的样本对所述目标检测模型进行迭代训练,直至所述模型检测结果不包括未检出目标。
6.根据权利要求5所述的方法,其特征在于,所述对所述未检出目标对应的样本进行图像修正,确定所述目标最小外接矩形包括:
对所述未检出目标对应的样本进行锐化处理,确定图像目标;
对所述图像目标和所述未检出目标对应的样本进行线性组合,得到图像修正样本;
对所述图像修正样本进行目标提取,确定所述目标最小外接矩形。
7.根据权利要求5所述的方法,其特征在于,所述对所述未检出目标对应的样本进行图像修正,确定所述目标最小外接矩形还包括:
选取预设尺寸的矩形核;
采用所述矩形核对所述未检出目标对应的样本进行膨胀及腐蚀处理,以去除所述未检出目标对应的样本中的噪声。
8.根据权利要求5所述的方法,其特征在于,所述对所述未检出目标对应的样本进行图像修正,确定所述目标最小外接矩形还包括:
根据所述未检出目标对应的样本的影像灰度分布概率,对所述未检出目标对应的样本进行排序;
确定预设比例位置的样本灰度值为二值化阈值;
在所述未检出目标对应的样本的灰度大于所述二值化阈值的情况下,调整所述未检出目标对应的样本的灰度值为1;以及
在所述未检出目标对应的样本的灰度小于所述二值化阈值的情况下,调整所述未检出目标对应的样本的灰度值为0。
9.根据权利要求5所述的方法,其特征在于,所述对所述未检出目标对应的样本进行图像修正,确定所述目标最小外接矩形还包括:
确定所述未检出目标对应的样本的无地物归属像素点;
对所述无地物归属像素点的相邻像素点进行相似度判断;
在所述无地物归属像素点与所述相邻像素点的相似度大于预设阈值的情况下,将所述无地物归属像素点与所述相邻像素点合并在同一区域;以及
以所述同一区域中的像素点为中心,重复进行相似相邻像素点合并,直至所述未检出目标对应的样本中的像素点均有地物归属。
10.根据权利要求5所述的方法,其特征在于,在根据已确定所述目标最小外接矩形的样本对所述目标检测模型进行训练之前,对所述目标检测模型进行训练还包括:
对已确定所述目标最小外接矩形的样本进行样本清洗,以去除检测错误或未完全检测出目标的样本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311576046.3A CN117292337A (zh) | 2023-11-24 | 2023-11-24 | 遥感图像目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311576046.3A CN117292337A (zh) | 2023-11-24 | 2023-11-24 | 遥感图像目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117292337A true CN117292337A (zh) | 2023-12-26 |
Family
ID=89252059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311576046.3A Pending CN117292337A (zh) | 2023-11-24 | 2023-11-24 | 遥感图像目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117292337A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118097339A (zh) * | 2024-04-25 | 2024-05-28 | 中国电建集团昆明勘测设计研究院有限公司 | 一种基于低空摄影测量的深度学习样本增强方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115240089A (zh) * | 2022-07-07 | 2022-10-25 | 中国科学院长春光学精密机械与物理研究所 | 一种航空遥感图像的车辆检测方法 |
CN115294169A (zh) * | 2022-07-19 | 2022-11-04 | 天翼云科技有限公司 | 一种车辆追踪方法、装置、电子设备及存储介质 |
CN116310875A (zh) * | 2023-03-24 | 2023-06-23 | 中国工商银行股份有限公司 | 卫星遥感影像的目标检测方法及装置 |
-
2023
- 2023-11-24 CN CN202311576046.3A patent/CN117292337A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115240089A (zh) * | 2022-07-07 | 2022-10-25 | 中国科学院长春光学精密机械与物理研究所 | 一种航空遥感图像的车辆检测方法 |
CN115294169A (zh) * | 2022-07-19 | 2022-11-04 | 天翼云科技有限公司 | 一种车辆追踪方法、装置、电子设备及存储介质 |
CN116310875A (zh) * | 2023-03-24 | 2023-06-23 | 中国工商银行股份有限公司 | 卫星遥感影像的目标检测方法及装置 |
Non-Patent Citations (1)
Title |
---|
青十五: "《弱图像信号的复原理论与方法研究》", 西安:西安电子科技大学出版社, pages: 155 - 159 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118097339A (zh) * | 2024-04-25 | 2024-05-28 | 中国电建集团昆明勘测设计研究院有限公司 | 一种基于低空摄影测量的深度学习样本增强方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108510467B (zh) | 基于深度可变形卷积神经网络的sar图像目标识别方法 | |
CN107424159B (zh) | 基于超像素边缘和全卷积网络的图像语义分割方法 | |
US7995055B1 (en) | Classifying objects in a scene | |
Korus et al. | Multi-scale fusion for improved localization of malicious tampering in digital images | |
CN103295242B (zh) | 一种多特征联合稀疏表示的目标跟踪方法 | |
CN109977997B (zh) | 基于卷积神经网络快速鲁棒的图像目标检测与分割方法 | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
Ghosh et al. | Unsupervised grow-cut: cellular automata-based medical image segmentation | |
WO2013065220A1 (ja) | 画像認識装置、画像認識方法、及び集積回路 | |
CN112070769A (zh) | 一种基于dbscan的分层点云分割方法 | |
CN111754538B (zh) | Usb表面缺陷检测的阈值分割方法 | |
CN110008900B (zh) | 一种由区域到目标的可见光遥感图像候选目标提取方法 | |
CN117292337A (zh) | 遥感图像目标检测方法 | |
CN112766170B (zh) | 基于簇类无人机图像的自适应分割检测方法及装置 | |
Shneier | Using pyramids to define local thresholds for blob detection | |
CN115239644B (zh) | 混凝土缺陷识别方法、装置、计算机设备和存储介质 | |
CN110852327A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN114255223A (zh) | 基于深度学习的双阶段卫浴陶瓷表面缺陷检测方法和设备 | |
CN111951283A (zh) | 一种基于深度学习的医学图像识别方法及系统 | |
CN111783722A (zh) | 一种激光点云的车道线提取方法和电子设备 | |
CN114663373A (zh) | 一种用于零件表面质量检测的点云配准方法及装置 | |
CN115293287A (zh) | 一种基于车载雷达的对目标进行聚类的方法、存储器及电子装置 | |
CN110310263B (zh) | 一种基于显著性分析和背景先验的sar图像居民区检测方法 | |
CN109785283B (zh) | 一种用于织物分割的纹理特征匹配方法及装置 | |
Chen et al. | Detecting maneuvering target accurately based on a two-phase approach from remote sensing imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |