CN112990263B - 一种用于密集小目标的高分辨率图像的数据增强方法 - Google Patents
一种用于密集小目标的高分辨率图像的数据增强方法 Download PDFInfo
- Publication number
- CN112990263B CN112990263B CN202110170578.1A CN202110170578A CN112990263B CN 112990263 B CN112990263 B CN 112990263B CN 202110170578 A CN202110170578 A CN 202110170578A CN 112990263 B CN112990263 B CN 112990263B
- Authority
- CN
- China
- Prior art keywords
- small
- image
- size
- images
- follows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000004927 fusion Effects 0.000 claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013461 design Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 241000894006 Bacteria Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000001580 bacterial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种用于密集小目标的高分辨率图像的数据增强方法,通过裁剪高分辨率图像,裁剪成一定数量的适合训练网络的小尺寸图像,再进一步融合小尺寸图像得到特征信息丰富,目标表达更强的融合图,最后和裁剪后的小尺寸图合并,组合成新的数据集,提升了对小且密集目标的检测的准确度和可靠性,扩充了数据集以避免过拟合。本发明提出的数据增强方法优于其他最新的方法,能获得更多高质量小尺寸图像,从而实现高精准的对小且密集分布目标的检测。
Description
技术领域
本发明属于计算机视觉数据增强技术领域,具体涉及一种用于密集小目标的高分辨率图像的数据增强方法。
背景技术
目前,在高分辨率图像中检测小且密集分布的目标的研究越来越广泛,例如,在卫星遥感图像中检测地表信息用于城市的规划以及在显微图像中检测细胞、细菌等用于医疗探索。然而,大尺寸的图像直接输入到基于卷积神经网络的检测网络中,会产生严重的几何形变,很难做到高精度小且密集分布目标的检测。因此,在训练此类图像时,人们往往会选择图像的预处理,来增强图像的特征表达。数据增强是最为经典的图像预处理方法之一,它在不增加网络复杂度的前提下,能够有效的提升网络的鲁棒性。
从不同角度研究数据增强的方法已有大量工作,如图像的一些物理变换:几何形变、裁剪、图像合并等以及改变图像的像素:遮挡图像部分信号、模糊图像、混合图像等。物理层面的数据增强方法能让高分辨率的图像更加适合于训练检测网络,是处理大尺寸图像不可或缺的操作。2018年Alexander等人提出了一个数据增强库Albumentation,包含许多物理层面的数据增强方法,比如图像的裁剪、缩放、平移、扭曲等。随后Adam等人提出了YOLT,它被用于裁剪卫星遥感图像,裁剪图像时带有一定的图像重叠,被裁剪后的图像更适合网络的特征提取。除了单张图片处理的方法之外,Massac被用于图像的合并,一次性合并四张图图像,让网络充分利用特征信息。但是,以上方法忽视了像素层面的元素,仍存在检测不准的情况。像素级的数据增强方法的核心思想是局部屏蔽或混淆训练信息,以提高模型的泛化能力。Cutout用一个随机的固定大小的矩形块遮挡图像信息,该矩形块所有的值都设置为0或其他一些纯色值。CutMix用另一幅图像的特征信息替换矩形块,具体来说,把训练集中其他图像的像素值随机填充到矩形块区域,而不是0像素。CutBlur将高分辨率矩形块和低分辨率矩形块切割到相应的位置,提高了图像恢复视觉任务的性能。Mixup没有引入矩形块,而是图像进行随机混合的数据增强算法,图像的混合能够有效增强目标的特征信息,从而提升模型的泛化能力。
基于以上分析,在物理层面中,大尺寸图像的分析与裁剪是解决网络输入层图像的严重几何形变的关键一步,但是它缺乏像素层面的信息加强,不利于目标的表达。在像素级层面,Cutout减屏蔽掉了一些特征信号,起到防止过拟合的作用,但是它损害了图像的完整性。CutMix、CutBlur用其它或自身图像的信息代替此缺口,但是仍然损害特征的表达。Mixup有很明显的特征混淆现象。因此,保持特征和图像的完整性,避免图像的混淆,才能够有效地提升的对大尺寸图像中小且密集分布的目标检测的精准度。
发明内容
本发明要解决的技术问题是:提供一种用于密集小目标的高分辨率图像的数据增强方法,用于提升对小且密集目标的检测的准确度和可靠性。
本发明为解决上述技术问题所采取的技术方案为:一种用于密集小目标的高分辨率图像的数据增强方法,包括以下步骤:
S1:通过调整不多于两个的参数裁剪高分辨率图像,得到大小相同的适合训练网络的小尺寸图像;
S2:通过标签的边缘处理算法将高分辨率图像的特征点重定义到对应的小尺寸图像中以裁剪图像和图像对应的目标和标签;
S3:将拥有最多目标的小尺寸图像作为主要信息,把剩下的小尺寸图像作为背景融合,得到大小不变的融合图像;
S4:将融合图像与没有融合的小尺寸图像组合成新的数据集,用于在扩充数据集的同时避免过拟合。
按上述方案,所述的步骤S1中,具体步骤为:
S11:按照一定的比例将高分辨率图像划分为训练集和测试集;
S12:裁剪训练集,具体步骤为:
S121:统计一个数据集中的高分辨率图像是否是相同大小,若不是则将相同大小的高分辨率图像分为一类;
S122:设高分辨率图像的宽为W,高为H,由训练网络提取图像的大小得到被裁减后的小尺寸图像的宽为w,高为h,则用于裁剪分类好的高分辨率图像的参数N和M为:
N=H/h,
M=W/w;
S123:若W/w或H/h求余不等于0,则调大w或h的值直到求余等于0为止;
S13:裁剪测试集,具体步骤为:取重叠比例的值为大于等于15%且小于50%进行裁剪。
进一步的,所述的步骤S2中,具体步骤为:
设高分辨率图像的特征点的坐标为(x,y),对应的小尺寸图像中等价于(x,y)的特征点的坐标为(x′,y′),通过标签的边缘处理算法决定小尺寸图像对应高分辨率图像的位置的参数i和j,则高分辨率图像的特征点对应在小尺寸图像中的位置信息为:
进一步的,所述的步骤S2中,具体步骤为:
S21:将高分辨率图像唯一对应的标签按高分辨率图像裁剪的份数裁剪,得到裁剪后的小尺寸图像的标签与小尺寸图像一一匹配,具体步骤为:
在高分辨率图像的标签中,设高分辨率图像中的每个目标对应的两个特征点分别为(x1,y1)和(x2,y2),对应的小尺寸图像中分别等价于(x1,y1)和(x2,y2)的特征点的坐标为(x′1,y′1)和(x′2,y′2),判定裁剪位置的参数别为i=(int)x1/w和j=(int)y1/h;
S22:通过标签的边缘处理算法将高分辨率图像中的目标按被裁剪的份数重定义并分配到对应的小尺寸图像的标签中,具体步骤为:
判断目标是否存在越界行为,若目标objectk的点a和点c经过裁剪仍处在同一个小尺寸图像中,则目标objectk未越界,相应的特征点为:
若点a和点c不在同一小尺寸图中,且目标objectk出现了横向越界并被分成两部分,由点a和点g确定新的目标object_1,相应的特征点为:
由点d和点c确定新的目标object_2,相应的特征点为:
若点a和点c不在同一小尺寸图中,且目标objectk出现了纵向越界并被分成两部分,由点a和点e确定新的目标object_1,相应的特征点为:
由点f和点c确定新的目标object_2,相应的特征点为:
若点a与点c不在同一小尺寸图中,且目标objectk出现了横纵两部分的越界并被分成四部分,由点a和点b确定新的目标object_1,相应的特征点为:
由点g和点c确定新的目标object_2,相应的特征点为:
由点f和点d确定新的目标object_3,相应的特征点为:
由点b和点c确定新的目标object_4,相应的特征点为:
将目标object_1、目标object_2、目标object_3、目标object_4中的特征点分配到对应的小尺寸图像的标签中。
进一步的,所述的步骤S3中,具体步骤为:
S31:将裁剪高分辨率图像得到N×M张大小相同的小尺寸图像组成方形矩阵;N×M张大小相同的小尺寸图像对应N×M个标签,每个小尺寸图像有唯一对应的标签;
S32:当N×M=4×4时,在方形矩阵的一行中融合4张小尺寸图像得到1张融合图像,具体步骤为:
分别计算每张小尺寸图像的目标数量,将拥有目标最多的小尺寸图像定义为图A;
设决定融合的融合系数为λ和ξ;λ服从β分布,λ~β(7,3);ξ随机分布在区间[0.05,0.1];
将图A的特征信息乘以λ,其余三张小尺寸图像的特征信息乘以ξ,融合得到1张融合图像;
对两张融合图像进行邻域风险最小化的求解,公式如下:
进一步的,用如下步骤替换所述的步骤S32:当N×M=4×4时,在方形矩阵的一行中分别融合2张小尺寸图像得到2张融合图像,具体步骤为:
分别计算每张小尺寸图像的目标数量,将拥有目标最多的两张小尺寸图像分别定义为图A1和图A2;
设决定融合的融合系数为λ和ξ;λ服从β分布,λ~β(7,3);ξ随机分布在区间[0.05,0.1];
将图A1和图A2的特征信息分别乘以λ,其余小尺寸图像的特征信息乘以ξ,分别融合得到两张融合图像。
进一步的,所述的步骤S33中,经验风险最小化和邻域风险最小化的特征点分布根据图像的裁剪和重定义进行相应的重定义,具体步骤为:
设裁剪得到的图像为 的真实样本为则经验风险样本经过裁剪变成拥有最多目标的小尺寸图像为真实目标为其他图像为常系数为σ,σM用于决定融合几张小尺寸图像;整数c∈[1,σM],待融合图像中目标数为Mc;q是Mc中的一个自变量,则邻域风险特征点按如下公式重定义:
q=argmax(Mc);
由经验风险得到预测训练裁剪图像得到的模型误差为:
由邻域风险得到预测训练融合图像得到的模型误差为:
进一步的,所述的步骤S4中,具体步骤为:
设高分辨率图像裁剪后得到的小尺寸图像的数目为n,融合后的所有图像的数目为m,融合图像为a,没有被融合的小尺寸图像为b,则通过特殊风险最小化求解融合图像与没有融合的小尺寸图像组合成的新的数据集的计算风险最小化的公式为:
进一步的,所述的步骤S4中,裁剪后的特殊风险最小化的公式重定义为:
一种计算机存储介质,其特征在于:其内存储有可被计算机处理器执行的计算机程序,该计算机程序执行一种用于密集小目标的高分辨率图像的数据增强方法。
本发明的有益效果为:
1.本发明的一种用于密集小目标的高分辨率图像的数据增强方法,通过裁剪高分辨率图像,裁剪成一定数量的适合训练网络的小尺寸图像,再进一步融合小尺寸图像得到特征信息丰富,目标表达更强的融合图,最后和裁剪后的小尺寸图合并,组合成新的数据集,提升了对小且密集目标的检测的准确度和可靠性。
2.本发明用于扩充数据集以避免过拟合。
3.本发明提出的数据增强方法优于其他最新的方法,能获得更多高质量小尺寸图像,从而实现高精准的对小且密集分布目标的检测。
附图说明
图1是本发明实施例的流程图。
图2是本发明实施例的边缘检测算法的判定图。
图3是本发明实施例的对细菌数据集进行的多方位融合技术图。
图4是本发明实施例的整体过程图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细的说明。
参见图1,本发明实施例的一种用于密集小目标的高分辨率图像的数据增强方法,包括以下步骤:
S1:通过调整两个不同的参数裁剪高分辨率的图像,将其裁剪成一系列大小相同的小尺寸图像,所得图像的大小更加适合网络的特征提取;
步骤S1具体为,本发明对高分辨率的图像设计了一种裁剪技术,用于实现此类图像的目标检测。第一步,按照一定的比例划分训练集和测试集,第二步,裁剪训练集:在做裁剪之前,首先统计一个数据集中的所有高分辨率图像是否都是同一大小,若不是,则需要分类,将大小相等图像分在一个文件夹下。根据网络提取图像的大小,计算两个参数(N,M)用于裁剪分类好的数据图。以W表示高分辨率图像的宽,H表示高,则被裁减后图像的宽w,高h由输入网络图像的大小所决定,其中,N=H/h,M=W/w。若W/w或H/h求余不等于0,则适当的调大w或h的值,直到求余等0为止。第三步,裁剪测试集:在w和h的基础上,取大于等于15%小于50%的值作为重叠比例进行裁剪。
以细菌数据集为例,所有图像的分辨率均为3072×2048,因此不需要做图像的分类工作,图像输入网络的大小为768×512,则N=3072/768=4,M=2048/512=4。当出现N或M求余不等于0的情况,应适当调大分母的大小,直到求余为0为止,其目的是为了避免不必要的特征损失。为了不引入冗余的特征信息,在做训练集的裁剪时,直接将高分辨率图像裁剪成N×M份小图即可。但是,为了避免测试时遗漏某些目标,测试集的裁剪需要带有大于等于15%小于50%重叠,将得到的特征点还原至高分辨图像,冗余的检测框由非极大值抑制(Non-Maximum Suppression(NMS))去除,最后统计NMS之后图像的检测结果。
S2:为了避免裁剪时的小图像中的目标丢失,提出一种标签处理的算法对大图像的特征点进行重定义,用于快速处理批量的标签;
步骤S2具体为,标签的边缘处理算法是对PASCAL VOC数据集格式的专属设计。高分辨率图像被切割后,对应的标签也需要进行一一匹配,由S1可知,高分辨率图像被分成16张小图,因此标签也要被分为16份。由于小且密集分布的目标在一张图上的数量特别多并且没有任何的分布规则,因此,标签处理算法的工作就必须涉及到每一个目标。根据VOC提供的两个坐标点也被称之为特征点,确定一个目标对应在高分辨率的位置,标签处理算法将重新计算这两个特征点,计算结果可以将该目标完美的复现到被裁减后的图像上。当一个目标被切割成两部分或四部分的时候,该算法重新定义该目标,定义成两个和四个新的目标,新目标类别不发生改变,并将其分配到对应的小图标签中。
根据S1计算出的参数(N×M),设计公式(1)判定高分辨率图像下的特征点对应在小尺寸图像的位置信息。
(x,y)是高分辨率图像的特征点,(x′,y′)是对应小图上等价于(x,y)的特征点,w和h表示小尺寸图像的宽高,W和H表示高分辨率图像的宽高,i和j用来判断小尺寸图象对应高分辨率图像的哪个位置。除(x,y)其他符号均为已知项,其中i和j由边缘处理算法决定。
根据图2详细描述边缘处理算法,该算法被用于PASCAL VOC格式的数据集,其中每个大尺寸图像对应唯一的标签文件,每个目标对应两个特征点。算法分为以下几步:
第一步:在指定的大尺寸图像的标签中,给出算法的输入项:objectk的两个特征点(x1,y1),(x2,y2),判定裁剪位置的参数i=(int)x1/w,j=(int)y1/h,以及输出项:(x′1,y′1),(x′2,y′2)。
第二步:判断输入目标属于是否存在越界行为,当高分辨率图像被切割后,出现图2中A的情况,a和c两个点经过切割仍处在同一个小尺寸图像中,则objectk中的特征点可以直接由公式(1)计算出:
第三步:从图2中B可以看出a与c不在同一小尺寸图中,objectk出现了横向越界,目标被分成了两部分,其中a和g确定一个新的目标object_1,d和c确定一个新的目标object_2:
第四步:从图2中C可以看出a与c不在同一小尺寸图中,objectk出现了纵向越界,目标被分成了两部分,其中a和e确定一个新的目标object_1,f和c确定一个新的目标object_2:
第五步:从图2中D可以看出a与c不在同一小尺寸图中,objectk出现了横纵两部分的越界,目标被分成了四部分,其中a和b确定一个新的目标object_1,g和c确定一个新的目标object_2,其中f和d确定一个新的目标object_3,b和c确定一个新的目标object_4:
第六步:将最后得到的object_1、object_2、object_3、object_4中的特征点分配到指定小图标签中。
S3:融合裁剪后的小尺寸图像,融合后的图像大小保持不变,该融合技术可以融合两张或者两张以上的图像,在融合多张小尺寸图像之前,先对每张图像中的所有目标数量进行对比,选出拥有目标最多的图像,将此图作为主要信息,剩下所有图片作为背景再进行融合;
步骤S3具体为,由步骤S1的裁剪可以得出N×M张大小相同的小图,它们组成了一个方形矩阵,当N×M=4×4时,选择方阵其中的一行进行融合,能融合4或2张图像,得到1或2张融合图像。由S2可以得出4×4个对应标签,每一个小图对应唯一的标签。融合4张图时,分别计算四张图像的目标数量,选出其中拥有目标最多的图像,定义为图A。其次定义一个服从β分布的系数λ,其中λ~β(7,3),和一个随机分布在[0.05,0.1]的ξ,融合由融合系数λ、ξ所决定。在做融合时图A的特征信息将被扩充λ倍,而其余三张图像由ξ所决定,最终融合出1张全新的图像。融合2张图时,选出其中拥有目标最多的前两张图,定义为图A1和图A2。在融合时,图A1和图A2作为主要信息乘以系数λ,以此和其余的图像乘以系数ξ进行融合,以此得到两张全新的融合图像。
融合思想基于经验风险最小化(Empirical Risk Minimization)和邻域风险最小化(Vicinal Risk Minimization),未经融合的图像损失计算基于经验风险,按照经验风险的思想计算平均损失,计算公式如下:
邻域风险最小化是将两张融合了以后的图像进行风险最小化的求解,公式定义如下:
若以多张图像的融合为例,则在融合之前先对每张图像中的所有目标进行对比,选出拥有目标最多的图像,将此图作为主要信息,剩下所有图片作为背景再进行融合;通过图3可以看出四幅小尺寸图像进行融合的两种情况。具体而言,四幅小图进行同时融合时,图d有42个目标,目标数量最多,选择图d作为主要信息,融合系数为λ,图a,b,c则作为背景信息融合系数为ξ,其中Res3为融合结果,图Res3只包含了d中的目标。图3中λ的平均取值为0.7,ξ的平均取值为0.1。当进行两张图像的融合时,a有41个目标,则选择a,d作为主要的信息,b,c作为背景信息依次进行融合。Res1是a和b的融合结果,且只包含了a中的目标,Res2是c和d的融合结果,且只包含了d中的目标。
本发明中,因受到步骤S1和步骤S2中图像裁剪和特征点的重定义,因此,经验风险最小化和邻域风险最小化的特征点分布也受到影响。进一步讲,经验风险样本经过裁剪变成其中是裁剪得到的图像,是该图像对应的真实目标,因此邻域风险特征点在此基础之上做如下重定义:
q=argmax(Mc),
在本发明中,预测训练裁剪图像得到的模型误差由经验风险得到:
在本发明中,预测训练融合图像得到的模型误差由邻域风险得到:
S4、合并融合后的小图和切割后没有融合的小图组合成新的数据图,起到扩充数据集的作用,以此有效避免训练检测网络会过拟合。
步骤S4具体为,将S3中融合后的图像和S2中的小图混合在一起组成新的数据集,数据集以此得到了有效的扩充,新得到的数据集在计算风险最小化被定义为特殊风险最小化(Special Risk Minimization),公式为:
图4阐述了本发明中从裁剪到融合的全部过程。
以上实施例仅用于说明本发明的设计思想和特点,其目的在于使本领域内的技术人员能够了解本发明的内容并据以实施,本发明的保护范围不限于上述实施例。所以,凡依据本发明所揭示的原理、设计思路所作的等同变化或修饰,均在本发明的保护范围之内。
Claims (9)
1.一种用于密集小目标的高分辨率图像的数据增强方法,其特征在于:包括以下步骤:
S1:通过调整不多于两个的参数裁剪高分辨率图像,得到大小相同的适合训练检测网络的小尺寸图像;
S2:通过标签的边缘处理算法将高分辨率图像中目标的特征点重定义到对应的小尺寸图像中以裁剪图像和图像对应的目标和标签;具体步骤为:
S21:将高分辨率图像唯一对应的标签按高分辨率图像裁剪的份数裁剪,得到裁剪后的小尺寸图像的标签与小尺寸图像一一匹配,具体步骤为:
在高分辨率图像的标签中,设高分辨率图像中的每个目标对应的两个特征点分别为(x1,y1)和(x2,y2),对应的小尺寸图像中分别等价于(x1,y1)和(x2,y2)的特征点的坐标为(x′1,y′1)和(x′2,y′2),判定裁剪位置的参数别为i=(int)x1/w和j=(int)y1/h;
S22:通过标签的边缘处理算法将高分辨率图像中的目标按被裁剪的份数重定义并分配到对应的小尺寸图像的标签中;具体步骤为:
判断目标是否存在越界行为,若目标objectk的点a和点c经过裁剪仍处在同一个小尺寸图像中,则目标objectk未越界,相应的特征点为:
若点a和点c不在同一小尺寸图中,且目标objectk出现了横向越界并被分成两部分,由点a和点g确定新的目标object_1,相应的特征点为:
由点d和点c确定新的目标object_2,相应的特征点为:
若点a和点c不在同一小尺寸图中,且目标objectk出现了纵向越界并被分成两部分,由点a和点e确定新的目标object_1,相应的特征点为:
由点f和点c确定新的目标object_2,相应的特征点为:
若点a与点c不在同一小尺寸图中,且目标objectk出现了横纵两部分的越界并被分成四部分,由点a和点b确定新的目标object_1,相应的特征点为:
由点g和点c确定新的目标object_2,相应的特征点为:
由点f和点d确定新的目标object_3,相应的特征点为:
由点b和点c确定新的目标object_4,相应的特征点为:
将目标object_1、目标object_2、目标object_3、目标object_4中的特征点分配到对应的小尺寸图像的标签中;
S3:对比每张裁剪后的小尺寸图像中的目标数量,将拥有最多目标的小尺寸图像作为主要信息,把剩下的小尺寸图像作为背景融合,融合小尺寸图像的数量为两张或两张以上,得到大小不变的融合图像;
S4:将融合图像与没有融合的小尺寸图像组合成新的数据集,用于在扩充数据集的同时避免过拟合。
2.根据权利要求1所述的一种用于密集小目标的高分辨率图像的数据增强方法,其特征在于:所述的步骤S1中,具体步骤为:
S11:按照一定的比例将高分辨率图像划分为训练集和测试集;
S12:裁剪训练集,具体步骤为:
S121:统计一个数据集中的高分辨率图像是否是相同大小,若不是则将相同大小的高分辨率图像分为一类;
S122:设高分辨率图像的宽为W,高为H,由训练检测网络提取小尺寸图像的大小得到被裁减后的小尺寸图像的宽为w,高为h,则用于裁剪分类好的高分辨率图像的参数N和M为:
N=H/h,
M=W/w;
S123:若W/w或H/h求余不等于0,则调大w或h的值直到求余等于0为止;
S13:裁剪测试集,具体步骤为:取重叠比例的值为大于等于15%且小于50%进行裁剪。
4.根据权利要求3所述的一种用于密集小目标的高分辨率图像的数据增强方法,其特征在于:所述的步骤S3中,具体步骤为:
S31:将裁剪高分辨率图像得到N×M张大小相同的小尺寸图像组成方形矩阵;N×M张大小相同的小尺寸图像对应N×M个标签,每个小尺寸图像有唯一对应的标签;
S32:当N×M=4×4时,在方形矩阵的一行中融合4张小尺寸图像得到1张融合图像,具体步骤为:
分别计算该行中每张小尺寸图像的目标数量,将拥有目标最多的小尺寸图像定义为图A;
设融合系数为λ和ξ;λ服从β分布,λ~β(7,3);ξ随机分布在区间[0.05,0.1];
将图A的特征信息乘以λ,该行中其余三张小尺寸图像的特征信息乘以ξ,融合得到1张融合图像;
对融合图像进行邻域风险最小化的求解用于使融合以后的图像风险最小化从而降低融合图像的损失,公式如下:
5.根据权利要求4所述的一种用于密集小目标的高分辨率图像的数据增强方法,其特征在于:用如下步骤替换所述的步骤S32:当N×M=4×4时,在方形矩阵的一行中分别融合2张小尺寸图像得到2张融合图像,具体步骤为:
分别计算每张小尺寸图像的目标数量,将拥有目标最多的两张小尺寸图像分别定义为图A1和图A2;
设融合系数为λ和ξ;λ服从β分布,λ~β(7,3);ξ随机分布在区间[0.05,0.1];
将图A1和图A2的特征信息分别乘以λ,其余小尺寸图像的特征信息乘以ξ,将乘以λ后的图A1和图A2分别与乘以ξ后的其余小尺寸图像两两融合得到两张融合图像。
9.一种计算机存储介质,其特征在于:其内存储有可被计算机处理器执行的计算机程序,该计算机程序执行如权利要求1至权利要求8中任意一项所述的一种用于密集小目标的高分辨率图像的数据增强方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110170578.1A CN112990263B (zh) | 2021-02-08 | 2021-02-08 | 一种用于密集小目标的高分辨率图像的数据增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110170578.1A CN112990263B (zh) | 2021-02-08 | 2021-02-08 | 一种用于密集小目标的高分辨率图像的数据增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112990263A CN112990263A (zh) | 2021-06-18 |
CN112990263B true CN112990263B (zh) | 2022-12-06 |
Family
ID=76349139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110170578.1A Active CN112990263B (zh) | 2021-02-08 | 2021-02-08 | 一种用于密集小目标的高分辨率图像的数据增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112990263B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115601617A (zh) * | 2022-11-25 | 2023-01-13 | 安徽数智建造研究院有限公司(Cn) | 基于半监督学习的带状脱空识别模型的训练方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886359B (zh) * | 2019-03-25 | 2021-03-16 | 西安电子科技大学 | 基于卷积神经网络的小目标检测方法及检测系统 |
CN110503112B (zh) * | 2019-08-27 | 2023-02-03 | 电子科技大学 | 一种增强特征学习的小目标检测及识别方法 |
CN111222474B (zh) * | 2020-01-09 | 2022-11-04 | 电子科技大学 | 一种任意尺度的高分辨率图像小目标检测方法 |
CN111583201B (zh) * | 2020-04-26 | 2022-04-05 | 浙江大学 | 一种用于构建超分辨率病理显微镜的迁移学习方法 |
-
2021
- 2021-02-08 CN CN202110170578.1A patent/CN112990263B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112990263A (zh) | 2021-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3540637B1 (en) | Neural network model training method, device and storage medium for image processing | |
CN109978839B (zh) | 晶圆低纹理缺陷的检测方法 | |
CN109934826B (zh) | 一种基于图卷积网络的图像特征分割方法 | |
CN109377445B (zh) | 模型训练方法、替换图像背景的方法、装置和电子系统 | |
CN111461110A (zh) | 一种基于多尺度图像和加权融合损失的小目标检测方法 | |
Li et al. | An overlapping-free leaf segmentation method for plant point clouds | |
CN109829445B (zh) | 一种视频流中的车辆检测方法 | |
EP1700269A2 (en) | Detection of sky in digital color images | |
CN111709929B (zh) | 一种肺部癌变区域分割与分类检测系统 | |
CN110310305B (zh) | 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置 | |
CN116645592B (zh) | 一种基于图像处理的裂缝检测方法和存储介质 | |
CN112906794A (zh) | 一种目标检测方法、装置、存储介质及终端 | |
CN111768415A (zh) | 一种无量化池化的图像实例分割方法 | |
CN112990263B (zh) | 一种用于密集小目标的高分辨率图像的数据增强方法 | |
CN114299383A (zh) | 基于密度图与注意力机制融合的遥感图像目标检测方法 | |
CN114140623A (zh) | 一种图像特征点提取方法及系统 | |
CN111626145A (zh) | 一种简捷有效的残缺表格识别及跨页拼接方法 | |
JP7014005B2 (ja) | 画像処理装置及び方法、電子機器 | |
US8472756B2 (en) | Method for producing high resolution image | |
CN113205502A (zh) | 一种基于深度学习的绝缘子缺陷检测方法及其系统 | |
CN116798118A (zh) | 一种基于TPH-yolov5的异常行为检测方法 | |
CN111488948A (zh) | 一种抖动环境下稀疏样本的标记方法 | |
CN111047614A (zh) | 一种基于特征提取的复杂场景图像的目标角点提取方法 | |
CN110717910A (zh) | Ct图像目标检测方法及ct扫描仪 | |
CN110490170A (zh) | 一种人脸候选框提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |