CN111242839B - 一种基于尺度等级的图像缩放裁剪方法 - Google Patents
一种基于尺度等级的图像缩放裁剪方法 Download PDFInfo
- Publication number
- CN111242839B CN111242839B CN202010032589.9A CN202010032589A CN111242839B CN 111242839 B CN111242839 B CN 111242839B CN 202010032589 A CN202010032589 A CN 202010032589A CN 111242839 B CN111242839 B CN 111242839B
- Authority
- CN
- China
- Prior art keywords
- scale
- image
- training
- superclass
- clipping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 58
- 238000012360 testing method Methods 0.000 claims abstract description 41
- 238000002372 labelling Methods 0.000 claims abstract description 5
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 10
- 238000012512 characterization method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于尺度等级的图像缩放裁剪方法。所述方法包括以下步骤:获取包括训练图像的训练集,计算训练图像的图像尺度指数,根据图像尺度指数生成大、中、小三种尺度等级的标注;根据尺度等级的标注,训练尺度等级分类器;获取包括测试图像的测试集,使用尺度等级分类器分类测试图像的尺度等级;根据尺度等级缩放、裁剪测试图像。本发明对测试图像进行区别化的缩放和裁剪,显著提高小目标的检测精度,同时避免了引入过多的虚警。此外,由于区别化的缩放和裁剪,本发明只增加的少量检测时的计算开销。
Description
技术领域
本发明涉及一种数据增强方法,更具体地,涉及一种基于尺度等级的图像缩放裁剪方法。
背景技术
尽管深度学习方法在通用目标检测领域获得了巨大的成功,它们在小目标检测上的表现不尽人意。小目标挑战通常包括三个方面:更多的小目标、更低的目标平均分辨率和更小的目标相对尺度。下文对比性分析了COCO、ImageNet和VisDrone 2018数据集,进一步阐述这三个方面。
更多的小目标。我们统计了COCO和VisDrone 2018训练集中的目标像素面积分布,VisDrone 2018中约有60%的目标面积不超过1000像素,约75%的目标面积不超过2000像素。而COCO中这样的目标分别只有约40%和55%。由此可见,小目标挑战数据集VisDrone2018有更多的小目标。
更低的目标的平均分辨率。COCO中目标平均面积为2.05e+4像素。而VisDrone2018中目标平均面积仅为2.49e+3像素,是COCO的1/8。更低的分辨率意味着目标携带的外观信息更少、信噪比更低,更难被检测器检出。
除绝对尺度外,小目标挑战的另一方面是目标相对尺度也较小。在检测阶段,图像会被缩放至预设大小。小的目标相对尺度导致缩放后的目标分辨率低,外观信息少,影响检测精度。我们统计了COCO、ImageNet DET和VisDrone 2018中ORS的累计分布。相比于COCO和ImageNet,VisDrone 2018中绝大多数目标具有更小的相对尺度。其中约97%的目标占图像面积不到1%。VisDrone 2018、COCO和ImageNet中ORS的中位数分别为1.73e-2,9.56e-2和5.14e-1。如果让VisDrone 2018中的目标同COCO或ImageNet中的目标尺度相当,VisDrone2018的图片将被放大至COCO图片的5倍、ImageNet图片的29倍。受限于GPU显存,现有深度学习方法难以直接处理如此庞大的图片。
为了解决上述三个小目标挑战,本发明提出一种基于尺度等级的图像缩放裁剪方法:计算训练图像的图像尺度指数,根据图像尺度指数生成大、中、小三种尺度等级的标注;根据尺度等级的标注,训练尺度等级分类器;使用尺度等级分类器分类测试图像的尺度等级;根据尺度等级缩放、裁剪测试图像。
本发明涉及到以下现有技术:
现有技术1(He Kaiming,et al."Deep residual learning for imagerecognition."Proceedings of the IEEE conference on computer vision andpattern recognition.2016.)提出残差网络,利用残差链接降低深层网络的训练难度,得出具有强大表征/分类能力的深层特征图。现有技术2(Kong Tao,et al."Hypernet:Towards accurate region proposal generation and joint object detection."Proceedings of the IEEE conference on computer vision and patternrecognition.2016.)介绍了一种将主干特征拼接为超特征的方法,超特征同时具有浅层特征的低级外观信息和深层特征的高级语义信息,具有很强的表征能力。现有技术3(Hu Jie,Li Shen,and Gang Sun."Squeeze-and-excitation networks."Proceedings of theIEEE conference on computer vision and pattern recognition.2018.)介绍了一种通道注意力机制,通过对特征的各个通道赋予权重,调整特征在通道维度上的注意力,进一步增强特征表征能力。本发明涉及的尺度等级分类器,使用现有技术1提取主干特征,使用现有技术2拼接主干特征形成超特征,使用现有技术3调整超特征的通道权重,以更好的分类图像尺度等级。进一步地,本发明不局限于使用现有技术1提取多阶特征,可使用任何其他骨干网络提取多阶特征。
现有技术4(Ledig Christian,et al."Photo-realistic single image super-resolution using a generative adversarial network."Proceedings of the IEEEconference on computer vision and pattern recognition.2017.)提出了基于对抗生成网络的超分辨率方法,能从低分辨率图像中恢复高分辨率图像,补全低分辨率图像缺失的高频信息,使得高分辨率图像更具真实感。本发明实施例中采用现有技术4作为深度超分辨率方法缩放图像,但本发明不局限于现有技术4,使用其他超分辨率方法亦可。
发明内容
本发明旨在通过数据增强的方式改善小目标检测精度。为了达到上述目的,根据本发明提供一种基于尺度等级的图像缩放裁剪方法,计算图像尺度指数生成训练图像的尺度等级的标注,利用尺度等级的标注训练尺度等级分类器,使用训练得到的分类器预测测试图像的尺度等级,根据尺度等级缩放、裁剪测试图像。
本发明的目的至少通过如下技术方案之一实现。
一种基于尺度等级的图像缩放裁剪方法,包括以下步骤:
步骤一、获取包括训练图像的训练集,计算训练图像的图像尺度指数,根据图像尺度指数生成大、中、小三种尺度等级的标注;
步骤二、根据尺度等级的标注,训练尺度等级分类器;
步骤三、获取包括测试图像的测试集,使用尺度等级分类器分类测试图像的尺度等级;
步骤四,根据尺度等级缩放、裁剪测试图像。
进一步地,步骤一中,所述图像尺度指数计算方法如下:
①依据现实世界中物体的长、宽、高划分训练集各个目标类别形成超类,所述超类指多个类别组成的超级类别;
②选定某一超类作为基准,计算超类间目标尺度转换系数;
③依据公式计算图像尺度指数,具体如下:
其中,a(c)为超类c的尺度转换系数,ORS(c)为超类c的目标相对尺度,nc表示当前图像中属于超类c的目标的个数,nimage表示当前图像中目标的个数,Rsuper表示所有超类的集合。
进一步地,所述超类间目标尺度转换系数的计算公式如下:
其中Isub-train代表训练集的子集,该子集中每一张训练图像i均同时包含超类c和基准超类,|*|表示计算子集的训练图像数,对于子集中的训练图像i,ORS(c)表示超类c的目标相对尺度,ORS(baseline)表示基准超类的目标相对尺度。
进一步地,所述目标相对尺度的计算公式如下:
其中,Areao代表属于超类c的目标o的面积,Areaimage表示训练图像的面积,nc表示当前训练图像中属于超类c的目标的个数。
进一步地,步骤一中,所述生成大、中、小三种尺度等级的标注,是统计训练集的图像尺度指数分布,人为设定两个图像尺度指数阈值,划分大、中、小三种尺度等级。
进一步地,步骤二中,所述尺度等级分类器由主干网络、感知野自适应模块和全连接分类模块串联组成,先将图像输入主干网络提取主干特征,再将主干特征输入感知野自适应模块进行特征调整,最后将调整好的特征输入全连接分类模块分类图像尺度等级;
所述主干网络为50层的残差网络,该残差网络包括五阶,每一阶均由若干个残差模块串联而成且每一阶的特征尺寸相同,相邻各阶之间存在2倍下采样层,下采样后特征尺寸缩小两倍;最终提取的主干特征为主干网络二阶至五阶每阶最后一张特征图的集合;
所述感知野自适应模块先使用特征归一化层对特征进行通道归一化,再使用特征拼接操作,拼接特征形成超特征,最后使用通道注意力分支,调整超特征的通道注意力;所述特征归一化层是步长为1、补零填充为0的1*1卷积层,用于使主干特征的通道数归一化至256;所述特征拼接操作将主干特征在通道维度上拼接;所述通道注意力分支由全局池化层、1024*512的全连接层和512*1024的全连接层串联组成;
所述全连接分类模块由全局池化层、1024*512的全连接层和512*3的全连接层串联组成。
进一步地,训练尺度等级分类器使用交叉熵函数作为损失函数,使用随机梯度下降作为网络优化方法。
进一步地,步骤三中,所述使用尺度等级分类器分类测试图像的尺度等级,是指将测试图像输入尺度等级分类器获取输入测试图像的尺度等级。
进一步地,步骤四中,所述根据尺度等级缩放、裁剪图像,其中缩放图像步骤为对尺度等级为中、大等级的测试图像使用双线性插值进行缩放,对尺度等级为小等级的测试图像使用深度超分辨率算法进行缩放;所述深度超分辨率算法指将低分辨率图映射至高分辨率图的深度学习方法。
进一步地,步骤四中,所述根据尺度等级缩放、裁剪图像,其中裁剪图像步骤为对尺度等级为大等级的图像不进行裁剪,对尺度等级为中等级的图像进行四分裁剪,对尺度等级为小等级的图像进行九分裁剪;所述四分裁剪指四等分裁剪图像,所述九分裁剪指九等分裁剪图像。
相比于现有技术,本发明的优点在于:
本发明对测试图像进行区别化的缩放和裁剪,显著提高小目标的检测精度,同时避免了引入过多的虚警。此外,由于区别化的缩放和裁剪,本发明只增加的少量检测时的计算开销。
附图说明
图1为本发明实施例中一种基于尺度等级的图像缩放裁剪方法的流程图;
图2为本发明实施例中训练集尺度指数的分布图;
图3为本发明实施例中尺度等级分类器的结构图;
图4为本发明实施例中不同尺度等级下裁剪方法的示意图。
具体实施方式
提供以下参照附图的描述以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。它包括各种具体的细节来帮助理解,但是这些被认为仅仅是示例性的。因此,本领域的普通技术人员将认识到,在不脱离本发明公开的范围和精神的情况下,可以对本发明描述的各种实施例进行各种改变和修改。另外,为了清楚和简明,可以省略对公知功能和结构的描述。
在下面的描述和权利要求中使用的术语和词语不限于书面含义,而是仅由发明人使用使得能够清楚和一致地理解本公开。因此,本领域技术人员应该清楚,提供本发明公开的各种实施例的以下描述仅用于说明的目的,而不是为了限制由所附权利要求及其等同物限定的本公开。
实施例:
一种基于尺度等级的图像缩放裁剪方法,如图1所示,包括以下步骤:
步骤110、获取包括训练图像的训练集,计算训练图像的图像尺度指数,根据图像尺度指数生成大、中、小三种尺度等级的标注;
在本实施例中,提供训练图像的训练集为VisDrone 2018训练集
所述图像尺度指数计算方法如下:
①依据现实世界中物体的长、宽、高划分训练集各个目标类别形成超类,所述超类指多个类别组成的超级类别;
②选定某一超类作为基准,计算超类间目标尺度转换系数;所述超类间目标尺度转换系数的计算公式如下:
其中Isub-train代表训练集的子集,该子集中每一张训练图像i均同时包含超类c和基准超类,|*|表示计算子集的训练图像数,对于子集中的训练图像i,ORS(c)表示超类c的目标相对尺度,ORS(baseline)表示基准超类的目标相对尺度;所述目标相对尺度的计算公式如下:
其中,Areao代表属于超类c的目标o的面积,Areaimage表示训练图像的面积,nc表示当前训练图像中属于超类c的目标的个数。
③依据公式计算图像尺度指数,具体如下:
其中,a(c)为超类c的尺度转换系数,ORS(c)为超类c的目标相对尺度,nc表示当前图像中属于超类c的目标的个数,nimage表示当前图像中目标的个数,Rsuper表示所有超类的集合。
本实施例中,对训练集中每一张训练图像计算图像尺度指数,统计训练集的图像尺度指数分布如图2所示。
本实施例中,人为设定了0.064和0.085两个阈值,并依据阈值生成训练图像的尺度等级标注。图像尺度指数小于0.064的图像被标注为小等级,图像尺度指数在0.064和0.085之间的图像被标注为中等级,图像尺度指数大于0.085的图像被标注为大等级。
步骤120、根据尺度等级的标注,训练尺度等级分类器;如图3所示,所述尺度等级分类器由主干网络、感知野自适应模块和全连接分类模块串联组成,先将图像输入主干网络提取主干特征,再将主干特征输入感知野自适应模块进行特征调整,最后将调整好的特征输入全连接分类模块分类图像尺度等级。
本实施例中,所述主干网络为Resnet-50残差网络,该残差网络包括五阶,每一阶均由若干个残差模块串联而成且每一阶的特征尺寸相同,相邻各阶之间存在2倍下采样层,下采样后特征尺寸缩小两倍;最终提取的主干特征为主干网络二阶至五阶每阶最后一张特征图的集合;
所述感知野自适应模块先使用特征归一化层对特征进行通道归一化,再使用特征拼接操作,拼接特征形成超特征,最后使用通道注意力分支,调整超特征的通道注意力;所述特征归一化层是步长为1、补零填充为0的1*1卷积层,用于使主干特征的通道数归一化至256;所述特征拼接操作将主干特征在通道维度上拼接;所述通道注意力分支由全局池化层、1024*512的全连接层和512*1024的全连接层串联组成;
所述全连接分类模块由全局池化层、1024*512的全连接层和512*3的全连接层串联组成。
本实施例中,使用反向传播的方式训练尺度等级分类器。训练的每次迭代,输入一批训练图像和其对应的尺度等级的标注,尺度等级分类器根据训练图像预测尺度等级,使用交叉熵函数计算预测尺度等级和尺度等级的标注之间的误差,随后根据误差使用梯度下降的方式优化尺度等级分类器的各个参数。
步骤130、获取包括测试图像的测试集,使用训练好的尺度等级分类器分类测试图像的尺度等级;
本实施例中,提供测试图像的测试集为VisDrone 2018验证集
所述使用训练好的尺度等级分类器分类测试图像的尺度等级,是指将测试图像输入训练好的尺度等级分类器获取输入测试图像的尺度等级。
本实施例中,先将测试图像短边缩放至800像素,随后对测试图像进行中心裁剪,得到800*800的图像输入训练好的尺度等级分类器,进行尺度等级分类。
步骤140,根据尺度等级缩放、裁剪测试图像;
缩放图像步骤为对尺度等级为中、大等级的测试图像使用双线性插值进行缩放,对尺度等级为小等级的测试图像使用深度超分辨率算法进行缩放;所述深度超分辨率算法指将低分辨率图映射至高分辨率图的深度学习方法。本实施例中,所使用的深度超分辨率算法为SR-GAN。
如图4所示,裁剪图像步骤为对尺度等级为大等级的图像不进行裁剪,对尺度等级为中等级的图像进行四分裁剪,对尺度等级为小等级的图像进行九分裁剪;所述四分裁剪指四等分裁剪图像,所述九分裁剪指九等分裁剪图像。
本发明的上述实施例仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (7)
1.一种基于尺度等级的图像缩放裁剪方法,其特征在于,包括以下步骤:
步骤一、获取包括训练图像的训练集,计算训练图像的图像尺度指数,根据图像尺度指数生成大、中、小三种尺度等级的标注;所述图像尺度指数计算方法如下:
①依据现实世界中物体的长、宽、高划分训练集各个目标类别形成超类,所述超类指多个类别组成的超级类别;
②选定某一超类作为基准,计算超类间目标尺度转换系数;
③依据公式计算图像尺度指数,具体如下:
其中,a(c)为超类c的尺度转换系数,ORS(c)为超类c的目标相对尺度,nc表示当前图像中属于超类c的目标的个数,nimage表示当前图像中目标的个数,Rsuper表示所有超类的集合;所述超类间目标尺度转换系数的计算公式如下:
其中Isub-train代表训练集的子集,该子集中每一张训练图像i均同时包含超类c和基准超类,|*|表示计算子集的训练图像数,对于子集中的训练图像i,ORS(c)表示超类c的目标相对尺度,ORS(baseline)表示基准超类的目标相对尺度;所述目标相对尺度的计算公式如下:
其中,Areao代表属于超类c的目标o的面积,Areaimage表示训练图像的面积,nc表示当前训练图像中属于超类c的目标的个数;
步骤二、根据尺度等级的标注,训练尺度等级分类器;
步骤三、获取包括测试图像的测试集,使用尺度等级分类器分类测试图像的尺度等级;
步骤四,根据尺度等级缩放、裁剪测试图像。
2.根据权利要求1所述的一种基于尺度等级的图像缩放裁剪方法,其特征在于,步骤一中,所述生成大、中、小三种尺度等级的标注,是统计训练集的图像尺度指数分布,人为设定两个图像尺度指数阈值,划分大、中、小三种尺度等级。
3.根据权利要求1所述的一种基于尺度等级的图像缩放裁剪方法,其特征在于,步骤二中,所述尺度等级分类器由主干网络、感知野自适应模块和全连接分类模块串联组成,先将图像输入主干网络提取主干特征,再将主干特征输入感知野自适应模块进行特征调整,最后将调整好的特征输入全连接分类模块分类图像尺度等级;
所述主干网络为50层的残差网络,该残差网络包括五阶,每一阶均由若干个残差模块串联而成且每一阶的特征尺寸相同,相邻各阶之间存在2倍下采样层,下采样后特征尺寸缩小两倍;最终提取的主干特征为主干网络二阶至五阶每阶最后一张特征图的集合;
所述感知野自适应模块先使用特征归一化层对特征进行通道归一化,再使用特征拼接操作,拼接特征形成超特征,最后使用通道注意力分支,调整超特征的通道注意力;所述特征归一化层是步长为1、补零填充为0的1*1卷积层,用于使主干特征的通道数归一化至256;所述特征拼接操作将主干特征在通道维度上拼接;所述通道注意力分支由全局池化层、1024*512的全连接层和512*1024的全连接层串联组成;
所述全连接分类模块由全局池化层、1024*512的全连接层和512*3的全连接层串联组成。
4.根据权利要求3所述的一种基于尺度等级的图像缩放裁剪方法,其特征在于,训练尺度等级分类器使用交叉熵函数作为损失函数,使用随机梯度下降作为网络优化方法。
5.根据权利要求1所述的一种基于尺度等级的图像缩放裁剪方法,其特征在于,步骤三中,所述使用尺度等级分类器分类测试图像的尺度等级,是指将测试图像输入尺度等级分类器获取输入测试图像的尺度等级。
6.根据权利要求1所述的一种基于尺度等级的图像缩放裁剪方法,其特征在于,步骤四中,所述根据尺度等级缩放、裁剪图像,其中缩放图像步骤为对尺度等级为中、大等级的测试图像使用双线性插值进行缩放,对尺度等级为小等级的测试图像使用深度超分辨率算法进行缩放;所述深度超分辨率算法指将低分辨率图映射至高分辨率图的深度学习方法。
7.根据权利要求1所述的一种基于尺度等级的图像缩放裁剪方法,其特征在于,步骤四中,所述根据尺度等级缩放、裁剪图像,其中裁剪图像步骤为对尺度等级为大等级的图像不进行裁剪,对尺度等级为中等级的图像进行四分裁剪,对尺度等级为小等级的图像进行九分裁剪;所述四分裁剪指四等分裁剪图像,所述九分裁剪指九等分裁剪图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010032589.9A CN111242839B (zh) | 2020-01-13 | 2020-01-13 | 一种基于尺度等级的图像缩放裁剪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010032589.9A CN111242839B (zh) | 2020-01-13 | 2020-01-13 | 一种基于尺度等级的图像缩放裁剪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111242839A CN111242839A (zh) | 2020-06-05 |
CN111242839B true CN111242839B (zh) | 2023-04-21 |
Family
ID=70872626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010032589.9A Active CN111242839B (zh) | 2020-01-13 | 2020-01-13 | 一种基于尺度等级的图像缩放裁剪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111242839B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113538247B (zh) * | 2021-08-12 | 2022-04-15 | 中国科学院空天信息创新研究院 | 超分辨率生成与条件对抗网络遥感影像样本生成方法 |
CN114049627B (zh) * | 2022-01-11 | 2022-04-08 | 浙江华是科技股份有限公司 | 可智能选择缩放尺度的船牌检测方法、装置及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107481188A (zh) * | 2017-06-23 | 2017-12-15 | 珠海经济特区远宏科技有限公司 | 一种图像超分辨率重构方法 |
WO2019136946A1 (zh) * | 2018-01-15 | 2019-07-18 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN110298387A (zh) * | 2019-06-10 | 2019-10-01 | 天津大学 | 融入像素级attention机制的深度神经网络目标检测方法 |
-
2020
- 2020-01-13 CN CN202010032589.9A patent/CN111242839B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107481188A (zh) * | 2017-06-23 | 2017-12-15 | 珠海经济特区远宏科技有限公司 | 一种图像超分辨率重构方法 |
WO2019136946A1 (zh) * | 2018-01-15 | 2019-07-18 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN110298387A (zh) * | 2019-06-10 | 2019-10-01 | 天津大学 | 融入像素级attention机制的深度神经网络目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111242839A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111415316B (zh) | 基于生成对抗网络的缺陷数据合成方法 | |
CN112949565B (zh) | 基于注意力机制的单样本部分遮挡人脸识别方法及系统 | |
Zhou et al. | Scale adaptive image cropping for UAV object detection | |
CN111639692A (zh) | 一种基于注意力机制的阴影检测方法 | |
CN110648334A (zh) | 一种基于注意力机制的多特征循环卷积显著性目标检测方法 | |
CN112150493B (zh) | 一种基于语义指导的自然场景下屏幕区域检测方法 | |
CN110717851A (zh) | 图像处理方法及装置、神经网络的训练方法、存储介质 | |
CN112396607A (zh) | 一种可变形卷积融合增强的街景图像语义分割方法 | |
CN113743269B (zh) | 一种轻量化识别视频人体姿态的方法 | |
EP3690804A1 (en) | Information processing device | |
CN115131797B (zh) | 一种基于特征增强金字塔网络的场景文本检测方法 | |
CN111242839B (zh) | 一种基于尺度等级的图像缩放裁剪方法 | |
CN116645592B (zh) | 一种基于图像处理的裂缝检测方法和存储介质 | |
CN114898284B (zh) | 一种基于特征金字塔局部差异注意力机制的人群计数方法 | |
CN114399510B (zh) | 结合图像和临床元数据的皮肤病灶分割和分类方法及系统 | |
CN116486074A (zh) | 一种基于局部和全局上下文信息编码的医学图像分割方法 | |
CN116563682A (zh) | 一种基于深度霍夫网络的注意力方案和条带卷积语义线检测的方法 | |
Zhang et al. | Spatial–temporal gray-level co-occurrence aware CNN for SAR image change detection | |
CN113393434A (zh) | 一种基于非对称双流网络架构的rgb-d显著性检测方法 | |
CN113344110A (zh) | 一种基于超分辨率重建的模糊图像分类方法 | |
CN116758340A (zh) | 基于超分辨率特征金字塔和注意力机制的小目标检测方法 | |
US11481919B2 (en) | Information processing device | |
CN114494786A (zh) | 一种基于多层协调卷积神经网络的细粒度图像分类方法 | |
CN113658206A (zh) | 一种植物叶片分割方法 | |
CN117456376A (zh) | 一种基于深度学习的遥感卫星影像目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |