CN113408523A - 一种基于图像生成技术的垃圾物品图像数据集构建方法 - Google Patents
一种基于图像生成技术的垃圾物品图像数据集构建方法 Download PDFInfo
- Publication number
- CN113408523A CN113408523A CN202110568715.7A CN202110568715A CN113408523A CN 113408523 A CN113408523 A CN 113408523A CN 202110568715 A CN202110568715 A CN 202110568715A CN 113408523 A CN113408523 A CN 113408523A
- Authority
- CN
- China
- Prior art keywords
- image
- data set
- mask
- garbage
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims abstract description 17
- 238000005516 engineering process Methods 0.000 title claims abstract description 16
- 239000010813 municipal solid waste Substances 0.000 claims abstract description 86
- 238000000034 method Methods 0.000 claims abstract description 25
- 238000002372 labelling Methods 0.000 claims abstract description 14
- 230000008569 process Effects 0.000 claims abstract description 7
- 238000006243 chemical reaction Methods 0.000 claims abstract description 6
- 230000011218 segmentation Effects 0.000 claims description 13
- 239000007787 solid Substances 0.000 claims description 12
- 239000002131 composite material Substances 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 9
- 238000005520 cutting process Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 238000013075 data extraction Methods 0.000 claims description 2
- 238000009826 distribution Methods 0.000 claims description 2
- 230000008030 elimination Effects 0.000 claims description 2
- 238000003379 elimination reaction Methods 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 230000002194 synthesizing effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于图像生成技术的垃圾物品图像数据集构建方法:搜集整理单目标垃圾图像数据集;利用U2‑Net模型得到单个垃圾物品的mask图像;对单个垃圾物品进行抠图,构成Crop数据集;从Crop数据集中随机抽取多张图像,依次随机粘贴在一张大的纯色背景图上;合成多张图像构成Syn数据集;将采集的少量多目标真实图视为目标域,Syn数据集视为源域,用CycleGAN模型进行风格转换;对风格转换结果进行优化处理,得到最终合成图。本发明的一种基于图像生成技术的垃圾物品图像数据集构建方法,将繁杂的数据采集和标注过程交给计算机自动完成,可显著提高数据集的构建效率,降低人工成本。
Description
技术领域
本发明涉及一种图像数据集构建方法。特别是涉及一种基于图像生成技术的垃圾物品图像数据集构建方法。
背景技术
随着人工智能与环保产业的不断融合,生活垃圾智慧分拣系统逐渐显露出巨大的应用价值,其中基于深度学习的垃圾物品多目标检测技术是系统的关键感知技术。深度学习依赖大规模数据集,小规模数据集的数据量太少,不能训练出高性能深度学习模型,然而构建大规模数据集却并不容易。
现有的大规模图像数据集(如ImageNet,COCO,Open Image)常采用人工采集图像和人工标注的构建方法(常规方法)。但是,采用常规方法构建垃圾物品多目标检测图像数据集存在两方面问题:1)鉴于垃圾物品的特殊性,人工拍照采集多目标垃圾图像(一张图中有多个垃圾物品)具有较高的卫生健康风险,不适合人工采集;2)人工标注属于极端重复性劳动,费时费力且效率低下,标注人员无法在短时间内完成大规模数据集的标注工作。
发明内容
本发明所要解决的技术问题是,提供一种具有自动标注功能的,基于图像生成技术的垃圾物品图像数据集构建方法。
本发明所采用的技术方案是:一种基于图像生成技术的垃圾物品图像数据集构建方法,包括如下步骤:
1)搜集整理单目标垃圾图像数据集,图像均为分类标注;
2)利用U2-Net模型进行显著性检测,得到单个垃圾物品的mask图像;
3)自动检测mask图像中垃圾物品的bounding box,根据mask图像对单个垃圾物品进行抠图,然后使背景透明化,构成新的单目标垃圾图像数据集(称为Crop数据集,其中图像尺寸即为垃圾物品的bounding box尺寸);
4)从Crop数据集中随机抽取多张图像,构成待粘贴图像数据集Setcopy:
5)考虑遮盖阈值,将Setcopy中的图像随机粘贴在一张大的纯色背景图上,得到多目标垃圾物品合成图Syni,i表示第i张合成图,同时记录每一个垃圾物品的bounding box和语义分割标注,实现自动标注,该标注符合COCO数据集的标注格式,以便使用;
6)重复步骤4和步骤5生成多张合成图Syni和标注,构成多目标垃圾物品合成图数据集(称为Syn数据集);
7)在流水线垃圾分拣平台采集少量多目标真实图,将真实图视为目标域,Syni视为源域,用CycleGAN模型进行风格转换,使Syni的风格特征更加接近真实的流水线垃圾分拣场景,得到转换后的Cyci,构成Cyc数据集;
8)对Cyci进行优化处理,对于一张Syni的mask图像,不改变图像整体尺寸,按各垃圾物品的中心点放大各垃圾物品的mask图像,得到Mask′;
9)对Mask′进行均值滤波,得到具有边缘羽化效果的Mask″;
10)利用Mask″抠出Cyci中的指定区域,从而消除Cyci中的“白边”,使过渡更加自然,得到最终合成图(称为Endi),由Endi构成垃圾物品图像数据集,该数据集含有boundingbox和语义分割标注。
步骤4所述的随机抽取的具体步骤是:通过计算Crop数据集中各个类别的图像数量占图像总数的比例wk,k表示第k个类别。随机选择Setcopy中的类别总数和图像总数,然后按概率Pk=wk选择待粘贴图像的类别,最后从所选类别中随机抽取图像,同时要保证所选类别中的每一类中至少有1张图像被抽中。这种数据抽取方法考虑了不同类别的数量分布特性,降低了部分图像数量少的类别被反复选中的可能,最终抽取的图像可以更加多样化。
步骤5所述的具体步骤是:从Setcopy中提取一张图片Image0,随机旋转后抠出前景(单个垃圾物品)所在的bounding box区域,背景透明化后得到Image_r0,随机选择粘贴点,将Image_r0粘贴在一张大的纯色背景图上。再从Setcopy中提取另一张图片Imagep,p表示Setcopy中第p张图像,用同样的方法得到Image_rp,若Image_rp和已粘贴到背景图上的所有垃圾物品的IoU小于阈值(比如0.2),就将其粘贴在背景图上,否则放弃本次粘贴,继续随机选择粘贴坐标,继续尝试粘贴,若尝试5次依然失败就放弃粘贴该图像,继续提取Setcopy中的剩余图像。重复上述过程直到提取完Setcopy中的所有图像,至此生成了一张多目标垃圾物品合成图Syni。可根据需要调整Syni的尺寸,同时自动调整标注。
步骤8所述的按各垃圾物品的中心点放大各垃圾物品的mask图像的的具体步骤是:利用语义分割标注将该Syni的mask图像拆分为多张单个垃圾物品的mask图像(每张图像称为Maskj,j表示Syni中第j个垃圾物品,Maskj的尺寸与Syni相同)。利用bounding box标注计算Maskj中唯一垃圾物品的中心点坐标(xj,yj),选择缩放比例α=1.25,将Maskj的图像尺寸放大α倍,计算剪切点坐标:
Oj=((α-1)xj,(α-1)yj) (1)
其中(xj,yj)是垃圾物品的中心点坐标,α是缩放比例,Oj是放大后的Maskj中的剪切点坐标。以Oj为左上角的剪切点,将放大后的Maskj剪切成与Syni相同尺寸的图像,得到按垃圾物品中心点放大的mask图像(称为Mask′j),对所有Mask′j求并集得到Mask′。
步骤10所述的消除Cyci中的“白边”的具体步骤是:遍历Mask″的所有像素,若点(x,y)处的灰度值grayxy=0,则在Endi的点(x,y)处填充纯色背景;若点(x,y)处的灰度值grayxy>230,则在Endi的点(x,y)处填充Cyci对应位置的RGB值;若0<grayxy<230,则根据灰度比例线性叠加Cyci对应位置的RGB值和纯色背景,在Endi的点(x,y)处填充:
其中cxy,exy分别是Cyci,Endi中点(x,y)处的RGB值,b是纯色背景的RGB值,grayxy是Mask″中点(x,y)处的灰度值。
本发明的一种基于图像生成技术的垃圾物品图像数据集构建方法,将繁杂的数据采集和标注过程交给计算机自动完成,可显著提高数据集的构建效率,降低人工成本。本发明具有如下优点:
1)本发明提出的通过U2-Net模型进行显著性检测,再根据mask图像和boundingbox尺寸进行抠图,可以获得单个垃圾物品的bounding box和语义分割标注,使算法高效准确地对Endi中所有垃圾物品进行自动标注,大大降低人工标注成本;
2)本发明提出的多目标图像生成方法,使Syni中垃圾物品的总数量、类别数、遮盖程度可控,位置与旋转角度不可控,兼顾确定性与随机性,较好地解决了多目标图像生成过程的控制问题,同时,该方法能够避免人工拍照采集多目标垃圾物品,可以大大节省人力物力,杜绝卫生健康隐患;
3)本发明提出的通过CycleGAN模型对Syni进行风格转换,将真实场景下垃圾物品的褶皱、脏污、阴影、光线变化等风格特征引入到Syni中,使Syni更加“逼真”,而更加接近真实场景的训练集可以提高目标检测模型的性能,此外,该方法对构建其他领域的图像数据集同样适用,因此在数据集构建领域具有广泛的应用前景;
4)本发明提出的按定点放大mask图像方法,不改变图像尺寸,整个过程只涉及图像的整体放大和裁剪,算法简单高效,此外,该方法对彩色图像同样适用,因此在图像缩放领域具有广泛的应用前景。
附图说明
图1是本发明一种基于图像生成技术的垃圾物品图像数据集构建方法的流程图;
图2是本发明实例中搜集整理的单目标垃圾图像数据集概览图;
图3是本发明实例中的输入图像(单目标垃圾图像);
图4是本发明实例中对输入图像进行显著性检测的结果图;
图5是本发明实例中Crop数据集的示意图;
图6是本发明实例中Syn数据集的示意图;
图7是本法明实例中在流水线垃圾分拣平台采集的少量多目标真实图;
图8是本发明实例中Cyc数据集的示意图;
图9是本发明实例中的Syni;
图10是本发明实例中的Cyci;
图11是本发明实例中的最终合成图Endi;
图12是本发明实例中Syni的mask图像;
图13是本发明实例中Mask′图像;
图14是本发明实例中Mask″图像;
图15是本发明实例中构建的垃圾物品图像数据集示意图;
图16是本发明实例中构建的垃圾物品图像数据集的bounding box和语义分割标注示意图。
具体实施方式
下面结合实例和附图对本发明的一种基于图像生成技术的垃圾物品图像数据集构建方法做出详细说明。
1)搜集整理单目标垃圾图像数据集,图像均为分类标注,如图2所示;
2)读取如图3所示的单目标垃圾图像,利用U2-Net模型进行显著性检测,得到单个垃圾物品的mask图像,如图4所示;
3)自动检测mask图像中垃圾物品的bounding box,根据mask图像对单个垃圾物品进行抠图,然后使背景透明化,构成新的单目标垃圾图像数据集(称为Crop数据集,其中图像尺寸即为垃圾物品的bounding box尺寸),如图5所示;
4)从Crop数据集中随机抽取多张图像,构成待粘贴图像数据集Setcopy,具体步骤如下:
计算Crop数据集中各个类别的图像数量占图像总数的比例wk,k表示第k个类别,随机选择Setcopy中的类别总数和图像总数,然后按概率Pk=wk选择待粘贴图像的类别,最后从所选类别中随机抽取图像,同时要保证所选类别中的每一类中至少有1张图像被抽中。
5)考虑遮盖阈值,将Setcopy中的图像随机粘贴在一张大的纯色背景图上,得到多目标垃圾物品合成图Syni,i表示第i张合成图,同时记录每一个垃圾物品的bounding box和语义分割标注,实现自动标注,该标注符合COCO数据集的标注格式,以便使用,具体步骤如下:
从Setcopy中提取一张图片Image0,随机旋转后抠出前景(单个垃圾物品)所在的bounding box区域,背景透明化后得到Image_r0,随机选择粘贴点,将Image_r0粘贴在一张大的纯色背景图上。再从Setcopy中提取另一张图片Imagep,p表示Setcopy中第p张图像,用同样的方法得到Image_rp,若Image_rp和已粘贴到背景图上的所有垃圾物品的IoU小于阈值(比如0.2),就将其粘贴在背景图上并记录该垃圾物品的bounding box和语义分割标注,否则放弃本次粘贴,继续随机选择粘贴坐标,继续尝试粘贴,若尝试5次依然失败就放弃粘贴该图像,继续提取Setcopy中的剩余图像。重复上述过程直到提取完Setcopy中的所有图像,至此生成了一张多目标垃圾物品合成图Syni。可根据需要调整Syni的尺寸,同时自动调整标注。
6)重复步骤4和步骤5生成多张合成图Syni和标注,构成多目标垃圾物品合成图数据集(称为Syn数据集),如图6所示;
7)在流水线垃圾分拣平台采集少量多目标真实图,如图7所示。将真实图视为目标域,Syni视为源域,用CycleGAN模型进行风格转换,使Syni的风格特征更加接近真实的流水线垃圾分拣场景,得到转换后的Cyci,构成Cyc数据集,如图8所示。
由于人力物力的限制,人工采集的真实图数量较少,使CycleGAN出现了一定程度的过拟合,导致Cyci出现了生硬的“白边”,严重降低了合成图的真实性,以下步骤将消除“白边”,使过渡更加自然。
8)对Cyci进行优化处理,对于一张Syni的mask图像,不改变图像整体尺寸,按各垃圾物品的中心点放大各垃圾物品的mask图像,得到Mask′,其具体步骤如下:
对于一张如图9所示的Syni,其mask图像如图12所示,其经过CycleGAN转换后的图像Cyci如图10所示。利用语义分割标注将该Syni的mask图像拆分为多张单个垃圾物品的mask图像(每张图像称为Maskj,j表示Syni中第j个垃圾物品,Maskj的尺寸与Syni相同)。利用bounding box标注计算Maskj中唯一垃圾物品的中心点坐标(xj,yj),选择缩放比例α=1.25,将Maskj的图像尺寸放大α倍,计算剪切点坐标:
Oj=((α-1)xj,(α-1)yj) (1)
其中(xj,yj)是垃圾物品的中心点坐标,α是缩放比例,Oj是放大后的Maskj中的剪切点坐标。以Oj为左上角的剪切点,将放大后的Maskj剪切成与Syni相同尺寸的图像,得到按垃圾物品中心点放大的mask图像(称为Mask′j),对所有Mask′j求并集得到Mask′,如图13所示。
9)对Mask′进行均值滤波,得到具有边缘羽化效果的Mask″,如图14所示;
10)利用Mask″抠出Cyci中的指定区域,从而消除Cyci中的“白边”,使过渡更加自然,得到最终合成图(称为Endi),由Endi构成垃圾物品图像数据集,该数据集含有boundingbox和语义分割标注,具体步骤为:
遍历Mask″的所有像素,若点(x,y)处的灰度值grayxy=0,则在Endi的点(x,y)处填充纯色背景;若点(x,y)处的灰度值grayxy>230,则在Endi的点(x,y)处填充Cyci对应位置的RGB值;若0<grayxy<230,则根据灰度比例线性叠加Cyci对应位置的RGB值和纯色背景,在Endi的点(x,y)处填充:
其中cxy,exy分别是Cyci,Endi中点(x,y)处的RGB值,b是纯色背景的RGB值,grayxy是Mask″中点(x,y)处的灰度值。得到的最终合成图Endi如图11所示。
由Endi构成的垃圾物品图像数据集如图15所示,其bounding box和语义分割标注如图16所示。
Claims (5)
1.一种基于图像生成技术的垃圾物品图像数据集构建方法,其特征在于,包括如下步骤:
1)搜集整理单目标垃圾图像数据集,图像均为分类标注;
2)利用U2-Net模型进行显著性检测,得到单个垃圾物品的mask图像;
3)自动检测mask图像中垃圾物品的bounding box,根据mask图像对单个垃圾物品进行抠图,然后使背景透明化,构成新的单目标垃圾图像数据集(称为Crop数据集,其中图像尺寸即为垃圾物品的bounding box尺寸);
4)从Crop数据集中随机抽取多张图像,构成待粘贴图像数据集Setcopy;
5)考虑遮盖阈值,将Setcopy中的图像随机粘贴在一张大的纯色背景图上,得到多目标垃圾物品合成图Syni,i表示第i张合成图,同时记录每一个垃圾物品的bounding box和语义分割标注,实现自动标注,该标注符合COCO数据集的标注格式,以便使用;
6)重复步骤4和步骤5生成多张合成图Syni和标注,构成多目标垃圾物品合成图数据集(称为Syn数据集);
7)在流水线垃圾分拣平台采集少量多目标真实图,将真实图视为目标域,Syni视为源域,用CycleGAN模型进行风格转换,使Syni的风格特征更加接近真实的流水线垃圾分拣场景,得到转换后的Cyci,构成Cyc数据集;
8)对Cyci进行优化处理,对于一张Syni的mask图像,不改变图像整体尺寸,按各垃圾物品的中心点放大各垃圾物品的mask图像,得到Mask′;
9)对Mask′进行均值滤波,得到具有边缘羽化效果的Mask″;
10)利用Mask″抠出Cyci中的指定区域,从而消除Cyci中的“白边”,使过渡更加自然,得到最终合成图(称为Endi),由Endi构成垃圾物品图像数据集,该数据集含有bounding box和语义分割标注。
2.根据权利要求1所述的一种基于图像生成技术的垃圾物品图像数据集构建方法,其特征在于,步骤4)所述的随机抽取的具体步骤是:通过计算Crop数据集中各个类别的图像数量占图像总数的比例wk,k表示第k个类别。随机选择Setcopy中的类别总数和图像总数,然后按概率Pk=wk选择待粘贴图像的类别,最后从所选类别中随机抽取图像,同时要保证所选类别中的每一类中至少有1张图像被抽中。这种数据抽取方法考虑了不同类别的数量分布特性,降低了部分图像数量少的类别被反复选中的可能,最终抽取的图像可以更加多样化。
3.根据权利要求1所述的一种基于图像生成技术的垃圾物品图像数据集构建方法,其特征在于,步骤5)所述的具体步骤是:从Setcopy中提取一张图片Image0,随机旋转后抠出前景(单个垃圾物品)所在的bounding box区域,背景透明化后得到Image_r0,随机选择粘贴点,将Image_r0粘贴在一张大的纯色背景图上。再从Setcopy中提取另一张图片Imagep,p表示Setcopy中第p张图像,用同样的方法得到Image_rp,若Image_rp和已粘贴到背景图上的所有垃圾物品的IoU小于阈值(比如0.2),就将其粘贴在背景图上,否则放弃本次粘贴,继续随机选择粘贴坐标,继续尝试粘贴,若尝试5次依然失败就放弃粘贴该图像,继续提取Setcopy中的剩余图像。重复上述过程直到提取完Setcopy中的所有图像,至此生成了一张多目标垃圾物品合成图Syni。可根据需要调整Syni的尺寸,同时自动调整标注。
4.根据权利要求1所述的一种基于图像生成技术的垃圾物品图像数据集构建方法,其特征在于,步骤8)所述的按各垃圾物品的中心点放大各垃圾物品的mask图像的具体步骤是:利用语义分割标注将该Syni的mask图像拆分为多张单个垃圾物品的mask图像(每张图像称为Maskj,j表示Syni中第j个垃圾物品,Maskj的尺寸与Syni相同)。利用bounding box标注计算Maskj中唯一垃圾物品的中心点坐标(xj,yj),选择缩放比例α=1.25,将Maskj的图像尺寸放大α倍,计算剪切点坐标:
Oj=((α-1)xj,(α-1)yj) (1)
其中(xj,yj)是垃圾物品的中心点坐标,α是缩放比例,Oj是放大后的Maskj中的剪切点坐标。以Oj为左上角的剪切点,将放大后的Maskj剪切成与Syni相同尺寸的图像,得到按垃圾物品中心点放大的mask图像(称为Mask′j),对所有Mask′j求并集得到Mask′。
5.根据权利要求1所述的一种基于图像生成技术的垃圾物品图像数据集构建方法,其特征在于,步骤10)所述的消除Cyci中的“白边”的具体步骤是:遍历Mask″的所有像素,若点(x,y)处的灰度值grayxy=0,则在Endi的点(x,y)处填充纯色背景;若点(x,y)处的灰度值grayxy>230,则在Endi的点(x,y)处填充Cyci对应位置的RGB值;若0<grayxy<230,则根据灰度比例线性叠加Cyci对应位置的RGB值和纯色背景,在Endi的点(x,y)处填充:
其中cxy,exy分别是Cyci,Endi中点(x,y)处的RGB值,b是纯色背景的RGB值,grayxy是Mask″中点(x,y)处的灰度值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110568715.7A CN113408523A (zh) | 2021-05-27 | 2021-05-27 | 一种基于图像生成技术的垃圾物品图像数据集构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110568715.7A CN113408523A (zh) | 2021-05-27 | 2021-05-27 | 一种基于图像生成技术的垃圾物品图像数据集构建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113408523A true CN113408523A (zh) | 2021-09-17 |
Family
ID=77674609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110568715.7A Pending CN113408523A (zh) | 2021-05-27 | 2021-05-27 | 一种基于图像生成技术的垃圾物品图像数据集构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113408523A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114373027A (zh) * | 2021-12-17 | 2022-04-19 | 杭州电子科技大学上虞科学与工程研究院有限公司 | 基于灰度共生矩阵的瓷砖图像数据集生成方法 |
-
2021
- 2021-05-27 CN CN202110568715.7A patent/CN113408523A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114373027A (zh) * | 2021-12-17 | 2022-04-19 | 杭州电子科技大学上虞科学与工程研究院有限公司 | 基于灰度共生矩阵的瓷砖图像数据集生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107563381B (zh) | 基于全卷积网络的多特征融合的目标检测方法 | |
CN101315663B (zh) | 一种基于区域潜在语义特征的自然场景图像分类方法 | |
CN107527054B (zh) | 基于多视角融合的前景自动提取方法 | |
CN109117703B (zh) | 一种基于细粒度识别的混杂细胞种类鉴定方法 | |
CN104134234A (zh) | 一种全自动的基于单幅图像的三维场景构建方法 | |
CN111967313B (zh) | 一种深度学习目标检测算法辅助的无人机图像标注方法 | |
Xu et al. | Leaf instance segmentation and counting based on deep object detection and segmentation networks | |
CN105957124B (zh) | 具有重复场景元素的自然图像颜色编辑方法及装置 | |
CN110598564B (zh) | 基于OpenStreetMap的高空间分辨率遥感影像迁移学习分类方法 | |
CN113223042B (zh) | 一种遥感影像深度学习样本智能采集方法及设备 | |
CN110675421B (zh) | 基于少量标注框的深度图像协同分割方法 | |
CN108280488A (zh) | 基于共享神经网络的可抓取物体识别方法 | |
CN105528575A (zh) | 基于上下文推理的天空检测算法 | |
CN112347970A (zh) | 一种基于图卷积神经网络的遥感影像地物识别方法 | |
CN105138975B (zh) | 一种基于深度信念网络的人体肤色区域分割方法 | |
CN114140665A (zh) | 一种基于改进YOLOv5的密集小目标检测方法 | |
CN105931241A (zh) | 一种自然场景图像的自动标注方法 | |
CN110991439A (zh) | 一种基于像素级多特征联合分类的手写体字符的提取方法 | |
CN109448086B (zh) | 基于稀疏实采数据的分拣场景平行数据集构建方法 | |
CN106503170A (zh) | 一种基于遮挡维度的图像库构建方法 | |
CN110377659A (zh) | 一种智能图表推荐系统及方法 | |
CN104573701B (zh) | 一种玉米雄穗性状的自动检测方法 | |
CN113408523A (zh) | 一种基于图像生成技术的垃圾物品图像数据集构建方法 | |
CN113361496B (zh) | 一种基于U-Net的城市建成区统计方法 | |
CN107909073A (zh) | 多维局部二值模式和机器学习手写乐谱谱线删除方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |