CN108921817A - 一种针对皮肤病图像的数据增强方法 - Google Patents
一种针对皮肤病图像的数据增强方法 Download PDFInfo
- Publication number
- CN108921817A CN108921817A CN201810505282.9A CN201810505282A CN108921817A CN 108921817 A CN108921817 A CN 108921817A CN 201810505282 A CN201810505282 A CN 201810505282A CN 108921817 A CN108921817 A CN 108921817A
- Authority
- CN
- China
- Prior art keywords
- sample
- image
- value
- cut
- random
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 208000017520 skin disease Diseases 0.000 title claims abstract description 21
- 230000008569 process Effects 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 7
- 230000001737 promoting effect Effects 0.000 abstract description 2
- 230000002708 enhancing effect Effects 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 7
- 241000208340 Araliaceae Species 0.000 description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 description 3
- 235000008434 ginseng Nutrition 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000003211 malignant effect Effects 0.000 description 2
- 230000000505 pernicious effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011321 prophylaxis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/22—Cropping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
一种针对皮肤病图像的数据增强方法,包括以下步骤:步骤1:依次随机无放回的从皮肤图像样本集M中选择一个样本mi;步骤2:随机从样本mi上选择一块大小固定的区域进行裁剪,被裁剪后的mi命名为mi1,从mi裁剪出来的图像命名为mi2;步骤3:随机有放回的从皮肤图像样本集B中选择一个宽度和高度都大于裁剪区域宽度和高度的样本bj;步骤4:从样本bj上随机选择一块大小固定的区域进行裁剪,裁剪后的bj命名为bj1,从bj裁剪出来的样本命名为bj2;步骤5:计算出c,对结果中非整像素值进行取整;步骤6:将c和mi1进行融合来组成新的mi。本发明提供一种提升皮肤病分类模型性能的针对皮肤病图像的数据增强方法。
Description
技术领域
本发明属于计算机视觉领域,特别涉及一种新型的对于皮肤病图像进行数据增强的方法,具体通过先对不同类别的皮肤病图像进行裁剪然后再融合产生新样本,从而来扩充数据集的大小。
背景技术
数据增强是深度学习中常用的数据预处理方式,通过简单的数据增强我们可以很好的预防模型出现过拟合的情况从而提高模型的泛化性。在多个深度学习框架中比如tensorflow、caffe、pytorch等都集成了一些简单常用的数据增强,通过这些数据增强我们可以迅速扩充数据集,将数据集扩充到一定的量级。比如在caffe中使用mirror对原始图片进行镜像处理,使用crop对图片按照设定尺寸进行裁剪,tensorflow中同样也集成了更多的数据增强方式,同时python也有很多模块包支持对数据进行增强,比如Augmentor。通常深度学习中使用的数据增强方式大致如下:旋转|反射变换(Rotation/reflection):随机将图像旋转一定角度;翻转变换(flip):沿着水平或者垂直方向翻转图像;缩放变换(zoom):按照一定的比例放大或者缩小图像;平移变换(shift):在图像平面上对图像以一定方式进行平移;尺度变换(scale):对图像按照指定的尺度因子,进行放大或缩小;或者参照SIFT特征提取思想,利用指定的尺度因子对图像滤波构造尺度空间,改变图像内容的大小或模糊程度;对比度变换(contrast):在图像的HSV颜色空间,改变饱和度S和V亮度分量,保持色调H不变.对每个像素的S和V分量进行指数运算(指数因子在0.25到4之间),增加光照变化;噪声扰动(noise):对图像的每个像素RGB进行随机扰动,常用的噪声模式是椒盐噪声和高斯噪声。
深度学习中的正则化与优化策略一直是非常重要的部分,它们很大程度上决定了模型的泛化与收敛等性能。优化深度学习模型一般主要从以下几个方面入手:1.通过数据提升性能;2.通过算法提升性能;3.通过算法调参提升性能;4.通过嵌套模型提升性能。数据增强就是通过数据来提升性能。为什么通过数据增强可以提升模型的性能?举例来说,比如图像的亮度、对比度等属性对图像的影响是非常大的,相同物体在不同亮度、对比度差别非常大。然而在很多图像识别问题中,这些因素都不应该影响最后的识别结果。通过对图像的预处理,可以尽量避免模型受到无关因素的影响。在大部分图像识别问题中,通过图像处理过程可以提高模型的准确率。
近年来,随着人工智能技术的不断发展,深度学习技术已经在计算机视觉领域的分类、识别、检测、分割、跟踪等任务都取得了突破性的进展。相较于传统的机器视觉方法,深度卷积神经网络在大数据的训练下,从大量数据中学习出有用的特征,具有速度快、精度高、成本低等优势。但是虽然深度学习能达到这种优于传统方法的很大一部分原因是因为深度学习是建立在大量数据的基础上的。如何克服深度学习依赖数据集的特点,当前主流的做法就是数据增强。但是并不是一味的增加数据量就能够提升模型的性能,换言之就是对于不同任务需要有针对性的使用不同的数据增强方式。
发明内容
为了克服已有技术皮肤病数据量少、皮肤病分类模型的性能受限的不足,本发明提供一种提升皮肤病分类模型性能的针对皮肤病图像的数据增强方法。
本发明解决其技术问题所采用的技术方案是:
一种针对皮肤病图像的数据增强方法,包括以下步骤:
步骤1:依次随机无放回的从皮肤图像样本集M中选择一个样本mi;
步骤2:随机从样本mi上选择一块大小固定的区域进行裁剪,被裁剪后的mi命名为mi1,从mi裁剪出来的图像命名为mi2;
步骤3:随机有放回的从皮肤图像样本集B中选择一个宽度和高度都大于裁剪区域宽度和高度的样本bj;
步骤4:从样本bj上随机选择一块大小固定的区域(和步骤1中从mi上裁剪的区域大小一致)进行裁剪,裁剪后的bj命名为bj1,从bj裁剪出来的样本命名为bj2;
步骤5:根据公式c=λ*value(mi2)+(1-λ)*value(bj2)λ∈[0,1]计算出c,对结果中非整像素值进行取整,其中value(mi2)表示从样本mi上裁剪出来的部分皮肤图像的像素值,value(bj2)代表从样本bj上裁剪出来的部分皮肤图像的像素值,λ表示一个从[0,1]的参数,用来控制mi2和bj2在之后融合中各自像素值所占的比例;
步骤6:将在步骤5中得到的c和mi1进行融合来组成新的mi。
进一步,所述步骤2中,裁剪区域的确定过程如下:
2.1:首先规定裁剪区域是由四个坐标决定,分别是左上角和右下角坐标;
2.2:明确对于原始图片宽和高分别为w,h左上角坐标为(0,0),右下角坐标为(w,h),然后确定准备裁剪的区域的宽sw和高sh;
2.3:对于裁剪区域的左上角坐标的确定流程如下,对于横轴坐标随机从(0,w-sw)中选取,对于纵轴坐标随机从(0,h-sh)中选取。假设随机的到的左上角坐标为(x1,y1);
2.4:对于裁剪区域的右下角坐标(x2,y2)为(x1+sw,y1+sh)。
再新一步,所述步骤3中,从样本集B中选取bj的过程如下:
3.1:随机从样本集B中选取样本bj,并获取样本bj的宽w和h;
3.2:获取mi2的宽sw和高sh,然后将选取的样本bj的宽w、高h和裁剪区域的宽sw,sh进行比较,如果w<sw或者h<sh,那么就抛弃bj,重新从样本集B中选择新的bj,直到最后选择到符合条件的bj。
更进一步,所述步骤5中,进行新的像素值计算的流程如下:
5.1:人为确定λ的值;
5.2:裁剪出来的mi2和bj2都是三通道rgb图像,分别获取它们在每个通道上的值,对应位置上的像素点的值也是由三通道数值组成,每个通道上的数值按照公式c=λ*value(mi2)+(1-λ)*value(bj2)λ∈[0,1]来进行计算,对结果中非整像素值进行取整。其中value(mi2)表示从样本mi上裁剪出来的图像的像素值,value(bj2)代表从样本bj上裁剪出来的图像的像素值,λ表示一个从[0,1]的参数,用来控制mi2和bj2在总后融合中像素值所占的比例。
设置参数λ的主要目的是为了调节从不同样本集合中裁剪出来的样本再融合过程中各自像素值所占的比重。
本发明的有益效果主要表现在:该种数据增强方式不同于其他数据增强方式它们只使用原始训练集,对于每个类别中的样本进行变换得到增强样本。此种增强方式融合了不同类别样本上的信息,能对模型产生更大的干扰性,从而实现更好的正则化效果。同时,融合过程中可以根据人为地调节参数λ来控制融合区域中不同类别样本像素值所占的比重,更具灵活性。
附图说明
图1为本发明所述的方法流程图。
图2为优选实例增强流程图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1和图2,一种针对皮肤病图像的数据增强方法,包括以下步骤:
步骤1:依次随机无放回的从皮肤图像样本集M中选择一个样本mi;
步骤2:随机从样本mi上选择一块大小固定的区域进行裁剪,被裁剪后的mi命名为mi1,从mi裁剪出来的图像命名为mi2;
步骤3:随机有放回的从皮肤图像样本集B中选择一个宽度和高度都大于裁剪区域宽度和高度的样本bj;
步骤4:从样本bj上随机选择一块大小固定的区域(和步骤1中从mi上裁剪的区域大小一致)进行裁剪,裁剪后的bj命名为bj1,从bj裁剪出来的样本命名为bj2;
步骤5:根据公式c=λ*value(mi2)+(1-λ)*value(bj2)λ∈[0,1]计算出c,对结果中非整像素值进行取整,其中value(mi2)表示从样本mi上裁剪出来的部分皮肤图像的像素值,value(bj2)代表从样本bj上裁剪出来的部分皮肤图像的像素值,λ表示一个从[0,1]的参数,用来控制mi2和bj2在之后融合中各自像素值所占的比例;
步骤6:将在步骤5中得到的c和mi1进行融合来组成新的mi。
进一步,所述步骤2中,裁剪区域的确定过程如下:
2.1:首先规定裁剪区域是由四个坐标决定,分别是左上角和右下角坐标;
2.2:明确对于原始图片宽和高分别为w,h左上角坐标为(0,0),右下角坐标为(w,h),然后确定准备裁剪的区域的宽sw和高sh;
2.3:对于裁剪区域的左上角坐标的确定流程如下,对于横轴坐标随机从(0,w-sw)中选取,对于纵轴坐标随机从(0,h-sh)中选取。假设随机的到的左上角坐标为(x1,y1);
2.4:对于裁剪区域的右下角坐标(x2,y2)为(x1+sw,y1+sh)。
再新一步,所述步骤3中,从样本集B中选取bj的过程如下:
3.1:随机从样本集B中选取样本bj,并获取样本bj的宽w和h;
3.2:获取mi2的宽sw和高sh,然后将选取的样本bj的宽w、高h和裁剪区域的宽sw,sh进行比较,如果w<sw或者h<sh,那么就抛弃bj,重新从样本集B中选择新的bj,直到最后选择到符合条件的bj。
更进一步,所述步骤5中,进行新的像素值计算的流程如下:
5.1:人为确定λ的值;
5.2:裁剪出来的mi2和bj2都是三通道rgb图像,分别获取它们在每个通道上的值,对应位置上的像素点的值也是由三通道数值组成,每个通道上的数值按照公式c=λ*value(mi2)+(1-λ)*value(bj2)λ∈[0,1]来进行计算,对结果中非整像素值进行取整。其中value(mi2)表示从样本mi上裁剪出来的图像的像素值,value(bj2)代表从样本bj上裁剪出来的图像的像素值,λ表示一个从[0,1]的参数,用来控制mi2和bj2在总后融合中像素值所占的比例。
本实施例中,首先有两个不同类别的皮肤病图像样本集Benign(良性皮肤病样本集)和Maglinant(恶性皮肤样本集),现在是要对恶性皮肤样本进行数据增强,增强的过程中需要使用到良性皮肤病样本集中的部分样本中的部分区域作为融合样本。明确裁剪区域是由两个坐标点确定的,两个坐标点为左上角坐标点、右下角坐标点,增强方法包括以下步骤:
Step1:依次从Maglinant中无放回取出样本,每次取一张进行增强,原图备份保存,如图2所示,假设取出的样本为ISIC_0000142.jpg其宽度W=2048,高度H=1536,对取出来的Maglinan单张样本,我们先初始化需要裁剪区域的宽度w_crop和高度h_crop,初始化时要保证w_crop<W且h_crop<H,初始化w_crop=300,h_crop=300,,之后从(0,2048-300)中确定裁剪区域的起始x坐标,从(0,1536-300)中确定裁剪区域的起始y坐标,选定的起始坐标(1483,845),然后确定了裁剪区域为(1483,845,1783,1145)根据裁剪区域对原始图片进行裁剪,裁剪出来的样本命名为CropISIC_0000142.jpg;
Step 2:随机从良性皮肤病样本集Benign中选取一个样本,如图2所示我们选取的样本为ISIC_0000000.jpg,图片尺寸大小为1022*767,对取出来的Benign单张样本我们先初始化初始坐标,x坐标从(0,1022-300)中选取,y坐标从(0,767-300)中选取,假设选定坐标点为(326,40),那么裁剪区域为
(326,40,626,340),裁剪出来的样本命名为CropISIS_0000000.jpg;
Step 3:我们确定公式c=λ*value(mi2)+(1-λ)*value(bj2)λ∈[0,1]中的λ为0.75,这样CropISIC_0000142.jpg的像素值所占比重为0.75,相应的CropISIC_0000000.jpg的像素值所占比重为0.25,因为图像是RGB通道图像,所以每个像素点是三个像素值表示的,每个通道的像素值权重一致。然后得到融合后的样本为MixISIC_0000142.jpg;
Step 4:将MixISIC_0000142.jpg放置到ISIC_0000142.jpg裁减的区域上,组成新的ISIC_0000003.jpg,重新命名为AugISIC_0000142.jpg;
Step 5:将上述过程执行多次,分别对恶性皮肤病样本集Maglinant中的所有样本进行扩充。这样可以将恶性皮肤病数据集扩充一倍。同时也可以通过调节裁剪区域的大小,进行多次在原图上的扩充。
Claims (4)
1.一种针对皮肤病图像的数据增强方法,其特征在于,所述方法包括以下步骤:
步骤1:依次随机无放回的从皮肤图像样本集M中选择一个样本mi;
步骤2:随机从样本mi上选择一块大小固定的区域进行裁剪,被裁剪后的mi命名为mi1,从mi裁剪出来的图像命名为mi2;
步骤3:随机有放回的从皮肤图像样本集B中选择一个宽度和高度都大于裁剪区域宽度和高度的样本bj;
步骤4:从样本bj上随机选择一块大小固定的区域进行裁剪,裁剪后的bj命名为bj1,从bj裁剪出来的样本命名为bj2;
步骤5:根据公式c=λ*value(mi2)+(1-λ)*value(bj2)λ∈[0,1]计算出c,对结果中非整像素值进行取整,其中value(mi2)表示从样本mi上裁剪出来的部分皮肤图像的像素值,value(bj2)代表从样本bj上裁剪出来的部分皮肤图像的像素值,λ表示一个从[0,1]的参数,用来控制mi2和bj2在之后融合中各自像素值所占的比例;
步骤6:将在步骤5中得到的c和mi1进行融合来组成新的mi。
2.如权利要求1所述的一种针对皮肤病图像的数据增强方法,其特征在于,所述步骤2中,裁剪区域的确定过程如下:
2.1:首先规定裁剪区域是由四个坐标决定,分别是左上角和右下角坐标;
2.2:明确对于原始图片宽和高分别为w,h左上角坐标为(0,0),右下角坐标为(w,h),然后确定准备裁剪的区域的宽sw和高sh;
2.3:对于裁剪区域的左上角坐标的确定流程如下,对于横轴坐标随机从(0,w-sw)中选取,对于纵轴坐标随机从(0,h-sh)中选取,假设随机的到的左上角坐标为(x1,y1);
2.4:对于裁剪区域的右下角坐标(x2,y2)为(x1+sw,y1+sh)。
3.如权利要求1或2所述的一种针对皮肤病图像的数据增强方法,其特征在于,所述步骤3中,从样本集B中选取bj的过程如下:
3.1:随机从样本集B中选取样本bj,并获取样本bj的宽w和h;
3.2:获取mi2的宽sw和高sh,然后将选取的样本bj的宽w、高h和裁剪区域的宽sw,sh进行比较,如果w<sw或者h<sh,那么就抛弃bj,重新从样本集B中选择新的bj,直到最后选择到符合条件的bj。
4.如权利要求1或2所述的一种针对皮肤病图像的数据增强方法,其特征在于,所述步骤5中,进行新的像素值计算的流程如下:
5.1:人为确定λ的值;
5.2:裁剪出来的mi2和bj2都是三通道rgb图像,分别获取它们在每个通道上的值,对应位置上的像素点的值也是由三通道数值组成,每个通道上的数值按照公式c=λ*value(mi2)+(1-λ)*value(bj2)λ∈[0,1]来进行计算,对结果中非整像素值进行取整,其中value(mi2)表示从样本mi上裁剪出来的图像的像素值,value(bj2)代表从样本bj上裁剪出来的图像的像素值,λ表示一个从[0,1]的参数,用来控制mi2和bj2在总后融合中像素值所占的比例。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810505282.9A CN108921817B (zh) | 2018-05-24 | 2018-05-24 | 一种针对皮肤病图像的数据增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810505282.9A CN108921817B (zh) | 2018-05-24 | 2018-05-24 | 一种针对皮肤病图像的数据增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108921817A true CN108921817A (zh) | 2018-11-30 |
CN108921817B CN108921817B (zh) | 2021-10-26 |
Family
ID=64402598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810505282.9A Active CN108921817B (zh) | 2018-05-24 | 2018-05-24 | 一种针对皮肤病图像的数据增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108921817B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110120055A (zh) * | 2019-04-12 | 2019-08-13 | 浙江大学 | 基于深度学习的眼底荧光造影图像无灌注区自动分割方法 |
CN111951189A (zh) * | 2020-08-13 | 2020-11-17 | 神思电子技术股份有限公司 | 一种多尺度纹理随机化的数据增强方法 |
CN113167495A (zh) * | 2018-12-12 | 2021-07-23 | 三菱电机株式会社 | 空调控制装置和空调控制方法 |
CN113256652A (zh) * | 2021-05-24 | 2021-08-13 | 中国长江三峡集团有限公司 | 一种混合图像数据增强方法 |
CN114663758A (zh) * | 2022-03-15 | 2022-06-24 | 山东大学 | 一种基于迁移学习的木薯叶病分类方法、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107492095A (zh) * | 2017-08-02 | 2017-12-19 | 西安电子科技大学 | 基于深度学习的医学图像肺结节检测方法 |
CN107578436A (zh) * | 2017-08-02 | 2018-01-12 | 南京邮电大学 | 一种基于全卷积神经网络fcn的单目图像深度估计方法 |
CN107945875A (zh) * | 2017-11-17 | 2018-04-20 | 合肥工业大学 | 基于数据增强的肺结节检测方法及系统 |
-
2018
- 2018-05-24 CN CN201810505282.9A patent/CN108921817B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107492095A (zh) * | 2017-08-02 | 2017-12-19 | 西安电子科技大学 | 基于深度学习的医学图像肺结节检测方法 |
CN107578436A (zh) * | 2017-08-02 | 2018-01-12 | 南京邮电大学 | 一种基于全卷积神经网络fcn的单目图像深度估计方法 |
CN107945875A (zh) * | 2017-11-17 | 2018-04-20 | 合肥工业大学 | 基于数据增强的肺结节检测方法及系统 |
Non-Patent Citations (2)
Title |
---|
HONGYI ZHANG等: "mixup: BEYOND EMPIRICAL RISK MINIMIZATION", 《IN PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON LEARNING REPRESENTATIONS(ICLR)》 * |
杨欣等: "小样本条件下基于全局和局部特征融合的人脸识别", 《信号处理》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113167495A (zh) * | 2018-12-12 | 2021-07-23 | 三菱电机株式会社 | 空调控制装置和空调控制方法 |
CN110120055A (zh) * | 2019-04-12 | 2019-08-13 | 浙江大学 | 基于深度学习的眼底荧光造影图像无灌注区自动分割方法 |
CN110120055B (zh) * | 2019-04-12 | 2023-04-18 | 浙江大学 | 基于深度学习的眼底荧光造影图像无灌注区自动分割方法 |
CN111951189A (zh) * | 2020-08-13 | 2020-11-17 | 神思电子技术股份有限公司 | 一种多尺度纹理随机化的数据增强方法 |
CN111951189B (zh) * | 2020-08-13 | 2022-05-06 | 神思电子技术股份有限公司 | 一种多尺度纹理随机化的数据增强方法 |
CN113256652A (zh) * | 2021-05-24 | 2021-08-13 | 中国长江三峡集团有限公司 | 一种混合图像数据增强方法 |
CN114663758A (zh) * | 2022-03-15 | 2022-06-24 | 山东大学 | 一种基于迁移学习的木薯叶病分类方法、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108921817B (zh) | 2021-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921817A (zh) | 一种针对皮肤病图像的数据增强方法 | |
CN111797716B (zh) | 一种基于Siamese网络的单目标跟踪方法 | |
CN110335290B (zh) | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 | |
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN109859190B (zh) | 一种基于深度学习的目标区域检测方法 | |
CN111199531B (zh) | 基于泊松图像融合及图像风格化的交互式数据扩展方法 | |
CN106778821B (zh) | 基于slic和改进的cnn的极化sar图像分类方法 | |
CN104869387B (zh) | 基于光流法的双目图像最大视差获取方法 | |
CN109377530A (zh) | 一种基于深度神经网络的双目深度估计方法 | |
CN109635685A (zh) | 目标对象3d检测方法、装置、介质及设备 | |
CN106127121B (zh) | 一种基于夜间灯光数据的建成区智能化提取方法 | |
CN111445488B (zh) | 一种弱监督学习自动识别和分割盐体的方法 | |
CN112613378B (zh) | 3d目标检测方法、系统、介质及终端 | |
CN112784736B (zh) | 一种多模态特征融合的人物交互行为识别方法 | |
CN113486764B (zh) | 一种基于改进的YOLOv3的坑洼检测方法 | |
CN110097609A (zh) | 一种基于样本域的精细化绣花纹理迁移方法 | |
CN108921057A (zh) | 基于卷积神经网络的对虾形态测量方法、介质、终端设备及装置 | |
CN111626200A (zh) | 一种基于Libra R-CNN的多尺度目标检测网络和交通标识检测方法 | |
CN102034247A (zh) | 一种基于背景建模对双目视觉图像的运动捕捉方法 | |
CN111626160B (zh) | 一种基于区域式渐进校准网络的角度变化下人脸检测方法 | |
CN108364305A (zh) | 基于改进型dsst的车载摄像视频目标跟踪方法 | |
CN112966759A (zh) | 一种基于深度学习的眼底图像识别分类方法 | |
CN110544267B (zh) | 一种自适应选择特征的相关滤波跟踪方法 | |
CN112508851A (zh) | 一种基于cnn分类算法的泥岩岩性识别系统 | |
CN111259923A (zh) | 一种基于改进三维r-cnn算法的多目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |