CN111353995A - 一种基于生成对抗网络的宫颈单细胞图像数据生成方法 - Google Patents
一种基于生成对抗网络的宫颈单细胞图像数据生成方法 Download PDFInfo
- Publication number
- CN111353995A CN111353995A CN202010240762.4A CN202010240762A CN111353995A CN 111353995 A CN111353995 A CN 111353995A CN 202010240762 A CN202010240762 A CN 202010240762A CN 111353995 A CN111353995 A CN 111353995A
- Authority
- CN
- China
- Prior art keywords
- loss
- sample
- generation
- discriminator
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于生成对抗网络的宫颈单细胞图像数据生成方法,包括以下步骤:S1、准备包含正常细胞图像和异常细胞图像的宫颈单细胞数据集,并对宫颈单细胞数据集进行预处理;S2、模型设计:以传统的生成对抗网络为基础,在生成对抗网络模型过程中使用约束条件指导模型生成指定类别的宫颈单细胞图像。本发明的生成对抗网络由两部分组成:生成器用于捕获训练数据的分布,判别器用于判断输入数据是来自真实数据还是生成数据。模型通过这种竞争的学习方式,使生成对抗网络可以生成逼近真实的图像,提升模型表现。本发明可以通过生成器在消耗很少的时间和人力的前提下获得大量的有效数据,可以通过扩大数据集获得更高的疾病检测准确率。
Description
技术领域
本发明属于图像处理技术领域,特别涉及一种基于生成对抗网络的宫颈单细胞图像数据生成方法。
背景技术
在全世界范围内,宫颈癌已经成为一种女性的高发疾病,典型的宫颈癌需要经历10-20年的癌变期。因此,漫长的癌变期使得宫颈癌又是最容易预防和控制的。宫颈的早期检测是预防癌症发生的重要手段。其中通过细胞涂片进行早期检查是最常用和有效的方法。当前对细胞涂片的检查主要依赖医生的主观判断,但是这需要大量的时间。近年来,随着计算机技术的发展,机器学习开始在很多领域取得了突破性的进展,并逐渐被用于辅助宫颈单细胞图像的检测。
不幸的是,模型的训练需要大量的数据。对于宫颈单细胞图像数据而言,数据获取需要耗费大量的时间。但是数据集的大小直接影响了机器学习模型的表现,而传统的数据增强方法(仿射变换)是不能保证数据多样性的,这样的数据对于模型学习是有影响的。
发明内容
本发明的目的在于克服现有技术的不足,提供一种通过生成器在消耗很少的时间和人力的前提下获得大量的有效数据,可以通过扩大数据集获得更高的疾病检测准确率的基于生成对抗网络的宫颈单细胞图像数据生成方法。
本发明的目的是通过以下技术方案来实现的:一种基于生成对抗网络的宫颈单细胞图像数据生成方法,包括以下步骤:
S1、准备包含正常细胞图像和异常细胞图像的宫颈单细胞数据集,并对宫颈单细胞数据集进行预处理;
S2、模型设计:以传统的生成对抗网络为基础,在生成对抗网络模型过程中使用约束条件指导模型生成指定类别的宫颈单细胞图像。
进一步地,所述步骤S1包括以下子步骤:
S11、数据大小裁剪:使用三阶线性插值算法对每张图像进行裁剪,经过裁剪后的图像统一大小为72*72的灰度图像;
S12、图像灰度化处理:将每张图像进行灰度处理,具体的转换公式为:
g(x,y)=0.3*R(x,y)+0.59*G(x,y)+0.11*B(x,y)
g(x,y)表示转换后的图像输出,R(x,y)、G(x,y)、B(x,y)分别代表原始图像各个像素点的通道值;
S13、归一化处理:将灰度化处理后的图像的像素归一化到(-1,1);
S14、数据制作:将归一化处理后的细胞图像全部转换为一个.npy文件;在转换的过程中,按照train data:test data=5:1的比例划分数据;并且对每一张图像的类别进行标注,其中0表示异常细胞,1表示正常细胞。
进一步地,所述生成对抗网络模型由生成器G和判别器D组成;生成器G以随机高斯噪声Z和样本标签label作为输入,并且生成图像;判别器D输入由三部分组成:生成器G的生成图像、真实图像和样本标签label;生成对抗网络模型的输出是输入样本来自真实图片的概率;
损失函数由最小二乘损失lossmse和梯度惩罚损失lossgp组成:
进一步地,所述生成器G使用残差网络构建;生成器G包含1层全连接层和20层卷积层,在每一层中使用ReLU作为激活函数,并进行批归一化处理。所述残差网络满足如下公式:
xl+1=relu(xl+F(relu(xl))
xl是上一层残差块的输入,F(relu(xl)是xl经过第一层线性变化并激活后的输出。
进一步地,所述判别器D包括4层卷积层;每一层之间使用LeakyReLU作为激活函数。
进一步地,所述生成对抗网络模型的训练包括以下步骤:
S21、获取训练数据,根据数据类别将每一类数据按0-6设置标签信息label,每一个数字代表一个类别,依次为:0:异常-中度鳞状上皮细胞;1:异常-原位鳞状细胞癌;2:异常-轻度鳞状上皮细胞;3:异常-重度鳞状上皮细胞;4:正常-上皮鳞状细胞;5:正常-柱状细胞;6:正常-鳞状细胞;最后进行one-hot编码;
S22、自动生成100维的随机高斯噪声Z;
S23、将随机高斯噪声Z和标签信息label作为生成器G的输入,生成样本fake_img;
S24、设置对抗性判别值0和1:0代表假,1代表真;
对于判别器D的训练,向模型输入生成样本的判别结果为0,输入真实样本的判别结果为1;对于生成器G的训练,目标是希望判别器D对于生成样本的判别结果为1;
计算生成器和判别器的损失值,并最终生成逼真的样本。
S25、将生成样本fake_img和标签信息label作为判别器D的输入,得到假样本的判别损失将真实样本real_img和标签信息label作为判别器D的输入,得到真实样本的判别损失在真实样本和生成样本间随机取样,然后将这个随机取样值输入判别器D,得到梯度损失gp_loss;
S26、由S25得到的判别损失求和得到总的判别损失D_loss:
S27、将生成样本fake_img和标签信息label作为判别器D的输入,得到生成损失G_loss;
S28、根据判别损失和生成损失计算梯度(梯度值通过对损失函数中权重W和偏置b求偏导得出)公式如下所示,并通过反向传播算法优化生成器G和判别器D;并且在训练的过程中,生成器与判别器并不是同时进行的,而是交替进行训练的;这样做的原因是因为网络是一种由生成器和判别器组成的对抗学习方法;
S29、重复步骤S23~S28,直到训练达到最大迭代次数,或者总的判别损失D_loss不再下降并且生成损失G_loss不再上升。
本发明的有益效果是:本发明的生成对抗网络由两部分组成:生成器G和判别器D。生成器用于捕获训练数据的分布,判别器相当于一个二分类,用于判断输入数据是来自真实数据还是生成数据。模型通过这种竞争的学习方式,使生成对抗网络可以生成逼近真实的图像,提升模型表现。本发明可以通过生成器在消耗很少的时间和人力的前提下获得大量的有效数据,可以通过扩大数据集获得更高的疾病检测准确率,最终在宫颈癌检测上获得更高的精度。
附图说明
图1为本发明的生成对抗网络模型的结构示意图;
图2为本发明的生成器G结构示意图;
图3为本发明的两种类型的残差块结构图;
图4为本发明的判别器D结构示意图。
具体实施方式
下面结合附图进一步说明本发明的技术方案。
一种基于生成对抗网络的宫颈单细胞图像数据生成方法,包括以下步骤:
S1、准备包含正常细胞图像和异常细胞图像的宫颈单细胞数据集,并对宫颈单细胞数据集进行预处理;包括以下子步骤:
S11、数据大小裁剪:原始数据的每一张图像为大小形状不一的彩色RGB图像,为了方便输入网络模型,使用三阶线性插值算法对每张图像进行裁剪,经过裁剪后的图像统一大小为72*72的灰度图像;
S12、图像灰度化处理:由于在制作细胞切片的过程中使用了大量的染色剂,因此,原始图像中包含各种颜色的图像。为了消除染色剂对于模型的干扰,将每张图像进行灰度处理,具体的转换公式为:
g(x,y)=0.3*R(x,y)+0.59*G(x,y)+0.11*B(x,y)
g(x,y)表示转换后的图像输出,R(x,y)、G(x,y)、B(x,y)分别代表原始图像各个像素点的通道值;
S13、归一化处理:将灰度化处理后的图像的像素归一化到(-1,1);归一化的目的有二:第一:为了降低模型训练过程中的损失波动。第二,判别器最后一层使用的是tanh激活函数,归一化更符合要求;
S14、数据制作:将归一化处理后的细胞图像全部转换为一个.npy文件;在转换的过程中,按照train data:test data=5:1的比例划分数据;并且对每一张图像的类别进行标注(0/1),其中0表示异常细胞,1表示正常细胞。
S2、模型设计:以传统的生成对抗网络为基础,在生成对抗网络模型过程中使用约束条件指导模型生成指定类别的宫颈单细胞图像。
如图1所示,本发明所述生成对抗网络模型由生成器G和判别器D组成;生成器G以随机高斯噪声Z和样本标签label作为输入,并且生成图像;判别器D输入由三部分组成:生成器G的生成图像、真实图像和样本标签label;生成对抗网络模型的输出是输入样本来自真实图片的概率;
损失函数由最小二乘损失lossmse和梯度惩罚损失lossgp组成:
如图2所示,所述生成器G使用残差网络构建;生成器G包含1层全连接层和20层卷积层,在每一层中使用ReLU作为激活函数,并进行批归一化处理。
如图3所示,本发明包括两种类型的残差块结构:残差块(Residual block)A和残差块(Residual block)B。并且生成器模型由残差块构成。残差块结构设计如下:
残差块(Residual block)A:
残差块(Residual block)B:
如图残差块A所示,可以看出xl是这一层残差块的输入,F(relu(xl)(即图中F(x))是经过第一层线性变化并激活后的输出,该图表示在残差网络中,第二层进行线性变化之后激活之前,F(x)加入了这一层输入值xl,然后再进行激活后输出。在第二层输出值激活前加入xl即为这一层残差块的输出xl。具体满足如下公式所示:
xl+1=relu(xl+F(relu(xl)))
如图残差块B所示,相比于残差块A,在跳跃连接的过程中添加一层卷积层。公式如下:
xl+1=relu(relu(xl)+F(relu(xl)))
如图4所示,所述判别器D包括4层卷积层;每一层之间使用LeakyReLU作为激活函数。
进一步地,本发明所述生成对抗网络模型的训练包括以下步骤:
S21、获取训练数据,根据数据类别将每一类数据按0-6设置标签信息label,每一个数字代表一个类别,依次为:0:异常-中度鳞状上皮细胞;1:异常-原位鳞状细胞癌;2:异常-轻度鳞状上皮细胞;3:异常-重度鳞状上皮细胞;4:正常-上皮鳞状细胞;5:正常-柱状细胞;6:正常-鳞状细胞;最后进行one-hot编码;
S22、自动生成100维的随机高斯噪声Z;
S23、将随机高斯噪声Z和标签信息label作为生成器G的输入,生成样本fake_img;
S24、设置对抗性判别值0和1:0代表假,1代表真;
对于判别器D的训练,向模型输入生成样本的判别结果为0,输入真实样本的判别结果为1;对于生成器G的训练,目标是希望判别器D对于生成样本的判别结果为1;
计算生成器和判别器的损失值,并最终生成逼真的样本。
S25、将生成样本fake_img和标签信息label作为判别器D的输入,得到假样本的判别损失将真实样本real_img和标签信息label作为判别器D的输入,得到真实样本的判别损失在真实样本和生成样本间随机取样,然后将这个随机取样值输入判别器D,得到梯度损失gp_loss;
S26、由S25得到的判别损失求和得到总的判别损失D_loss:
S27、将生成样本fake_img和标签信息label作为判别器D的输入,得到生成损失G_loss;
S28、根据判别损失和生成损失计算梯度(梯度值通过对损失函数中权重W和偏置b求偏导得出)公式如下所示,并通过反向传播算法优化生成器G和判别器D。并且在训练的过程中,生成器与判别器并不是同时进行的,而是交替进行训练的。这样做的原因是因为网络是一种由生成器和判别器组成的对抗学习方法;
S29、重复步骤S23~S28,直到训练达到最大迭代次数,或者总的判别损失D_loss不再下降并且生成损失G_loss不再上升。
本发明的生成模型设计如下:
判别模型:模型设计如下:
在模型完成训练后,保存生成器的权重以及相关参数。使用时,通过上面保存的数据构建模型,然后输入随机高斯噪声以及类别标签,便可以生成新的指定类别的宫颈细胞图像。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (7)
1.一种基于生成对抗网络的宫颈单细胞图像数据生成方法,其特征在于,包括以下步骤:
S1、准备包含正常细胞图像和异常细胞图像的宫颈单细胞数据集,并对宫颈单细胞数据集进行预处理;
S2、模型设计:以传统的生成对抗网络为基础,在生成对抗网络模型过程中使用约束条件指导模型生成指定类别的宫颈单细胞图像。
2.根据权利要求1所述的基于生成对抗网络的宫颈单细胞图像数据生成方法,其特征在于,所述步骤S1包括以下子步骤:
S11、数据大小裁剪:使用三阶线性插值算法对每张图像进行裁剪,经过裁剪后的图像统一大小为72*72的灰度图像;
S12、图像灰度化处理:将每张图像进行灰度处理,具体的转换公式为:
g(x,y)=0.3*R(x,y)+0.59*G(x,y)+0.11*B(x,y)
g(x,y)表示转换后的图像输出,R(x,y)、G(x,y)、B(x,y)分别代表原始图像各个像素点的通道值;
S13、归一化处理:将灰度化处理后的图像的像素归一化到(-1,1);
S14、数据制作:将归一化处理后的细胞图像全部转换为一个.npy文件;在转换的过程中,按照train data:test data=5:1的比例划分数据;并且对每一张图像的类别进行标注,其中0表示异常细胞,1表示正常细胞。
4.根据权利要求3所述的基于生成对抗网络的宫颈单细胞图像数据生成方法,其特征在于,所述生成器G使用残差网络构建;生成器G包含1层全连接层和20层卷积层,在每一层中使用ReLU作为激活函数,并进行批归一化处理。
5.根据权利要求4所述的基于生成对抗网络的宫颈单细胞图像数据生成方法,其特征在于,所述残差网络满足如下公式:
xl+1=relu(xl+F(relu(xl))
xl是上一层残差块的输入,F(relu(xl)是xl经过第一层线性变化并激活后的输出。
6.根据权利要求3所述的基于生成对抗网络的宫颈单细胞图像数据生成方法,其特征在于,所述判别器D包括4层卷积层;每一层之间使用LeakyReLU作为激活函数。
7.根据权利要求3~6任意一项所述的基于生成对抗网络的宫颈单细胞图像数据生成方法,其特征在于,所述生成对抗网络模型的训练包括以下步骤:
S21、获取训练数据,根据数据类别将每一类数据按0-6设置标签信息label,每一个数字代表一个类别,依次为:0:异常-中度鳞状上皮细胞;1:异常-原位鳞状细胞癌;2:异常-轻度鳞状上皮细胞;3:异常-重度鳞状上皮细胞;4:正常-上皮鳞状细胞;5:正常-柱状细胞;6:正常-鳞状细胞;最后进行one-hot编码;
S22、自动生成100维的随机高斯噪声Z;
S23、将随机高斯噪声Z和标签信息label作为生成器G的输入,生成样本fake_img;
S24、设置对抗性判别值0和1:0代表假,1代表真;
对于判别器D的训练,向模型输入生成样本的判别结果为0,输入真实样本的判别结果为1;对于生成器G的训练,目标是希望判别器D对于生成样本的判别结果为1;
计算生成器和判别器的损失值,并最终生成逼真的样本。
S25、将生成样本fake_img和标签信息label作为判别器D的输入,得到假样本的判别损失将真实样本real_img和标签信息label作为判别器D的输入,得到真实样本的判别损失在真实样本和生成样本间随机取样,然后将这个随机取样值输入判别器D,得到梯度损失gp_loss;
S26、由S25得到的判别损失求和得到总的判别损失D_loss:
S27、将生成样本fake_img和标签信息label作为判别器D的输入,得到生成损失G_loss;
S28、根据判别损失和生成损失计算梯度,并通过反向传播算法优化生成器G和判别器D:
S29、重复步骤S23~S28,直到训练达到最大迭代次数,或者总的判别损失D_loss不再下降并且生成损失G_loss不再上升。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010240762.4A CN111353995B (zh) | 2020-03-31 | 2020-03-31 | 一种基于生成对抗网络的宫颈单细胞图像数据生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010240762.4A CN111353995B (zh) | 2020-03-31 | 2020-03-31 | 一种基于生成对抗网络的宫颈单细胞图像数据生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111353995A true CN111353995A (zh) | 2020-06-30 |
CN111353995B CN111353995B (zh) | 2023-03-28 |
Family
ID=71197480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010240762.4A Active CN111353995B (zh) | 2020-03-31 | 2020-03-31 | 一种基于生成对抗网络的宫颈单细胞图像数据生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111353995B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111794741A (zh) * | 2020-08-11 | 2020-10-20 | 中国石油天然气集团有限公司 | 滑动定向钻井模拟机实现方法 |
CN111861924A (zh) * | 2020-07-23 | 2020-10-30 | 成都信息工程大学 | 一种基于进化gan的心脏磁共振图像数据增强方法 |
CN112037221A (zh) * | 2020-11-03 | 2020-12-04 | 杭州迪英加科技有限公司 | 宫颈癌tct切片阳性细胞检测模型多域共适应训练方法 |
CN116153404A (zh) * | 2023-02-28 | 2023-05-23 | 成都信息工程大学 | 一种单细胞ATAC-seq数据分析方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665463A (zh) * | 2018-03-30 | 2018-10-16 | 哈尔滨理工大学 | 一种基于对抗式生成网络的宫颈细胞图像分割方法 |
CN108765371A (zh) * | 2018-04-25 | 2018-11-06 | 浙江大学 | 一种病理切片中非常规细胞的分割方法 |
CN109146989A (zh) * | 2018-07-10 | 2019-01-04 | 华南理工大学 | 一种通过搭建神经网络生成花鸟艺术字图像的方法 |
CN109166144A (zh) * | 2018-07-20 | 2019-01-08 | 中国海洋大学 | 一种基于生成对抗网络的图像深度估计方法 |
CN109620244A (zh) * | 2018-12-07 | 2019-04-16 | 吉林大学 | 基于条件生成对抗网络和svm的婴儿异常行为检测方法 |
US20190147582A1 (en) * | 2017-11-15 | 2019-05-16 | Toyota Research Institute, Inc. | Adversarial learning of photorealistic post-processing of simulation with privileged information |
US20190197358A1 (en) * | 2017-12-21 | 2019-06-27 | International Business Machines Corporation | Generative Adversarial Network Medical Image Generation for Training of a Classifier |
CN110197514A (zh) * | 2019-06-13 | 2019-09-03 | 南京农业大学 | 一种基于生成式对抗网络的蘑菇表型图像生成方法 |
CN110246216A (zh) * | 2019-05-28 | 2019-09-17 | 中国科学院深圳先进技术研究院 | 脊柱模型生成方法、脊柱模型生成系统及终端 |
CN110322440A (zh) * | 2019-07-08 | 2019-10-11 | 东北大学 | 一种细胞显微图像数据扩充的方法 |
CN110473154A (zh) * | 2019-07-31 | 2019-11-19 | 西安理工大学 | 一种基于生成对抗网络的图像去噪方法 |
CN110610124A (zh) * | 2019-07-30 | 2019-12-24 | 珠海亿智电子科技有限公司 | 一种基于生成对抗网络的图像生成方法 |
CN110689069A (zh) * | 2019-09-25 | 2020-01-14 | 贵州电网有限责任公司 | 一种基于半监督bp网络的变压器故障类型诊断方法 |
CN110706303A (zh) * | 2019-10-15 | 2020-01-17 | 西南交通大学 | 基于GANs的人脸图像生成方法 |
-
2020
- 2020-03-31 CN CN202010240762.4A patent/CN111353995B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190147582A1 (en) * | 2017-11-15 | 2019-05-16 | Toyota Research Institute, Inc. | Adversarial learning of photorealistic post-processing of simulation with privileged information |
US20190197358A1 (en) * | 2017-12-21 | 2019-06-27 | International Business Machines Corporation | Generative Adversarial Network Medical Image Generation for Training of a Classifier |
CN108665463A (zh) * | 2018-03-30 | 2018-10-16 | 哈尔滨理工大学 | 一种基于对抗式生成网络的宫颈细胞图像分割方法 |
CN108765371A (zh) * | 2018-04-25 | 2018-11-06 | 浙江大学 | 一种病理切片中非常规细胞的分割方法 |
CN109146989A (zh) * | 2018-07-10 | 2019-01-04 | 华南理工大学 | 一种通过搭建神经网络生成花鸟艺术字图像的方法 |
CN109166144A (zh) * | 2018-07-20 | 2019-01-08 | 中国海洋大学 | 一种基于生成对抗网络的图像深度估计方法 |
CN109620244A (zh) * | 2018-12-07 | 2019-04-16 | 吉林大学 | 基于条件生成对抗网络和svm的婴儿异常行为检测方法 |
CN110246216A (zh) * | 2019-05-28 | 2019-09-17 | 中国科学院深圳先进技术研究院 | 脊柱模型生成方法、脊柱模型生成系统及终端 |
CN110197514A (zh) * | 2019-06-13 | 2019-09-03 | 南京农业大学 | 一种基于生成式对抗网络的蘑菇表型图像生成方法 |
CN110322440A (zh) * | 2019-07-08 | 2019-10-11 | 东北大学 | 一种细胞显微图像数据扩充的方法 |
CN110610124A (zh) * | 2019-07-30 | 2019-12-24 | 珠海亿智电子科技有限公司 | 一种基于生成对抗网络的图像生成方法 |
CN110473154A (zh) * | 2019-07-31 | 2019-11-19 | 西安理工大学 | 一种基于生成对抗网络的图像去噪方法 |
CN110689069A (zh) * | 2019-09-25 | 2020-01-14 | 贵州电网有限责任公司 | 一种基于半监督bp网络的变压器故障类型诊断方法 |
CN110706303A (zh) * | 2019-10-15 | 2020-01-17 | 西南交通大学 | 基于GANs的人脸图像生成方法 |
Non-Patent Citations (6)
Title |
---|
ERIC WU等: "Conditional Inflling GANs for Data Augmentation in Mammogram Classification", 《ARXIV:1807.08093V2》 * |
XIN YI等: "Generative Adversarial Network in Medical Imaging: A Review", 《ARXIV:1809.07294V4》 * |
唐贤伦等: "基于条件深度卷积生成对抗网络的图像识别方法", 《自动化学报》 * |
王督: "基于深度学习的医学病理图像智能分析算法研究", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》 * |
许夏: "生成对抗网络中额外监督信息的分类及利用约束信息的优化方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
陆萍等: "基于条件生成对抗网络的图像生成", 《信息技术》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111861924A (zh) * | 2020-07-23 | 2020-10-30 | 成都信息工程大学 | 一种基于进化gan的心脏磁共振图像数据增强方法 |
CN111861924B (zh) * | 2020-07-23 | 2023-09-22 | 成都信息工程大学 | 一种基于进化gan的心脏磁共振图像数据增强方法 |
CN111794741A (zh) * | 2020-08-11 | 2020-10-20 | 中国石油天然气集团有限公司 | 滑动定向钻井模拟机实现方法 |
CN111794741B (zh) * | 2020-08-11 | 2023-08-18 | 中国石油天然气集团有限公司 | 滑动定向钻井模拟机实现方法 |
CN112037221A (zh) * | 2020-11-03 | 2020-12-04 | 杭州迪英加科技有限公司 | 宫颈癌tct切片阳性细胞检测模型多域共适应训练方法 |
CN112037221B (zh) * | 2020-11-03 | 2021-02-02 | 杭州迪英加科技有限公司 | 宫颈癌tct切片阳性细胞检测模型多域共适应训练方法 |
CN116153404A (zh) * | 2023-02-28 | 2023-05-23 | 成都信息工程大学 | 一种单细胞ATAC-seq数据分析方法 |
CN116153404B (zh) * | 2023-02-28 | 2023-08-15 | 成都信息工程大学 | 一种单细胞ATAC-seq数据分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111353995B (zh) | 2023-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111353995B (zh) | 一种基于生成对抗网络的宫颈单细胞图像数据生成方法 | |
WO2022160771A1 (zh) | 基于自适应多尺度特征提取模型的高光谱图像分类方法 | |
CN111950453B (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
US20230186056A1 (en) | Grabbing detection method based on rp-resnet | |
US10311322B2 (en) | Character information recognition method based on image processing | |
Liu et al. | An attention-based approach for single image super resolution | |
CN110109060A (zh) | 一种基于深度学习网络的雷达辐射源信号分选方法及系统 | |
CN108520215B (zh) | 基于多尺度联合特征编码器的单样本人脸识别方法 | |
CN111027509B (zh) | 一种基于双流卷积神经网络的高光谱图像目标检测方法 | |
CN110516525A (zh) | 基于gan和svm的sar图像目标识别方法 | |
CN111539883A (zh) | 基于强可逆对抗网络的数字病理图像h&e染色复原方法 | |
CN111339924A (zh) | 一种基于超像素和全卷积网络的极化sar图像分类方法 | |
CN114612664A (zh) | 一种基于双边分割网络的细胞核分割方法 | |
CN115941407A (zh) | 基于递归式卷积网络和注意力机制的信号调制识别方法 | |
CN116704585A (zh) | 一种基于质量感知的人脸识别方法 | |
CN117593666B (zh) | 一种极光图像的地磁台站数据预测方法及系统 | |
CN111192206A (zh) | 一种提高图像清晰度的方法 | |
CN112085727B (zh) | 一种热轧钢材表面氧化铁皮结构智能识别方法 | |
Hu et al. | Feature fusion convolution-aided transformer for automatic modulation recognition | |
CN112541966A (zh) | 一种基于重建和生成网络的人脸替换方法 | |
CN112949723A (zh) | 一种子宫内膜病理图像分类方法 | |
CN116468083A (zh) | 一种基于Transformer的生成对抗网络方法 | |
CN115063679B (zh) | 一种基于深度学习的路面质量评估方法 | |
CN111242839A (zh) | 一种基于尺度等级的图像缩放裁剪方法 | |
CN115987730A (zh) | 基于树状感知融合卷积网络的信号调制识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |