CN109741410A - 基于深度学习的荧光编码微球图像生成及标注方法 - Google Patents
基于深度学习的荧光编码微球图像生成及标注方法 Download PDFInfo
- Publication number
- CN109741410A CN109741410A CN201811497111.2A CN201811497111A CN109741410A CN 109741410 A CN109741410 A CN 109741410A CN 201811497111 A CN201811497111 A CN 201811497111A CN 109741410 A CN109741410 A CN 109741410A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- reverse
- training
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013135 deep learning Methods 0.000 title claims abstract description 11
- 239000011325 microbead Substances 0.000 title abstract 3
- 238000012549 training Methods 0.000 claims abstract description 58
- 238000011156 evaluation Methods 0.000 claims abstract description 4
- 238000012360 testing method Methods 0.000 claims abstract description 4
- 239000004005 microsphere Substances 0.000 claims description 37
- 230000006870 function Effects 0.000 claims description 31
- 238000006243 chemical reaction Methods 0.000 claims description 18
- 125000004122 cyclic group Chemical group 0.000 claims description 17
- 238000002372 labelling Methods 0.000 claims description 10
- 238000011478 gradient descent method Methods 0.000 claims description 6
- 238000012804 iterative process Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 238000012795 verification Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 2
- 230000007812 deficiency Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000002028 Biomass Substances 0.000 description 1
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000090 biomarker Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000003205 genotyping method Methods 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及计算机视觉的图像处理,为针对基于有监督式学习的荧光编码微球识别算法训练过程中存在的带标签训练集不足问题,提高识别算法准确度,本发明,基于深度学习的荧光编码微球图像生成及标注方法,步骤如下:步骤1:约束值设置;步骤2:图像标签随机生成;步骤3:训练样本集与测试集建立;步骤4:构建循环生成对抗网络CycleGAN;步骤5:CycleGAN训练;步骤6:网络性能评估;步骤7:图像生成。本发明主要应用于计算机图像处理场合。
Description
技术领域
本发明涉及计算机视觉的图像处理领域,尤其涉及一种基于循环生成对抗网络(Cycle-Consistent Adversarial Networks,CycleGAN)的荧光编码微球图像生成及标注方法。具体涉及基于深度学习的荧光编码微球图像生成及标注方法。
背景技术
近年来,深度学习技术在计算机视觉、语音识别、自然语言处理等诸多领域取得了突破性进展。2014年Goodfellow等人受博弈论中二人零和博弈概念启发,提出生成对抗网络(Generative Adversarial Networks,GAN),引发业界广泛关注。目前GAN已经在图像生成、图像分割、图像风格迁移等领域得到了大量应用。
GAN包含一个以随机噪声作为输入生成图片的生成模型(Generate Model)G,和一个以图片作为输入判断其真实性的鉴别模型(Discriminal Model)D。在训练过程中,生成网络G将尽量生成真实的图片去欺骗鉴别网络D。而D将尽量把G生成的图片和真实的图片分别开来,G和D构成了一个动态的“博弈过程”。在反复训练迭代后,在理想状态下,G将生成足够贴合真实的图片,D将难以判定G生成图片的真实性。
在GAN被首次提出后已有很多变种模型。2017年Jun-Yan Zhu等提出了CycleGAN模型,其基本原理是学习两个样本空间X和Y的相互映射关系,利用循环一致性损失(Cycle-Consistent Loss)防止模式崩溃(Mode Collapse)问题,主要应用于图像类型转换领域。
荧光编码微球是一种生物标志物,其性质稳定,荧光灵敏度高。基于荧光编码微球的高通量生物检测技术在基因型分型、疾病诊断、环境检测等方面均有广泛应用。基于深度学习的荧光编码微球图像分析技术通过对荧光编码微球图像进行定性和定量分析,可准确识别生物量种类并获取浓度信息,与传统方法相比具有操作简单、灵活、成本低等优点。但由于现有基于监督式学习的图像分析方法需要大规模带标签训练集对网络模型进行训练,而真实荧光编码微球图像难以大量获取,且人工标注困难,导致目前基于监督式学习的荧光编码微球图像分析技术的训练结果并不理想。
发明内容
为克服现有技术的不足,本发明旨在提出一种基于循环生成对抗网络的荧光编码微球图像生成方法,针对基于有监督式学习的荧光编码微球识别算法训练过程中存在的带标签训练集不足问题,利用本发明实现其训练集规模扩展和自动化标注,进而提高识别算法准确度。为此,本发明采取的技术方案是,基于深度学习的荧光编码微球图像生成及标注方法,步骤如下:
步骤1:约束值设置。在计算机中手动设置微球数量范围、微球大小范围、微球荧光编码值范围、运动区域四种约束参数;
步骤2:图像标签随机生成。基于步骤1中设置约束参数随机生成1组荧光编码微球图像参数,作为图像标签;
步骤3:训练样本集与测试集建立,首先将真实荧光编码微球图像裁剪为256*256大小图像,重复步骤2,生成大量图像标签,然后利用计算机脚本,生成与图像标签一一对应的256*256大小的原始合成图像,以0.8:0.2比例随机划分为两部分,其中0.8比例部分与真实图像合并作为训练样本集,用于模型训练;0.2比例部分作为验证样本集,用于模型评估;
步骤4:构建循环生成对抗网络CycleGAN,该CycleGAN由包括从X到Y正向生成网络与Y鉴别网络的正向GAN、和包括从Y到X的反向生成网络与X鉴别网络的反向GAN构成,生成网络用于实现样本空间转换并生成图像,鉴别网络用于判断输入图像是否属于相应样本空间;
步骤5:CycleGAN训练,CycleGAN的训练过程用下式表示:
其中G*表示正向生成网络最优解、F*表示反向生成网络最优解,训练过程视为以下两步骤的迭代过程:步骤一是基于预设鉴别网络学习率超参数值,利用梯度下降法更新鉴别网络结点参数值,生成网络结点参数值保持不变;步骤二是基于预设生成网络学习率超参数值,利用梯度下降法更新生成网络结点参数值,鉴别网络结点参数值保持不变。训练迭代过程为:执行步骤一多次后,执行步骤二一次,重复该迭代过程,直至训练完毕;
步骤6:网络性能评估。将验证样本逐个输入步骤5中训练完成的CycleGAN中,评估网络性能,如性能不佳,重复步骤2、3生成更多训练样本,继续网络训练;
步骤7:图像生成。将训练完成的正向生成网络模型参数导出,利用1组随机生成图像标签生成1组原始合成图像和标签数据,然后将原始合成图像作为已导出的正向生成网络输入,生成1组与标签数据相对应的近真实荧光编码微球图像。
鉴别网络具体结构是;网络损失函数为
L(G,F,DX,DY)=LGAN1(G,DY,X,Y)+LGAN2(F,DX,Y,X)+λLcyc(G,F)
其中,
上述公式中,LGAN1为正向GAN的损失函数,LGAN2为反向GAN的损失函数,Lcyc为循环一致性损失函数;G表示正向生成网络,F表示反向生成网络,DY表示Y鉴别网络,DX表示X鉴别网络,X表示原始合成图像分布域,Y表示真实图像分布域,x表示训练样本集中原始合成图像样本,y表示训练样本集中真实图像样本,λ表示正向GAN和反向GAN的循环一致性损失权重,为可调整参数;DY(y)表示Y鉴别网络判断样本y来自分布Y的概率,DX(x)表示X鉴别网络判断样本x来自分布X的概率,DY(G(x))表示Y鉴别网络判断G(x)来自分布Y的概率,DX(F(y))表示X鉴别网络判断F(y)来自分布X的概率。
步骤4具体地,构建循环生成对抗网络:该CycleGAN由包括正向即X到Y生成网络与Y鉴别网络的正向GAN、和包括反向即Y到X生成网络与X鉴别网络的反向GAN构成,生成网络用于实现样本空间转换并生成图像,鉴别网络用于判断输入图像是否属于相应样本空间,网络包含正向反向两个实现过程,其中正向过程为将正向输入图像InputX输入正向生成网络中生成正向生成图像GeneratedY,并将正向生成图像GeneratedY输入反向生成网络生成正向循环图像CyclicX;反向过程为将反向输入图像InputY输入反向生成网络生成反向生成图像GeneratedX,并将反向生成图像GeneratedX输入正向生成网络生成反向循环图像CyclicY;在此过程中分别将正向输入图像InputX和反向生成图像GeneratedX输入X鉴别网络,反向输入图像InputY和正向生成图像GeneratedY输入Y鉴别网络,用于训练鉴别网络;正向生成网络与反向生成网络结构相同,由编码层、转换层、解码层构成,其中编码层由连续3层卷积层构成,卷积核数量、大小、步长参数分别为(32,7×7,1)、(64,3×3,2)、(128,3×3,1);输出编码输入转换层进行图像风格转换,转换层由9层残差模块构成,其中残差模块具体结构是,输入数据经过连续两个128×3×3,步长为1的卷积层处理后得到输出数据并与输入数据相加作为下一个残差模块的输入,卷积层使用批规范化层BN(BatchNormalization)改善训练速度,使用线性整流函数ReLU(Rectified Linear Unit)作为卷积层输出函数;解码层由3层反卷积层构成,卷积核数量、大小、步长参数分别为(64,3×3,2)、(32,3×3,2)、(3,7×7,1),解码层输出图像大小、深度与输入图像相同;Y鉴别网络与X鉴别网络的结构相同,具体结构由连续5层卷积层构成,其中前4层卷积层用于提取图像特征,第5层卷积层生成鉴别结果,各层卷积核数量、大小、步长参数分别为(64,4×4,2)、(128,4×4,2)、(256,4×4,2)、(512,4×4,2)、(1,1×1,1)。CycleGAN网络损失函数为
L(G,F,DX,DY)=LGAN1(G,DY,X,Y)+LGAN2(F,DX,Y,X)+λLcyc(G,F)
其中,
上述公式中,LGAN1为正向GAN的损失函数,LGAN2为反向GAN的损失函数,Lcyc为循环一致性损失函数;G表示正向生成网络,F表示反向生成网络,DY表示Y鉴别网络,DX表示X鉴别网络,X表示原始合成图像分布域,Y表示真实图像分布域,x表示训练样本集中原始合成图像样本,y表示训练样本集中真实图像样本,λ表示正向GAN和反向GAN的循环一致性损失权重,为可调整参数;DY(y)表示Y鉴别网络判断样本y来自分布Y的概率,DX(x)表示X鉴别网络判断样本x来自分布X的概率,DY(G(x))表示Y鉴别网络判断G(x)来自分布Y的概率,DX(F(y))表示X鉴别网络判断F(y)来自分布X的概率。
本发明的特点及有益效果是:
利用本发明所提出的基于深度学习的荧光编码微球图像生成及标注方法,结合基于约束随机参数的计算机脚本生成大数量、多种类的带标签近真实荧光编码微球图像。可扩展基于监督式学习的荧光编码微球图像分析技术的训练集规模,进而提高识别准确度。
附图说明:
图1本发明的整体流程示意图。
图2循环生成对抗网络结构示意图。
图3生成网络结构示意图。
图4生成网络中各残差模块结构示意图。
图5鉴别网络结构示意图。
具体实施方式
本发明荧光编码微球图像生成流程如图1所示,具体实施方案如下:
步骤1:约束值设置。在计算机中手动设置微球数量范围、微球大小范围、微球荧光编码值范围、运动区域四种约束参数。
步骤2:图像标签随机生成。基于步骤1中设置约束参数随机生成1组荧光编码微球图像参数,作为图像标签。
步骤3:训练样本集与测试集建立。首先将真实荧光编码微球图像裁剪为256*256大小图像。重复步骤2,生成大量图像标签,然后利用计算机脚本,生成与图像标签一一对应的256*256大小的原始合成图像,以0.8:0.2比例随机划分为两部分,其中0.8比例部分与真实图像合并作为训练样本集,用于模型训练;0.2比例部分作为验证样本集,用于模型评估。
步骤4:构建循环生成对抗网络。该CycleGAN由包括正向(X到Y)生成网络与Y鉴别网络的正向GAN、和包括反向(Y到X)生成网络与X鉴别网络的反向GAN构成,如图2所示,生成网络用于实现样本空间转换并生成图像,鉴别网络用于判断输入图像是否属于相应样本空间,网络包含正向反向两个实现过程,其中正向过程为将正向输入图像InputX输入正向生成网络中生成正向生成图像GeneratedY,并将正向生成图像GeneratedY输入反向生成网络生成正向循环图像CyclicX;反向过程为将反向输入图像InputY输入反向生成网络生成反向生成图像GeneratedX,并将反向生成图像GeneratedX输入正向生成网络生成反向循环图像CyclicY。在此过程中分别将正向输入图像InputX和反向生成图像GeneratedX输入X鉴别网络,反向输入图像InputY和正向生成图像GeneratedY输入Y鉴别网络,用于训练鉴别网络;正向生成网络与反向生成网络结构相同,具体结构如图3所示,由编码层、转换层、解码层构成,其中编码层由连续3层卷积层构成,卷积核数量、大小、步长参数分别为(32,7×7,1)、(64,3×3,2)、(128,3×3,1)。输出编码输入转换层进行图像风格转换,转换层由9层残差模块(Residual Block)构成,其中残差模块具体结构如图4所示,输入数据经过连续两个128×3×3,步长为1的卷积层处理后得到输出数据并与输入数据相加作为下一个残差模块的输入,卷积层使用批规范化层(Batch Normalization,BN)改善训练速度,使用线性整流函数(Rectified Linear Unit,ReLU)作为卷积层输出函数;解码层由3层反卷积层构成,卷积核数量、大小、步长参数分别为(64,3×3,2)、(32,3×3,2)、(3,7×7,1),解码层输出图像大小、深度与输入图像相同;Y鉴别网络与X鉴别网络的结构相同,具体结构如图5所示,由连续5层卷积层构成,其中前4层卷积层用于提取图像特征,第5层卷积层生成鉴别结果,各层卷积核数量、大小、步长参数分别为(64,4×4,2)、(128,4×4,2)、(256,4×4,2)、(512,4×4,2)、(1,1×1,1)。CycleGAN网络损失函数为
L(G,F,DX,DY)=LGAN1(G,DY,X,Y)+LGAN2(F,DX,Y,X)+λLcyc(G,F)
其中,
上述公式中,LGAN1为正向GAN的损失函数,LGAN2为反向GAN的损失函数,Lcyc为循环一致性损失函数;G表示正向生成网络,F表示反向生成网络,DY表示Y鉴别网络,DX表示X鉴别网络,X表示原始合成图像分布域,Y表示真实图像分布域,x表示训练样本集中原始合成图像样本,y表示训练样本集中真实图像样本,λ表示正向GAN和反向GAN的循环一致性损失权重,为可调整参数;DY(y)表示Y鉴别网络判断样本y来自分布Y的概率,DX(x)表示X鉴别网络判断样本x来自分布X的概率,DY(G(x))表示Y鉴别网络判断G(x)来自分布Y的概率,DX(F(y))表示X鉴别网络判断F(y)来自分布X的概率。
步骤5:CycleGAN训练。CycleGAN的训练过程可用下式表示:
其中G*表示正向生成网络最优解、F*表示反向生成网络最优解。训练目标是获得令鉴别网络分类准确率最高的参数和具有对鉴别网络最强欺骗能力的生成网络参数。训练过程可视为以下两步骤的迭代过程:步骤一是基于预设鉴别网络学习率超参数值,利用梯度下降法更新鉴别网络结点参数值,生成网络结点参数值保持不变;步骤二是基于预设生成网络学习率超参数值,利用梯度下降法更新生成网络结点参数值,鉴别网络结点参数值保持不变。训练迭代过程为:执行步骤一多次后,执行步骤二一次,重复该迭代过程,直至训练完毕。
步骤6:网络性能评估。将验证样本逐个输入步骤5中训练完成的CycleGAN中,评估网络性能,如性能不佳,重复步骤2、3生成更多训练样本,继续网络训练。
步骤7:图像生成。将训练完成的正向生成网络模型参数导出,利用1组随机生成图像标签生成1组原始合成图像和标签数据,然后将原始合成图像作为已导出的正向生成网络输入,生成1组与标签数据相对应的近真实荧光编码微球图像。
通过以上七步,便可利用本发明所提出的基于循环生成对抗网络的荧光编码微球图像生成方法完成荧光编码微球图像生成与标注。
图像数据属性方面,输入输出图像大小均设置为256*256;网络结构中,为使生成图像与原始合成图像具有足够结构相似性,以保证标签数据的可用性,将损失函数中循环一致性权重λ设置为15;输出函数方面,除鉴别网络输出卷积层使用sigmoid函数外,所有卷积层输出函数均使用线性整流函数;训练迭代过程中,步骤一每重复10次,执行一次步骤二,即在生成网络参数更新前,鉴别网络参数应更新10次。
Claims (3)
1.一种基于深度学习的荧光编码微球图像生成及标注方法,其特征是,步骤如下:
步骤1:约束值设置。在计算机中手动设置微球数量范围、微球大小范围、微球荧光编码值范围、运动区域四种约束参数;
步骤2:图像标签随机生成。基于步骤1中设置约束参数随机生成1组荧光编码微球图像参数,作为图像标签;
步骤3:训练样本集与测试集建立,首先将真实荧光编码微球图像裁剪为256*256大小图像,重复步骤2,生成大量图像标签,然后利用计算机脚本,生成与图像标签一一对应的256*256大小的原始合成图像,以0.8:0.2比例随机划分为两部分,其中0.8比例部分与真实图像合并作为训练样本集,用于模型训练;0.2比例部分作为验证样本集,用于模型评估;
步骤4:构建循环生成对抗网络CycleGAN,该CycleGAN由包括从X到Y正向生成网络与Y鉴别网络的正向GAN、和包括从Y到X的反向生成网络与X鉴别网络的反向GAN构成,生成网络用于实现样本空间转换并生成图像,鉴别网络用于判断输入图像是否属于相应样本空间;
步骤5:CycleGAN训练,CycleGAN的训练过程用下式表示:
其中G*表示正向生成网络最优解、F*表示反向生成网络最优解,训练过程视为以下两步骤的迭代过程:步骤一是基于预设鉴别网络学习率超参数值,利用梯度下降法更新鉴别网络结点参数值,生成网络结点参数值保持不变;步骤二是基于预设生成网络学习率超参数值,利用梯度下降法更新生成网络结点参数值,鉴别网络结点参数值保持不变。训练迭代过程为:执行步骤一多次后,执行步骤二一次,重复该迭代过程,直至训练完毕;
步骤6:网络性能评估。将验证样本逐个输入步骤5中训练完成的CycleGAN中,评估网络性能,如性能不佳,重复步骤2、3生成更多训练样本,继续网络训练;
步骤7:图像生成。将训练完成的正向生成网络模型参数导出,利用1组随机生成图像标签生成1组原始合成图像和标签数据,然后将原始合成图像作为已导出的正向生成网络输入,生成1组与标签数据相对应的近真实荧光编码微球图像。
2.如权利要求1所述的基于深度学习的荧光编码微球图像生成及标注方法,其特征是,鉴别网络具体结构是;网络损失函数为:
L(G,F,DX,DY)=LGAN1(G,DY,X,Y)+LGAN2(F,DX,Y,X)+λLcyc(G,F)
其中,
上述公式中,LGAN1为正向GAN的损失函数,LGAN2为反向GAN的损失函数,Lcyc为循环一致性损失函数;G表示正向生成网络,F表示反向生成网络,DY表示Y鉴别网络,DX表示X鉴别网络,X表示原始合成图像分布域,Y表示真实图像分布域,x表示训练样本集中原始合成图像样本,y表示训练样本集中真实图像样本,λ表示正向GAN和反向GAN的循环一致性损失权重,为可调整参数;DY(y)表示Y鉴别网络判断样本y来自分布Y的概率,DX(x)表示X鉴别网络判断样本x来自分布X的概率,DY(G(x))表示Y鉴别网络判断G(x)来自分布Y的概率,DX(F(y))表示X鉴别网络判断F(y)来自分布X的概率。
3.如权利要求1所述的基于深度学习的荧光编码微球图像生成及标注方法,其特征是,步骤4具体地,构建循环生成对抗网络:该CycleGAN由包括正向即X到Y生成网络与Y鉴别网络的正向GAN、和包括反向即Y到X生成网络与X鉴别网络的反向GAN构成,生成网络用于实现样本空间转换并生成图像,鉴别网络用于判断输入图像是否属于相应样本空间,网络包含正向反向两个实现过程,其中正向过程为将正向输入图像InputX输入正向生成网络中生成正向生成图像GeneratedY,并将正向生成图像GeneratedY输入反向生成网络生成正向循环图像CyclicX;反向过程为将反向输入图像InputY输入反向生成网络生成反向生成图像GeneratedX,并将反向生成图像GeneratedX输入正向生成网络生成反向循环图像CyclicY;在此过程中分别将正向输入图像InputX和反向生成图像GeneratedX输入X鉴别网络,反向输入图像InputY和正向生成图像GeneratedY输入Y鉴别网络,用于训练鉴别网络;正向生成网络与反向生成网络结构相同,由编码层、转换层、解码层构成,其中编码层由连续3层卷积层构成,卷积核数量、大小、步长参数分别为(32,7×7,1)、(64,3×3,2)、(128,3×3,1);输出编码输入转换层进行图像风格转换,转换层由9层残差模块构成,其中残差模块具体结构是,输入数据经过连续两个128×3×3,步长为1的卷积层处理后得到输出数据并与输入数据相加作为下一个残差模块的输入,卷积层使用批规范化层BN(Batch Normalization)改善训练速度,使用线性整流函数ReLU(Rectified Linear Unit)作为卷积层输出函数;解码层由3层反卷积层构成,卷积核数量、大小、步长参数分别为(64,3×3,2)、(32,3×3,2)、(3,7×7,1),解码层输出图像大小、深度与输入图像相同;Y鉴别网络与X鉴别网络的结构相同,具体结构由连续5层卷积层构成,其中前4层卷积层用于提取图像特征,第5层卷积层生成鉴别结果,各层卷积核数量、大小、步长参数分别为(64,4×4,2)、(128,4×4,2)、(256,4×4,2)、(512,4×4,2)、(1,1×1,1)。CycleGAN网络损失函数为
L(G,F,DX,DY)=LGAN1(G,DY,X,Y)+LGAN2(F,DX,Y,X)+λLcyc(G,F)
其中,
上述公式中,LGAN1为正向GAN的损失函数,LGAN2为反向GAN的损失函数,Lcyc为循环一致性损失函数;G表示正向生成网络,F表示反向生成网络,DY表示Y鉴别网络,DX表示X鉴别网络,X表示原始合成图像分布域,Y表示真实图像分布域,x表示训练样本集中原始合成图像样本,y表示训练样本集中真实图像样本,λ表示正向GAN和反向GAN的循环一致性损失权重,为可调整参数;DY(y)表示Y鉴别网络判断样本y来自分布Y的概率,DX(x)表示X鉴别网络判断样本x来自分布X的概率,DY(G(x))表示Y鉴别网络判断G(x)来自分布Y的概率,DX(F(y))表示X鉴别网络判断F(y)来自分布X的概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811497111.2A CN109741410A (zh) | 2018-12-07 | 2018-12-07 | 基于深度学习的荧光编码微球图像生成及标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811497111.2A CN109741410A (zh) | 2018-12-07 | 2018-12-07 | 基于深度学习的荧光编码微球图像生成及标注方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109741410A true CN109741410A (zh) | 2019-05-10 |
Family
ID=66358683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811497111.2A Pending CN109741410A (zh) | 2018-12-07 | 2018-12-07 | 基于深度学习的荧光编码微球图像生成及标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109741410A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110558972A (zh) * | 2019-08-27 | 2019-12-13 | 安徽心之声医疗科技有限公司 | 一种心电信号深度学习模型的轻量化方法 |
CN110769196A (zh) * | 2019-10-17 | 2020-02-07 | 天津大学 | 一种用于非连续监控路段的视频预测方法 |
CN110866888A (zh) * | 2019-11-14 | 2020-03-06 | 四川大学 | 基于潜在信息表征gan的多模态mri合成方法 |
CN111179228A (zh) * | 2019-12-16 | 2020-05-19 | 浙江大学 | 一种基于深度学习的单能ct能谱成像方法 |
CN111476866A (zh) * | 2020-04-09 | 2020-07-31 | 咪咕文化科技有限公司 | 视频优化与播放方法、系统、电子设备及存储介质 |
CN111860782A (zh) * | 2020-07-15 | 2020-10-30 | 西安交通大学 | 三重多尺度的CycleGAN、眼底荧光造影生成方法、计算机设备及存储介质 |
CN113496235A (zh) * | 2020-03-19 | 2021-10-12 | 阿里巴巴集团控股有限公司 | 图像处理方法、装置及系统、存储介质、计算设备 |
CN113643400A (zh) * | 2021-08-23 | 2021-11-12 | 哈尔滨工业大学(威海) | 一种图像生成方法 |
CN113966522A (zh) * | 2019-11-25 | 2022-01-21 | Essenlix 公司 | 基于成像的测定的有效训练和准确度改进 |
CN114331821A (zh) * | 2021-12-29 | 2022-04-12 | 中国人民解放军火箭军工程大学 | 一种图像转换方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080082468A1 (en) * | 2004-11-11 | 2008-04-03 | The Trustees Of Columbia University In The City Of New York | Methods and systems for identifying and localizing objects based on features of the objects that are mapped to a vector |
CN108416318A (zh) * | 2018-03-22 | 2018-08-17 | 电子科技大学 | 基于数据增强的合成孔径雷达图像目标深度模型识别方法 |
CN108446667A (zh) * | 2018-04-04 | 2018-08-24 | 北京航空航天大学 | 基于生成对抗网络数据增强的人脸表情识别方法和装置 |
CN108832619A (zh) * | 2018-05-29 | 2018-11-16 | 北京交通大学 | 基于卷积神经网络的电力系统暂态稳定评估方法 |
-
2018
- 2018-12-07 CN CN201811497111.2A patent/CN109741410A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080082468A1 (en) * | 2004-11-11 | 2008-04-03 | The Trustees Of Columbia University In The City Of New York | Methods and systems for identifying and localizing objects based on features of the objects that are mapped to a vector |
CN108416318A (zh) * | 2018-03-22 | 2018-08-17 | 电子科技大学 | 基于数据增强的合成孔径雷达图像目标深度模型识别方法 |
CN108446667A (zh) * | 2018-04-04 | 2018-08-24 | 北京航空航天大学 | 基于生成对抗网络数据增强的人脸表情识别方法和装置 |
CN108832619A (zh) * | 2018-05-29 | 2018-11-16 | 北京交通大学 | 基于卷积神经网络的电力系统暂态稳定评估方法 |
Non-Patent Citations (3)
Title |
---|
JUN-YAN ZHU ET AL.: "Unpaired Image-toImage Translation using Cycle-Consistent Adversarial Networks", 《ARXIV》 * |
LEI LIU ET AL.: "SAR Target Classification with CycleGAN Transferred Simulated Samples", 《IGARSS 2018 - 2018 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYMPOSIUM》 * |
SHENGREN NIU ET AL.: "Parameter Prediction Method of SAR Target Simulation Based on Convolutional Neural Networks", 《EUSAR 2018; 12TH EUROPEAN CONFERENCE ON SYNTHETIC APERTURE RADAR》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110558972A (zh) * | 2019-08-27 | 2019-12-13 | 安徽心之声医疗科技有限公司 | 一种心电信号深度学习模型的轻量化方法 |
CN110769196A (zh) * | 2019-10-17 | 2020-02-07 | 天津大学 | 一种用于非连续监控路段的视频预测方法 |
CN110866888A (zh) * | 2019-11-14 | 2020-03-06 | 四川大学 | 基于潜在信息表征gan的多模态mri合成方法 |
CN113966522A (zh) * | 2019-11-25 | 2022-01-21 | Essenlix 公司 | 基于成像的测定的有效训练和准确度改进 |
CN111179228A (zh) * | 2019-12-16 | 2020-05-19 | 浙江大学 | 一种基于深度学习的单能ct能谱成像方法 |
CN113496235A (zh) * | 2020-03-19 | 2021-10-12 | 阿里巴巴集团控股有限公司 | 图像处理方法、装置及系统、存储介质、计算设备 |
CN111476866A (zh) * | 2020-04-09 | 2020-07-31 | 咪咕文化科技有限公司 | 视频优化与播放方法、系统、电子设备及存储介质 |
CN111476866B (zh) * | 2020-04-09 | 2024-03-12 | 咪咕文化科技有限公司 | 视频优化与播放方法、系统、电子设备及存储介质 |
CN111860782A (zh) * | 2020-07-15 | 2020-10-30 | 西安交通大学 | 三重多尺度的CycleGAN、眼底荧光造影生成方法、计算机设备及存储介质 |
CN113643400A (zh) * | 2021-08-23 | 2021-11-12 | 哈尔滨工业大学(威海) | 一种图像生成方法 |
CN114331821A (zh) * | 2021-12-29 | 2022-04-12 | 中国人民解放军火箭军工程大学 | 一种图像转换方法及系统 |
CN114331821B (zh) * | 2021-12-29 | 2023-09-22 | 中国人民解放军火箭军工程大学 | 一种图像转换方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109741410A (zh) | 基于深度学习的荧光编码微球图像生成及标注方法 | |
CN112215280B (zh) | 一种基于元骨干网络的小样本图像分类方法 | |
CN107169504B (zh) | 一种基于扩展非线性核残差网络的手写字符识别方法 | |
CN106250931A (zh) | 一种基于随机卷积神经网络的高分辨率图像场景分类方法 | |
CN110826638A (zh) | 基于重复注意力网络的零样本图像分类模型及其方法 | |
CN116206185A (zh) | 一种基于改进YOLOv7的轻量级小目标检测方法 | |
CN114998220B (zh) | 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法 | |
CN108537119A (zh) | 一种小样本视频识别方法 | |
CN112116950B (zh) | 基于深度度量学习的蛋白质折叠识别方法 | |
CN112232395B (zh) | 一种基于联合训练生成对抗网络的半监督图像分类方法 | |
CN112364974B (zh) | 一种基于激活函数改进的YOLOv3算法 | |
CN112784921A (zh) | 任务注意力引导的小样本图像互补学习分类算法 | |
CN118036555B (zh) | 基于骨架式转移和结构对比学习的少样本字体生成方法 | |
CN112329771A (zh) | 一种基于深度学习的建筑材料样本识别方法 | |
CN116310425A (zh) | 一种细粒度图像检索方法、系统、设备及存储介质 | |
CN114581789A (zh) | 一种高光谱图像分类方法及系统 | |
CN114299305A (zh) | 聚合密集和注意力多尺度特征的显著性目标检测算法 | |
CN111914949B (zh) | 基于强化学习的零样本学习模型的训练方法及装置 | |
CN110852102B (zh) | 一种中文的词性标注方法、装置、存储介质及电子设备 | |
CN112766143A (zh) | 一种基于多情绪的人脸老化处理方法和系统 | |
CN116342938A (zh) | 基于多个潜在域混合的域泛化图像分类方法 | |
CN114067155B (zh) | 基于元学习的图像分类方法、装置、产品及存储介质 | |
CN112215282B (zh) | 一种基于小样本图像分类的元泛化网络系统 | |
CN115329821A (zh) | 一种基于配对编码网络和对比学习的舰船噪声识别方法 | |
CN114139655A (zh) | 一种蒸馏式竞争学习的目标分类系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190510 |
|
WD01 | Invention patent application deemed withdrawn after publication |