CN116703802A - 一种基于组织切片的荧光图像转换方法 - Google Patents

一种基于组织切片的荧光图像转换方法 Download PDF

Info

Publication number
CN116703802A
CN116703802A CN202210176337.2A CN202210176337A CN116703802A CN 116703802 A CN116703802 A CN 116703802A CN 202210176337 A CN202210176337 A CN 202210176337A CN 116703802 A CN116703802 A CN 116703802A
Authority
CN
China
Prior art keywords
loss function
fluorescence image
fluorescence
deep learning
pix2pix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210176337.2A
Other languages
English (en)
Inventor
刘欣
李博艺
刘成成
他得安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202210176337.2A priority Critical patent/CN116703802A/zh
Publication of CN116703802A publication Critical patent/CN116703802A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于组织切片的荧光图像转换方法,用于将组织切片的某一通道的待转化荧光图像转换为同一视野中其他通道荧光图像,其特征在于,包括以下步骤:构建深度学习网络Pix2Pix;构建损失函数;获取训练所需的数据集;将数据集输入至深度学习网络Pix2Pix,采用损失函数和Adam优化算法对该深度学习网络Pix2Pix进行优化训练,并将训练好的深度学习网络Pix2Pix作为荧光图像转换模型;将待转化荧光图像输入至荧光图像转换模型,以获取对应的同一视野中其他通道的荧光图像。该组织切片荧光图像转换方法利用深度学习技术在荧光图像的不同通道之间找到预测关系,从而实现不同通道的图像转换,减少了(多标)荧光成像过程中费时费力的工作,节约了成本和时间。

Description

一种基于组织切片的荧光图像转换方法
技术领域
本发明属于荧光成像技术领域,具体涉及一种基于组织切片的荧光图像转换方法。
背景技术
荧光显微技术主要用于检测特异荧光材料,在了解大分子结构、代谢物和其他亚细胞成分中起着至关重要的作用。但是,现阶段,荧光显微技术的使用仍存在一些限制。例如:荧光显微技术涉及耗时的准备步骤、昂贵的试剂以及光漂白导致的信号偏倚等。
深度学习是一种新兴的技术,目前已被广泛应用于各种领域。随着深度学习在显微技术领域的深入应用,深层神经网络提供了将某通道的荧光图像转换为同一视野中其他通道荧光图像的可能性。换言之,深度学习技术可以在荧光图像的不同通道之间找到预测关系。基于此,提供了基于组织切片的不同荧光转换成像的可行性。
发明内容
为解决上述问题,提供一种基于深度学习策略的组织切片荧光图像转换方法,可将某通道的组织切片的荧光图像转换为同一视野中其他通道的荧光图像,进而减少(多标)荧光成像过程中重复和费时的工作,节约成本和时间,本发明采用了如下技术方案:
本发明提供了一种基于组织切片的荧光图像转换方法,用于将组织切片的某一通道的荧光图像转换为同一视野中其他通道荧光图像,其特征在于,包括以下步骤:步骤S1,构建深度学习网络Pix2Pix;步骤S2,构建损失函数;步骤S3,获取训练所需的数据集;步骤S4,将数据集输入至深度学习网络Pix2Pix,采用损失函数和Adam优化算法对深度学习网络Pix2Pix进行优化训练,并将训练好的深度学习网络Pix2Pix作为荧光图像转换模型;步骤S5,将待转化荧光图像输入至荧光图像转换模型,以获取对应的同一视野中其他通道的荧光图像。
本发明提供的一种基于组织切片的荧光图像转换方法,还可以具有这样的技术特征,其中,深度学习网络Pix2Pix包含一个生成器G和一个鉴别器D,生成器G采用U-Net网络结构,鉴别器D采用条件判别器PatchGAN。
本发明提供的一种基于组织切片的荧光图像转换方法,还可以具有这样的技术特征,其中,损失函数通过在对抗损失函数的基础上加入L1损失函数和MS-SSIM损失函数得到,损失函数为:
式中,表示对抗损失函数,/>表示L1损失函数,/>表示MS-SSIM损失函数,λ1表示L1损失函数的正则化参数,λ2表示MS-SSIM损失函数的正则化参数,表示在G为常数的情况下,选择合适的D使得/>能够最大化,然后选择合适的G使得/>能够最小化。
本发明提供的一种基于组织切片的荧光图像转换方法,还可以具有这样的技术特征,其中,对抗损失函数为:
式中,pdata(x)是训练集中的真实图像分布,pdata(x,y)是荧光图像x和荧光图像y的联合概率分布,是(x,y)的对数似然期望,G表示试图最小化目标,D表示试图最大化目标;
L1损失函数为:
MS-SSIM损失函数为:
本发明提供的一种基于组织切片的荧光图像转换方法,还可以具有这样的技术特征,其中,步骤S3包括以下子步骤:步骤S3-1,基于成像设备对组织切片进行采集和成像,获取包含三种通道的荧光图像;步骤S3-2,采用限制对比度自适应直方图均衡方法对步骤S3-1获取的荧光图像进行图像增强获得增强后荧光图像;步骤S3-3,将所有增强后荧光图像随机分割成512×512像素的若干个小图像块;步骤S3-4,将若干个小图像块作为数据集,并划分为训练数据以及测试数据。
本发明提供的一种基于组织切片的荧光图像转换方法,还可以具有这样的技术特征,其中,采集和成像过程包括感兴趣区域的选取、自动对焦以及图像拼接。
本发明提供的一种基于组织切片的荧光图像转换方法,还可以具有这样的技术特征,其中,在步骤S4的优化训练中,训练150个epoch,网络每次优化遍历的小批量图像数量N为4,初始学习率为0.0002。
发明作用与效果
根据本发明的一种基于组织切片的荧光图像转换方法,针对现有组织切片荧光成像中存在的不足,构建了具有生成器和判别器的深度学习网络Pix2Pix,采用损失函数和Adam优化算法对该深度学习网络Pix2Pix进行优化训练得到荧光图像转换模型,只要将某通道的组织荧光图像输入至该荧光图像转换模型就可以实现对应的组织切片其他通道的荧光图像的转换。该组织切片荧光图像转换方法利用深度学习技术在荧光图像的不同通道之间找到预测关系,从而实现不同通道的图像转换,减少了(多标)荧光成像过程中费时费力的工作,节约了成本和时间;同时,基于该深度学习技术,也可实现多荧光标记的组织切片成像。
附图说明
图1是本发明实施例中一种基于组织切片的荧光图像转换方法的流程图;
图2是本发明实施例中深度学习网络Pix2Pix的结构示意图;
图3是本发明实施例中小鼠肾脏组织切片的三个通道的荧光图像示意图;
图4是本发明实施例中将DAPI通道的组织切片荧光图像转换为Phalloidin通道的荧光图像示意图。
具体实施方式
本发明构建了可实现组织切片荧光图像转换的深度学习模型,包括深度学习网络Pix2Pix架构和损失函数;基于实验获取的数据集训练所构建的深度学习模型;然后,基于训练好的深度学习模型,将某通道的组织切片荧光图像转换为另一个通道的荧光图像;最后,使用平均绝对值误差(Mean Absolute Error,MAE),结构相似性(StructuralSimilarity,SSIM)和峰值信噪比(Peak signal-to-noise ratio,PSNR)评估荧光图像转换质量。
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下结合实施例及附图对本发明的一种基于组织切片的荧光图像转换方法作具体阐述。
<实施例>
本实施例基于台式机实现,该台式机具有Intel Xeon Gold 6248R CPU@3.00GHz处理器和256G RAM,运行Windows 10操作系统。其中,预测网络使用Python 3.8.3版实现的。cGAN是使用Pytorch版本1.6.0实现的。使用的其他python库包括torchvision、dominate、visdom、os、time、Python Imaging Library(PIL)、和numpy。
图1是本发明实施例中一种基于组织切片的荧光图像转换方法的流程图。
如图1所示,基于组织切片的荧光图像转换方法包括以下步骤:
图像转换的目的是通过端到端的网络模型将源域图像转换为目标域图像。本实施例中,深度学习网络Pix2Pix采用全监督的方法,即利用完全配对的输入和输出图像训练模型,通过训练好的模型将输入的图像生成指定任务的目标图像。
步骤S1,构建深度学习网络Pix2Pix。
图2是本发明实施例中深度学习网络Pix2Pix的结构示意图。
如图2所示,该深度学习网络Pix2Pix包含一个生成器G(Generator)和一个鉴别器D(Discriminator)。其中,生成器G采用基于U-Net的体系结构,该生成器的训练目标是:使得生成的G(x)和x作为鉴别器的输入时,鉴别器输出的概率值尽可能大。鉴别器D采用条件判别器PatchGAN,该鉴别器的训练目标是:输入不是一对真实图像(x和G(x))时输出小的概率值,输入是一对真实图像(x和y)时输出大的概率值,即鉴别器尝试区分目标和生成器输出图像。
步骤S2,通过在对抗损失函数的基础上加入L1损失函数和MS-SSIM损失函数从而构建损失函数,该损失函数表示如下:
式中,表示对抗损失函数,/>表示L1损失函数,/>表示MS-SSIM损失函数,λ1表示L1损失函数的正则化参数,λ2表示MS-SSIM损失函数的正则化参数,表示在G为常数的情况下,选择合适的D使得/>能够最大化,然后选择合适的G使得/>能够最小化。
损失函数对网络训练有很大影响。L1损失函数能较好地保持输入图像和输出图像之间的相似度,但是L1损失函数没有考虑人类视觉感知。而SSIM损失函数考虑了亮度(luminance)、对比度(contrast)和结构(structure)等人类视觉感知指标。进一步,MS-SSIM(Multi-Scale SSIM)损失函数是基于多层的SSIM损失函数,同时考虑了分辨率。因此,本实施例在对抗损失函数的基础上加入L1损失函数和MS-SSIM损失函数。
其中,对抗损失函数为:
式中,pdata(x)是训练集中的真实图像分布,pdata(x,y)是荧光图像x和荧光图像y的联合概率分布,是(x,y)的对数似然期望,其中,G表示试图最小化目标,D表示试图最大化目标。
L1损失函数为:
MS-SSIM损失函数为:
步骤S3,获取训练所需的数据集。
本步骤S3包括以下子步骤:
步骤S3-1,基于成像设备对组织切片进行采集和成像,获取包含三种通道的荧光图像。
本实施例中,使用配备40x/0.95NA物镜的扫描显微镜(奥林巴斯,VS-BX)的荧光成像模式对小鼠肾脏组织切片,获取DAPI、Phalloidin以及WGA这三种通道的荧光图像。
其中,DAPI(4',6-Diamidino-2-Phenylindole)用于标记细胞核(该通道简记为DAPI);Alexa488WGA偶联物用于标记细胞膜(该通道简记为WGA),Alexa Fluor鬼笔环肽偶联物用于标记细胞骨架(该通道简记为Phalloidin)。对于DAPI通道,发射波长为455nm,曝光时间为100ms;对于Phalloidin通道,发射波长为480nm,曝光时间为50ms;对于WGA通道,发射波长为656nm,曝光时间为50ms。采集和成像过程包括感兴趣区域(Region of Interest,ROI)的选取、自动对焦和图像拼接等。
步骤S3-2,采用限制对比度自适应直方图均衡方法对步骤S3-1获取的荧光图像进行图像增强获得增强后荧光图像。
由于获取的部分荧光图像对比度较低,本实施例使用限制对比度自适应直方图均衡(contrast limited adaptive histogram equalization,CLAHE)方法进行图像增强。该方法可以提高图像的局部对比度,不会对图像细节造成损伤,并且能够避免图像噪声随图像对比度增大而放大。最终得到三种不同通道的荧光图像如图3所示。
步骤S3-3,为降低内存需求并加快训练过程,将所有增强后荧光图像随机分割成512×512像素的若干个小图像块。
步骤S3-4,将若干个小图像块作为数据集,并划分训练数据为1280张,测试数据为320张。
步骤S4,将数据集输入至深度学习网络Pix2Pix,采用损失函数和优化算法对深度学习网络Pix2Pix进行优化训练,并将训练好的深度学习网络Pix2Pix作为荧光图像转换模型。
本实施例中,使用Adam优化算法对数据集及深度学习网络Pix2Pix进行优化训练,训练总共150个epoch,其中,网络每次优化遍历的小批量图像数量N为4,初始学习率为0.0002。为了使误差收敛到较小的值,使用学习率衰减策略。
步骤S5,将组织切片的任一通道荧光图像输入至荧光图像转换模型,以获取对应的同一视野中其他通道的荧光图像。
本实施例中,为了评估荧光图像转换模型的性能,计算了真实图像和模型生成图像的平均绝对值误差(MAE)、峰值信噪比(PSNR)和结构相似性(SSIM)。具体地:
MAE表示预测值和观测值之间绝对误差的平均值,可以避免误差相互抵消的问题,因而可以准确反映实际预测误差的大小,该值越小,则模型效果越好。计算方式如下:
式中,N表示图像里像素的个数。
SSIM是一种衡量两幅图像相似度的指标。其取值范围为[0,1],SSIM值越大,表示图像失真越小。计算方式如下:
式中,μx是x的平均值,μy是y的平均值,是x的方差,/>是y的方差,σxy是x和y的协方差,c1=(k1L)2,c2=(k2L)2是用来维持稳定的常数,L是像素值的动态范围,k1=0.01,k2=0.03。PSNR是最普遍和使用最为广泛的一种图像客观评价指标,数值越大表示失真越小,计算方式如下:
其中,MSE(Mean Square Error)表示当前图像x和参考图像y的均方误差,h和w分别为图像的高度和宽度,n为每像素的比特数。
本实施例中,对训练后的深度学习网络Pix2Pix实现组织切片荧光图像转换的性能测评指标结果见表1,由DAPI通道转换为Phalloidin通道的实验结果如图4所示。
荧光通道转换 MAE SSIM PSNR(dB)
DAPI-->Phalloidin 14.62±2.576 0.621±0.014 16.891±0.446
DAPI-->WGA 10.38±2.928 0.828±0.012 19.364±0.506
表1
对比现有(多标)组织切片荧光成像方法,本发明构建了一个通用的架构可以方便解决荧光图像转换问题,进而实现多色组织切片荧光成像;同时,减少了(多标)荧光成像过程中费时费力的准备工作,节约了成本和时间。
实施例作用与效果
根据本实施例提供的一种基于组织切片的荧光图像转换方法,该方法针对现有组织切片荧光成像中存在的不足,构建了深度学习网络Pix2Pix,并采用损失函数和Adam优化算法对该深度学习网络Pix2Pix进行了优化训练得到荧光图像转换模型,只要将某通道的组织荧光图像输入至该荧光图像转换模型就可以实现对应的组织切片其他通道的荧光图像的转换。该组织切片荧光图像转换方法利用深度学习技术在荧光图像的不同通道之间找到预测关系,从而实现不同通道的图像转换,减少了(多标)荧光成像过程中费时费力的工作,节约了成本和时间;同时,基于该深度学习技术,也可实现多荧光标记的组织切片成像。
实施例中,由于构建的深度学习网络Pix2Pix具有生成器和鉴别器,因此通过生成器和判别器的互相博弈从而产生良好的输出。同时采用深度学习技术也更好地实现了不同通道图像的预测转换。
实施例中,由于训练所用损失函数是在对抗损失函数的基础上加入了L1损失函数和MS-SSIM损失函数构建的,因此不仅能较好地保持输入图像和输出图像之间的相似度,而且还考虑到了亮度、对比度和结构等人类视觉感知指标。同时,还由于MS-SSIM损失函数是基于多层的SSIM损失函数,因此也保证了图像的高分辨率。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。

Claims (7)

1.一种基于组织切片的荧光图像转换方法,用于将组织切片的某一通道的待转化荧光图像转换为同一视野中其他通道荧光图像,其特征在于,包括以下步骤:
步骤S1,构建深度学习网络Pix2Pix;
步骤S2,构建损失函数;
步骤S3,获取训练所需的数据集;
步骤S4,将所述数据集输入至所述深度学习网络Pix2Pix,采用所述损失函数和Adam优化算法对该深度学习网络Pix2Pix进行优化训练,并将训练好的深度学习网络Pix2Pix作为荧光图像转换模型;
步骤S5,将所述待转化荧光图像输入至所述荧光图像转换模型,以获取对应的同一视野中其他通道的荧光图像。
2.根据权利要求1所述的一种基于组织切片的荧光图像转换方法,其特征在于:
其中,所述深度学习网络Pix2Pix包含一个生成器G和一个鉴别器D,
所述生成器G采用U-Net网络结构,所述鉴别器D采用条件判别器PatchGAN。
3.根据权利要求1所述的一种基于组织切片的荧光图像转换方法,其特征在于:
其中,所述损失函数通过在对抗损失函数的基础上加入L1损失函数和MS-SSIM损失函数得到,所述损失函数为:
式中,表示所述对抗损失函数,/>表示所述L1损失函数,/>表示所述MS-SSIM损失函数,λ1表示所述L1损失函数的正则化参数,λ2表示所述MS-SSIM损失函数的正则化参数,/>表示在G为常数的情况下,选择合适的D使得能够最大化,选择合适的G使得/>能够最小化。
4.根据权利要求3所述的一种基于组织切片的荧光图像转换方法,其特征在于:
其中,所述对抗损失函数为:
式中,pdata(x)是训练集中的真实图像分布,pdata(x,y)是荧光图像x和荧光图像y的联合概率分布,是(x,y)的对数似然期望,G表示试图最小化目标,D表示试图最大化目标;
所述L1损失函数为:
所述MS-SSIM损失函数为:
5.根据权利要求1所述的一种基于组织切片的荧光图像转换方法,其特征在于:
其中,所述步骤S3包括以下子步骤:
步骤S3-1,基于成像设备对组织切片进行采集和成像,获取包含三种通道的荧光图像;
步骤S3-2,采用限制对比度自适应直方图均衡方法对所述步骤S3-1获取的荧光图像进行图像增强获得增强后荧光图像;
步骤S3-3,将所有所述增强后荧光图像随机分割成512×512像素的若干个小图像块;
步骤S3-4,将若干个所述小图像块作为所述数据集,并划分为训练数据以及测试数据。
6.根据权利要求5所述的一种基于组织切片的荧光图像转换方法,其特征在于:
其中,所述采集和成像过程包括感兴趣区域的选取、自动对焦以及图像拼接。
7.根据权利要求1所述的一种基于组织切片的荧光图像转换方法,其特征在于:
其中,在所述步骤S4的优化训练中,训练共150个epoch,网络每次优化遍历的小批量图像数量N为4,初始学习率为0.0002。
CN202210176337.2A 2022-02-24 2022-02-24 一种基于组织切片的荧光图像转换方法 Pending CN116703802A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210176337.2A CN116703802A (zh) 2022-02-24 2022-02-24 一种基于组织切片的荧光图像转换方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210176337.2A CN116703802A (zh) 2022-02-24 2022-02-24 一种基于组织切片的荧光图像转换方法

Publications (1)

Publication Number Publication Date
CN116703802A true CN116703802A (zh) 2023-09-05

Family

ID=87843774

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210176337.2A Pending CN116703802A (zh) 2022-02-24 2022-02-24 一种基于组织切片的荧光图像转换方法

Country Status (1)

Country Link
CN (1) CN116703802A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117351485A (zh) * 2023-12-04 2024-01-05 深圳赛陆医疗科技有限公司 基因测序训练数据集的增强方法及装置、设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117351485A (zh) * 2023-12-04 2024-01-05 深圳赛陆医疗科技有限公司 基因测序训练数据集的增强方法及装置、设备及存储介质
CN117351485B (zh) * 2023-12-04 2024-03-08 深圳赛陆医疗科技有限公司 基因测序训练数据集的增强方法及装置、设备及存储介质

Similar Documents

Publication Publication Date Title
Wang et al. An imaging-inspired no-reference underwater color image quality assessment metric
Xu et al. A systematic review and analysis of deep learning-based underwater object detection
Zheng et al. Segmentation of green vegetation of crop canopy images based on mean shift and fisher linear discriminant
CN111429448B (zh) 一种基于弱分割信息的生物荧光目标计数方法
CN111882489A (zh) 用于水下图像同时增强的超分辨率图形恢复方法
Pan et al. No-reference image quality assessment via multibranch convolutional neural networks
CN109544529A (zh) 面向深度学习模型训练和学习的病理图像数据增强方法
Zhou et al. Deep multi-scale features learning for distorted image quality assessment
CN116703802A (zh) 一种基于组织切片的荧光图像转换方法
CN116402709A (zh) 一种基于水下注意力生成对抗网络的图像增强方法
Arun et al. Enhancement and detection of objects in underwater images using image super-resolution and effective object detection model
You et al. Vocal cord leukoplakia classification using deep learning models in white light and narrow band imaging endoscopy images
CN113538363A (zh) 一种基于改进U-Net的肺部医学影像分割方法及装置
CN110728660B (zh) 基于缺血性脑卒中mri检测标记进行病灶分割的方法及装置
CN109543684B (zh) 基于全卷积神经网络的即时目标追踪检测方法及系统
Li et al. An improved method for underwater image super-resolution and enhancement
Wang et al. Stochastic multi-scale aggregation network for crowd counting
Zhang et al. Multi-scale attentive feature fusion network for single image dehazing
Ma et al. Automatic calcium scoring in cardiac and chest CT using DenseRAUnet
CN113763471A (zh) 一种基于视觉的弹孔检测方法及系统
Lu et al. Dense U-net for super-resolution with shuffle pooling layer
Panaetov et al. Rdrn: Recursively defined residual network for image super-resolution
Chen et al. Semi-supervised breast lesion detection in ultrasound video based on temporal coherence
Zhai et al. Multi-focus image fusion via interactive transformer and asymmetric soft sharing
Xiang et al. Quality-distinguishing and patch-comparing no-reference image quality assessment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination