CN110399899B - 基于胶囊网络的宫颈oct图像分类方法 - Google Patents
基于胶囊网络的宫颈oct图像分类方法 Download PDFInfo
- Publication number
- CN110399899B CN110399899B CN201910542267.6A CN201910542267A CN110399899B CN 110399899 B CN110399899 B CN 110399899B CN 201910542267 A CN201910542267 A CN 201910542267A CN 110399899 B CN110399899 B CN 110399899B
- Authority
- CN
- China
- Prior art keywords
- capsule network
- oct image
- cervical
- image
- oct
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于胶囊网络的宫颈OCT图像分类方法,以胶囊网络架构为基础,用向量输出替代标量输出,用动态路由算法替代池化操作,同时,本发明将胶囊网络与卷积神经网络VGG16模型相结合,用于提取大尺寸OCT图像的隐式特征。包括:1)将VGG16与胶囊网络相结合,使得分类模型的卷积层更复杂,适用于大尺寸图像的分类任务;2)由于胶囊网络不使用池化,删除VGG16模型中的池化层;3)更改VGG16模型的卷积层,使得分类模型可以进行参数调优;4)更改胶囊网络的输出维度,适用于宫颈OCT图像的五分类任务;5)在胶囊网络后增加全连接层,使用softmax函数进行分类;6)使用交叉熵作为损失函数。
Description
技术领域
本发明提供了一种基于胶囊网络的宫颈光学相干断层扫描(OCT)图像分类方法,属于医学影像分析和计算机辅助诊断领域。
背景技术
宫颈癌是全球范围内最常见的妇科恶性肿瘤,近年来它的发病有逐渐年轻化的趋势。虽然近几十年来,因为宫颈细胞学筛查的普遍应用,宫颈癌在前期可以被有效地预防,其发病率和死亡率也因此有了明显的降低。但是,如今被广泛使用的宫颈癌筛查与诊断技术仍存在不足。例如,高危型人乳头瘤病毒(human papillomavirus,HPV)检测已广泛用于25岁以上女性,确定导致癌症的高危HPV类型,但无法提供有关检测结果的具体信息,也无法定位可能的宫颈病变;用阴道镜和醋酸对宫颈进行肉眼检测(visual inspection ofthe cervix with acetic acid,VIA),便于医生直接观察,但是灵敏度和特异性较低。值得一提的是,在发展中国家中,提供宫颈癌筛查服务的机会有限,同时缺少HPV疫苗接种,宫颈癌依旧有着较高的发病率和死亡率。
光学相干断层扫描(optical coherence tomography,OCT)是一种新兴的生物医学成像技术,它利用光来获得生物组织的微米级分辨率的横截面图像。高分辨率和高速的OCT系统可以实时地显示2毫米深的组织样本的细胞特征,因此OCT作为一种无创的“光学活组织检查”方法显示出巨大的潜力。已有的研究证明了用OCT鉴别宫颈形态特征的可行性,如鳞状上皮、基底膜、宫颈基质、低度鳞状上皮内病变(low-grade squamousintraepithelial lesions,LSIL),高度鳞状上皮内病变(high-grade squamousintraepithelial lesions,HSIL)和宫颈癌,使得OCT作为阴道镜检查的辅助工具来筛查和诊断宫颈疾病成为可能。然而,由于OCT技术在临床上的应用有限,宫颈OCT图像对妇科医生和病理学家来说还很陌生。临床医生需要接受严格的培训,可能需要包括查看数千个具有不同病理特征的OCT图像,才能熟悉和识别OCT图像中的诊断特征。此外,即使受过上述严格培训的专业医生在对宫颈OCT图像进行诊断时,也不可避免地会产生一些误判和漏判,特别是在类似看过大量图像数据的高强度工作后。
庆幸的是,近五年来人工智能技术飞速发展,利用深层神经网络的深度学习技术在医学图像分析方面取得了显著进展。最近的一些研究表明,深层卷积神经网络(convolutional neural network,CNN)能够从大量的图像和视频中获知隐含或潜在的特征,在基于图像的癌症(或罕见疾病)检测等任务中获得了相当于人类专家判断的精确结果。在眼科、呼吸科、骨科等领域,基于上述技术的计算机辅助诊断方法有助于减少医生重复性的简单工作,降低人为错误、提高工作效率,而且在肿瘤检测、定性诊断、自动结构化报告、组织特征提取等方面已经开始了临床研究和临床应用。
分析发现,研究人员在上述工作中通常会选择CNN构建分类模型执行图像分类任务,但这些基于CNN结构的分类模型存在以下两个主要问题:1)CNN能很好地分辨图像组成部分(底层对象)的存在,但却忽视了它们之间的相对空间关系,导致容易出现常识性的分类错误;2)CNN大量使用池化(pooling)操作,会损失图像的很多细节信息,从而降低空间分辨率,这就导致对于输入的微小变化,其输出几乎是不变的。因此,本发明选择使用胶囊网络(capsule network)来解决CNN存在的上述两大问题。值得一提的是,胶囊网络应用在小尺寸(如28像素*28像素)的图像上,本发明将改变胶囊网络的结构,使其能够处理大尺寸的宫颈OCT图像(901像素*600像素)。
发明内容
本发明针对现有技术的不足,提供了一种基于胶囊网络的宫颈OCT图像分类方法。
本发明的技术方案为一种基于胶囊网络的宫颈OCT图像分类方法,包括如下步骤:
步骤1,将宫颈组织3D OCT影像以及对应的2D OCT图像划分为训练集和测试集,并确保同一组3D影像中的2D图像只存在于训练集或测试集中;
步骤2,设计基于胶囊网络的OCT图像分类模型,具体为:
步骤2.1,利用CNN代替胶囊网络的卷积层;
步骤2.2,删除CNN模块中的池化层;
步骤2.3,更改CNN模块的卷积层,便于使用调优(fine tuning)策略;
步骤2.4,更改胶囊网络的输出维度,使其适用于宫颈OCT图像分类任务;
步骤2.5,在胶囊网络后增加两个全连接层;
步骤2.6,设置损失函数,用于学习模型参数;
步骤3,调整训练集中2D OCT图像的大小,输入分类模型进行训练;
步骤4,将测试集中2D OCT图像的大小进行调整,输入分类模型,获得2D图像的预测结果;
步骤5,统计同一组3D OCT影像中2D OCT图像的预测结果,计数最多的类别即为该3D影像的预测类别。
进一步的,使用的2D OCT图像是标签图像文件格式(tag image file format,TIFF)格式,符合医学数字成像和通信(digital imaging and communications inmedicine,DICOM)规范。
进一步的,步骤1中划分训练集和测试集的方法有两种,第一种数据划分:以3D图像为基本单位,将数据按照8:2的比例划分为训练集和测试集,确保同一张3D图像中的2D图像只存在于训练集或测试集;第二种数据划分:以3D图像为基本单位,将数据划分为5份,依次选择其中4份作为训练集,余下的一份作为测试集,并确保同一张3D图像中的2D图像只存在于训练集或测试集。
进一步的,步骤2中的CNN为VGG16。
进一步的,步骤2.3中对于CNN所有模块中最后一层卷积层,将原始的步长值1改为2,使得修改后的VGG16模型与原始VGG16的参数量一致。
进一步的,步骤2.5中,增加的两个全连接层的维度均为512,且删除了随机失活(dropout)层。
进一步的,步骤2.6中,损失函数为交叉熵。
进一步的,步骤3中进行训练时,采用固定VGG16中4个模块的参数,训练第5个模块、胶囊层和2个全连接层的参数的方式。
进一步的,步骤3中实现分类模型的编程语言为Python,使用的软件工具为Keras。
进一步的,步骤3和步骤4中2D OCT图像的大小调整为224像素*224像素,然后将图像的像素值除以255,作归一化处理后作为分类模型的输入。
进一步的,分类模型中的分类使用softmax函数。
本发明的有益效果是:一方面,选择使用胶囊网络为基础,克服CNN网络在图像分类中存在的两大主要问题。另一方面,将胶囊网络与CNN相结合,加深原始胶囊网络中卷积层层数,弥补胶囊网络在处理大尺寸图像能力上的不足。
附图说明
图1为基于胶囊网络的宫颈OCT图像分类算法框架。
图2为基于胶囊网络的宫颈OCT图像分类算法训练流程图。
图3为基于胶囊网络的宫颈OCT图像分类算法测试流程图。
具体实施方式
本发明实施例使用的数据集包含了宫颈组织的五类3D OCT影像,包括正常、柱状上皮外翻(ectropion)、LSIL、HSIL、癌症,其中每组3D影像包含了600张2D图像。通过对不同类别的3D影像抽取出不同数目的2D图像,使得各个类别的图像数据大致均衡(即2D图像的数量基本保持一致)。如表1所示,数据集包含497个3D OCT影像,其中正常类别5,730张、柱状上皮外翻5,925张、LSIL 5,600张、HSIL 5,500张、癌症5,934张2D OCT图像,共计28,689张。
表1实施例使用的OCT图像数据集信息
正常 | 柱状上皮外翻 | LSIL | HSIL | 癌症 | 总计 | |
3D影像 | 197 | 79 | 28 | 55 | 138 | 497 |
2D图像 | 5,730 | 5,925 | 5,600 | 5,500 | 5,934 | 28,689 |
为验证本发明方法的有效性,按照如下两种方法对数据集进行划分:1)与人类专家进行比较,以3D影像为基本单位,按照8:2的比例将数据集划分为训练集和测试集,其中训练集包含397组、测试集包含100组;2)与基于CNN的分类模型进行比较,以3D影像为基本单位,将数据集划分为5份,依次选择其中4份作为训练集,余下的一份作为测试集,进行五折交叉验证(five-fold cross-validation)。为了使测试效果更具说服性,在数据划分过程中确保训练集和测试集是完全独立的,即同一张3D影像中的2D图像不能同时存在于训练集和测试集中。
以下结合附图和实施例详细说明本发明技术方案。
步骤1:将宫颈组织3D OCT影像以及对应的2D OCT图像划分为训练集和测试集,并确保同一组3D影像中的2D图像只存在于训练集或测试集中,如上所述,采用“五折交叉验证”的方式。
如图1所示,步骤2:设计基于胶囊网络的OCT图像分类模型。总的来说,本发明将一种经典的CNN VGG16和胶囊网络相结合,由于胶囊网络强调不使用池化层,本发明对VGG16的结构进行了修改,去除了5个模块(block)中的池化层,并将每个模块最后一层卷积层的步长修改为2;将胶囊网络的输出维度设置为5,用于宫颈组织图像的五分类任务:正常、柱状上皮外翻、LSIL、HSIL、癌症,其中正常、柱状上皮外翻、LSIL为低风险病变,而HSIL和癌症为高风险病变;增加两个全连接层,维度都是512。具体实现如下:
步骤2.1,利用VGG16加深胶囊网络的卷积层。针对胶囊网络在处理大尺寸图像分类能力上的不足,本发明改变了原始胶囊网络的卷积层,将其使用VGG16进行替换(模块1~模块5),复杂的卷积层有助于更有效地提取大尺寸图像中的隐式特征。
步骤2.2,删除VGG16中的池化层。VGG16包含的5个模块中均有一个池化层,而胶囊网络强调不使用池化层,因此本发明删除了这5个模块中的池化层,使得整个分类模型不包含池化层。
步骤2.3,更改VGG16中5个模块的卷积层。本发明在训练分类模型时,使用调优(fine tuning)的策略,即加载已经训练好的模型参数,从而缩短训练时间。因此,本发明分别改变5个模块中的最后一层卷积层,将原始的步长值1修改为2,方便进行参数调优。而且,在进行参数训练时,固定VGG16其中4个模块的参数,训练第5个模块、胶囊层和全连接层的参数,有助于提升实验效果和训练速度。
步骤2.4,更改胶囊网络的输出维度,使其适用于宫颈OCT图像分类任务。原始胶囊网络的输出维度为10,为了处理宫颈OCT图像的五分类(正常、柱状上皮外翻、LSIL、HSIL、癌症)任务,本发明将胶囊网络层的输出维度设置为5。
步骤2.5,增加两个维度为512的全连接层。VGG16原始全连接层的结构为三层(4096,4096,1000),本发明改变了VGG16全连接层的结构和维度,将其改为了两层(512,512),并且删除了VGG16中的随机失活(dropout)层。
步骤2.6,使用交叉熵作为损失函数。原始胶囊网络为了处理重叠数字的任务,选择使用限度损失(margin loss)作为损失函数,而宫颈组织OCT的分类任务不需要考虑重叠的情况,即采用常见的交叉熵作为损失函数,结束流程。
如图2所示,步骤3:调整训练集中2D OCT图像的大小(resize),输入分类模型进行训练。首先,将原始901像素*600像素大小的宫颈OCT图像,调整为VGG16接受的224像素*224像素大小;其次,将图像的像素值除以255,做归一化处理;然后,用这些图像训练分类模型,优化目标函数,并更新模型参数;最后,训练结束后保存相关参数值。
如图3所示,步骤4:将测试集中2D OCT图像的大小进行调整,输入分类模型,获得2D图像的预测结果。首先,将原始901像素*600像素大小的宫颈OCT图像,调整为224像素*224像素大小;然后,将图像的像素值除以255,做归一化处理;最后,载入基于步骤2中所保存的相关参数构建的分类模型,使用softmax函数获得相应的预测结果(分类标签)。
如图3所示,步骤5:统计同一组3D OCT影像中2D OCT图像的预测结果,计数最多的类别即为该3D影像的预测类别。根据“投票原则”,统计测试数据集中每组3D影像所包含的2D图像的预测结果,计数最多的2D图像的预测类别即为该3D影像的预测类别。
本发明方法实现的伪代码如下所示:
输入:宫颈组织图像训练集Train_img,宫颈组织图像训练集标签Train_label,宫颈组织图像测试集Test_img
输出:宫颈组织图像测试集标签Test_label
为了验证本发明方法的有效性,首先与三名人类专家(其中一位是OCT专家、两位是病理师)进行了对比,结果如表1所示,从表中可以看出本发明方法在准确率、特异性和灵敏度指标上均优于人类专家的平均水平。这里,CI表示置信区间,为在95%置信水平下的Clopper-Pearson置信区间。
另外,也和VGG16进行了“五折交叉验证”比较,结果如表2所示,从表中可以看出,本发明方法在准确率、特异性、灵敏度指标上的结果更好,且更稳定(标准差更小)。
表1本发明方法与人类专家的图像分类性能比较
表2本发明方法和VGG16在“五折交叉验证”模式下的分类性能对比(均值±标准差)
Claims (10)
1.基于胶囊网络的宫颈OCT图像分类方法,其特征在于,包含以下步骤:
步骤1,将宫颈组织3D OCT影像以及对应的2D OCT图像划分为训练集和测试集,并确保同一组3D影像中的2D图像只存在于训练集或测试集中;
步骤2,设计基于胶囊网络的OCT图像分类模型,具体为:
步骤2.1,利用卷积神经网络代替胶囊网络的卷积层;
步骤2.2,删除CNN模块中的池化层;
步骤2.3,更改CNN模块的卷积层,便于使用调优策略;
步骤2.4,更改胶囊网络的输出维度,使其适用于宫颈OCT图像分类任务;
步骤2.5,在胶囊网络后增加两个全连接层;
步骤2.6,设置损失函数,用于学习模型参数;
步骤3,调整训练集中2D OCT图像的大小,输入分类模型进行训练;
步骤4,将测试集中2D OCT图像的大小进行调整,输入分类模型,获得2D图像的预测结果;
步骤5,根据“投票原则”,统计同一组3D OCT影像中2D OCT图像的预测结果,计数最多的类别即为该3D影像的预测类别。
2.根据权利要求1所述的基于胶囊网络的宫颈OCT图像分类方法,其特征在于:使用的2D OCT图像是标签图像文件格式格式,符合医学数字成像和通信规范。
3.根据权利要求1所述的基于胶囊网络的宫颈OCT图像分类方法,其特征在于:步骤1中划分训练集和测试集的方法有两种,第一种数据划分:以3D图像为基本单位,将数据按照8:2的比例划分为训练集和测试集,确保同一张3D图像中的2D图像只存在于训练集或测试集;第二种数据划分:以3D图像为基本单位,将数据划分为5份,依次选择其中4份作为训练集,余下的一份作为测试集,并确保同一张3D图像中的2D图像只存在于训练集或测试集。
4.根据权利要求1所述的基于胶囊网络的宫颈OCT图像分类方法,其特征在于:步骤2中的CNN为VGG16。
5.根据权利要求1所述的基于胶囊网络的宫颈OCT图像分类方法,其特征在于:步骤2.3中,对于CNN所有模块中最后一层卷积层,将原始的步长值1改为2,使得修改后的模型与原始VGG16模型的参数量一致。
6.根据权利要求1所述的基于胶囊网络的宫颈OCT图像分类方法,其特征在于:步骤2.5中增加的两个全连接层的维度均为512,且删除了随机失活层。
7.根据权利要求1所述的基于胶囊网络的宫颈OCT图像分类方法,其特征在于:步骤2.6中,损失函数为交叉熵。
8.根据权利要求1所述的基于胶囊网络的宫颈OCT图像分类方法,其特征在于:步骤3中进行训练时,采用固定VGG16中4个模块的参数,训练第5个模块、胶囊层和2个全连接层的参数的方式。
9.根据权利要求1所述的基于胶囊网络的宫颈OCT图像分类方法,其特征在于:步骤3和步骤4中2D OCT图像的大小调整为224像素*224像素,然后将图像的像素值除以255,作归一化处理后作为分类模型的输入。
10.根据权利要求1所述的基于胶囊网络的宫颈OCT图像分类方法,其特征在于:分类模型中的分类使用softmax函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910542267.6A CN110399899B (zh) | 2019-06-21 | 2019-06-21 | 基于胶囊网络的宫颈oct图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910542267.6A CN110399899B (zh) | 2019-06-21 | 2019-06-21 | 基于胶囊网络的宫颈oct图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110399899A CN110399899A (zh) | 2019-11-01 |
CN110399899B true CN110399899B (zh) | 2021-05-04 |
Family
ID=68324165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910542267.6A Active CN110399899B (zh) | 2019-06-21 | 2019-06-21 | 基于胶囊网络的宫颈oct图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110399899B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111353539A (zh) * | 2020-02-29 | 2020-06-30 | 武汉大学 | 一种基于双路注意力卷积神经网络的宫颈oct图像分类方法及系统 |
CN111914931A (zh) * | 2020-07-31 | 2020-11-10 | 重庆医科大学附属口腔医院 | 一种建立口腔诊断神经网络模型的方法及口腔诊断方法 |
CN112418329B (zh) * | 2020-11-25 | 2022-08-05 | 武汉大学 | 一种基于多尺度纹理特征融合宫颈oct图像分类方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985316A (zh) * | 2018-05-24 | 2018-12-11 | 西南大学 | 一种改进重构网络的胶囊网络图像分类识别方法 |
CN109376636A (zh) * | 2018-10-15 | 2019-02-22 | 电子科技大学 | 基于胶囊网络的眼底视网膜图像分类方法 |
CN109800817A (zh) * | 2019-01-25 | 2019-05-24 | 西安电子科技大学 | 基于融合语义神经网络的图像分类方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5526044B2 (ja) * | 2011-01-11 | 2014-06-18 | オリンパス株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
-
2019
- 2019-06-21 CN CN201910542267.6A patent/CN110399899B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985316A (zh) * | 2018-05-24 | 2018-12-11 | 西南大学 | 一种改进重构网络的胶囊网络图像分类识别方法 |
CN109376636A (zh) * | 2018-10-15 | 2019-02-22 | 电子科技大学 | 基于胶囊网络的眼底视网膜图像分类方法 |
CN109800817A (zh) * | 2019-01-25 | 2019-05-24 | 西安电子科技大学 | 基于融合语义神经网络的图像分类方法 |
Non-Patent Citations (4)
Title |
---|
Brain Tumor Type Classification via Capsule Networks;Parnian Afshar et al;《2018 25th IEEE International Conference on Image Processing (ICIP)》;20180906;3129-3133 * |
Capsule Networks for Brain Tumor Classification Based on MRI Images and Coarse Tumor Boundaries;Parnian Afshar et al;《ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)》;20190417;1368-1372 * |
基于卷积神经网络的图像分类算法综述;杨真真等;《信号处理》;20181231;第34卷(第12期);1474-1489 * |
基于深度学习的肺结节识别与检测研究;张金;《中国优秀硕士学位论文全文数据库(电子期刊)信息科技辑》;20190115;第2019年卷(第1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110399899A (zh) | 2019-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110399899B (zh) | 基于胶囊网络的宫颈oct图像分类方法 | |
CN106682435B (zh) | 一种多模型融合自动检测医学图像中病变的系统及方法 | |
CN110889852B (zh) | 基于残差-注意力深度神经网络的肝脏分割方法 | |
CN103907023B (zh) | 检测生物学样品中的异常的系统和方法 | |
CN111353539A (zh) | 一种基于双路注意力卷积神经网络的宫颈oct图像分类方法及系统 | |
CN109727253A (zh) | 基于深度卷积神经网络自动分割肺结节的辅助检测方法 | |
CN113223005B (zh) | 一种甲状腺结节自动分割及分级的智能系统 | |
CN110852396A (zh) | 一种宫颈图像的样本数据处理方法 | |
CN110889853A (zh) | 基于残差-注意力深度神经网络的肿瘤分割方法 | |
Zhuang et al. | Breast ultrasound lesion classification based on image decomposition and transfer learning | |
Bai et al. | Automatic segmentation of cervical region in colposcopic images using K-means | |
CN113643261B (zh) | 一种基于频率注意网络的胸肺部疾病诊断方法 | |
US11763453B1 (en) | Automatic generation method of fine-labeled digital pathological data set based on hyperspectral imaging | |
CN111488912A (zh) | 一种基于深度学习神经网络的喉部疾病诊断系统 | |
CN111341443A (zh) | 一种基于深度学习的超声甲状腺结节智能评估方法 | |
Cai et al. | Identifying architectural distortion in mammogram images via a se-densenet model and twice transfer learning | |
CN116188901A (zh) | 一种基于掩码自监督学习的宫颈oct图像分类方法及系统 | |
CN115965641A (zh) | 一种基于deeplabv3+网络的咽部图像分割及定位方法 | |
Kumar et al. | Automated white corpuscles nucleus segmentation using deep neural network from microscopic blood smear | |
CN114565601A (zh) | 基于DeepLabV3+改进的肝脏CT图像分割算法 | |
CN112967254A (zh) | 基于胸部ct影像肺部疾病识别和检测方法 | |
CN109948706B (zh) | 结合深度学习与特征多尺度融合的微钙化簇检测方法 | |
Liu et al. | Vct-net: An octa retinal vessel segmentation network based on convolution and transformer | |
CN111341442A (zh) | 一种多功能一体化肺癌辅助诊断系统 | |
CN114926486B (zh) | 一种基于多层级改进的甲状腺超声图像智能分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |