CN112529042A - 一种基于双重注意力多示例深度学习的医学图像分类方法 - Google Patents
一种基于双重注意力多示例深度学习的医学图像分类方法 Download PDFInfo
- Publication number
- CN112529042A CN112529042A CN202011294799.1A CN202011294799A CN112529042A CN 112529042 A CN112529042 A CN 112529042A CN 202011294799 A CN202011294799 A CN 202011294799A CN 112529042 A CN112529042 A CN 112529042A
- Authority
- CN
- China
- Prior art keywords
- image
- global
- medical image
- attention
- average
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000013135 deep learning Methods 0.000 title claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000011176 pooling Methods 0.000 claims description 64
- 230000006870 function Effects 0.000 claims description 50
- 238000013507 mapping Methods 0.000 claims description 26
- 230000004913 activation Effects 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 16
- 238000010606 normalization Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000012353 t test Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims description 2
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000005070 sampling Methods 0.000 abstract description 2
- 208000024806 Brain atrophy Diseases 0.000 description 27
- 230000000750 progressive effect Effects 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 210000004556 brain Anatomy 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 208000032843 Hemorrhage Diseases 0.000 description 1
- 238000000692 Student's t-test Methods 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 235000000332 black box Nutrition 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004256 retinal image Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于双重注意力多示例深度学习的医学图像分类方法,该方法包含如下步骤:1)采集M个医学图像,并基于分类任务对原始图像设置正负标签;2)基于医学图像的体素特征,确定K个固定位置作为输入图像特征的采样点;3)对双重注意力的多示例深度学习网络模型进行训练;4)更新多示例学习模型;5)将新的医学图像输入至训练好的多示例学习模型中,判断该医学图像的类别标签。本发明能够增强局部辨识力并权衡不同区域的特征信息权重,更符合医学图像的实际情况图像,更有助于提高医学图像分类性能。
Description
技术领域
本发明属于图像分类技术领域。
背景技术
医学图像具有高维和高尺寸的特点,但是医学图像含有大多数的无关背景信息,对最后的分类判断造成严重的干扰。例如在三维的结构性核磁共振(MR)图像判断局部微小的脑萎缩现象,在眼底视网膜图像上判断血管出血现象以及在组织图像中判断是否含有某个特定的细胞等。这些医学图像在不同类别上显示全局相似性,只有局部的差异,直接在完整图像上进行计算机分析往往性能较差。
传统的基于机器学习的医学图像分类方法通常将医学图像划分成多个区域进行分析,来克服在缺少医学先验知识的前提下直接分析完整图像的困难。依据划分的区域特征表示大小,目前的医学图像分类研究可以分为三类:1)体素级别(voxel-level), 2)区域级别(region-level),和3)图像块级(patch-level)方法。对于体素级方法,一般通过从医学影像提取所有体素级组织特征,来组成非常高维特征向量作为分类模型的输入特征。然而与庞大的特征数目相比,用于图像分类的训练图像往往非常少,由于医学影像的珍贵性和被试个体的稀有性。所以这类方法往往面临维度灾难(Curse of Dimensionality)和过拟合等问题。为了降低特征维度,区域级方法则基于从医学图像中分割的感兴趣区域(ROI)来进行分类预测,通过从ROI中提取某种生物特征来区分医学图像的类别。而这类方法是需要专家经验知识和专门的工具来手工提取特征的,是高成本和费时的。并且特征提取过程独立于之后的分类算法,两者之间存在异质性,容易造成次优的分类性能。而最近提出的块级方法被证明有效地描述医学图像中的局部结构变化。它是一种体素级和区域级之间的中间大小规模,更为灵活。并且图像块的中心位置可以通过特定数据驱动方法和统计学方法给出建议。然而,块级方法也面临许多挑战。比如块级标签定义模糊问题,不能直接用图像级标签定义图像块的标签。多示例学习作为一种弱监督学习被用来解决这个问题,但同时也存在很多问题。如Tong基于图像块特征值的欧几里得距离,以距离矩阵,构建图核作为全局特征,最后利用支持向量机进行分类。这种方法未考虑图像块内的空间信息。Liu等构建多个子卷积神经网络 (sub-CNN)学习块级特征表示,并将学得的块级特征按通道简单连接,最后用全连接网络分类。这种无差别连接块级特征组成全局特征是不合理的。因为医学图像中不同图像块含有的信息量权重是不同的。块级方法仍需要解决的主要难题在于如何组合局部的块级特征为一个可以代表整个图像信息的全局特征表示。
以上传统医学图像分类方法存在三个明显的缺陷:1)忽视了各个被划分的图像区域内的空间信息,和缺少对具有辨识力的结构部分的特征增强,这样容易造成不同个体特征差异过低从而分类性能较差。2)只提取目标区域的部分生物特征,可能未包含可用于图像分类的全部相关特征;只利用部分独立的区域特征,不能代表个体的整体特征。 3)无差别地组合局部区域的特征表示,然而不同的图像区域含有的信息量是不同,有些包含无关的信息甚至成为分类噪声。所以对信息量高的图像区域的特征增强和对无关的图像区域的特征减弱是非常重要的。
近来深度学习方法在医学图像分类方面表现较高的性能,相比与传统学习使用手工提取的特征,深度学习模型可以以纯数据驱动的方式自动学得任务相关的特征,从而消除特征学习与分类算法的异质性,提高了分类的性能。但是由于深度方法中神经网络的黑盒性质,目前的深度学习方法都缺少与分类任务相关的特征的定位的反馈。
发明内容
发明目的:为解决上述背景技术中存在的问题,本方发明提供了一种用于医学图像分类的双重注意力多示例深度学习模型。
技术方案:一种用于医学图像分类的双重注意力多示例深度学习模型,其特征在于:该模型包括如下步骤:
步骤1:采集M个医学图像,并根据每个医学图像是否存在特定任务相关特征,(如MR脑图像某个脑区是否发生异常脑萎缩,组织图像是否含有某个特定细胞),对每个医学图像设置原始标签,分为正负两类;
步骤2:将正类的医学图像以及负类的医学图像都均匀划分为r个立方体;该r个立方体尺寸均为W*W*W,将一个立方体作为一个图像块,基于正类的图像中所有图像块的体素特征和负类的图像中所有图像块的体素特征,在医学图像中选择K个图像块,将该K个图像所在的位置作为K个固定位置,提取m个医学图像中每个图像在K 个固定位置上的图像块;
步骤3:将M个医学图像中的K个图像块作为多示例学习模型的输入,对多示例学习模型进行训练;
步骤4:计算每个医学图像的训练结果和该图像原始标签之间的交叉熵,建立基于交叉熵的损失函数,根据该损失函数判断训练后的多示例学习模型是否收敛,若是,则停止计算,得到训练好的多示例学习模型,否则根据损失函数计算得到的损失更新多示例学习模型的权重,并转步骤2;
步骤5:将新的医学图像输入至训练好的多示例学习模型中,判断该医学图像的类别。
进一步的,所述步骤2具体为:选择一组正类的医学图像,和一组负类的医学图像,两组中医学图像的个数相同;根据该组正类图像中每个图像的第b个图像块对应的体素信息,计算得到正类第b个图像块的平均值,根据该组负类图像中每个图像的第b个图像块对应的体素信息,计算得到负类的第b个图像块的平均值,将该两个平均值作为一组图像块组,从而组成对应于第b个图像块所在位置的两组特征平均值向量,采用t检验比较该两组特征平均值向量的差异性,得到第b个t检验结果,其中b=1,2,…,r;对每一个t检验结果进行归一化计算,并将计算结果按照由小到大排列,选择前K个图像块组。
进一步的,所述步骤3中多示例学习模型的训练过程为:
步骤3.1:从输入的第m个医学图像的第k个图像块中提取影响分数和局部块级别的特征,其中m=1,2,…,M,k=1,2…,K;
步骤3.2:根据提取的K个局部块级别的特征和K个影响分数,计算得到m个医学图像的全局特征;
步骤3.3:根据全局特征计算第m个医学图像的类别。
进一步的,所述步骤3.1具体为:
步骤3.1.1:采用块级子网从输入的第m个医学图像的第k个图像块中提取特征 F,F={F1,F2,…,FC},Fc表示第c个特征,c为特征的总个数;所述块级子网包括依次连接的第一3D卷积层,第一批量归一化模块,第一激活函数,第二3D卷积层,第二批量归一化模块,第二激活函数,最大池化层,第三3D卷积层,第三批量归一化模块,第三激活函数,第四3D卷积层,第四批量归一化模块以及第四激活函数;所述第一3D 卷积层的卷积核为4*4*4,第二~四3D卷积层的卷积核均为3*3*3,所述最大池化层的大小为2*2*2;
步骤3.1.2:采用全局平均池化模块提取F的影响分数,采用空间注意力模块提取F的局部块级别的特征;所述全局平均池化模块包括依次连接的全连接层和第一 sigmoid函数层。
进一步的,所述步骤3.1.2中空间注意力提取F的局部块级别的特征具体为:
步骤A:采用通道最大池化层提取F的最大特征值Fmax具体为:将F映射至第k个图像块的所有坐标位置中,得到F中的每个特征在坐标(ω,h,l)上的映射特征值并进行比较,从而得到该(ω,h,l)坐标上最大映射特征值其中ω=0,1,…,W,h=0,1,…,W,l= 0,1,…,W,将所有的组合成最大特征值Fmax;
采用通道平均池化层提取F的平均特征值Faverage具体为:将F映射至第k个图像块的所有坐标位置中,得到F中的每个特征在坐标(ω,h,l)上的映射特征值,并计算该(ω,h,l)坐标上所有特征值的平均值将所有的组合成平均特征值Faverage;
步骤B:采用第五卷积层连接Fmax和Faverage,并采用第二sigmoid函数层将连接结果限制在0到1范围内,从而得到空间注意力映射Aspatial;
步骤C:将F中每个特征与Aspatial逐元素相乘,得到局部块级别的特征Fattn。
进一步的,所述步骤3.2具体为:将K个局部块级别的特征分别输入至K个通道方向的平均池化层,将该K个通道方向的平均池化层的输出结果进行组合得到全局特征 Fglobal;
采用全局平均池化层提取Fglobal中全局平均特征向量,并依次采用第六卷积层和第七卷积层对全局平均特征向量进行计算,得到平均注意力权重映射Aaverage:
Aaverage=w1ReLU(w0GAP(Fglobal))
w0,w1分别是第六卷积层和第七卷积层的参数;ReLU(.)为ReLU激活函数,GAP(.)是全局平均池化函数,其中第六卷积层和第七积层的卷积核均为1*1*1;
采用全局最大池化层提取Fglobal中全局最大特征向量,并依次采用第六卷积层和第七卷积层对全局最大特征向量进行计算,得到全局最大注意力权重映射Amax:
Amax=w1ReLU(w0GMP(Fglobal))
其中,GMP(·)是全局最大池化函数;
将K个影响分数组合成一个向量a,将Aaverage,Amax以及向量a进行组合,得到综合性注意力权重映射,采用第三sigmoid函数层将综合性注意力权重映射限制在0 到1范围内,再将Fglobal中的元素与第三sigmoid函数层的结果进行逐相相乘,得到不同加权的全局特征。
进一步的,所述步骤3.3中采用注意力激活的全局分类器计算第m个医学图像的正负类别的概率,所述注意力激活的全局分类器包括依次连接的第八3D卷积层,第九3D卷积层,全局平均池化层,第一全连接层,第二全连接层和softmax激活函数。
进一步的,所述步骤4中,采用Adam优化函数根据损失函数计算得到的损失更新多示例学习模型的权重。
有益效果:
1、本发明可自动学得医学图像分类的相关特征,不需要手工的感兴趣区域特征提取过程,很大程度上提高了时间效率,实现医学图像分类的实时性,有助于辅助医生临床诊断。本发明中的多示例习模型由多个带有空间注意力模块的块级网络,一个注意力多示例池化模块和一个全局注意力激活的分类器构成。能够提取局部特征,并融合成代表整脑结构的全局特征,这种结构能够增强局部辨识力高的特征,并权衡不同区域的特征信息权重,更符合医学图像的实际情况,即在高维的医学图像中寻找微弱的病理特征变化,更有助于提高分类性能,增加了模型的可解释性。
2、本发明中的块级子网络能够从医学图像中的多个图像块中提取局部特征,并且图像块的大小较体素级和区域级更加灵活,更适合学得局部特征。并且每个块级子网络可以获得每个块对最终分类判断的影响分数,有助于判别任务相关特征位置。
3、本发明中的空间注意力模块为每个块级网络连接一个空间注意力模块,可以有效识别每个块内辨识度高的特征,即块内一些与分类任务高度相关的微小结构变化,并对这些特征进行增强。
4、本发明中注意力多示例池化模块用于将块级子网络输出的局部特征进行加权融合,合并成一个全局的特征。与一般方法直接按通道连接不同,该模块可以为不同的图像块级局部特征赋予不同的权重,提高了输出结果的准确度,因为每个图像块含有的辨识力信息量是不同,有些图像块可能没有分类任务相关的特征,或者含有干扰因素,所以需要增强有关图像的特征权重,而削弱无关图像块的特征权重。
5、本发明对于不同维度的(3D/2D)图像,采用相应维度(3D/2D)的卷积层结构,适用于在较大尺寸的图像中检测较小的目标,采用注意力机制和多示例学习可以减弱背景信息的干扰,找到关键的特征信息。
附图说明
图1本发明的结构图;
图2为不同的多示例池化在分类性能上的比较;
图3不同图像块大小在分类性能上的结果;
图4不同图像块数量在分类性能上的结果。
具体实施方式
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
如图1所示实施例提供了一种基于双重注意力多示例深度学习的医学图像分类方法,由于特征变化发生在局部区域,并非所有来自正类的sMRI图像的分割图像块都在形态上发生异常变化。这个现象正好符合多示例学习问题。在多示例学习中,训练数据是由一个包的集合组成,每个包含有多个示例,只有包级别的标签是已知的,而示例的标签是未知的。即,其中Yi是包Xi的标签,N是包的个数,Ni是包Xi中示例的个数。将一个正类的MR图像提取的图像块组成一个正标记的包,在这个包中至少有一个正类的块,即至少有一个图像块是受到影响的。将一个负类的图像中提取的块组成一个负标记包,在这个负包中,所有的图像块都是负类。而多示例学习模型DA-MIDL模型的任务就是利用多个图像块来实现对未知包(即未知图像) 的正确分类。
本实施例的方法包括如下步骤:
步骤1:采集M个医学图像,判断每个医学图像是否存在与特定任务相关的特征,将存在相关特征的医学图像的原始标签设置为正,将不存在相关特征的医学图像的原始标签设置为负;所述特定任务包括:MR图像中是否存在脑萎缩,脑萎的种类,或者组织图像中是否存在特定的细胞等;
步骤2:将原始标签为正的医学图像以及原始标签为负的医学图像都均匀划分为r个立方体;该r个立方体尺寸均为W*W*W,将一个立方体作为一个图像块,基于原始标签为正的医学图像中所有图像块的体素特征和原始标签为负的医学图像中所有图像块的体素特征,在原始标签为正的医学图像中选择K个图像块,将该K个图像所在的位置作为K个固定位置,提取M个医学图像中每个图像在K个固定位置上的图像块;
步骤3:将M个医学图像中的K个图像块作为多示例学习模型的输入,对多示例学习模型进行训练;
步骤4:计算每个医学图像的训练结果和该图像原始标签之间的交叉熵,建立基于交叉熵的损失函数,根据该损失函数判断训练后的多示例学习模型是否收敛,若是,则停止计算,得到训练好的多示例学习模型,否则根据损失函数计算得到的损失更新多示例学习模型的权重,并转步骤2;
步骤5:将新的医学图像输入至训练好的多示例学习模型中,判断该医学图像的类别。
在本实施例中,由于需要很高的计算和存储成本把医学图像的所有图像块输入到网络中分析,所以图像块位置的建议对于提取辨识力信息是必不可少。我们提出了一种新的图像块位置建议方法。首先按照不重叠的固定位置,将医学图像均匀划分为具有固定大小的立方块,以简化计算,避免冗余信息。并不是所有的分割块都与分类任务有关,这意味着每个图像块含有不同的信息量。因此,我们应用一种统计方法对整个图像中所有块的信息量进行排序。我们计算了一个块中所有体素特征的平均值作为其块级别特征。然后,使用t检验对两组分别来自训练集中正类和负类的块级特征进行了差异性比较。所以我们可以在这个图像块位置得到一个p-value,它可以代表这个位置的信息性。此外,p-value越小,图像块位置的辨识度越高。对所有位置上的p-value值进行归一化,可以形成覆盖整个医学图像的p-value图,并将归一化后的结果按照由小到大排列,选择前K个图像块组,组成多示例学习的一个包,作为模型的训练样本
在本实施例中,所述多示例学习模型(DA-MIDL)的学习过程具为:从M个医学图像中的一个医学图像中选择K个图像块,采用带有空间注意力模块的图像块级子网(Patch-Net with Spatial Attention Block)从第k个图像块中提取影响分数Affect score 和局部块级别的特征,然后将将块级别的特征表示联合并输入到注意力多示例池化中,计算每个块的相对重要性,最后通过全局分类器对注意感知的全局特征进行进一步的学习和分类。
在本实施例中,带有空间注意力模块的块级子网包括块级子网Patch-Net、空间注意力模块和全局平均池化模块;所述Patch-Net从原始图像块中学习更加抽象的特征表示F,F={F1,F2,…,Fc},Fc表示第c个特征,c为特征的总个数,并且减少feature map的大小;所述块级子网包括依次连接的第一3D卷积层,第一批量归一化模块,第一激活函数,第二3D卷积层,第二批量归一化模块,第二激活函数,最大池化层,第三3D卷积层,第三批量归一化模块,第三激活函数,第四3D卷积层,第四批量归一化模块以及第四激活函数;所述第一3D卷积层的卷积核为4*4*4,第二~四3D卷积层的卷积核均为3*3*3,所述最大池化层的大小为2*2*2;2个单位长度的步长为了向下采样,第一~四卷积核通道数分别是32,64,128和64;基于第四卷积层conv4输出的feature maps,块级子网延申出两个分支模块,一个是空间注意力模块:用于学习一个空间注意力的局部块级特征。另一个模块是一个全局平均池化,包括依次连接的全连接层和第一 sigmoid函数组成。为了输出一个影响分数,可以帮助识别可能的病灶位置。与其他多示例学习的示例级别特征转化不同,从块级网络输出的块级特征表示任然保留三维的形状而不是一维特征向量,是为了之后块级特征表示更好的结合和进一步学习图像块之间的关系。
在本实施例中,空间注意力模块学习一个空间注意力的局部块级特征具体为:为了增强局部辨识力结构特征,设计了一个空间注意力模块嵌入到块级网络中。两种沿着通道轴的不同的池化(即通道最大池化和通道平均池化)被采用于生成两个特征映射分别代表最大特征和平均特征。然后这两个特征映射被联合输入到之后的第五3D卷积层。该层卷积的输出可以被看作是一个空间注意力映射Aspatial,它的大小等于conv4输出的特征映射的大小。每个位置的注意力分数通过第二sigmoid函数限制在0到1的范围内。这个空间注意力地图可以描述图像块内各个部分空间变化的贡献度。然后conv4输出的每个特征映射与空间注意力映射逐元素相乘,最终生成一个局部的带空间注意力的特征表示Fattn:
采用通道最大池化层提取F的最大特征值Fmax具体为:将F映射至第k个图像块的所有坐标位置中,得到F中的每个特征在坐标(ω,h,l)上的映射特征值并进行比较,从而得到该(ω,h,l)坐标上最大映射特征值其中ω=0,1,…,W,h=0,1,…,W,l=0,1,…,W,将所有的组合成最大特征值Fmax;
采用通道平均池化层提取F的平均特征值Faverage具体为:将F映射至第k个图像块的所有坐标位置中,得到F中的每个特征在坐标(ω,h,l)上的映射特征值,并计算该 (ω,h,l)坐标上所有特征值的平均值将所有的组合成平均特征值Faverage。
在本实施例中,注意力多示例池化用于学习一个块相对注意映射来表示每个图像块的相对权重;块级特征表示在连接成一个全局结构特征表示之前,经过通道方向的平均池化,使得通道数等于图像块的个数(将K个局部块级别的特征分别输入至K个通道方向的平均池化层,将该K个通道方向的平均池化层的输出结果进行组合得到全局特征 Fglobal),每个通道上的特征映射代表一个图像块。全局平均池化和最大池化平行构建用于生成两个不同的特征描述。然后这两个特征描述被均被第六和第七卷积层学习产生两个patch-attentionmap:
Aaverage=w1ReLU(w0GAP(Fglobal))
Amax=w1ReLU(w0GMP(Fglobal))
w0,w1分别是第六卷积层和第七卷积层的参数;ReLU(·)为ReLU激活函数,GAP(.)是全局平均池化函数,其中第六卷积层和第七积层的卷积核均为1*1*1;其中,GMP(·) 是全局最大池化函数;
特别的是,在我们实验中处理最大特征描述和平均特征描述的卷积层享有相同的参数。除了这两个通过学习块间关系得到的patch-attention maps,只通过单个块内特征得到的影响分数affect score也被考虑去评估每个图像块的相对权重。从每个Patch-Net得到的affect score可以组成一个向量a(a1,a2,…,ac),其中ac为第c个影响分数,这个向量被拓展为patch-attention map相同的大小,然后这三个不同的注意力映射组合成一个更加全面的patch-attention map即之后被第三sigmoid函数激活。
其中σ(·)为sigmoid函数
最后,之前的全局特征表示与该注意力映射通过张量乘法得到一个注意力激活的全局特征:
与传统的最大多示例池化和平均多示例池化不同,本是实施例中注意力多示例池化 (Attention MILPooling)不仅考虑全部图像块的特征而不是只关注部分辨识力高的图像块,并且赋予每个图像块不同的权重而不是无差别的组合图像块。因此,这个注意力多示例池化可以增强关键图像块的特征从而减少噪声干扰,同时保留了不重要的图像和关键图像的潜在的关联信息从而降低了特殊个体的误判率。另外,计算得到的 patch-attentionmap可以作为是特征定位的参考。
在本实施例中,注意力激活的全局分类器(Attention-Aware GlobalClassifier)通过分析块间的高度相关性继续学习全局特征表示,并作出最后的分类结果。因为相对于全连接层,卷积层展示一个较好的非线性高维特征提取能力。所以全局分类器的前面两层卷积网络用来进一步学习注意激活的全局特征表示来获取更多的结构信息和压缩特征映射的大小。同时一个3D全局平均池化用于下采样。然后特征表示被展平作为之后两层全连接层的输入,产生两个分数,分别代表负类和正类的概率。
基于不同加权的特征映射,注意感知全局分类器,以继续学习全局特征表示可代表 MRI图像的全脑结构信息,并输出AD检测或MCI转换预测的分类结果。
其中,P(Ym|Xm;w)是当前网络在权重为w下正确预测的概率。
在本实施例中,除了医学图像分类,本实施例提供的DA-MIDL模型还可以自动识别特征的位置。
以MR图像为例进行仿真实验:
实验数据集是从ADNI公开数据库获取的。总共包含了由1193个被试的baseline1.5T T1-weighted的结构性MR图像。这些图像可以分为三个类别:重度脑萎缩,轻度脑萎缩和正常对照。轻度脑萎缩对象可以进一步被分为两类:进展性脑萎缩(即36个月内转化为重度脑萎缩)和稳定性脑萎缩(即一直稳定在轻度)。我们研究的数据集总共包含了389个重度脑萎缩,172个进展性脑萎缩,232个稳定性脑萎缩和400个正常对照。
图像预处理:将每个MR图像与Colin27模板线性配准消除全局线性差异(全局平移、尺度和旋转差异),然后去除图像中的头颅部分。最后得到的图像大小为 181×217×181。
实验设定:
本实施例在多个分类任务上得到了验证。即重度脑萎缩和正常对照分类,进展性脑萎缩与稳定性脑萎缩分类,进展性脑萎缩和正常对照分类,稳定性脑萎缩和正常对照分类。并使用5折交叉验证法。
使用四个指标验证分类性能,包括准确率(ACC),敏感性(SEN),特异性(SPE) 和ROC曲线下的面积(AUC)。
MR脑影像分类结果:
对采用本实施例的实验结果与四种方法进行了比较(体素级特征+SVM分类Voxel-basedMorphometry-VBM,ROI级特征+SVM分类ROI-wise Method-ROI,块级特征+深度多示例学习Deep Multi-instance Learning–DMIL,块级特征+全卷积网 HierarchicalFully Convolutional Network-HFCN),结果如表1和表2所示,其中表1为重度脑萎缩和正常对照分类,进展性脑萎缩与稳定性脑萎缩分类的实验结果,表2为进展性脑萎缩和正常对照,稳定性脑萎缩和正常对照分类的实验结果(Method为方法, ACC为准确率,SEN为敏感性,SPE为特异性,AUC为接收者操作特征曲线下的面积) 显然本实施例在四个分类任务上都取得了较好的结果。
表1
表2
从表1和表2中,可以得到以下推断。1)与传统的方法(VBM和ROI)相比,本实施例在分类性能上有显著的提高。深度学习方法连接了特征提取和分类器学习过程,可以生成一个较好的面向特定分类任务的特征表示。2)块级方法比其他体素级和区域级方法在结果上要好。表明块级的特征表示更能反应局部的脑萎缩形态特征。3)与DMIL 和HFCN两种先进的方法比较,本实施例都取得较好的实验结果。在相同的输入特征信息下,本实施例的能学得一个更优越的特征表示来识别MR影像中脑萎缩位置。
注意力模块的有效性验证:
根据是否包含注意力模块,本实施例的DA-MIDL模型可以分为四类:1)不包含任何注意力模块(N-MIL),2)只包含空间注意力模块(S-MIL),3)只包含注意力多示例池化(A-MIL)和4)包含双重注意力模块(DA-MIDL)。在重度脑萎缩和正常对照分类,进展性脑萎缩与稳定性脑萎缩分类上进行实验验证,结果显示在表3中。
表3
从结果上看,本实施例的空间注意力模块和注意力多示例池化,可以有效提升分类准确率。并且包含双重注意力模块的模型比只使用一种注意模块的模型性能要好。所以本实施例提出的注意力模块可以从MR图像中有效地捕捉辨识力高的特征。
并且本实施例也将提出的注意力多示例池化(Attention MIL Pooling)与常见的多示例池化(即平均多示例池化Average MIL Pooling和最大多示例池化Max MILPooling) 进行了比较。实验结果如图2,其纵坐标为分类性能。
本实施例提出的注意力多示例池化可以有效提升分类性能。同时弥补了平均多示例池化和最大多示例池化的缺点,不仅生成一个全局的特征表示,而且对不同辨识力的特征赋予不同的权重。
模型自身参数(图像块的大小和数量)的影响:
考虑了输入图像块的大小和数量对模型性能的影响,取图像块的大小范围从 15×15×15到35×35×35。图像块的数量范围{20,40,60,80,100,120},同样也在分类性能上进行比较。实验结果如图3,图4,最后处于性能和计算成本的考虑,本实施例选择64个大小为25×25×25的图像块作为模型的输入。
Claims (8)
1.一种基于双重注意力多示例深度学习的医学图像分类方法,其特征在于,该方法包括如下步骤:
步骤1:采集M个医学图像,判断每个医学图像是否存在与特定任务相关的特征,将存在相关特征的医学图像的原始标签设置为正,将不存在相关特征的医学图像的原始标签设置为负;
步骤2:将原始标签为正的医学图像以及原始标签为负的医学图像都均匀划分为r个立方体;该r个立方体尺寸均为W*W*W,将一个立方体作为一个图像块,基于原始标签为正的医学图像中所有图像块的体素特征和原始标签为负的医学图像中所有图像块的体素特征,在原始标签为正的医学图像中选择K个图像块,将该K个图像块所在的位置作为K个固定位置,提取M个医学图像中每个图像在K个固定位置上的图像块;
步骤3:将M个医学图像中的K个图像块作为多示例学习模型的输入,对多示例学习模型进行训练;
步骤4:计算每个医学图像的训练结果和该图像原始标签之间的交叉熵,建立基于交叉熵的损失函数,根据该损失函数判断训练后的多示例学习模型是否收敛,若是,则停止计算,得到训练好的多示例学习模型,否则根据损失函数计算得到的损失更新多示例学习模型的权重,并转步骤2;
步骤5:将新的医学图像输入至训练好的多示例学习模型中,判断该医学图像的类别。
2.根据权利要求1所述的一种基于双重注意力多示例深度学习的医学图像分类方法,其特征在于,所述步骤2具体为:选择一组原始标签为正的医学图像作为正类图像组,选择一组原始标签为负的医学图像作为负类图像组,且两组图像组中医学图像的个数相同;根据正类图像组中每个图像的第b个图像块对应的体素信息,计算得到正类图像组中第b个图像块的平均值,根据负类图像组中每个图像的第b个图像块对应的体素信息,计算得到负类图像组中第b个图像块的平均值,将该两个平均值作为一组图像块组,从而组成对应于第b个图像块所在位置的两个特征平均值向量,采用t检验比较该两个特征平均值向量的差异性,得到第b个t检验结果,其中b=1,2,…,r;对每一个t检验结果进行归一化计算,并将计算结果按照由小到大排列,选择前K个图像块组。
3.根据权利要求1所述的一种基于双重注意力多示例深度学习的医学图像分类方法,其特征在于,所述步骤3中多示例学习模型的训练过程为:
步骤3.1:从输入的第m个医学图像的第k个图像块中提取影响分数和局部块级别的特征,其中m=1,2,…,M,k=1,2…,K;
步骤3.2:根据提取的K个局部块级别的特征和K个影响分数,计算得到m个医学图像的全局特征;
步骤3.3:根据全局特征计算第m个医学图像的类别。
4.根据权利要求3所述的一种基于双重注意力多示例深度学习的医学图像分类方法,其特征在于,所述步骤3.1具体为:
步骤3.1.1:采用图像块级子网从输入的第m个医学图像的第k个图像块中提取特征F,F={F1,F2,…,FC},Fc表示第c个特征,c为特征的总个数;所述图像块级子网包括依次连接的第一3D卷积层,第一批量归一化模块,第一激活函数,第二3D卷积层,第二批量归一化模块,第二激活函数,最大池化层,第三3D卷积层,第三批量归一化模块,第三激活函数,第四3D卷积层,第四批量归一化模块以及第四激活函数;所述第一3D卷积层的卷积核为4*4*4,第二~四3D卷积层的卷积核均为3*3*3,所述最大池化层的大小为2*2*2;
步骤3.1.2:采用空间注意力模块提取F的局部块级别的特征;采用全局平均池化模块提取F的影响分数,所述全局平均池化模块包括依次连接的全连接层和第一sigmoid函数层。
5.根据权利要求4所述的一种基于双重注意力多示例深度学习的医学图像分类方法,其特征在于,所述步骤3.1.2中空间注意力提取F的局部块级别的特征具体为:
步骤A:采用通道最大池化层提取F的最大特征值Fmax:将F映射至第k个图像块的所有坐标位置中,得到F中的每个特征在坐标(ω,h,l)上的映射特征值并进行比较,从而得到该(ω,h,l)坐标上最大映射特征值其中ω=0,1,…,W,h=0,1,…,W,l=0,1,…,W,将所有的组合成最大特征值Fmax;
采用通道平均池化层提取F的平均特征值Faverage:将F映射至第k个图像块的所有坐标位置中,得到F中的每个特征在坐标(ω,h,l)上的映射特征值,并计算该(ω,h,l)坐标上所有特征值的平均值将所有的组合成平均特征值Faverage;
步骤B:采用第五3D卷积层连接Fmax和Faverage,并采用第二sigmoid函数层将连接结果限制在0到1范围内,从而得到空间注意力映射Aspatial;
步骤C:将F中每个特征与Aspatial逐元素相乘,得到局部块级别的特征Fattn。
6.根据权利要求3所述的一种基于双重注意力多示例深度学习的医学图像分类方法,其特征在于,所述步骤3.2具体为:将K个局部块级别的特征分别输入至K个通道方向的平均池化层,将该K个通道方向的平均池化层的输出结果进行组合得到全局特征Fglobal;
采用全局平均池化层提取Fglobal中全局平均特征向量,并依次采用第六3D卷积层和第七3D卷积层对全局平均特征向量进行计算,得到平均注意力权重映射Aaverage:
Aaverage=w1ReLU(w0GAP(Fglobal))
w0,w1分别是第六3D卷积层和第七3D卷积层的参数;ReLU(.)为ReLU激活函数,GAP(.)是全局平均池化函数,其中第六3D卷积层和第七3D卷积层的卷积核均为1*1*1;
采用全局最大池化层提取Fglobal中全局最大特征向量,并依次采用第六3D卷积层和第七3D卷积层对全局最大特征向量进行计算,得到全局最大注意力权重映射Amax:
Amax=w1ReLU(w0GMP(Fglobal))
其中,GMP(·)是全局最大池化函数;
将K个影响分数组合成一个向量a,将Aaverage,Amax以及向量a进行组合,得到综合性注意力权重映射,采用第三sigmoid函数层将综合性注意力权重映射限制在0到1范围内,再将Fglobal中的元素与第三sigmoid函数层的结果进行逐相相乘,得到不同加权的全局特征。
7.根据权利要求3所述的一种基于双重注意力多示例深度学习的医学图像分类方法,其特征在于,所述步骤3.3中采用注意力激活的全局分类器计算第m个医学图像的正负类别的概率,所述注意力激活的全局分类器包括依次连接的第八3D卷积层,第九3D卷积层,全局平均池化层,第一全连接层,第二全连接层和softmax激活函数。
8.根据权利要求1所述的一种基于双重注意力多示例深度学习的医学图像分类方法,其特征在于,所述步骤4中,采用Adam优化函数根据损失函数计算得到的损失更新多示例学习模型的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011294799.1A CN112529042B (zh) | 2020-11-18 | 2020-11-18 | 一种基于双重注意力多示例深度学习的医学图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011294799.1A CN112529042B (zh) | 2020-11-18 | 2020-11-18 | 一种基于双重注意力多示例深度学习的医学图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112529042A true CN112529042A (zh) | 2021-03-19 |
CN112529042B CN112529042B (zh) | 2024-04-05 |
Family
ID=74981219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011294799.1A Active CN112529042B (zh) | 2020-11-18 | 2020-11-18 | 一种基于双重注意力多示例深度学习的医学图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112529042B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221945A (zh) * | 2021-04-02 | 2021-08-06 | 浙江大学 | 基于口腔全景片和双重注意力模块的龋齿识别方法 |
CN113298091A (zh) * | 2021-05-25 | 2021-08-24 | 商汤集团有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN113902014A (zh) * | 2021-10-11 | 2022-01-07 | 电子科技大学长三角研究院(湖州) | 一种基于多示例学习的小样本乳腺癌细胞图像判别方法 |
CN114120433A (zh) * | 2021-11-30 | 2022-03-01 | 北京百度网讯科技有限公司 | 图像处理方法、图像处理装置、电子设备和介质 |
CN114399634A (zh) * | 2022-03-18 | 2022-04-26 | 之江实验室 | 基于弱监督学习的三维图像分类方法、系统、设备及介质 |
CN114565593A (zh) * | 2022-03-04 | 2022-05-31 | 杭州电子科技大学 | 基于半监督和注意力的全视野数字图像分类与检测方法 |
CN114882315A (zh) * | 2022-05-23 | 2022-08-09 | 北京百度网讯科技有限公司 | 样本生成方法、模型训练方法、装置、设备及介质 |
WO2023059920A1 (en) * | 2021-10-07 | 2023-04-13 | Genentech, Inc. | Biological context for analyzing whole slide images |
CN116485792A (zh) * | 2023-06-16 | 2023-07-25 | 中南大学 | 组织病理学亚型预测方法及成像方法 |
WO2023198224A1 (zh) * | 2022-04-13 | 2023-10-19 | 四川大学华西医院 | 一种精神障碍类磁共振图像初步筛查模型构建方法 |
CN116958128A (zh) * | 2023-09-18 | 2023-10-27 | 中南大学 | 基于深度学习的医学图像自动定位方法 |
CN117392468A (zh) * | 2023-12-11 | 2024-01-12 | 山东大学 | 基于多示例学习的癌症病理图像分类系统、介质及设备 |
CN118379278A (zh) * | 2024-06-19 | 2024-07-23 | 南京航空航天大学 | 一种基于结构磁共振影像和弱监督解耦特征学习的神经发育障碍风险分析系统 |
CN118379278B (zh) * | 2024-06-19 | 2024-10-25 | 南京航空航天大学 | 一种基于结构磁共振影像和弱监督解耦特征学习的神经发育障碍风险分析系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145170A (zh) * | 2019-12-31 | 2020-05-12 | 电子科技大学 | 一种基于深度学习的医学影像分割方法 |
CN111311592A (zh) * | 2020-03-13 | 2020-06-19 | 中南大学 | 一种基于深度学习的三维医学图像自动分割方法 |
-
2020
- 2020-11-18 CN CN202011294799.1A patent/CN112529042B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145170A (zh) * | 2019-12-31 | 2020-05-12 | 电子科技大学 | 一种基于深度学习的医学影像分割方法 |
CN111311592A (zh) * | 2020-03-13 | 2020-06-19 | 中南大学 | 一种基于深度学习的三维医学图像自动分割方法 |
Non-Patent Citations (1)
Title |
---|
MAXIMILIAN ILSE 等: "Attention-based Deep Multiple Instance Learning", PROCEEDINGS OF THE 35 TH INTERNATIONAL CONFERENCE ON MACHINE LEARNING, 31 December 2018 (2018-12-31) * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221945A (zh) * | 2021-04-02 | 2021-08-06 | 浙江大学 | 基于口腔全景片和双重注意力模块的龋齿识别方法 |
CN113298091A (zh) * | 2021-05-25 | 2021-08-24 | 商汤集团有限公司 | 图像处理方法及装置、电子设备和存储介质 |
WO2023059920A1 (en) * | 2021-10-07 | 2023-04-13 | Genentech, Inc. | Biological context for analyzing whole slide images |
CN113902014A (zh) * | 2021-10-11 | 2022-01-07 | 电子科技大学长三角研究院(湖州) | 一种基于多示例学习的小样本乳腺癌细胞图像判别方法 |
CN114120433A (zh) * | 2021-11-30 | 2022-03-01 | 北京百度网讯科技有限公司 | 图像处理方法、图像处理装置、电子设备和介质 |
CN114565593B (zh) * | 2022-03-04 | 2024-04-02 | 杭州电子科技大学 | 基于半监督和注意力的全视野数字图像分类与检测方法 |
CN114565593A (zh) * | 2022-03-04 | 2022-05-31 | 杭州电子科技大学 | 基于半监督和注意力的全视野数字图像分类与检测方法 |
CN114399634A (zh) * | 2022-03-18 | 2022-04-26 | 之江实验室 | 基于弱监督学习的三维图像分类方法、系统、设备及介质 |
CN114399634B (zh) * | 2022-03-18 | 2024-05-17 | 之江实验室 | 基于弱监督学习的三维图像分类方法、系统、设备及介质 |
WO2023198224A1 (zh) * | 2022-04-13 | 2023-10-19 | 四川大学华西医院 | 一种精神障碍类磁共振图像初步筛查模型构建方法 |
CN114882315A (zh) * | 2022-05-23 | 2022-08-09 | 北京百度网讯科技有限公司 | 样本生成方法、模型训练方法、装置、设备及介质 |
CN114882315B (zh) * | 2022-05-23 | 2023-09-01 | 北京百度网讯科技有限公司 | 样本生成方法、模型训练方法、装置、设备及介质 |
CN116485792B (zh) * | 2023-06-16 | 2023-09-15 | 中南大学 | 组织病理学亚型预测方法及成像方法 |
CN116485792A (zh) * | 2023-06-16 | 2023-07-25 | 中南大学 | 组织病理学亚型预测方法及成像方法 |
CN116958128B (zh) * | 2023-09-18 | 2023-12-26 | 中南大学 | 基于深度学习的医学图像自动定位方法 |
CN116958128A (zh) * | 2023-09-18 | 2023-10-27 | 中南大学 | 基于深度学习的医学图像自动定位方法 |
CN117392468A (zh) * | 2023-12-11 | 2024-01-12 | 山东大学 | 基于多示例学习的癌症病理图像分类系统、介质及设备 |
CN117392468B (zh) * | 2023-12-11 | 2024-02-13 | 山东大学 | 基于多示例学习的癌症病理图像分类系统、介质及设备 |
CN118379278A (zh) * | 2024-06-19 | 2024-07-23 | 南京航空航天大学 | 一种基于结构磁共振影像和弱监督解耦特征学习的神经发育障碍风险分析系统 |
CN118379278B (zh) * | 2024-06-19 | 2024-10-25 | 南京航空航天大学 | 一种基于结构磁共振影像和弱监督解耦特征学习的神经发育障碍风险分析系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112529042B (zh) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112529042A (zh) | 一种基于双重注意力多示例深度学习的医学图像分类方法 | |
CN107506761B (zh) | 基于显著性学习卷积神经网络的脑部图像分割方法及系统 | |
CN108364006B (zh) | 基于多模式深度学习的医学图像分类装置及其构建方法 | |
CN107886514B (zh) | 基于深度残差网络的乳腺钼靶图像肿块语义分割方法 | |
CN111191660B (zh) | 一种基于多通道协同胶囊网络的结肠癌病理学图像分类方法 | |
CN111429407B (zh) | 基于双通道分离网络的胸部x光疾病检测装置及方法 | |
CN113902761B (zh) | 基于知识蒸馏的肺部疾病病灶无监督分割方法 | |
CN113344864A (zh) | 一种基于深度学习的超声甲状腺结节良恶性预测方法 | |
CN106780453A (zh) | 一种基于深度信任网络实现对脑肿瘤分割的方法 | |
CN111524140B (zh) | 基于cnn和随机森林法的医学图像语义分割方法 | |
CN114332572B (zh) | 基于显著图引导分层密集特征融合网络用于提取乳腺病变超声图像多尺度融合特征参数方法 | |
CN112348059A (zh) | 基于深度学习的多种染色病理图像分类方法及系统 | |
CN107133626A (zh) | 一种基于部分平均随机优化模型的医学影像分类方法 | |
CN116226629A (zh) | 一种基于特征贡献的多模型特征选择方法及系统 | |
Ameen et al. | Explainable residual network for tuberculosis classification in the IoT era | |
CN117611599B (zh) | 融合中心线图和增强对比度网络的血管分割方法及其系统 | |
CN113902738A (zh) | 一种心脏mri分割方法及系统 | |
CN112861881A (zh) | 一种基于改进MobileNet模型的蜂窝肺识别方法 | |
CN117637035A (zh) | 一种基于图神经网络的多组学可信整合的分类模型及方法 | |
Li et al. | Deformable medical image registration based on unsupervised generative adversarial network integrating dual attention mechanisms | |
CN108846327B (zh) | 一种色素痣与黑素瘤的智能判别系统及方法 | |
CN106650629A (zh) | 一种基于核稀疏表示的快速遥感目标检测识别方法 | |
CN114862868B (zh) | 基于ct灌注源数据的脑卒中最终梗死区分割方法 | |
CN116188428A (zh) | 一种桥接多源域自适应的跨域组织病理学图像识别方法 | |
Yu et al. | 3D convolutional networks based automatic diagnosis of Alzheimer's disease using structural MRI |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |