CN115409812A - 一种基于融合时间注意机制的ct图像自动分类方法 - Google Patents

一种基于融合时间注意机制的ct图像自动分类方法 Download PDF

Info

Publication number
CN115409812A
CN115409812A CN202211067591.5A CN202211067591A CN115409812A CN 115409812 A CN115409812 A CN 115409812A CN 202211067591 A CN202211067591 A CN 202211067591A CN 115409812 A CN115409812 A CN 115409812A
Authority
CN
China
Prior art keywords
image
network
noise
attention mechanism
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211067591.5A
Other languages
English (en)
Inventor
薛梦凡
贾士绅
李焘
陈怡达
江浩东
宋怡然
郑建楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202211067591.5A priority Critical patent/CN115409812A/zh
Publication of CN115409812A publication Critical patent/CN115409812A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种基于融合时间注意机制的CT图像自动分类方法,首先构建基于时间注意机制的3D CNN分类网络,该网络利用时间注意力层自动学习到CT图像中的空间和时间信息,以更精确地进行分类嵌入的表示,提高分类准确度;随后构建一种噪声校正网络,该网络通过给真实标签加上一个参数未知的噪声信道,并利用神经网络学习噪声分布参数,可以有效识别出分类干扰噪声,从而缓解数据分布的多中心效应,在辅助提高网络分类精度的同时,使得模型具有更高的泛化性和鲁棒性,也具有更高的推广性。

Description

一种基于融合时间注意机制的CT图像自动分类方法
技术领域
本发明涉及医疗图像处理技术领域以及计算机视觉、深度学习等领域,更具体的,涉及一种基于CT图像的疾病分类方法。
背景技术
计算机断层扫描(CT)是放射科医生和影像学专家用来评估病变的一种重要的影像方式。在临床诊断实践中,医生和专家基于自己的医学知识和日常的诊断经验对给定的CT图像进行判读从而给出病变分析结果,然而诊断的准确性会受限于不同医生和专家的临床经验和知识水平之间的差异。并且对于大量CT图片的读取,需要医生投入大量的时间,高强度的工作可能使医生精神状态受到影响从而产生误判等情况。近年来,随着计算机技术的不断发展,人工智能技术在医疗领域的发展潜力已经不容忽视,特别是深度学习在计算机视觉方面取得了突破性进展,在图像分类,图像定位与检测,以及医疗图像分割等领域得到了大量的应用。但目前常用的医疗图像诊断方法大多是基于有监督学习的,其需要大量的有标签数据。但实际上在医疗领域,可能只有很少的有标记样本可供使用,这是因为获得带有完全病灶区域标注的数据需要专业医生大量的时间和精力,这使得获得具有完全病灶标注的医学图像代价极高。
目前也有学者使用未经病灶标注的数据集进行分类研究,但是,在很多研究中,由于慢性疾病CT图像中病变和其周边背景的高度相似性,使得很多非病变特征会被误判为病变,导致了分类模型的准确率低下。同时,大多数的模型仅在特定的数据集上具有不错的性能,一旦应用到不同的数据集,其性能往往不尽人意,即模型的泛化性能很差。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,提出了一种基于融合时间注意机制的3D CNN的CT图像自动分类方法。
为实现本发明的上述目的,本发明方法采用的技术方案包括以下步骤:
步骤S1:收集疑似患者相关的医疗影像信息,其中医疗影像信息包括CT图像,并建立CT图像和类别标签的关系;
步骤S2:对采集的原始CT图像进行预处理,得到处理后的数据集,并将预处理之后的CT图像数据集进行训练集和测试集的划分;
步骤S3:构建CT图像的分块输入,并搭建融合时间注意机制的3D CNN分类网络,具体步骤如下:
步骤S31:定义X=[x1,x2,...,xn]为具有n张切片的CT图像,其中xi表示一张2维CT切片。根据切片顺序将CT图像分成s份不相交的3D图像块,则每一个3D图像块视为包含相等数量的连续CT切片的集合,即
Figure BDA0003828487040000021
步骤S32:构建融合时间注意机制的3D CNN分类网络:
首先构建一个3D CNN的前向传播神经网络,将一般架构的全局平均池化层替换为时间注意力网络,这样利用时间注意力的时间池化作用,可以汇集CT扫描切片之间的相关性,并正确学习到CT图像包含的时间特征,有助于分类。同时该网络利用3D卷积实现对CT图像的识别,仅需知道整个CT图像的标签,而无需CT切片的标注。
步骤S33:将每一个3D图像块Si分别送入融合时间注意机制的3D CNN分类网络,得到每一个3D图像块的分类预测概率P(c|Si),其中c表示类别。联合所有3D图像块的预测概率,得到整个CT图像的预测值:
Figure BDA0003828487040000022
步骤S34:定义yc为对于类别c的真实标签,则分类损失计算为:
Figure BDA0003828487040000023
步骤S4:构建噪声校正网络,通过真实标签加上一个参数未知的噪声信道,利用神经网络学习噪声分布参数,提高模型识别和泛化性能;具体步骤如下:
步骤S41:在进行CT图像分类时,假设分类网络不能观察到每一张切片的正确标签y,而只能获得带有噪声的标签z,噪声标签和真实标签之间具有隐藏分布关系P(zc=i|yc=j,X);将该分布关系定义为噪声转换函数
Figure BDA0003828487040000024
首先计算
Figure BDA0003828487040000025
Figure BDA0003828487040000026
其中i,j∈{0,1}为标签值;
Figure BDA0003828487040000027
为非线性映射函数;
Figure BDA0003828487040000028
Figure BDA0003828487040000029
为可学习参数,
Figure BDA00038284870400000210
看成是对于类别c,真实标签i到噪声标签j之间的转换得分。
步骤S42:根据噪声转换函数计算噪声标签的估计概率:
Figure BDA0003828487040000031
步骤S43:根据每一张CT切片估计的噪声概率,计算整个CT图像的噪声分类损失:
Figure BDA0003828487040000032
步骤S5:计算最终损失:Ltotal=Lcls+λLnoisy,其中λ为损失平衡参数。
作为优选,其中,所述的CT影像为经过脱敏技术处理的脱敏数据。
作为优选,所述的分割算法为深度学习方法。
作为优选,所述的对采集的原始CT图像进行预处理,具体为:
步骤S21:给定一个独立数据集,并利用其预训练一个U-Net分割网络;
步骤S22:应用预训练的U-Net网络对每一例原始CT图像进行分割;CT图像由若干单通道CT切片组成,假定其中一张CT切片为Iori,应用分割算法时,首先得到分割掩膜Imask,随后利用分割掩膜提取出原始CT图像中相应区域,即掩膜所覆盖区域保持不变,其它区域填充为0,记分割后的图像为Iseg
步骤S23:将Iori和得到的Imask以及Iseg进行叠加组合,原始的单通道CT切片经转换变为三通道图像,所有CT切片均经此操作;
步骤S24:将CT图像重采样为统一规格,具体地:利用分割掩膜Imask计算掩膜区域中心,并以统一体积大小围绕区域中心对CT图像进行裁剪,最终每一幅CT图像大小统一为:h*w*n,其中h和w为切片的长和宽,n为切片的数量。
其中,所述的CT图像的类标签的获得方法包括:由临床经验丰富的医生根据病情诊断得到,以及根据患者其它医学检查指标判断等。
作为优选,在对CT图像进行分割和预处理之前,对所有的CT图像进行体素重采样以及进行窗口技术处理。
作为优选,预训练分割网络的数据集为带有具体分割部位标注的数据集。
作为优选,进行网络训练的数据集中数据仅包含患者级别标签,不知道具体病灶信息。
作为优选,其中,所述的时间注意机制为LSTM、Transformer、BERT中的一种。
作为优选,所述的3D CNN替换为ResNeXt、I3D、R(2+1)D网络中的一种。
本发明与现有技术相比较具有如下有益成果:
(1)本发明可以推广应用于各种根据医学CT图像进行的分类和识别任务,具有普适性。
(2)本发明提出一种单通道CT切片转换为三通道图像方法,不仅使处理后的图像适应于大多数网络的通道输入要求,还提高了处理后CT图像的类别信息丰富度,有利于后续的特征提取和图像分类。
(3)本发明使用的一种基于改进的3D CNN的深度学习分类方法,可以无需知道CT图像中切片的真实标签而进行网络训练,可以一定程度上缓解具有具体病灶信息标注的医学图像数据不足问题。
(4)本发明使用时间注意力网络替代原本3D网络中的全局平均池化层,可以学习到CT切片之间具有的时间分布特征,使得获取得到分类特征具有更高的区分度,从而更好地促进分类器朝着正确的决策方向移动,提高了分类的正确性。
(5)本发明构建的噪声校正网络可以很大程度上把病变相关的信息增强凸显,而把非病变相关的干扰特征进行淡化过滤,这样一定程度上减少了假阳性样本的数目,同时通过该噪声校正网络,可以使网络对不同数据集内的CT图像识别差异最小化,有利于缓解多中心效应问题,从而提高模型的准确性和泛化性。
附图说明
图1为本发明的一种稳健的基于BERT的3D CNN的CT图像分类方法的整体流程图
图2为本发明的一种稳健的基于BERT的3D CNN的CT图像分类方法的结构示意图
图3为本发明的基于BERT的3D CNN分类网络的结构示意图
图4为本发明的噪声校正网络的结构示意图
具体实施方式
下面结合具体实例和附图对本发明做进一步的详细说明。
如图1、图2所示,本实例针对胸部CT图像进行COPD患者和非COPD患者的分类研究,收集共计1060例来自两家不同的大型公立医院的患者医疗影像数据,其中COPD样本557例,非COPD样本503例。所有影像数据仅知晓患者的类别,无具体病灶信息标注。利用所提出的一种基于融合时间注意机制的3D CNN的CT图像自动分类方法进行慢阻肺CT图像的分类研究,包括以下步骤:
步骤S1:读取所有受试者相关的CT图像信息和肺功能测试报告信息,根据测试报告为每个受试者生成患者级别标签,并建立CT图像和类别标签的关系。
步骤S2:对采集的原始CT图像进行预处理,得到处理后的数据集,并将预处理之后得到的CT图像数据集根据10倍交叉验证法进行训练集和测试集的划分,具体步骤如下:
步骤S21:从Kaggle和CNBC数据集中选定若干全标注数据,并组合成一个独立的数据集,利用其预训练一个基于U-Net的肺部分割网络;
步骤S22:应用预训练的U-Net分割网络对每一例原始CT图像进行分割。CT图像由若干单通道CT切片组成,假定其中一张CT切片为Iori,应用分割算法时,首先可以得到肺部分割掩膜Imask,随后利用肺部分割掩膜提取出原始CT图像中相应的肺部区域,即掩膜所覆盖的肺部区域保持不变,其它区域填充为0,记分割后的图像为Iseg
步骤S23:将Iori和得到的Imask以及Iseg进行叠加组合,原始的单通道CT切片经转换变为三通道图像,所有CT切片均经此操作;
步骤S24:将CT图像重采样为统一规格,具体地:利用分割掩膜Imask计算肺部掩膜的区域中心,并以统一体积大小围绕肺部区域中心对CT图像进行裁剪,最终每一幅CT图像大小统一为:h*w*n,其中h和w为切片的长和宽,n为切片的数量,本实施例中,最终每一幅CT图像大小为288*320*448。
步骤S3:如图3所示,构建CT图像的分块输入,并搭建基于BERT的3D CNN分类网络,具体步骤如下:
步骤S31:定义X=[x1,x2,...,xn]为具有n张切片的CT图像,其中xi表示一张2维CT切片。根据切片顺序将CT图像分成s份不相交的3D图像块,则每一个3D图像块可以视为包含相等数量的连续CT切片的集合,即
Figure BDA0003828487040000051
本实施例中,s=16,则每个3D图像块包含28张连续CT切片;
步骤S32:构建基于BERT的3D CNN分类网络。首先构建一个3D CNN的前向传播神经网络,不同的是,我们将一般架构的全局平均池化层替换为时间注意机制BERT,这样利用BERT的时间池化作用,可以汇集CT扫描切片之间的相关性,并正确学习到CT图像包含的时间特征,有助于分类。同时该网络利用3D卷积实现对CT图像的识别,仅需知道整个CT图像的标签,而无需CT切片的标注。
步骤S33:将每一个3D图像块Si分别送入基于BERT的3D CNN分类网络,得到每一个3D图像块的分类预测概率P(c|Si),其中c表示类别,本实施例中c∈{0,1},c=0表示非COPD患者,c=1表示COPD患者。随后联合所有3D图像块的预测概率,则可以得到整个CT图像的预测值:
Figure BDA0003828487040000052
步骤S34:定义yc为患者对于类别c的真实标签,则分类损失可以计算为:
Figure BDA0003828487040000061
步骤S4:如图4所示,构建噪声校正网络,通过真实标签加上一个参数未知的噪声信道,利用神经网络学习噪声分布参数,提高模型识别和泛化性能。具体步骤如下:
步骤S41:在进行CT图像分类时,假设分类网络不能观察到每一张切片的正确标签y,而只能获得带有噪声的标签z,噪声标签和真实标签之间具有隐藏分布关系P(zc=i|yc=j,X);将该分布关系定义为噪声转换函数
Figure BDA0003828487040000062
首先计算
Figure BDA0003828487040000063
Figure BDA0003828487040000064
其中i,j∈{0,1}为标签值;
Figure BDA0003828487040000065
为非线性映射函数;
Figure BDA0003828487040000066
Figure BDA0003828487040000067
为可学习参数,
Figure BDA0003828487040000068
可以看成是对于类别c,真实标签i到噪声标签j之间的转换得分。
步骤S42:根据噪声转换函数计算噪声标签的估计概率:
Figure BDA0003828487040000069
步骤S43:根据每一张CT切片估计的噪声概率,计算整个CT图像的噪声分类损失:
Figure BDA00038284870400000610
步骤S5:计算最终损失:Ltotal=Lcls+λLnoisy,其中λ为损失平衡参数,本实施例中λ=0.0001。
上述实施例仅为本申请的示例性优选实施例,不用于限制本申请,本申请的保护范围由权利要求书限定。本领域技术人员可以在本申请的实质和保护范围内,对本申请做出各种修改或等同替换,这种修改或等同替换也应视为落在本申请的保护范围内。
本发明说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。

Claims (9)

1.一种基于融合时间注意机制的CT图像自动分类方法,其特征在于,该方法具体包括以下步骤:
步骤S1:收集疑似患者相关的医疗影像信息,其中医疗影像信息包括CT图像,并建立CT图像和类别标签的关系;
步骤S2:对采集的原始CT图像进行预处理,得到处理后的数据集,并将预处理之后的CT图像数据集进行训练集和测试集的划分;
步骤S3:构建CT图像的分块输入,并搭建融合时间注意机制的3D CNN分类网络,具体步骤如下:
步骤S31:定义X=[x1,x2,...,xn]为具有n张切片的CT图像,其中xi表示一张2维CT切片;根据切片顺序将CT图像分成s份不相交的3D图像块,则每一个3D图像块视为包含相等数量的连续CT切片的集合,即
Figure FDA0003828487030000013
步骤S32:构建融合时间注意机制的3D CNN分类网络:
首先构建一个3D CNN的前向传播神经网络,然后将一般架构的全局平均池化层替换为时间注意力网络;
步骤S33:将每一个3D图像块Si分别送入融合时间注意机制的3D CNN分类网络,得到每一个3D图像块的分类预测概率P(c|Si),其中c表示类别;联合所有3D图像块的预测概率,得到整个CT图像的预测值:
Figure FDA0003828487030000011
步骤S34:定义yc为对于类别c的真实标签,则分类损失计算为:
Figure FDA0003828487030000012
步骤S4:构建噪声校正网络,通过真实标签加上一个参数未知的噪声信道,利用神经网络学习噪声分布参数,提高模型识别和泛化性能;具体步骤如下:
步骤S41:在进行CT图像分类时,假设分类网络不能观察到每一张切片的正确标签y,而只能获得带有噪声的标签z,噪声标签和真实标签之间具有隐藏分布关系P(zc=i|yc=j,X);将该分布关系定义为噪声转换函数
Figure FDA0003828487030000021
首先计算
Figure FDA0003828487030000022
Figure FDA0003828487030000023
其中i,j∈{0,1}为标签值;
Figure FDA0003828487030000024
为非线性映射函数;
Figure FDA0003828487030000025
Figure FDA0003828487030000026
为可学习参数,
Figure FDA0003828487030000027
看成是对于类别c,真实标签i到噪声标签j之间的转换得分;
步骤S42:根据噪声转换函数计算噪声标签的估计概率:
Figure FDA0003828487030000028
步骤S43:根据每一张CT切片估计的噪声概率,计算整个CT图像的噪声分类损失:
Figure FDA0003828487030000029
步骤S5:计算最终损失:Ltotal=Lcls+λLnoisy,其中λ为损失平衡参数。
2.根据权利要求1所述的一种基于融合时间注意机制的CT图像自动分类方法,其特征在于:其中,所述的CT影像为经过脱敏技术处理的脱敏数据。
3.根据权利要求1所述的一种基于融合时间注意机制的CT图像自动分类方法,其特征在于:所述的分割算法为深度学习方法。
4.根据权利要求1所述的一种基于融合时间注意机制的CT图像自动分类方法,其特征在于:所述的对采集的原始CT图像进行预处理,具体为:
步骤S21:给定一个独立数据集,并利用其预训练一个U-Net分割网络;
步骤S22:应用预训练的U-Net网络对每一例原始CT图像进行分割;CT图像由若干单通道CT切片组成,假定其中一张CT切片为Iori,应用分割算法时,首先得到分割掩膜Imask,随后利用分割掩膜提取出原始CT图像中相应区域,即掩膜所覆盖区域保持不变,其它区域填充为0,记分割后的图像为Iseg
步骤S23:将Iori和得到的Imask以及Iseg进行叠加组合,原始的单通道CT切片经转换变为三通道图像,所有CT切片均经此操作;
步骤S24:将CT图像重采样为统一规格,具体地:利用分割掩膜Imask计算掩膜区域中心,并以统一体积大小围绕区域中心对CT图像进行裁剪,最终每一幅CT图像大小统一为:h*w*n,其中h和w为切片的长和宽,n为切片的数量。
5.根据权利要求1所述的一种基于融合时间注意机制的CT图像自动分类方法,其特征在于:在对CT图像进行分割和预处理之前,对所有的CT图像进行体素重采样以及进行窗口技术处理。
6.根据权利要求1所述的一种基于融合时间注意机制的CT图像自动分类方法,其特征在于:预训练分割网络的数据集为带有具体分割部位标注的数据集。
7.根据权利要求1所述的一种基于融合时间注意机制的CT图像自动分类方法,其特征在于:进行网络训练的数据集中数据仅包含患者级别标签,不知道具体病灶信息。
8.根据权利要求1所述的一种基于融合时间注意机制的CT图像自动分类方法,其特征在于:其中,所述的时间注意机制为LSTM、Transformer、BERT中的一种。
9.根据权利要求1所述的一种基于融合时间注意机制的CT图像自动分类方法,其特征在于:所述的3D CNN替换为ResNeXt、I3D、R(2+1)D网络中的一种。
CN202211067591.5A 2022-09-01 2022-09-01 一种基于融合时间注意机制的ct图像自动分类方法 Pending CN115409812A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211067591.5A CN115409812A (zh) 2022-09-01 2022-09-01 一种基于融合时间注意机制的ct图像自动分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211067591.5A CN115409812A (zh) 2022-09-01 2022-09-01 一种基于融合时间注意机制的ct图像自动分类方法

Publications (1)

Publication Number Publication Date
CN115409812A true CN115409812A (zh) 2022-11-29

Family

ID=84164046

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211067591.5A Pending CN115409812A (zh) 2022-09-01 2022-09-01 一种基于融合时间注意机制的ct图像自动分类方法

Country Status (1)

Country Link
CN (1) CN115409812A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117496280A (zh) * 2024-01-03 2024-02-02 安徽大学 基于3d卷积和多标签解码的颅脑ct影像质量控制方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117496280A (zh) * 2024-01-03 2024-02-02 安徽大学 基于3d卷积和多标签解码的颅脑ct影像质量控制方法
CN117496280B (zh) * 2024-01-03 2024-04-02 安徽大学 基于3d卷积和多标签解码的颅脑ct影像质量控制方法

Similar Documents

Publication Publication Date Title
CN109523521B (zh) 基于多切片ct图像的肺结节分类和病灶定位方法和系统
CN111179227B (zh) 基于辅助诊断和主观美学的乳腺超声图像质量评价方法
CN106682435B (zh) 一种多模型融合自动检测医学图像中病变的系统及方法
US7529394B2 (en) CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system
CN111553892B (zh) 基于深度学习的肺结节分割计算方法、装置及系统
CN113420826B (zh) 一种肝脏病灶图像处理系统及图像处理方法
CN114782307A (zh) 基于深度学习的增强ct影像直肠癌分期辅助诊断系统
CN114565572A (zh) 一种基于图像序列分析的脑出血ct图像分类方法
CN112508884A (zh) 一种癌变区域综合检测装置及方法
Kaliyugarasan et al. Pulmonary nodule classification in lung cancer from 3D thoracic CT scans using fastai and MONAI
CN115205306A (zh) 一种基于图卷积的医疗图像分割方法
CN115409812A (zh) 一种基于融合时间注意机制的ct图像自动分类方法
CN112200810B (zh) 多模态的自动化脑室分割系统及其使用方法
CN112508943A (zh) 基于超声影像的乳腺肿瘤识别方法
CN112002407A (zh) 一种基于超声视频的乳腺癌诊断装置及其方法
CN116664911A (zh) 一种基于可解释深度学习的乳腺肿瘤图像分类方法
CN115471512A (zh) 一种基于自监督对比学习的医学影像分割方法
CN114972266A (zh) 基于自注意机制和稳定学习的淋巴瘤超声图像语义分割方法
CN112967295A (zh) 一种基于残差网络和注意力机制的图像处理方法及系统
CN114757894A (zh) 一种骨肿瘤病灶分析系统
CN113902738A (zh) 一种心脏mri分割方法及系统
Nalla et al. Influence of Convolutional Neural Network Depth on the Efficacy of Automated Breast Cancer Screening Systems
Sankaran An improved multipath residual CNN-based classification approach for periapical disease prediction and diagnosis in dental radiography
CN117636099B (zh) 一种医学图像和医学报告配对训练模型
Ara et al. Novel approach of brain tumor segmentation using convolutional neural network hybridized with water cycle algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination