CN116092643A - 一种基于医疗影像的交互式半自动标注方法 - Google Patents
一种基于医疗影像的交互式半自动标注方法 Download PDFInfo
- Publication number
- CN116092643A CN116092643A CN202111304854.5A CN202111304854A CN116092643A CN 116092643 A CN116092643 A CN 116092643A CN 202111304854 A CN202111304854 A CN 202111304854A CN 116092643 A CN116092643 A CN 116092643A
- Authority
- CN
- China
- Prior art keywords
- data
- model
- interactive
- training
- medical image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于医疗影像的交互式半自动标注方法,其中,包括:步骤1.收集带病灶的医疗影像数据,将医疗影像数据分成不同病灶类别;步骤2.对不同的病灶类别选择训练不同的Deep grabcut算法预训练模型;步骤3.将不同病灶类别的医疗影像数据,标注感兴趣区边界框,使用步骤2中训练的预训练模型进行标注;步骤4.将标注后的医疗影像数据进行数据增强;步骤5.对一增强后的数据和网络参数,进行交互式模型训练,训练后进行模型验证,当交互式模型的Dice大于一阈值之后,进行步骤6;步骤6.选择影像分割网络对辅助标注后的图像进行训练,保存验证集最好的影像分割网络训练模型和最后一次的影像分割网络训练模型,评估模型效果,确定是否能够初步进入实用阶段。
Description
技术领域
本发明专利涉及医疗影像处理领域,尤其涉及一种医疗影像的交互式半自动标注方法。
背景技术
医学影像是指以非侵入方式取得内部组织影像的技术与处理过程。其包括X成像技术、核磁共振成像技术、超声成像技术、核医学成像技术等。在目前的影像医疗诊断中,利用计算机图像处理技术对二维切片图像进行分析和处理,实现对人体器官、软组织和病变体的分割提取、三维重建和三维显示,辅助医生对病变体及其它感兴趣的区域进行定性甚至定量的分析,从而大大提高医疗诊断的准确性和可靠性;在医疗教学、手术规划、手术仿真及各种医学研究中也能起重要的辅助作用。目前,医学图像处理主要集中表现在病变检测、图像分割、图像配准及图像融合四个方面。其中图像分割技术对医疗影像的定量定性分析起到十分关键的作用,然而分割技术需要依赖大量优质的标注数据,往往是一个费时耗力的过程,如图1所示为乳腺钙化病灶手工标注图例,标注单张时间可以高达3分钟左右,同时由于病灶过小,导致错标和漏标也会经常出现。
医学影像的标注问题一直都是一个亟需解决的问题,其中机器学习起到了很大的推动作用,机器学习作为一种特征学习和表征的技术,能够准确的学习图像中各种层级的信息,从而准确找出所需要的信息。其中深度学习(DL)是最新的机器学习技术,DL技术有潜力将人工智能诊断的性能提升到远超传统机器学习方法的水平。在医学领域,使用深度学习的人工智能诊断应用最常见的领域包括疾病和正常模式的分类,恶性和良性病变的分类,以及预测未来癌症发生的风险模式。还包括器官和不同类型肿瘤的分割和分类,肿瘤大小或结构变化的分类,以评估治疗反应或预测预后或复发。然而,基于DL的人工智能技术要得到发展离不开用于深度学习的大规模、多种类和真实准确数据集。随着医疗水平及影像技术的不断发展,影像数据得到了大幅度的增长。医疗影像数据具有大规模、高增速、多种类、高价值和真实准确五大特点,如果将这些数据合理应用于临床及科研,可以为医疗事业带来质的飞跃。为了有效利用DL技术开发实用的人工智能工具,最紧迫的是建立一个可以不断学习医生经验的交互式半自动标注平台。如果可以在人工智能的帮助下完成标注工作,将大大提高标注的效率。经过深度学习后计算机视觉可以高效率、高敏感地对病灶边界进行标注,人工视觉可以对计算机视觉标注的结果再一次纠正,将计算机视觉和人工视觉结合后,可以提高标注的效率和精确度。
发明内容
本发明的目的在于提供一种医疗影像的交互式半自动标注方法,用于提高医学影像的标注时间效率。
本发明一种基于医疗影像的交互式半自动标注方法,其中,包括:步骤1.收集带病灶的医疗影像数据,将医疗影像数据分成不同病灶类别;步骤2.对不同的病灶类别选择训练不同的Deep grabcut算法预训练模型;步骤3.将不同病灶类别的医疗影像数据,标注感兴趣区边界框,使用步骤2中训练的预训练模型进行标注;步骤4.将标注后的医疗影像数据进行数据增强;步骤5.对选择的增强后的数据和网络参数,进行交互式模型训练,训练后进行交互式模型验证,并保存通过验证的交互式模型,使用评价指标Dice评价训练好的交互式模型,未通过评价,则使用交互式模型对新收集的单一病灶医疗影像数据进行标注,预测出图像中病灶可能的感兴趣区边界角点;选择进行交互式模型训练的增强后的数据和网络参数,重新执行步骤5,经过多次迭代的,当交互式模型的Dice大于一阈值之后,进行步骤6;步骤6.选择影像分割网络对辅助标注后的图像进行训练,保存验证集最好的影像分割网络训练模型和最后一次的影像分割网络训练模型,评估模型效果,确定是否能够初步进入实用阶段。
根据本发明所述的基于医疗影像的交互式半自动标注方法的一实施例,其中,
带病灶的医疗影像数据中对单一病灶选择出常见的影像30-50例,其中带病灶的数据是典型性病灶。
根据本发明所述的基于医疗影像的交互式半自动标注方法的一实施例,其中,
步骤2使用公开数据集进行预训练,公开数据包括:乳腺病灶数据DDSM以及肺结节数据LUNA16。
根据本发明所述的基于医疗影像的交互式半自动标注方法的一实施例,其中,步骤3中,对于标注错误或者漏标的数据返回重新标注,直到标注完全部的数据。根据本发明所述的基于医疗影像的交互式半自动标注方法的一实施例,其中,
步骤5使用Hrnet和Ocrnet算法进行辅助标注,其中Hrnet作为数据的编码部分,Ocrnet作为数据的解码部分,以定位病灶的边界。
根据本发明所述的基于医疗影像的交互式半自动标注方法的一实施例,其中,
数据增强包括:随机擦除、随机遮挡Cutout、随机隐藏补丁Hide and Seek、网格遮挡Grid Mask、混合增强MixUp、混合遮挡CutMix、马赛克增强以及几何畸变与光照畸变。
根据本发明所述的基于医疗影像的交互式半自动标注方法的一实施例,其中,阈值为0.8。
本发明的有益效果:采用基于医疗影像的交互式半自动标注方法,可以在加快医疗影像病灶数据的标注过程,经过不断迭代和优化,最后获得相对精准的数据模型;本发明也可以在不同的医生,不同地区之间进行标注,不受限制,最后可以共同获得一个精标数据和能够满足临床需求的智能诊断平台;本发明也可同时标注多个类型病灶,辅助医生更快进行科研项目研究。图1所示为乳腺钙化病灶手工标注图例,标注单张时间可以平均高达3分钟左右,经过本发明的交互式标注方法,平均一张时间可以减少到30秒之内,并且随着模型不断迭代,很多图像均不用手动修改即可生成可用标注数据。
附图说明
图1乳腺钙化病灶手工标注图例。
图2基于医疗影像的交互式半自动标注方法流程图。
图3基于无监督交互式算法Deep Grabcut标注流程图。
图4基于交互式算法Hrnet+Ocrnet标注流程图。
图5根据病灶类型训练模型和应用。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
一种基于医疗影像的交互式半自动标注方法包括数据收集、无监督交互式标注、半自动交互式模型训练、模型评估和根据病灶类型训练不同模型部分。为了验证方法的有效性,本发明首先需要收集常见单一病灶医疗影像数据,其中收集的影像需要是单一病灶,比如:乳腺钙化,乳腺肿块,胸部肺炎等,单一病灶中也需要收集较为常见的病灶,以便早期训练的模型能够辅助医生解决大部分遇到的问题,从而达到减少标注影像数据的目的。
然后将收集的常见单一病灶数据进行标注,标注方法使用的是无监督交互式算法:Deep Grabcut,该算法能够使用预训练模型对医生标注的感兴趣区边界框进行分割,从而得到病灶的边界,该方法比传统勾画病灶边界的方法,速度更快,效果更好,可以减少勾画过程中带的误差,有更好的准确性和一致性。
图像分割任务的两大关键是:分辨率和上下文。因为它是一个密集像素预测任务,因此空间分辨率很重要。其次像素本身不具备语义,它的语义由其图像整体或目标区域决定,因此它对上下文高度依赖。因此在使用Deep Grabcut方法获得一定量已标注数据后,将数据输入到半自动交互式深度学习网络:Hrnet+Ocrnet,其中Hrnet是通过并行连接高分辨率到低分辨率卷积来保持高分辨率表示,并通过重复跨并行卷积执行多尺度融合来增强高分辨率表示。在像素级分类、区域级分类和图像级分类中均有较为良好的表现。
Ocrnet方法的主要思想是显式地把像素分类问题转化成物体区域分类问题,该方法会计算网络最深层输出的像素特征表示与计算得到的物体区域特征表示之间的关系矩阵,然后根据每个像素和物体区域特征表示在关系矩阵中的数值把物体区域特征加权求和,得到最后的物体上下文特征表示Ocr(Object Contextual Representation)。当把物体上下文特征表示Ocr与网络最深层输入的特征表示拼接之后作为上下文信息增强的特征表示,可以基于增强后的特征表示预测每个像素的语义类别,Ocr可计算一组物体区域的特征表达,然后根据物体区域特征表示与像素特征表示之间的相似度将这些物体区域特征表示传播给每一个像素。Hrnet+Ocrnet模型结构能够更好的将交互点击信息传入到深层的特征中,并且保留分割结果的细节信息,从而使模型对交互信息的反应更精确、更灵活。
经过Hrnet+Ocrnet模型训练,会自动生成病灶区域,辅助新的影像进行病灶标注。如果标注新影像自动标注存在问题,将进行人为修正,并收集该标注结果,当收集修改后标注结果达到一定数量之后,模型会继续训练新的Hrnet+Ocrnet模型,与此同时,对于已经标注好的数据也需要进行重新预测和检查,以便减少人为误差和漏标。经过多次迭代,模型输出的结果在常见病例中有较好的结果。
为了适应临床使用,本发明的最后一步是将标注好的数据输入到更适合当前病灶的医学图像分割模型,模型选择有nnunet,M-Unet,Attention Unet,HighResNet,Transformer net等,这些模型可适用不同的病灶类型,然后对结果进行评估和应用。
如图2所示,为本发明的完整方案,一共分为三个部分,第一部分是基于无监督交互式算法Deep Grabcut的标注,该方法是基于预训练模型的一种无监督算法,可以辅助医生进行标注,该方法能够在医生勾画的感兴趣区域内自动寻找较为清晰的边界,从而提高标注的一致性和准确性,通过第一部分标注好的数据,然后输入到第二部分进行半自动化标注,使用的方法是基于Hrnet+Ocrnet模型,对新的数据进行自动标注,生成可修改的角点,减少医生标注所需时间,然后新标注的数据重新经过模型训练,第二部分经过多次迭代之后,对模型进行评估,如果Dice>0.8,则将数据输入到第三部分,然后选择更适合当前病灶的模型和参数进行训练和评估。本发明接下来将对具体细节进行展开说明。
如图3所示:为本发明的第一部分,首先本发明需要收集单一病灶的常见医疗影像数据,这其中的主要原因是常见的病灶往往能够解决绝大部分的问题,对于算法模型,也能更好的学习这类数据,在后期减少这类数据的标注,从而达到减少标注时间的目的。单一病灶的原因是,控制单一变量的方法,以便算法模型达到更好的效果。
步骤1:首先需要收集带病灶的医疗影像数据,然后人为将数据分成不同病灶类别,如乳腺疾病中包括乳腺钙化、乳腺肿块、乳腺结构扭曲等。对单一病灶选择出常见的影像30-50例,其中带病灶的数据需要是典型性的常见病灶,以便后面使用深度学习的时候在这类数据上有更高的准确性。
步骤2:使用公开数据集进行预训练。目前医疗影像公开数据已经非常丰富,比如:乳腺病灶数据DDSM、肺结节数据LUNA16,针对不同的病灶本发明可以选择训练不同的预训练模型,本发明的测试数据是乳腺病灶数据DDSM,选择的模型参数是训练次数epoch=200,批量处理Batchsize(一次迭代使用的样本数)=4,学习率=0.0001,冲量=0.9,输入图像大小是1024*768。Deep grabcut算法经过训练之后得到可用于乳腺病灶的辅助标注模型。
步骤3:将步骤1中30-50例的数据使用Deep grabcut算法模型进行标注,医生标注的时候,只需要标注出对应病灶的外框即可,算法可以自动生成感兴趣区的边界角点。对于标注错误的也可以手动修改角点,标注好之后就可以保存数据,然后交给高年资医生进行审核,审核通过就可以保存之后进行训练。同样标注错误或者漏标的数据也可以返回重新标注,直到标注完全部的数据。
第一部分是为了第二部分进行数据准备,如图4所示,为本发明的第二部分,大部分的数据标注工作将在这一步完成,使用的算法是Hrnet和Ocrnet,其中Hrnet作为数据的编码部分,Ocrnet作为数据的解码部分,这种编码解码结构对于医疗影像是非常合适的,能够有效定位病灶的边界。其步骤如下:
步骤1:由于数据只有30-50例子,首先将第一步标注的数据进行数据增强,增强的方式有随机擦除,随机遮挡Cutout,随机隐藏补丁Hide and Seek,网格遮挡Grid Mask,混合增强MixUp,混合遮挡CutMix,马赛克增强,几何畸变与光照畸变。在数据量较少的情况下,本发明前期的Hrnet+Ocrnet的网络模型参数为输入图像大小512*1024,优化器Adam,学习率=0.01,冲量=0.9,训练次数epoch=400,Batchsize=16,初始模型的通道数是18,还可以选择32和48作为初步的通道数,通道数越大训练时间越长,训练越容易过拟合,因此首先选择通道数为18。
步骤2:准备好的数据和网络参数,进行交互式模型训练,并保存在验证集上最好的模型,然后使用评价指标Dice评价训练好的模型,当Dice<=0.8,使用模型对未标注的新数据进行辅助标注,模型预测出图像中病灶可能的感兴趣区边界角点。
步骤3:生成的角点可以修改,医生根据经验对标注错误和漏标进行修改,然后由高年资的医生进行审核,审核通过即可保存数据,未通过的进行重新标注。生成新的数据又可以重新训练模型,这里初始通道有三个选择,可以是18,32和48,其中数据量大之后就可以选择通道数高的,以便增强模型的表达力。
步骤4:重新加入新的数据重复步骤2和3,经过多次迭代,模型的准确率会随着数据的增加,学到了更多的图像特征。当交互式模型的Dice>0.8之后,进入第三部分。
如图5所示,为本发明的第三部分,不同的病灶发病原因不同,不能使用一个统一的医学影像算法模型进行分割,需要根据实际情况进行选择和优化。为了能够有效将研发的成果应用到实际工作中,本发明可以使用医学影像算法模型选择有nnunet,M-Unet,Attention Unet,HighResNet,Transformer net等,这些模型并不能覆盖所有的场景,因此也可以将训练好的数据导出,然后设计更合适的模型。本发明在这介绍基于乳腺钙化影像的模型设计,步骤如下:
步骤1:选择的影像分割模型是nnunet,首先进行参数设计,参数为五折交叉验证,训练次数epoch=50。
步骤2:训练模型,训练过程中,保存验证集最好的模型和训练最后一次的模型,然后评估模型效果,然后使用新数据测试在两个模型上测试,再由高年资的医生评估该模型是否能够初步进入实用阶段,如果可以则进入步骤3,如果不行则继续标注数据。
步骤3:由于本发明在生成最后模型的过程中,所标注的数据局限性是存在的,导致模型泛化性存在一定缺陷,因此在使用的过程中也需要对表现不好的数据进行收集,然后重新执行第二部分和第三部分。同时随着发展本发明的算法也可以进行改进,医疗仪器的发展也可以进行不断的迭代更新。
本发明不仅可以辅助医生进行项目研发,也能在后期投入到使用的过程中,不断进行算法和模型迭代,从而提升医院的诊断效率和效果,生成的模型也能加入到其他的软件中,辅助医生进行病灶定位和量化。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (7)
1.一种基于医疗影像的交互式半自动标注方法,其特征在于,
步骤1.收集带病灶的医疗影像数据,将医疗影像数据分成不同病灶类别;
步骤2.对不同的病灶类别选择训练不同的Deep grabcut算法预训练模型;
步骤3.将不同病灶类别的医疗影像数据,标注感兴趣区边界框,使用步骤2中训练的预训练模型进行标注;
步骤4.将标注后的医疗影像数据进行数据增强;
步骤5.对选择的增强后的数据和网络参数,进行交互式模型训练,训练后进行交互式模型验证,并保存通过验证的交互式模型,使用评价指标Dice评价训练好的交互式模型,未通过评价,则使用交互式模型对新收集的单一病灶医疗影像数据进行标注,预测出图像中病灶可能的感兴趣区边界角点;
选择进行交互式模型训练的增强后的数据和网络参数,重新执行步骤5,经过多次迭代的,当交互式模型的Dice大于一阈值之后,进行步骤6;
步骤6.选择影像分割网络对辅助标注后的图像进行训练,保存验证集最好的影像分割网络训练模型和最后一次的影像分割网络训练模型,评估模型效果,确定是否能够初步进入实用阶段。
2.如权利要求1所述的基于医疗影像的交互式半自动标注方法,其特征在于,带病灶的医疗影像数据中对单一病灶选择出常见的影像30-50例,其中带病灶的数据是典型性病灶。
3.如权利要求1所述的基于医疗影像的交互式半自动标注方法,其特征在于,步骤2使用公开数据集进行预训练,公开数据包括:乳腺病灶数据DDSM以及肺结节数据LUNA16。
4.如权利要求1所述的基于医疗影像的交互式半自动标注方法,其特征在于,步骤3中,对于标注错误或者漏标的数据返回重新标注,直到标注完全部的数据。
5.如权利要求1所述的基于医疗影像的交互式半自动标注方法,其特征在于,步骤5使用Hrnet和Ocrnet算法进行辅助标注,其中Hrnet作为数据的编码部分,Ocrnet作为数据的解码部分,以定位病灶的边界。
6.如权利要求1所述的基于医疗影像的交互式半自动标注方法,其特征在于,数据增强包括:随机擦除、随机遮挡Cutout、随机隐藏补丁Hide and Seek、网格遮挡Grid Mask、混合增强MixUp、混合遮挡CutMix、马赛克增强以及几何畸变与光照畸变。
7.如权利要求1所述的基于医疗影像的交互式半自动标注方法,其特征在于,阈值为0.8。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111304854.5A CN116092643A (zh) | 2021-11-05 | 2021-11-05 | 一种基于医疗影像的交互式半自动标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111304854.5A CN116092643A (zh) | 2021-11-05 | 2021-11-05 | 一种基于医疗影像的交互式半自动标注方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116092643A true CN116092643A (zh) | 2023-05-09 |
Family
ID=86204972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111304854.5A Pending CN116092643A (zh) | 2021-11-05 | 2021-11-05 | 一种基于医疗影像的交互式半自动标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116092643A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117174261A (zh) * | 2023-11-03 | 2023-12-05 | 神州医疗科技股份有限公司 | 一种用于医学影像的多类型标注流程集成系统 |
-
2021
- 2021-11-05 CN CN202111304854.5A patent/CN116092643A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117174261A (zh) * | 2023-11-03 | 2023-12-05 | 神州医疗科技股份有限公司 | 一种用于医学影像的多类型标注流程集成系统 |
CN117174261B (zh) * | 2023-11-03 | 2024-03-01 | 神州医疗科技股份有限公司 | 一种用于医学影像的多类型标注流程集成系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yan et al. | Attention-guided deep neural network with multi-scale feature fusion for liver vessel segmentation | |
Yousef et al. | A holistic overview of deep learning approach in medical imaging | |
US11127137B2 (en) | Malignancy assessment for tumors | |
CN112102266B (zh) | 基于注意力机制的脑梗死医学影像分类模型的训练方法 | |
Helaly et al. | Toward deep mri segmentation for alzheimer’s disease detection | |
Dutta et al. | Medical image analysis using deep convolutional neural networks: CNN architectures and transfer learning | |
US20210312618A1 (en) | Immediate Workup | |
Jin et al. | Artificial intelligence in radiology | |
CN114998265A (zh) | 一种基于改进U-Net的肝脏肿瘤分割方法 | |
CN114693933A (zh) | 基于生成对抗网络和多尺度特征融合的医学影像分割装置 | |
CN114419111A (zh) | 基于mri影像的原发性肝细胞癌病灶筛查和分割方法及系统 | |
CN111724344A (zh) | 一种基于对抗网络生成医学超声影像数据的方法 | |
Bindu et al. | RETRACTED ARTICLE: Automated brain tumordetection and segmentation using modified UNet and ResNet model | |
Tummala et al. | Liver tumor segmentation from computed tomography images using multiscale residual dilated encoder‐decoder network | |
La Rosa | A deep learning approach to bone segmentation in CT scans | |
Lv et al. | A hybrid hemodynamic knowledge-powered and feature reconstruction-guided scheme for breast cancer segmentation based on DCE-MRI | |
Fan et al. | Research on abnormal target detection method in chest radiograph based on YOLO v5 algorithm | |
Wen et al. | Squeeze-and-excitation encoder-decoder network for kidney and kidney tumor segmentation in CT images | |
Fontanella et al. | Diffusion models for counterfactual generation and anomaly detection in brain images | |
Jain et al. | An automatic cascaded approach for pancreas segmentation via an unsupervised localization using 3D CT volumes | |
CN116092643A (zh) | 一种基于医疗影像的交互式半自动标注方法 | |
Chen et al. | A multiple organ segmentation system for CT image series using Attention-LSTM fused U-Net | |
WO2023223060A1 (en) | Method for training a system adapted for aiding evaluation of a medical image | |
CN115409812A (zh) | 一种基于融合时间注意机制的ct图像自动分类方法 | |
CN114511552A (zh) | 一种基于元学习的面向甲状腺超声结节模糊边界的分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |