CN114004836A - 一种基于深度学习的自适应生物医学影像分割方法 - Google Patents
一种基于深度学习的自适应生物医学影像分割方法 Download PDFInfo
- Publication number
- CN114004836A CN114004836A CN202210000432.7A CN202210000432A CN114004836A CN 114004836 A CN114004836 A CN 114004836A CN 202210000432 A CN202210000432 A CN 202210000432A CN 114004836 A CN114004836 A CN 114004836A
- Authority
- CN
- China
- Prior art keywords
- network
- biomedical image
- decision branch
- adaptive
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明属于医学影像技术领域,尤其是一种基于深度学习的自适应生物医学影像分割方法,包括步骤一、将需要分割的生物医学影像数据同时送入网络模型框架中的第一决策分支和第二决策分支,之后所述第一决策分支和所述第二决策分支同步运行,分别得到指定生物医学影像适配的网络参数配置和网络深度配置。该基于深度学习的自适应生物医学影像分割模型框架,本发明能够实现在无人调优的情况下,自动的根据生物医学分割模型的数据特征,从管道参数和网络深度两个方向进行全局的调优,更好的拟合数据特征和任务特点,最后生成全局最优的分割模型,相比现有技术,在大大降低计算量的同时,实现更精准更高效的网络模型调优。
Description
技术领域
本发明涉及医学影像技术领域,尤其涉及一种基于深度学习的自适应生物医学影像分割方法。
背景技术
医学影像是指为了医疗或医学研究,对人体或人体某部分,以非侵入方式取得内部组织影像的技术与处理过程。它包含以下两个相对独立的研究方向:医学成像系统和医学图像处理。
基于深度学习的分割方法在生物医学成像中获得了很大的成功,但它们在最终用户的特定图像分析问题上的适用性通常受到限制,方法的特定任务设计和配置需要高水平的专业知识和经验,而小的错误会导致性能大幅下降。尤其是在3D生物医学成像中,数据集属性(如成像方式、图像大小、(各向异性)体素间距或类别比率)会发生巨大变化,流程设计可能很麻烦,因为构成较好配置的经验可能无法转化到手头的数据集;而且用户通常在方法设计过程中会经历反复的试验过程,而反复试验和错误过程主要是由他们的个人经验决定的,只有很少的文献记载和难以复制,不可避免地会引起次优的分割渠道和方法论上的发现到其他数据集;同时现有的nnUN框架,其技术侧重于预处理、训练、推理、后处理等处理过程的自动调参优化上,对网络深度结构并未涉及任何改进和创新,不能根据任务特点,调整网络深度,不能更好的拟合数据特征,调整模型性能;在网络深度结构的最优选择上十分有限,且计算量巨大,使用限制门槛极高。
发明内容
基于现有的基于深度学习的分割方法依靠多个不同深度网络模型并行调整,最后交叉验证,选取局部最优的方案,计算量巨大,适用性通常受到限制,小的错误会导致性能大幅下降的技术问题,本发明提出了一种基于深度学习的自适应生物医学影像分割方法。
本发明提出的一种基于深度学习的自适应生物医学影像分割方法,包括步骤一、将需要分割的生物医学影像数据同时送入网络模型框架中的第一决策分支和第二决策分支,之后所述第一决策分支和所述第二决策分支同步运行,分别得到指定生物医学影像适配的网络参数配置和网络深度配置;
步骤二、所述第一决策分支和所述第二决策分支获取到特定所述生物医学影像数据的网络管道指纹后,由所述网络管道指纹决定最终的网络模型架构成决策;
步骤三、根据特定所述生物医学影像数据的类型在分析后,再通过选定的2DUnet或者3DUnet网络模板上自动进行针对性的调整优化,得出特定生物医学影像数据的最优分割模型和分割出的结果。
优选地,所述第一决策分支对所述生物医学影像数据自动采集数据指纹,创建一个数据集指纹;
通过上述技术方案,通过生物医学影像数据经过自动化过程后能够得到数据指纹。
优选地,所述数据指纹捕获所有相关参数和属性,包括:图像剪裁前后的大小、图像间距、形态、所有图像的类数量以及训练案例的总数;
通过上述技术方案,其中图像剪裁前后的大小为每个空间维度的体素数量、图像间距为即体素的物理大小、形态为从元数据中读取。
优选地,所述数据指纹通过一组启发式规则建立网络模型的推断参数,所述启发式规则是由理论知识集构成;
通过上述技术方案,其中启发式规则来使得数据指纹和推断参数的关系更加的准确,这个规则可以从原有的data fingerprint中生成出pipeline fingerprint,同时将硬件的局限条件考虑进去。例如对强度归一化而言:对除了CT外的其他模态的方法应为对每张图片进行Z-Score是一个好的默认方法;而对CT的方法则是设置默认的Z-Score,对不同生物医学CT采用不同的方法,比如通过找到训练集中每一套CT的前景像素值进行全局归一化;在目标间隔和重采样的问题上,需分两种情况:①对于各向同性的数据,所有训练集CT的体素尺寸的中位数作为默认值。然后利用三阶样条插值和线性插值进行重采样,会得出一个比较好的结果。②对于各向异性的数据,平面以外的轴(z)的目标间隔应当比这个轴上的中位数要小,这样就会生成尽量高分辨率的图像,可以减少重采样的伪影。为了实现这样的操作,要把所有该轴上的spacing的值从小到大排列,取在第10%位置的那个数,作为最终的目标间隔。z轴的重采样无论是对数据还是对标签,都采用最临近插值算法插值。
优选地,所述网络参数配置是由所述启发式规则对特定所述生物医学影像数据的所述数据指纹进行操作,并将管道指纹的依赖数据通过所述推断参数生成,所述推断参数包括图形重采集、批量大小、架构配置、图形块尺寸和图像归一化;
通过上述技术方案,其中数据指纹通过启发式规则进行自动化过程后生产推断参数,推断参数对图形重采集、批量大小、架构配置、图形块尺寸和图像归一化进行分析,推断管道指纹的依赖数据的超参数,通过基于显式和可解释的启发式规则的系统方法取代复杂的手工流水线优化过程,无需用户干预,可以实现开箱即用地应用到非常大范围的生物医学成像数据集,不需要专业知识,时间或计算解决问题需要的计算资源,手动的调整现有解决方案就可以辅助语义分割模型框架设计,实现良好的语义分割效果。
优选地,所述第二决策分支将所述生物医学影像数据集送入Unet++数据集进行训练,所述Unet++是一种基于嵌套和密集跳过连接的新分割体系结构;
通过上述技术方案,现在的深度学习网络结构的主要模块是卷积,池化,激活,这是一个标准的非线性变换模块;更深的模型,意味着更好的非线性表达能力,可以学习更加复杂的变换,从而可以拟合更加复杂的特征输入;要解决比较复杂的问题,要么增加深度,要么增加宽度,而增加宽度的代价往往远高于深度;所以通常的做法是增加网络深度,Unet分割网络共有四层,难以在比较复杂的问题上取得较好的结果,需要加深网络结构;但过度的加深不一定会提高模型性能,深层的网络会带来梯度不稳定和网络退化的问题始终都是存在的,可以通过修改网络模型缓解,但难以彻底消除,所以有可能出现网络加深,性能反而下降的情况;所以,综上所述更深的UNets不一定总是更好,最佳架构深度取决于手头数据集的难度和大小;最佳的深度是在先验上未知的,需要广泛的架构搜索或不同深度模型的低效率集成来测试;为了解决这个问题,Unet++通过不同深度的U-Net的有效集成来缓解未知的网络深度,这些U-Net可以部分共享一个编码器,并且可以通过深度监督同时进行共同学习;UNet++增强了各种尺寸对象的分割质量,这是对固定深度UNet的改进。
优选地,所述Unet++是由嵌入不同深度的U-Net构成,包括:Unet++L1、Unet++L2…Unet++LN,这些U-Net部分共享一个编码器;
通过上述技术方案,UNet++不易明确地选择网络深度,因为它在其体系结构中嵌入了不同深度的U-Net;所有这些U-Net都部分共享一个编码器,而它们的解码器则交织在一起,通过在深度监督下训练UNet++,可以同时训练所有组成的U-Net,同时受益于共享的图像表示,这种设计不仅可以提高整体分割性能,而且可以在推理期间修剪模型,最终得到最适合特定数据集的网络模型深度。
优选地,所述网络深度配置是由所述生物医学影像数据借助所述UNet++生成的网络深度信息,构成针对所述生物医学影像数据的最优网络深度配置,所述网络深度配置生成最优网络深度信息;
优选地,所述网络管道指纹是由所述第一决策分支中的所述网络参数配置和所述第二决策分支中的所述网络深度配置经过自动化过程生成;
通过上述技术方案,在通过上述两决策分支执行完成,得到指定生物医学影像适配的网络参数配置和网络深度配置之后,就可以组成全局最优的网络管道指纹。
优选地,
判断为生物医学影像数据集是2D时,选用2DUnet作为蓝图模板,判断为生物医学影像数据集是3D时,选用3DUnet作为蓝图模板,在指定生物医学影像数据集为2D类型的前提下,第一决策分支和第二决策分支可以同时进行,也可以先运行第一决策分支后,直接将得出的网络配置信息带入第二决策分支Unet++网络,略过网络模型架构构成决策系统,直接生成全局最优的分割模型并得到分割结果。
本发明中的有益效果为:
本发明能够实现在无人调优的情况下,自动的根据生物医学分割模型的数据特征,从管道参数和网络深度两个方向进行全局的调优,更好的拟合数据特征和任务特点,最后生成全局最优的分割模型,替代现有技术中依靠多个不同深度网络模型并行调整,最后交叉验证,选取局部最优的方案,直接生成管道参数和网络结构全局最优的模型,相比现有技术,在大大降低计算量的同时,实现更精准更高效的网络模型调优。
附图说明
图1为本发明提出的一种基于深度学习的自适应生物医学影像分割方法的nnUnet++整体网络架构设计流程图;
图2为本发明提出的一种基于深度学习的自适应生物医学影像分割方法的第一决策分支流程图;
图3为本发明提出的一种基于深度学习的自适应生物医学影像分割方法的不同网络深度的Unet++网络架构图;
图4为本发明提出的一种基于深度学习的自适应生物医学影像分割方法的第二决策分支系统流程图;
图5为本发明提出的一种基于深度学习的自适应生物医学影像分割方法的网络模型架构构成决策系统结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
参照图1-5,一种基于深度学习的自适应生物医学影像分割方法,包括步骤一、将需要分割的生物医学影像数据同时送入网络模型框架中的第一决策分支和第二决策分支,之后第一决策分支和第二决策分支同步运行,分别得到指定生物医学影像适配的网络参数配置和网络深度配置;
如图2所示,第一决策分支对生物医学影像数据自动采集数据指纹,创建一个数据集指纹;
通过生物医学影像数据经过自动化过程后能够得到数据指纹。
数据指纹捕获所有相关参数和属性,包括:图像剪裁前后的大小、图像间距、形态、所有图像的类数量以及训练案例的总数;
其中图像剪裁前后的大小为每个空间维度的体素数量、图像间距为即体素的物理大小、形态为从元数据中读取。
数据指纹通过一组启发式规则建立网络模型的推断参数,启发式规则是由理论知识集构成;
其中启发式规则来使得数据指纹和推断参数的关系更加的准确,这个规则可以从原有的data fingerprint中生成出pipeline fingerprint(即可以通过数据的性质来推出它可能需要进行什么样子的训练),同时将硬件的局限条件考虑进去。例如对强度归一化而言:对除了CT外的其他模态的方法应为对每张图片进行Z-Score(每个像素值减去所有像素平均值,然后除以标准差)是一个好的默认方法;而对CT的方法则是设置默认的Z-Score,对不同生物医学CT采用不同的方法,比如通过找到训练集中每一套CT的前景像素值进行全局归一化;在目标间隔和重采样的问题上,需分两种情况:①对于各向同性的数据,所有训练集CT的体素尺寸的中位数作为默认值。然后利用三阶样条插值(对数据)和线性插值(像训练的标签那样的独热编码分割图)进行重采样,会得出一个比较好的结果。②对于各向异性的数据,平面以外的轴(z)的目标间隔应当比这个轴上的中位数要小,这样就会生成尽量高分辨率的图像,可以减少重采样的伪影。为了实现这样的操作,要把所有该轴上的spacing的值从小到大排列,取在第10%位置的那个数,作为最终的目标间隔。z轴的重采样无论是对数据还是对标签(one-hot),都采用最临近插值算法插值。
上述启发式规则代表将领域知识转化为归纳偏差,从而缩短超参数的高维优化,并最小化所需的计算和数据资源。这些启发式规则是在对国际上公认的医学图像分割十项全能的数据集的基础上,通过将领域知识浓缩到一组启发式规则中开发的。医学图像分割十项全能的10个公开数据集的多样性已被证明足以实现对所有剩余挑战参与中遇到的变异性的稳健性;
医学图像分割十项全能(MSD)包含内容如下表:
器官 | 模态 | 分割目标 | 数量(训练/测试) |
脑 | MP-MRI | 三种脑部肿瘤 | 750(484/266) |
心脏 | MRI | 左心房 | 30(20/10) |
海马体 | MRI | 海马体前/后部 | 394(263/131) |
肝脏 | CT | 肝脏和肝脏肿瘤 | 210 (131/70) |
肺 | CT | 肺部和肺部肿瘤 | 96(64/32) |
胰腺 | CT | 胰腺和胰腺肿瘤 | 420(282/139) |
前列腺 | MP-MRI | 前列腺的中心区与外围区 | 48 (32/16) |
结肠 | CT | 原发性结肠癌 | 190(126/64) |
肝脏血管 | CT | 肝脏血管与肿瘤 | 443(303/140) |
脾脏 | CT | 脾脏 | 61(1/20) |
网络参数配置是由启发式规则对特定生物医学影像数据的数据指纹进行操作,并将管道指纹的依赖数据通过推断参数生成,推断参数包括图形重采集、批量大小、架构配置、图形块尺寸和图像归一化;
其中数据指纹通过启发式规则进行自动化过程后生产推断参数,推断参数对图形重采集、批量大小、架构配置、图形块尺寸和图像归一化进行分析,推断管道指纹的依赖数据的超参数,通过基于显式和可解释的启发式规则的系统方法取代复杂的手工流水线优化过程,无需用户干预,可以实现开箱即用地应用到非常大范围的生物医学成像数据集,不需要专业知识,时间或计算解决问题需要的计算资源,手动的调整现有解决方案就可以辅助语义分割模型框架设计,实现良好的语义分割效果。
其中在第一决策分支中,系统自动为生物医学影像数据集生成数据指纹,根据数据指纹,通过一组启发式规则生成网络参数配置。
第二决策分支将生物医学影像数据集送入Unet++数据集进行训练,Unet++是一种基于嵌套和密集跳过连接的新分割体系结构;
现在的深度学习网络结构的主要模块是卷积,池化,激活,这是一个标准的非线性变换模块;更深的模型,意味着更好的非线性表达能力,可以学习更加复杂的变换,从而可以拟合更加复杂的特征输入;要解决比较复杂的问题,要么增加深度,要么增加宽度,而增加宽度的代价往往远高于深度;所以通常的做法是增加网络深度,Unet分割网络共有四层,难以在比较复杂的问题上取得较好的结果,需要加深网络结构;但过度的加深不一定会提高模型性能,深层的网络会带来梯度不稳定和网络退化的问题始终都是存在的,可以通过修改网络模型缓解,但难以彻底消除,所以有可能出现网络加深,性能反而下降的情况;所以,综上更深的UNets不一定总是更好,最佳架构深度取决于手头数据集的难度和大小;最佳的深度是在先验上未知的,需要广泛的架构搜索或不同深度模型的低效率集成来测试;为了解决这个问题,Unet++通过不同深度的U-Net的有效集成来缓解未知的网络深度,这些U-Net可以部分共享一个编码器,并且可以通过深度监督(deep supervision)同时进行共同学习;UNet++增强了各种尺寸对象的分割质量,这是对固定深度UNet的改进。
如图3-4所示,Unet++是由嵌入不同深度的U-Net构成,包括:Unet++L1、Unet++L2…Unet++LN,这些U-Net部分共享一个编码器;
UNet++不易明确地选择网络深度,因为它在其体系结构中嵌入了不同深度的U-Net;所有这些U-Net都部分共享一个编码器,而它们的解码器则交织在一起,通过在深度监督下训练UNet++,可以同时训练所有组成的U-Net,同时受益于共享的图像表示。这种设计不仅可以提高整体分割性能,而且可以在推理期间修剪模型,最终得到最适合特定数据集的网络模型深度。
网络深度配置是由生物医学影像数据借助UNet++生成的网络深度信息,构成针对生物医学影像数据的最优网络深度配置,网络深度配置生成最优网络深度信息;
在第二决策分支中,系统将生物医学影像数据集自动送入Unet++进行训练,Unet++网络在深度监督下训练,而且可以在推理期间修剪,最终可在最短时间和相对算力要求较低的场景下得到最适合特定数据集的网络模型深度。
如图1和5所示,步骤二、第一决策分支和第二决策分支获取到特定生物医学影像数据的网络管道指纹后,由网络管道指纹决定最终的网络模型架构成决策;
网络管道指纹是由第一决策分支中的网络参数配置和第二决策分支中的网络深度配置经过自动化过程生成;
在通过上述两决策分支执行完成,得到指定生物医学影像适配的网络参数配置和网络深度配置之后,就可以组成全局最优的网络管道指纹。
选用2DUnet或者3DUnet作为蓝图模板是通过网络模型架构成决策根据网络管道指纹通过网络模型类型分析,判断生物医学影像数据集是2D或者3D;
判断为生物医学影像数据集是2D时,选用2DUnet作为蓝图模板,判断为生物医学影像数据集是3D时,选用3DUnet作为蓝图模板,在指定生物医学影像数据集为2D类型的前提下,第一决策分支和第二决策分支可以同时进行,也可以先运行第一决策分支后,直接将得出的网络配置信息带入第二决策分支Unet++网络,略过网络模型架构构成决策系统,直接生成全局最优的分割模型并得到分割结果。
如图1和5所示,步骤三、根据网络模型架构成决策在选定的2DUnet或者3DUnet网络模板上自动的进行针对性的调整优化,得出特定生物医学影像数据的最优分割模型和分割出的结果;
通过上述两决策分支执行完成,网络模型框架构成决策系统得到指定生物医学影像适配的网络参数配置和网络深度配置,组成全局最优的网络管道指纹,选择数据集对应类型的网络模型模板自动进行全局调优,最后得出全局最优的生物医学影像数据分割模型和分割结果。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的自适应生物医学影像分割方法,其特征在于:包括步骤一、将需要分割的生物医学影像数据同时送入网络模型框架中的第一决策分支和第二决策分支,之后所述第一决策分支和所述第二决策分支同步运行,分别得到指定所述生物医学影像适配的网络参数配置和网络深度配置;
步骤二、所述第一决策分支和所述第二决策分支获取到特定所述生物医学影像数据的网络管道指纹后,由所述网络管道指纹决定最终的网络模型架构成决策;
步骤三、根据特定所述生物医学影像数据的类型在分析后,再通过选定的2DUnet或者3DUnet网络模板上自动进行针对性的调整优化,得出特定所述生物医学影像数据的最优分割模型和分割出的结果。
2.根据权利要求1所述的一种基于深度学习的自适应生物医学影像分割方法,其特征在于:所述第一决策分支对所述生物医学影像数据自动采集数据指纹,创建一个数据集指纹。
3.根据权利要求2所述的一种基于深度学习的自适应生物医学影像分割方法,其特征在于:所述数据指纹捕获所有相关参数和属性,包括:图像剪裁前后的大小、图像间距、形态、所有图像的类数量以及训练案例的总数。
4.根据权利要求2所述的一种基于深度学习的自适应生物医学影像分割方法,其特征在于:所述数据指纹通过一组启发式规则建立网络模型的推断参数,所述启发式规则是由理论知识集构成。
5.根据权利要求4所述的一种基于深度学习的自适应生物医学影像分割方法,其特征在于:所述网络参数配置是由所述启发式规则对特定所述生物医学影像数据集的所述数据指纹进行操作,并将管道指纹的依赖数据通过所述推断参数生成,所述推断参数包括图形重采集、批量大小、架构配置、图形块尺寸和图像归一化。
6.根据权利要求1所述的一种基于深度学习的自适应生物医学影像分割方法,其特征在于:所述第二决策分支将所述生物医学影像数据集送入Unet++数据集进行训练,所述Unet++是一种基于嵌套和密集跳过连接的新分割体系结构。
7.根据权利要求6所述的一种基于深度学习的自适应生物医学影像分割方法,其特征在于:所述Unet++是由嵌入不同深度的U-Net构成,包括:Unet++L1、Unet++L2…Unet++LN,这些U-Net共享一个编码器。
8.根据权利要求6所述的一种基于深度学习的自适应生物医学影像分割方法,其特征在于:所述网络深度配置是由所述生物医学影像数据借助所述UNet++生成的网络深度信息,构成针对所述生物医学影像数据的网络深度配置,所述网络深度配置生成最优网络深度信息。
9.根据权利要求1所述的一种基于深度学习的自适应生物医学影像分割方法,其特征在于:所述网络管道指纹是由所述第一决策分支中的所述网络参数配置和所述第二决策分支中的所述网络深度配置经过自动化过程生成。
10.根据权利要求1所述的一种基于深度学习的自适应生物医学影像分割方法,其特征在于:判断为生物医学影像数据集是2D时,选用2DUnet作为蓝图模板,判断为生物医学影像数据集是3D时,选用3DUnet作为蓝图模板,在指定生物医学影像数据集为2D类型的前提下,第一决策分支和第二决策分支同时进行,或者先运行第一决策分支后,直接将得出的网络配置信息带入第二决策分支Unet++网络,略过网络模型架构构成决策系统,直接生成全局最优的分割模型并得到分割结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210000432.7A CN114004836B (zh) | 2022-01-04 | 2022-01-04 | 一种基于深度学习的自适应生物医学影像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210000432.7A CN114004836B (zh) | 2022-01-04 | 2022-01-04 | 一种基于深度学习的自适应生物医学影像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114004836A true CN114004836A (zh) | 2022-02-01 |
CN114004836B CN114004836B (zh) | 2022-04-01 |
Family
ID=79932471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210000432.7A Active CN114004836B (zh) | 2022-01-04 | 2022-01-04 | 一种基于深度学习的自适应生物医学影像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114004836B (zh) |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200074271A1 (en) * | 2018-08-29 | 2020-03-05 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems, methods, and apparatuses for implementing a multi-resolution neural network for use with imaging intensive applications including medical imaging |
CN111080591A (zh) * | 2019-12-06 | 2020-04-28 | 广东工业大学 | 基于编码解码结构结合残差模块的医学图像分割方法 |
CN111145170A (zh) * | 2019-12-31 | 2020-05-12 | 电子科技大学 | 一种基于深度学习的医学影像分割方法 |
CN111161273A (zh) * | 2019-12-31 | 2020-05-15 | 电子科技大学 | 一种基于深度学习的医学超声图像分割方法 |
CN111260667A (zh) * | 2020-01-20 | 2020-06-09 | 浙江大学 | 一种结合空间引导的神经纤维瘤分割方法 |
CN111445024A (zh) * | 2020-03-31 | 2020-07-24 | 上海全景医学影像诊断中心有限公司 | 一种医学影像识别训练方法 |
CN112085696A (zh) * | 2020-07-24 | 2020-12-15 | 中国科学院深圳先进技术研究院 | 医学图像分割网络模型的训练方法、分割方法及相关设备 |
CN112348769A (zh) * | 2020-08-20 | 2021-02-09 | 盐城工学院 | 基于U-Net深度网络模型的CT影像中肾肿瘤智能分割方法及装置 |
CN112446891A (zh) * | 2020-10-23 | 2021-03-05 | 浙江工业大学 | 基于U-Net网络脑胶质瘤的医学图像分割方法 |
CN112598656A (zh) * | 2020-12-28 | 2021-04-02 | 长春工业大学 | 一种基于UNet++优化和权值预算的脑肿瘤分割算法 |
US20210158533A1 (en) * | 2019-04-18 | 2021-05-27 | Beijing Sensetime Technology Development Co., Ltd. | Image processing method and apparatus, and storage medium |
CN113240661A (zh) * | 2021-05-31 | 2021-08-10 | 平安科技(深圳)有限公司 | 基于深度学习的腰椎骨分析方法、装置、设备及存储介质 |
CN113269783A (zh) * | 2021-04-30 | 2021-08-17 | 北京小白世纪网络科技有限公司 | 一种基于三维注意力机制的肺结节分割方法及装置 |
CN113554640A (zh) * | 2021-07-30 | 2021-10-26 | 四川大学华西医院 | Ai模型的训练方法、使用方法、计算机设备及存储介质 |
CN113570627A (zh) * | 2021-07-02 | 2021-10-29 | 上海健康医学院 | 深度学习分割网络的训练方法及医学图像分割方法 |
CN113781403A (zh) * | 2021-08-19 | 2021-12-10 | 东北大学 | 一种胸部ct影像处理方法与装置 |
CN113793304A (zh) * | 2021-08-23 | 2021-12-14 | 天津大学 | 一种面向肺癌靶区及危及器官智能分割方法 |
-
2022
- 2022-01-04 CN CN202210000432.7A patent/CN114004836B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200074271A1 (en) * | 2018-08-29 | 2020-03-05 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems, methods, and apparatuses for implementing a multi-resolution neural network for use with imaging intensive applications including medical imaging |
US20210158533A1 (en) * | 2019-04-18 | 2021-05-27 | Beijing Sensetime Technology Development Co., Ltd. | Image processing method and apparatus, and storage medium |
CN111080591A (zh) * | 2019-12-06 | 2020-04-28 | 广东工业大学 | 基于编码解码结构结合残差模块的医学图像分割方法 |
CN111145170A (zh) * | 2019-12-31 | 2020-05-12 | 电子科技大学 | 一种基于深度学习的医学影像分割方法 |
CN111161273A (zh) * | 2019-12-31 | 2020-05-15 | 电子科技大学 | 一种基于深度学习的医学超声图像分割方法 |
CN111260667A (zh) * | 2020-01-20 | 2020-06-09 | 浙江大学 | 一种结合空间引导的神经纤维瘤分割方法 |
CN111445024A (zh) * | 2020-03-31 | 2020-07-24 | 上海全景医学影像诊断中心有限公司 | 一种医学影像识别训练方法 |
CN112085696A (zh) * | 2020-07-24 | 2020-12-15 | 中国科学院深圳先进技术研究院 | 医学图像分割网络模型的训练方法、分割方法及相关设备 |
CN112348769A (zh) * | 2020-08-20 | 2021-02-09 | 盐城工学院 | 基于U-Net深度网络模型的CT影像中肾肿瘤智能分割方法及装置 |
CN112446891A (zh) * | 2020-10-23 | 2021-03-05 | 浙江工业大学 | 基于U-Net网络脑胶质瘤的医学图像分割方法 |
CN112598656A (zh) * | 2020-12-28 | 2021-04-02 | 长春工业大学 | 一种基于UNet++优化和权值预算的脑肿瘤分割算法 |
CN113269783A (zh) * | 2021-04-30 | 2021-08-17 | 北京小白世纪网络科技有限公司 | 一种基于三维注意力机制的肺结节分割方法及装置 |
CN113240661A (zh) * | 2021-05-31 | 2021-08-10 | 平安科技(深圳)有限公司 | 基于深度学习的腰椎骨分析方法、装置、设备及存储介质 |
CN113570627A (zh) * | 2021-07-02 | 2021-10-29 | 上海健康医学院 | 深度学习分割网络的训练方法及医学图像分割方法 |
CN113554640A (zh) * | 2021-07-30 | 2021-10-26 | 四川大学华西医院 | Ai模型的训练方法、使用方法、计算机设备及存储介质 |
CN113781403A (zh) * | 2021-08-19 | 2021-12-10 | 东北大学 | 一种胸部ct影像处理方法与装置 |
CN113793304A (zh) * | 2021-08-23 | 2021-12-14 | 天津大学 | 一种面向肺癌靶区及危及器官智能分割方法 |
Non-Patent Citations (8)
Title |
---|
FABIAN ISENSEE 等: "nnU-Net: Self-adapting Framework for U-Net-Based Medical Image Segmentation", 《ARXIV:1809.10486V1》 * |
OLAF RONNEBERGER 等: "UNet++: A Nested U-Net Architecture for Medical Image Segmentation", 《ARXIR:1505.04597V1》 * |
尹习林: "基于深度学习的钙化斑块分割算法研究", 《中国优秀硕士学位论文全文数据库:医药卫生科技辑》 * |
张建伟 等: "融合空间先验的医学影像分割神经网络模型", 《计算机辅助设计与图形学学报》 * |
徐婷宜: "基于卷积神经网络的医学图像分割算法研究", 《中国优秀硕士学位论文全文数据库:医药卫生科技辑》 * |
时飞跃 等: "基于深度学习的rtStation软件自动勾画乳腺癌术后患者心脏结构的应用分析", 《中国医学物理学杂志》 * |
陈俊江: "基于深度学习的医学影像分割技术研究", 《中国优秀硕士学位论文全文数据库:医药卫生科技辑》 * |
龚晓庆: "基于改进的nnU-Net胰腺分割模型", 《西北大学学报(自然科学版)》 * |
Also Published As
Publication number | Publication date |
---|---|
CN114004836B (zh) | 2022-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kaluva et al. | 2D-densely connected convolution neural networks for automatic liver and tumor segmentation | |
CN109690554B (zh) | 用于基于人工智能的医学图像分割的方法和系统 | |
Birenbaum et al. | Multi-view longitudinal CNN for multiple sclerosis lesion segmentation | |
Gros et al. | SoftSeg: Advantages of soft versus binary training for image segmentation | |
Chan et al. | Texture-map-based branch-collaborative network for oral cancer detection | |
Grampurohit et al. | Brain tumor detection using deep learning models | |
CN109801272B (zh) | 肝脏肿瘤自动分割定位方法、系统及存储介质 | |
CN112949838B (zh) | 基于四分支注意力机制的卷积神经网络及图像分割方法 | |
CN110889853A (zh) | 基于残差-注意力深度神经网络的肿瘤分割方法 | |
CN110889852A (zh) | 基于残差-注意力深度神经网络的肝脏分割方法 | |
CN112819076A (zh) | 基于深度迁移学习的医学图像分类模型的训练方法及装置 | |
CN111242233B (zh) | 一种基于融合网络的阿尔兹海默病分类方法 | |
US20230072400A1 (en) | SYSTEMS, METHODS, AND APPARATUSES FOR GENERATING PRE-TRAINED MODELS FOR nnU-Net THROUGH THE USE OF IMPROVED TRANSFER LEARNING TECHNIQUES | |
CN114897780B (zh) | 一种基于mip序列的肠系膜上动脉血管重建方法 | |
Tan et al. | Analysis of segmentation of lung parenchyma based on deep learning methods | |
Tavoosi et al. | Medical image interpolation using recurrent type-2 fuzzy neural network | |
CN117058307A (zh) | 心脏三维核磁共振图像生成方法、系统、设备及储存介质 | |
CN116091885A (zh) | 一种基于rau-gan的肺结节数据增强方法 | |
Chen et al. | Medprompt: Cross-modal prompting for multi-task medical image translation | |
CN112990359B (zh) | 一种影像数据处理方法、装置、计算机及存储介质 | |
Du et al. | Boosting dermatoscopic lesion segmentation via diffusion models with visual and textual prompts | |
CN113781465A (zh) | 基于Grad-CAM的医学图像分割模型可视化方法 | |
CN113256657A (zh) | 一种高效医学图像分割方法及系统、终端、介质 | |
CN114004836B (zh) | 一种基于深度学习的自适应生物医学影像分割方法 | |
CN116934721A (zh) | 一种基于多尺度特征提取的肾脏肿瘤分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |