CN112132778A - 一种基于空间传递自学习的医学图像病变分割方法 - Google Patents
一种基于空间传递自学习的医学图像病变分割方法 Download PDFInfo
- Publication number
- CN112132778A CN112132778A CN202010804326.5A CN202010804326A CN112132778A CN 112132778 A CN112132778 A CN 112132778A CN 202010804326 A CN202010804326 A CN 202010804326A CN 112132778 A CN112132778 A CN 112132778A
- Authority
- CN
- China
- Prior art keywords
- learning
- loss
- convolution
- image
- medical image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000003902 lesion Effects 0.000 title claims abstract description 16
- 238000012546 transfer Methods 0.000 title claims abstract description 12
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims abstract description 9
- 238000013528 artificial neural network Methods 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 10
- 238000012795 verification Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000017105 transposition Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 abstract description 3
- 238000012512 characterization method Methods 0.000 abstract description 3
- 238000013507 mapping Methods 0.000 abstract description 3
- 238000002372 labelling Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种基于空间传递自学习的医学图像病变分割方法,使用在编码层增加残差块的UNet,可以使得网络更好的收敛;为了增加图像中的空间信息,更好的获取医学图像中常见的低对比度和模糊的边界区域,提出一种对特征图进行切片处理再进行逐层卷积,使得特征可以按行或按列方向有效地空间传递的方法;为了充分利用编码层之间的上下文信息,还提出运用注意力自学习方法,在不需要额外的标签和外部监督的情况下,加强其自身表征学习,并且不会增加基本模型的推理时间,从而提高深度神经网络的性能,这也有效的缓解了关于医学图像数据集较小的问题;在解码器结构采用反向卷积,可以学习一种自适应映射来恢复医学图像这种具有更详细信息的特征。
Description
技术领域
本发明涉及计算机视觉人工智能技术领域,特别涉及一种基于空间传递自学习的医学图像病变分割方法。
技术背景
近些年来随着人工智能技术的逐步深入,图像分割技术有了突飞猛进的发展。图像分割技术是计算机视觉领域重要的研究方向,是图像语义理解的重要一环。该技术已经在各行各业得到了广泛的应用,例如:无人驾驶、增强现实、安防监控、医学图像诊断等,本发明主要讨论医学图像病变分割上的应用。
人工智能影像分割模型的训练需要大量、精确的标注数据,但对于医学图像的公开数据集来说,普遍存在样本较小,精标注较少等问题。主要是因为医学图像的病变区域复杂多变、形态不规则、边界模糊、梯度复杂等现象,这不仅增加了分割任务的难度,也增加了标注任务的难度。此外,专业医生的标注不但费时费力而且昂贵,因此,通过训练模型能够有效的减少标注时间和成本。
现今的卷积神经网络模型主要是由卷积块的堆叠构建而成的。一方面,卷积神经网络有强大的特征提取能力,许多模型通过加深网络来提高性能。随着卷积深度的增加,网络的性能的确会有所提升,但是网络的计算量也会随之变得越来越庞大,这不仅对设备性能的要求很高,而且会导致训练时间的延长。与自然图像相比,医学图像包含的信息量更多,对设备的要求会更严格。此外,卷积神经网络还缺少探索图像中空间关系的能力,空间上的信息有利于更好的获取医学图像中常见的低对比度和模糊的边界区域。另一方面,编码器浅层注意力较为分散,深层注意力较为集中,随着网络的下采样,这些编码层之间丰富的上下文信息也会随之丢失。如果一味的学习高层特征,而忽略丰富的上下文信息,那么模型很难在具有挑战性的医学图像病变分割场景中成功。
除了提高分割网络的性能,如何获取更多的空间信息,如何获取编码层之间丰富的上下文信息,在具有挑战性的医学图像病变分割数据集中是一个非常有意义的研究课题。
发明内容
为了克服现有技术的不足,UNet在医学图像处理中的表现已经非常出色,能够有效地解决医学图像中样本少的问题,但针对医学图像中病变分割还有待改进,所以本发明提出了基于UNet网络结构的一种改进,首先,本发明使用在编码层增加残差块的UNet,可以使得网络更好的收敛;其次,为了增加图像中的空间信息,更好的获取医学图像中常见的低对比度和模糊的边界区域,本发明提出一种对特征图进行切片处理再进行逐层卷积,使得特征可以按行或按列方向有效地空间传递的方法。另外,为了充分利用编码层之间的上下文信息,本发明还提出运用注意力自学习方法,在不需要额外的标签和外部监督的情况下,加强其自身表征学习,并且不会增加基本模型的推理时间,从而提高深度神经网络的性能,这也有效的缓解了关于医学图像数据集较小的问题;最后,在解码器结构采用反向卷积(也称转置卷积),可以学习一种自适应映射来恢复医学图像这种具有更详细信息的特征。
本发明解决其技术问题所采用的技术方案是:
一种基于空间传递自学习的医学图像病变分割方法,所述的方法包括以下步骤:
步骤1:数据集的采集与制作;
步骤2:将采集的公开数据集进行分析处理,将其进行统一的预处理操作,包括提取ROI(Region of Interest,感兴趣区域)、窗宽窗位的调整、裁剪、翻转以及图像尺寸大小的归一化处理;
步骤3:对预处理后的图像按照设定的比例进行划分,分为训练集和验证集;
步骤4:将训练集输入到深度神经网络中进行训练,选取深度残差网络(ResNet)作为编码器进行特征的提取;
步骤5:在深度残差网络前四个残差块后各增加一个注意力机制,使得浅层特征指导深层特征,即学习上下文信息;
步骤6:将深度残差网络第四个残差块后得到的特征图进行切片处理,再进行逐层卷积,实现空间上信息的有效传递;
步骤7:解码器采用上采样和转置卷积,将步骤6中得到的特征图通过上采样来增大图像尺寸,通过转置卷积来获取更高的分辨率特征,并且连接对应的编码层,以弥补编码层导致的信息丢失;
步骤8:将步骤7获得的特征图输入到激活函数中,得到的训练图像的分割结果;
步骤9:直至所述分割模型的损失函数不再收敛,完成深度学习训练;
步骤10:加载训练好的模型参数;
步骤11:将验证集输入到训练好的深度神经网络中进行验证,得到的结果为最终的分割结果。
本发明的有益效果主要表现在:本发明使用在编码层增加残差块的UNet,可以使得网络更好的收敛;其次,为了增加图像中的空间信息,更好的获取医学图像中常见的低对比度和模糊的边界区域,本发明提出一种对特征图进行切片处理再进行逐层卷积,使得特征可以按行或按列方向有效地空间传递的方法;另外,为了充分利用编码层之间的上下文信息,本发明还提出运用注意力自学习方法,在不需要额外的标签和外部监督的情况下,加强其自身表征学习,并且不会增加基本模型的推理时间,从而提高深度神经网络的性能,这也有效的缓解了关于医学图像数据集较小的问题;最后,在解码器结构采用反向卷积(也称转置卷积),可以学习一种自适应映射来恢复医学图像这种具有更详细信息的特征。
附图说明
图1是分割方法的流程框图。
图2是分割网络的整体框架的示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1和图2,一种基于空间传递自学习的医学图像病变分割方法,所述的方法包括以下步骤:
步骤1:数据集的采集与制作,在网上采集图像作为数据集;
步骤2:将采集的公开数据集进行分析处理,将其进行统一的预处理操作,包括提取ROI,勾勒出所需处理的区域,调整窗宽窗位提亮所需处理的区域,裁剪为512*512大小、翻转(上下翻转、左右翻转)等归一化处理;
步骤3:对预处理后的图像按照设定的比例进行划分,分为训练集和验证集(根据特定的情况进行选择,例如按照4:1等),进行交叉验证;
步骤4:将训练集输入到深度神经网络中进行训练,选取深度残差网络(例如ResNet34等)作为编码器进行特征的提取;
步骤5:在深度残差网络前四个残差块后各增加一个注意力机制,使得浅层特征指导深层特征,用Am表示m层的输出,Am∈RCm×Hm×Wm,主要是把长、宽、通道三维特征转换为长、宽两维特征,即RCm×Hm×Wm→RHm×Wm,通过考虑各通道上激活后的特征值,来确定空间上特征的分布状况。注意力图的获取方法:
相邻两层之间,注意力图的大小不同,通过双线性上采样操作,使得原始图像与上一层的目标图像大小一致,再通过均值平方差(Mean Square Error,MSE)损失函数:
Loss_SL=α(loss1+loss2+loss3) (3)
步骤6:将深度残差网络第四个残差块后得到的特征图进行切片处理,再进行逐层卷积。特征图的大小为C×H×W(C表示通道数,H表示高度,,W表示宽度),以从H维度出发为例(即从上向下传递),将特征图切成H片,然后第一片经过1×k×C的一维卷积操作,第二片特征加上第一片特征卷积输出后,再进行1×k×C的一维卷积操作,以此向下传递。分别对四个方向,即向下,向上,向左,向右四个方向进行上述操作,完成空间上的信息传递。
步骤7:解码器采用上采样和转置卷积,上采样操作通过线性插值来增大图像的大小,转置卷积则使用卷积运算来放大图像。它主要包括1×1卷积、3×3转置卷积和1×1卷积,并且连接对应的编码层,以弥补编码层导致的信息丢失;
步骤8:将步骤4获得的特征图输入到Sigmod激活函数:
其中x为步骤4中得到的值,f(x)为得到训练集的分割结果;
步骤9:将自学习损失与分割损失的和视为网络的总损失进行回归,总损失公式为:
Loss=Lseg+Loss_SL (5)
其中Lseg表示最终预测结果S与标签真值G之间的损失,公式为:
直至所述分割模型的损失函数不再收敛,完成深度学习训练;
步骤10:加载训练好的模型参数;
步骤11:将验证集输入到训练好的深度神经网络中进行验证,得到的结果为最终的分割结果。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所做的的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (6)
1.一种基于空间传递自学习的医学图像病变分割方法,其特征在于,所述的方法包括以下步骤:
步骤1:数据集的采集与制作;
步骤2:将采集的公开数据集进行分析处理,将其进行统一的预处理操作,包括提取ROI、窗宽窗位的调整、裁剪、翻转以及图像尺寸大小的归一化处理;
步骤3:对预处理后的图像按照设定的比例进行划分,分为训练集和验证集;
步骤4:将训练集输入到深度神经网络中进行训练,选取深度残差网络作为编码器进行特征的提取;
步骤5:在深度残差网络前四个残差块后各增加一个注意力机制,使得浅层特征指导深层特征,即学习上下文信息;
步骤6:将深度残差网络第四个残差块后得到的特征图进行切片处理,再进行逐层卷积,实现空间上信息的有效传递;
步骤7:解码器采用上采样和转置卷积,将步骤6中得到的特征图通过上采样来增大图像尺寸,通过转置卷积来获取更高的分辨率特征,并且连接对应的编码层,以弥补编码层导致的信息丢失;
步骤8:将步骤7获得的特征图输入到激活函数中,得到的训练图像的分割结果;
步骤9:直至所述分割模型的损失函数不再收敛,完成深度学习训练;
步骤10:加载训练好的模型参数;
步骤11:将验证集输入到训练好的深度神经网络中进行验证,得到的结果为最终的分割结果。
2.如权利要求1所述的一种基于空间传递自学习的医学图像病变分割方法,其特征在于,所述步骤5中,在深度残差网络前四个残差块后各增加一个注意力机制,使得浅层特征指导深层特征,用Am表示m层的输出,主要是把长、宽、通道三维特征转换为长、宽两维特征,即通过考虑各通道上激活后的特征值,来确定空间上特征的分布状况,注意力图的获取方法:
相邻两层之间,注意力图的大小不同,通过双线性上采样操作,使得原始图像与上一层的目标图像大小一致,再通过均值平方差MSE损失函数:
Loss_SL=α(loss1+loss2+loss3) (3)。
3.如权利要求1或2所述的一种基于空间传递自学习的医学图像病变分割方法,其特征在于,所述步骤6中,特征图的大小为C×H×W,C表示通道数,H表示高度,W表示宽度,从H维度出发,即从上向下传递,将特征图切成H片,然后第一片经过1×k×C的一维卷积操作,第二片特征加上第一片特征卷积输出后,再进行1×k×C的一维卷积操作,以此向下传递,分别对四个方向,即向下,向上,向左,向右四个方向进行上述操作,完成空间上的信息传递。
4.如权利要求1或2所述的一种基于空间传递自学习的医学图像病变分割方法,其特征在于,所述步骤7中,解码器采用上采样和转置卷积,上采样操作通过线性插值来增大图像的大小,转置卷积则使用卷积运算来放大图像,包括1×1卷积、3×3转置卷积和1×1卷积,并且连接对应的编码层,以弥补编码层导致的信息丢失。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010804326.5A CN112132778B (zh) | 2020-08-12 | 2020-08-12 | 一种基于空间传递自学习的医学图像病变分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010804326.5A CN112132778B (zh) | 2020-08-12 | 2020-08-12 | 一种基于空间传递自学习的医学图像病变分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112132778A true CN112132778A (zh) | 2020-12-25 |
CN112132778B CN112132778B (zh) | 2024-06-18 |
Family
ID=73850295
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010804326.5A Active CN112132778B (zh) | 2020-08-12 | 2020-08-12 | 一种基于空间传递自学习的医学图像病变分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112132778B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112734762A (zh) * | 2020-12-31 | 2021-04-30 | 西华师范大学 | 基于协方差自注意力机制的双路径UNet网络肿瘤分割方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190205758A1 (en) * | 2016-12-30 | 2019-07-04 | Konica Minolta Laboratory U.S.A., Inc. | Gland segmentation with deeply-supervised multi-level deconvolution networks |
CN110189334A (zh) * | 2019-05-28 | 2019-08-30 | 南京邮电大学 | 基于注意力机制的残差型全卷积神经网络的医学图像分割方法 |
CN111080591A (zh) * | 2019-12-06 | 2020-04-28 | 广东工业大学 | 基于编码解码结构结合残差模块的医学图像分割方法 |
CN111127493A (zh) * | 2019-11-12 | 2020-05-08 | 中国矿业大学 | 基于注意力多尺度特征融合的遥感图像语义分割方法 |
CN111192200A (zh) * | 2020-01-02 | 2020-05-22 | 南京邮电大学 | 基于融合注意力机制残差网络的图像超分辨率重建方法 |
CN111242288A (zh) * | 2020-01-16 | 2020-06-05 | 浙江工业大学 | 一种用于病变图像分割的多尺度并行深度神经网络模型构建方法 |
-
2020
- 2020-08-12 CN CN202010804326.5A patent/CN112132778B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190205758A1 (en) * | 2016-12-30 | 2019-07-04 | Konica Minolta Laboratory U.S.A., Inc. | Gland segmentation with deeply-supervised multi-level deconvolution networks |
CN110189334A (zh) * | 2019-05-28 | 2019-08-30 | 南京邮电大学 | 基于注意力机制的残差型全卷积神经网络的医学图像分割方法 |
CN111127493A (zh) * | 2019-11-12 | 2020-05-08 | 中国矿业大学 | 基于注意力多尺度特征融合的遥感图像语义分割方法 |
CN111080591A (zh) * | 2019-12-06 | 2020-04-28 | 广东工业大学 | 基于编码解码结构结合残差模块的医学图像分割方法 |
CN111192200A (zh) * | 2020-01-02 | 2020-05-22 | 南京邮电大学 | 基于融合注意力机制残差网络的图像超分辨率重建方法 |
CN111242288A (zh) * | 2020-01-16 | 2020-06-05 | 浙江工业大学 | 一种用于病变图像分割的多尺度并行深度神经网络模型构建方法 |
Non-Patent Citations (2)
Title |
---|
吴晨;易本顺;章云港;黄松;冯雨;: "基于改进卷积神经网络的视网膜血管图像分割", 光学学报, no. 11, 27 June 2018 (2018-06-27) * |
周涛;霍兵强;陆惠玲;任海玲;: "残差神经网络及其在医学图像处理中的应用研究", 电子学报, no. 07, 15 July 2020 (2020-07-15) * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112734762A (zh) * | 2020-12-31 | 2021-04-30 | 西华师范大学 | 基于协方差自注意力机制的双路径UNet网络肿瘤分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112132778B (zh) | 2024-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111145170B (zh) | 一种基于深度学习的医学影像分割方法 | |
CN111369565B (zh) | 一种基于图卷积网络的数字病理图像的分割与分类方法 | |
CN106910161A (zh) | 一种基于深度卷积神经网络的单幅图像超分辨率重建方法 | |
CN111739051B (zh) | 一种基于残差网络的多序列mri图像分割方法 | |
CN115661144A (zh) | 基于可变形U-Net的自适应医学图像分割方法 | |
CN114677403A (zh) | 基于深度学习注意力机制的肝脏肿瘤图像分割方法 | |
CN111161271A (zh) | 一种超声图像分割方法 | |
CN114048822A (zh) | 一种图像的注意力机制特征融合分割方法 | |
CN116596949A (zh) | 一种基于条件扩散模型的医学图像分割方法 | |
CN112419174A (zh) | 基于门循环单元的图像文字去除方法、系统及装置 | |
CN112288749A (zh) | 一种基于深度迭代融合深度学习模型的颅骨图像分割方法 | |
CN114549555A (zh) | 一种基于语义分割网络的人耳图像解刨学分割方法 | |
CN116128898A (zh) | 一种基于Transformer双分支模型的皮肤病变图像分割方法 | |
CN114049314A (zh) | 一种基于特征重排和门控轴向注意力的医学图像分割方法 | |
CN117274059A (zh) | 基于图像编码-解码的低分辨率图像重构方法及其系统 | |
CN111626296A (zh) | 基于深度神经网络的医学图像分割系统及方法、终端 | |
CN115526829A (zh) | 基于ViT与上下文特征融合的蜂窝肺病灶分割方法及网络 | |
CN112132778B (zh) | 一种基于空间传递自学习的医学图像病变分割方法 | |
CN117291935A (zh) | 一种头颈瘤病灶区域图像分割方法及计算机可读介质 | |
CN112418229A (zh) | 一种基于深度学习的无人船海上场景图像实时分割方法 | |
CN111681168A (zh) | 一种基于并行残差网络的低分辨率细胞超分辨率重建方法 | |
CN117095016A (zh) | 一种基于多视角一致性的半监督3d肝脏ct图像分割方法 | |
CN115439493A (zh) | 一种乳腺组织切片癌变区域分割方法及装置 | |
CN112164078B (zh) | 基于编码器-解码器的rgb-d多尺度语义分割方法 | |
CN115018864A (zh) | 基于自适应预处理的三阶段肝脏肿瘤图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |