CN114549394A - 一种基于深度学习的肿瘤病灶区域语义分割方法及系统 - Google Patents
一种基于深度学习的肿瘤病灶区域语义分割方法及系统 Download PDFInfo
- Publication number
- CN114549394A CN114549394A CN202111388306.5A CN202111388306A CN114549394A CN 114549394 A CN114549394 A CN 114549394A CN 202111388306 A CN202111388306 A CN 202111388306A CN 114549394 A CN114549394 A CN 114549394A
- Authority
- CN
- China
- Prior art keywords
- semantic segmentation
- tumor
- feature map
- attention
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 109
- 206010028980 Neoplasm Diseases 0.000 title claims abstract description 78
- 238000013135 deep learning Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000010586 diagram Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 16
- 230000003902 lesion Effects 0.000 claims description 15
- 210000000056 organ Anatomy 0.000 claims description 14
- 230000004927 fusion Effects 0.000 claims description 10
- 210000003484 anatomy Anatomy 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 7
- 206010019695 Hepatic neoplasm Diseases 0.000 claims description 6
- 208000014018 liver neoplasm Diseases 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 208000008839 Kidney Neoplasms Diseases 0.000 claims description 5
- 208000020816 lung neoplasm Diseases 0.000 claims description 5
- 208000037841 lung tumor Diseases 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000000977 initiatory effect Effects 0.000 claims 2
- 230000007246 mechanism Effects 0.000 abstract description 6
- 239000006185 dispersion Substances 0.000 abstract description 3
- 238000004422 calculation algorithm Methods 0.000 description 19
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000036541 health Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 230000001575 pathological effect Effects 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出一种基于深度学习的肿瘤病灶区域语义分割方法和系统,本发明提出端到端的网络结构模型,整体结构分为编码层和解码层两部分,在编码层中引入密集连接网络结构块解决网络过深造成梯度弥散问题,在解码层引入特征注意力机制和通道注意力机制精确获取分割目标信息,在跳跃连接处增加多尺度感受野网络结构获取不同尺度语义信息,提升分割精度。该模型在兼顾速度和精度的前提下可以精确地分割出肿瘤病灶区的准确位置,在医学图像处理领域中具有广泛的应用前景。
Description
技术领域
本发明涉及图像分类技术领域,并特别涉及一种基于深度学习的肿瘤病灶区域语义分割方法和系统。
背景技术
近年来随着深度学习的迅猛发展,卷积神经网络(CNN)在图像处理领域已成为一种先进的机器学习算法,并被应用到医学图像处理领域。基于卷积神经网络的语义分割算法成为医学图像处理的一个重要分支。通过语义分割算法对医学图像进行精确分割得到器官或者病灶区域的轮廓和面积信息,从而辅助医生进行分析。
当前语义分割算法主要分为两类。一种是基于传统机器学习的语义分割算法,一种是基于深度学习的语义分割算法。基于传统机器学习的语义分割算法主要包括:基于阈值的分割算法,这类算法简单,分割速度快,但是对于复杂场景该算法效果欠佳。基于边缘的分割算法有Sobel、Laplace和Canny等,该类算法由于背景和目标像素点差距较小,极易被误判为边缘。基于区域的分割算法主要有区域生长法以及分裂合并法。基于能量的图像分割方法包括基于图论的方法、基于ICM的方法等等。基于深度学习的语义分割算法在医学中得到了广泛的应用,其中U-Net是医学影像分割领域著名的一个网络架构,它可以通过很小的训练集,输出精确的分割结果。2018年zhou等人将DenseNet网络结构应用到U-Net中,提出了U-Net++,提升了分割的精度。Oktay等人提出了Attention U-Net网络架构。AttentionU-Net在对编码层和解码层特征图进行拼接之前,使用了一个注意力门抑制无关区域中的特征启动来提高模型的分割准确性,在达到高分割精度的同时而无需额外的定位模块。
虽然语义分割算法众多,但是却各有利弊。针对不同的分割任务,算法也表现出不同的分割效果。当前网络上的肿瘤病灶区分割专利或者是论文,都是使用的CT图像或者病理图像。而缺少使用相机拍摄的包含肿瘤的器官解剖图像,两者由于图像形式不同,导致相机拍摄的肿瘤解剖图像数据量远小于CT图像和病理图像。当前的主要挑战是训练数据集数量较少,需要在有限的训练集下,对模型进行高效的训练,使其具备较高的分割精度和鲁棒性。
发明内容
针对于肿瘤病灶区的分割,本发明提出了一种端到端的网络结构模型,整体结构分为编码层和解码层两部分,在编码层中引入密集连接网络结构块解决网络过深造成梯度弥散问题,在解码层引入特征注意力机制和通道注意力机制精确获取分割目标信息,在跳跃连接处增加多尺度感受野网络结构获取不同尺度语义信息,提升分割精度。该模型在兼顾速度和精度的前提下可以精确地分割出肿瘤病灶的准确位置,在医学图像处理领域中具有广泛的应用前景。
针对现有技术的不足,本发明提出一种基于深度学习的肿瘤病灶区域语义分割方法,其中包括:
步骤1、构建包括编码层网络、解码层网络、多尺度感受野网络和注意力层的语义分割模型,获取相机拍摄的多张包含肿瘤的器官解剖图像,作为训练图像,且训练图像中每个像素点均标注有对应肿瘤病灶类别;
步骤2、通过该编码层网络提取该训练图像的语义和外观特征,构成编码层特征图,将该编码层特征图输入至该多尺度感受野网络,得到多尺度特征图,并通过该解码层网络将该编码层特征图和该多尺度特征图相融合,以对该编码层特征图进行上采样,得到解码层特征图;
步骤3、将该解码层特征图输入由特征注意力和通道注意力结构组成的该注意力层中,得到融合特征注意力和通道注意力的语义分割特征图,该语义分割特征图和该训练图像尺寸相同,且该语义分割特征图中每个像素值对应训练图像中相同位置像素的肿瘤病灶类别;
步骤4、基于该语义分割特征图以及训练图像中每个像素点标注的病灶类别,构建损失函数,以迭代训练该语义分割模型,直到损失函数收敛或达到预设迭代次数,保存当前语义分割模型作为最终识别模型;
步骤5、通过该最终识别模型提取相机拍摄的肿瘤解剖图像的病灶区域及其对应肿瘤病灶类别。
所述的基于深度学习的肿瘤病灶区域语义分割方法,其中该病灶类别包括肿瘤病灶区域和健康区域,该病灶区域包括肝肿瘤、肾肿瘤和肺肿瘤。
所述的基于深度学习的肿瘤病灶区域语义分割方法,其中该编码层网络结构由多个网络结构块组成,且每个网络结构块都由多个卷积层、归一化层和启动函数层组成,且网络结构块之间均为密集连接。
所述的基于深度学习的肿瘤病灶区域语义分割方法,其中该步骤3包括:将该解码层特征图同时输入特征注意力和通道注意力结构中,将特征注意力和通道注意力结构各自的输出特征进行融合,得到该语义分割特征图。
本发明还提出了一种基于深度学习的肿瘤病灶区域语义分割系统,其中包括:
模型构建模块,用于构建包括编码层网络、解码层网络、多尺度感受野网络和注意力层的语义分割模型,获取相机拍摄的多张包含肿瘤的器官解剖图像,作为训练图像,且训练图像中每个像素点均标注有对应肿瘤病灶类别;
特征提取模块,用于通过该编码层网络提取该训练图像的语义和外观特征,构成编码层特征图,将该编码层特征图输入至该多尺度感受野网络,得到多尺度特征图,并通过该解码层网络将该编码层特征图和该多尺度特征图相融合,以对该编码层特征图进行上采样,得到解码层特征图;
特征融合模块,用于将该解码层特征图输入由特征注意力和通道注意力结构组成的该注意力层中,得到融合特征注意力和通道注意力的语义分割特征图,该语义分割特征图和该训练图像尺寸相同,且该语义分割特征图中每个像素值对应训练图像中相同位置像素的肿瘤病灶类别;
模型训练模块,用于根据该语义分割特征图以及训练图像中每个像素点标注的病灶类别,构建损失函数,以迭代训练该语义分割模型,直到损失函数收敛或达到预设迭代次数,保存当前语义分割模型作为最终识别模型;
语义分割模块,用于通过该最终识别模型提取相机拍摄的肿瘤解剖图像的病灶区域及其对应肿瘤病灶类别。
所述的基于深度学习的肿瘤病灶区域语义分割系统,其中该病灶类别包括病灶区域和健康区域,该病灶区域包括肝肿瘤、肾肿瘤和肺肿瘤。
所述的基于深度学习的肿瘤病灶区域语义分割系统,其中该编码层网络结构由多个网络结构块组成,且每个网络结构块都由多个卷积层、归一化层和启动函数层组成,且网络结构块之间均为密集连接。
所述的基于深度学习的肿瘤病灶区域语义分割系统,其中该特征融合模块,用于将该解码层特征图同时输入特征注意力和通道注意力结构中,将特征注意力和通道注意力结构各自的输出特征进行融合,得到该语义分割特征图。
本发明还提出了一种存储介质,用于存储执行所述任意一种基于深度学习的肿瘤病灶区域语义分割方法的程序。
本发明还提出了一种客户端,用于所述任意一种基于深度学习的肿瘤病灶区域语义分割系统。
由以上方案可知,本发明的优点在于:本发明提出的网络模型架构可在有限的训练集下,对模型进行高效的训练,使其具备较高的分割精度和鲁棒性。
附图说明
图1为本发明的方法流程如图;
图2为本发明涉及的网络结构图。
具体实施方式
本发明旨在解决以上现有技术的问题,提出了一种基于注意力机制,多尺度感受野的肿瘤病灶区语义分割算法。本发明的技术方案如下:
一种基于注意力机制,多尺度感受野的肿瘤病灶区语义分割算法,其包括以下步骤:
S1、首先,获取肿瘤解剖图像,将解剖图像进行预处理操作;其中肿瘤解剖图像可为任意包含肿瘤的器官解剖图像,例如肝脏肿瘤图像。
S2、其次,将S1中得到的预处理肿瘤解剖图像输入到编码层网络结构中,提取肿瘤解剖图像的语义信息和外观特征信息。
S3、再次,将编码层得到的特征图输入到解码层网络结构中,对编码层特征进行上采样操作,同时引入同尺度的编码层特征,获取丰富的特征信息。
S4、最后将S3中得到的特征信息输入到特征注意力和通道注意力网络中,将两类特征融合在一起输出最后的预测分割结果。
为让本发明的上述特征和效果能阐述的更明确易懂,下文特举实施例,并配合说明书附图作详细说明如下。
如图1和图2所示,本发明方法包括:
步骤S1:先得到肿瘤解剖图像,将肿瘤解剖图像进行预处理操作,把所以图像都缩放为512*512大小,既可以保留更多的特征信息,又可以减少网络运算量。
步骤S2:将步骤S1得到的预处理图像输入到编码层网络中,得到肿瘤解剖图像的语义信息和外观特征信息。编码层网络结构主要由四个网络结构块组成,每个网络结构块都由三个卷积层、归一化层和启动函数层组成。为了防止梯度弥散问题,每个网络结构块都进行了密集连接。密集连接表示每一层的卷积层都两两相连接。
y=F(x) (1)
式(1)中F表示编码层网络结构,x表示S1中预处理的肿瘤解剖图像。
步骤S3:将编码层得到的特征图输入到解码层网络结构中,解码层网络对特征图进行上采样操作。同时为了防止特征信息丢失,编码层引入了同尺度的编码层特征图,使用多尺度感受野网络结构来提取编码层特征图的特征信息。最后将解码层四种不同尺度的特征图通过特征通道融合在一起。
式(2)中T表示解码层网络结构,i表示四个不同尺度的解码层特征图,r为将解码层四种不同尺度的特征图通过特征通道融合在一起形成的解码层特征图。
步骤S4:最后将S3中得到特征同时输入到特征注意力和通道注意力网络结构中。特征注意力网络结构可以提高特征图中目标的回应信息,降低背景噪声对目标的影响。通道注意力网络结构可以对特征通道进行加权,加强对分割目标影响较大的通道,抑制噪声通道对分割的干扰。将两类特征进行融合输出最后的分割结果。
z=Q(r)+C(r) (3)
式(3)中,Q表示特征注意力网络结构,C表示通道注意力网络结构。
本发明目的是将包含肿瘤的器官解剖图像划分成肿瘤病灶区域和健康区域。
语义分割算法本质上是对图像的每一个像素点进行分类(深度学习分类算法是对整张图像进行分类)。我们输入一张512*512大小的图像,我们的网络结构就会对该图像的每一个像素点进行分类,然后将每个像素点的分类结果整合在一起就得到整张图像的一个分割结果(病灶区和类别)。步骤S4中的分割结果=病灶区+类别。
以下为与上述方法实施例对应的系统实施例,本实施方式可与上述实施方式互相配合实施。上述实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在上述实施方式中。
本发明还提出了一种基于深度学习的肿瘤病灶区域语义分割系统,其中包括:
模型构建模块,用于构建包括编码层网络、解码层网络、多尺度感受野网络和注意力层的语义分割模型,获取相机拍摄的多张包含肿瘤的器官解剖图像,作为训练图像,且训练图像中每个像素点均标注有对应肿瘤病灶类别;
特征提取模块,用于通过该编码层网络提取该训练图像的语义和外观特征,构成编码层特征图,将该编码层特征图输入至该多尺度感受野网络,得到多尺度特征图,并通过该解码层网络将该编码层特征图和该多尺度特征图相融合,以对该编码层特征图进行上采样,得到解码层特征图;
特征融合模块,用于将该解码层特征图输入由特征注意力和通道注意力结构组成的该注意力层中,得到融合特征注意力和通道注意力的语义分割特征图,该语义分割特征图和该训练图像尺寸相同,且该语义分割特征图中每个像素值对应训练图像中相同位置像素的肿瘤病灶类别;
模型训练模块,用于根据该语义分割特征图以及训练图像中每个像素点标注的病灶类别,构建损失函数,以迭代训练该语义分割模型,直到损失函数收敛或达到预设迭代次数,保存当前语义分割模型作为最终识别模型;
语义分割模块,用于通过该最终识别模型提取相机拍摄的肿瘤解剖图像的病灶区域及其对应肿瘤病灶类别。
所述的基于深度学习的肿瘤病灶区域语义分割系统,其中该病灶类别包括病灶区域和健康区域,该病灶区域包括肝肿瘤、肾肿瘤和肺肿瘤。
所述的基于深度学习的肿瘤病灶区域语义分割系统,其中该编码层网络结构由多个网络结构块组成,且每个网络结构块都由多个卷积层、归一化层和启动函数层组成,且网络结构块之间均为密集连接。
所述的基于深度学习的肿瘤病灶区域语义分割系统,其中该特征融合模块,用于将该解码层特征图同时输入特征注意力和通道注意力结构中,将特征注意力和通道注意力结构各自的输出特征进行融合,得到该语义分割特征图。
本发明还提出了一种存储介质,用于存储执行所述任意一种基于深度学习的肿瘤病灶区域语义分割方法的程序。
本发明还提出了一种客户端,用于所述任意一种基于深度学习的肿瘤病灶区域语义分割系统。
Claims (10)
1.一种基于深度学习的肿瘤病灶区域语义分割方法,其特征在于,包括:
步骤1、构建包括编码层网络、解码层网络、多尺度感受野网络和注意力层的语义分割模型,获取相机拍摄的多张包含肿瘤的器官解剖图像,作为训练图像,且训练图像中每个像素点均标注有对应肿瘤病灶类别;
步骤2、通过该编码层网络提取该训练图像的语义和外观特征,构成编码层特征图,将该编码层特征图输入至该多尺度感受野网络,得到多尺度特征图,并通过该解码层网络将该编码层特征图和该多尺度特征图相融合,以对该编码层特征图进行上采样,得到解码层特征图;
步骤3、将该解码层特征图输入由特征注意力和通道注意力结构组成的该注意力层中,得到融合特征注意力和通道注意力的语义分割特征图,该语义分割特征图和该训练图像尺寸相同,且该语义分割特征图中每个像素值对应训练图像中相同位置像素的肿瘤病灶类别;
步骤4、基于该语义分割特征图以及训练图像中每个像素点标注的肿瘤类别,构建损失函数,以迭代训练该语义分割模型,直到损失函数收敛或达到预设迭代次数,保存当前语义分割模型作为最终识别模型;
步骤5、通过该最终识别模型提取相机拍摄的肿瘤解剖图像的肿瘤区域及其对应肿瘤类别。
2.如权利要求1所述的基于深度学习的肿瘤病灶区域语义分割方法,其特征在于,该病灶类别包括肿瘤病灶区域和健康区域,该病灶区域包括肝肿瘤、肾肿瘤和肺肿瘤。
3.如权利要求1所述的基于深度学习的肿瘤病灶区域语义分割方法,其特征在于,该编码层网络结构由多个网络结构块组成,且每个网络结构块都由多个卷积层、归一化层和启动函数层组成,且网络结构块之间均为密集连接。
4.如权利要求1所述的基于深度学习的肿瘤病灶区域语义分割方法,其特征在于,该步骤3包括:将该解码层特征图同时输入特征注意力和通道注意力结构中,将特征注意力和通道注意力结构各自的输出特征进行融合,得到该语义分割特征图。
5.一种基于深度学习的肿瘤病灶区域语义分割系统,其特征在于,包括:
模型构建模块,用于构建包括编码层网络、解码层网络、多尺度感受野网络和注意力层的语义分割模型,获取相机拍摄的多张包含肿瘤的器官解剖图像,作为训练图像,且训练图像中每个像素点均标注有对应肿瘤病灶类别;
特征提取模块,用于通过该编码层网络提取该训练图像的语义和外观特征,构成编码层特征图,将该编码层特征图输入至该多尺度感受野网络,得到多尺度特征图,并通过该解码层网络将该编码层特征图和该多尺度特征图相融合,以对该编码层特征图进行上采样,得到解码层特征图;
特征融合模块,用于将该解码层特征图输入由特征注意力和通道注意力结构组成的该注意力层中,得到融合特征注意力和通道注意力的语义分割特征图,该语义分割特征图和该训练图像尺寸相同,且该语义分割特征图中每个像素值对应训练图像中相同位置像素的肿瘤病灶类别;
模型训练模块,用于根据该语义分割特征图以及训练图像中每个像素点标注的肿瘤病灶类别,构建损失函数,以迭代训练该语义分割模型,直到损失函数收敛或达到预设迭代次数,保存当前语义分割模型作为最终识别模型;
语义分割模块,用于通过该最终识别模型提取相机拍摄的肿瘤解剖图像的病灶区域及其对应肿瘤病灶类别。
6.如权利要求5所述的基于深度学习的肿瘤病灶区域语义分割系统,其特征在于,该肿瘤病灶类别包括病灶区域和健康区域,该病灶区域包括肝肿瘤、肾肿瘤和肺肿瘤区域。
7.如权利要求5所述的基于深度学习的肿瘤病灶区域语义分割系统,其特征在于,该编码层网络结构由多个网络结构块组成,且每个网络结构块都由多个卷积层、归一化层和启动函数层组成,且网络结构块之间均为密集连接。
8.如权利要求5所述的基于深度学习的肿瘤病灶区域语义分割系统,其特征在于,该特征融合模块,用于将该解码层特征图同时输入特征注意力和通道注意力结构中,将特征注意力和通道注意力结构各自的输出特征进行融合,得到该语义分割特征图。
9.一种存储介质,用于存储执行如权利要求1到4所述任意一种基于深度学习的肿瘤病灶区域语义分割方法的程序。
10.一种客户端,用于权利要求5至8中任意一种基于深度学习的肿瘤病灶区域语义分割系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111388306.5A CN114549394B (zh) | 2021-11-22 | 一种基于深度学习的肿瘤病灶区域语义分割方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111388306.5A CN114549394B (zh) | 2021-11-22 | 一种基于深度学习的肿瘤病灶区域语义分割方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114549394A true CN114549394A (zh) | 2022-05-27 |
CN114549394B CN114549394B (zh) | 2024-06-28 |
Family
ID=
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115239962A (zh) * | 2022-09-22 | 2022-10-25 | 珠海横琴圣澳云智科技有限公司 | 基于深层大感受野空间注意力的目标分割方法和装置 |
CN115412202A (zh) * | 2022-08-01 | 2022-11-29 | 鹏城实验室 | 一种基于医学图像的语义通信方法及相关设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287940A (zh) * | 2020-10-30 | 2021-01-29 | 西安工程大学 | 一种基于深度学习的注意力机制的语义分割的方法 |
CN112446890A (zh) * | 2020-10-14 | 2021-03-05 | 浙江工业大学 | 基于空洞卷积和多尺度融合的黑色素瘤分割方法 |
CN113160232A (zh) * | 2021-03-29 | 2021-07-23 | 吉林大学 | 基于MU-Net应用于CT影像的颅内出血病灶分割算法 |
CN113205055A (zh) * | 2021-05-11 | 2021-08-03 | 北京知见生命科技有限公司 | 基于多尺度注意力机制的真菌显微图像分类方法及系统 |
CN113222012A (zh) * | 2021-05-11 | 2021-08-06 | 北京知见生命科技有限公司 | 一种肺部数字病理图像自动定量分析方法及系统 |
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112446890A (zh) * | 2020-10-14 | 2021-03-05 | 浙江工业大学 | 基于空洞卷积和多尺度融合的黑色素瘤分割方法 |
CN112287940A (zh) * | 2020-10-30 | 2021-01-29 | 西安工程大学 | 一种基于深度学习的注意力机制的语义分割的方法 |
CN113160232A (zh) * | 2021-03-29 | 2021-07-23 | 吉林大学 | 基于MU-Net应用于CT影像的颅内出血病灶分割算法 |
CN113205055A (zh) * | 2021-05-11 | 2021-08-03 | 北京知见生命科技有限公司 | 基于多尺度注意力机制的真菌显微图像分类方法及系统 |
CN113222012A (zh) * | 2021-05-11 | 2021-08-06 | 北京知见生命科技有限公司 | 一种肺部数字病理图像自动定量分析方法及系统 |
Non-Patent Citations (1)
Title |
---|
姚发展;李智;王丽会;程欣宇;张健;: "深度迭代融合的脑部磁共振图像颅骨去除网络", 中国图象图形学报, no. 10, 16 October 2020 (2020-10-16) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115412202A (zh) * | 2022-08-01 | 2022-11-29 | 鹏城实验室 | 一种基于医学图像的语义通信方法及相关设备 |
CN115412202B (zh) * | 2022-08-01 | 2023-06-16 | 鹏城实验室 | 一种基于医学图像的语义通信方法及相关设备 |
CN115239962A (zh) * | 2022-09-22 | 2022-10-25 | 珠海横琴圣澳云智科技有限公司 | 基于深层大感受野空间注意力的目标分割方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11580646B2 (en) | Medical image segmentation method based on U-Net | |
Zhang et al. | A late fusion cnn for digital matting | |
US11200424B2 (en) | Space-time memory network for locating target object in video content | |
CN112150428B (zh) | 一种基于深度学习的医学图像分割方法 | |
CN110188760B (zh) | 一种图像处理模型训练方法、图像处理方法及电子设备 | |
CN113240691B (zh) | 一种基于u型网络的医学图像分割方法 | |
CN113077471A (zh) | 一种基于u型网络的医学图像分割方法 | |
WO2022001623A1 (zh) | 基于人工智能的图像处理方法、装置、设备及存储介质 | |
CN111597946B (zh) | 图像生成器的处理方法、图像生成方法及装置 | |
CN110889852A (zh) | 基于残差-注意力深度神经网络的肝脏分割方法 | |
CN111325750B (zh) | 一种基于多尺度融合u型链神经网络的医学图像分割方法 | |
CN111369565A (zh) | 一种基于图卷积网络的数字病理图像的分割与分类方法 | |
CN113034505B (zh) | 一种基于边缘感知网络的腺体细胞图像分割方法及装置 | |
CN110648331B (zh) | 用于医学图像分割的检测方法、医学图像分割方法及装置 | |
CN116664840B (zh) | 一种基于互关系知识蒸馏的语义分割方法、装置及设备 | |
Shu et al. | LVC-Net: Medical image segmentation with noisy label based on local visual cues | |
CN112396605A (zh) | 网络训练方法及装置、图像识别方法和电子设备 | |
CN112529930A (zh) | 一种基于聚焦融合的上下文学习医学图像分割方法 | |
CN113705276A (zh) | 模型构建方法、模型构建装置、计算机设备及介质 | |
WO2024104035A1 (zh) | 基于长短期记忆自注意力模型的三维医学图像分割方法及系统 | |
CN117611601A (zh) | 基于文字辅助的半监督3d医学图像分割方法 | |
CN111667488B (zh) | 一种基于多角度U-Net的医学图像分割方法 | |
CN117437423A (zh) | 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置 | |
CN112463999A (zh) | 视觉位置识别方法及装置、计算机设备及可读存储介质 | |
CN117237322A (zh) | 一种基于医学图像的器官分割建模方法及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |