CN109446951B - 三维图像的语义分割方法、装置、设备及存储介质 - Google Patents
三维图像的语义分割方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN109446951B CN109446951B CN201811204375.4A CN201811204375A CN109446951B CN 109446951 B CN109446951 B CN 109446951B CN 201811204375 A CN201811204375 A CN 201811204375A CN 109446951 B CN109446951 B CN 109446951B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- image
- segmentation
- model
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 312
- 238000000034 method Methods 0.000 title claims abstract description 105
- 230000004927 fusion Effects 0.000 claims abstract description 78
- 230000003044 adaptive effect Effects 0.000 claims abstract description 32
- 238000001914 filtration Methods 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 29
- 238000005070 sampling Methods 0.000 claims description 23
- 230000005540 biological transmission Effects 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 abstract description 11
- 238000013135 deep learning Methods 0.000 abstract description 3
- 210000000056 organ Anatomy 0.000 description 96
- 238000012549 training Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 24
- 230000006870 function Effects 0.000 description 20
- 210000001519 tissue Anatomy 0.000 description 11
- 238000012805 post-processing Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000003759 clinical diagnosis Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 230000002401 inhibitory effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 210000001835 viscera Anatomy 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000000952 spleen Anatomy 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30056—Liver; Hepatic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30092—Stomach; Gastric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
Abstract
本申请公开了一种三维图像的语义分割方法、装置、设备及存储介质,属于深度学习领域。所述方法包括:获取三维图像;将三维图像按照三维坐标轴所在的三个方向面进行切片,得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像;调用第一分割模型、第二分割模型、第三分割模型对x轴、y轴、z轴的二维切片图像进行语义分割,得到目标对象在三个方向面上的分布概率图;调用自适应融合模型对x轴方向面、y轴方向面和z轴方向面各自对应的三个分布概率图进行三维融合,得到目标对象的三维分布二值图。本申请解决了相关技术中的Pspnet网络模型仅适用于2D自然图像的语义分割,不支持对3D医学图像进行语义分割的问题。
Description
技术领域
本申请涉及深度学习领域,特别涉及一种三维图像的语义分割方法、装置、设备及存储介质。
背景技术
医学图像中,人体器官/组织的外形或体积变化对临床诊断有着重要的启示作用。采用深度学习模型对医学图像进行语义分割,能够得到医学图像中的人体器官/组织所在的图像区域。
相关技术中采用场景解析网络(Pyramid Scene Parsing Network,Pspnet)对二维医学图像进行语义分割。Pspnet是一种基于深度学习的语义分割技术。Pspnet采用多种不同尺寸的卷积核,多尺度采集特征图(feature map),最后将输出的特征图插值放大,得到语义分割结果。
但Pspnet是二维自然图像的语义分割技术,并不支持对三维医学图像进行语义分割。
发明内容
本申请实施例提供了一种三维图像的语义分割方法、装置、设备及存储介质,通过对医学图像先进行二维的语义分割再进行三维的自适应融合,能够解决相关技术中不支持对3D医学图像进行语义分割的问题。所述技术方案如下:
根据本公开实施例的一方面,提供了一种三维图像的语义分割方法,所述方法包括:
获取所述三维图像;
将所述三维图像按照三维坐标轴所在的三个方向面进行切片,得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像;
调用第一分割模型对所述x轴的二维切片图像进行语义分割,得到目标对象在x轴方向面的分布概率图;
调用第二分割模型将所述y轴的二维切片图像进行语义分割,得到所述目标对象在y轴方向面的分布概率图;
调用第三分割模型将所述z轴的二维切片图像进行语义分割,得到所述目标对象在z轴方向面的分布概率图;
调用自适应融合模型对所述x轴方向面、所述y轴方向面和所述z轴方向面各自对应的三个分布概率图进行三维融合,得到所述目标对象的三维分布二值图。
可选地,所述第一分割模型、所述第二分割模型和所述第三分割模型中的至少一个模型包括:深度网络编码部和跳跃传递解码部,所述深度网络编码部包括n层卷积层,所述跳跃传递解码部包括m层反卷积层,n和m均为正整数;
所述深度网络编码部,用于通过所述n层卷积层对所述二维切片图像进行降采样特征提取,得到降采样后的第一中间特征图;
所述跳跃传递解码部,用于通过所述m层反卷积层对所述第一中间特征图和第二中间特征图进行升采样处理,得到升采样后的所述分布概率图;
其中,所述第二中间特征图包括所述n层卷积层中的第i层卷积层输出的特征图,i为小于或等于n的整数。
可选地,调用所述自适应融合模型将所述x轴方向面、所述y轴方向面和所述z轴方向面各自对应的三个分布概率图进行组合,得到三维分布特征图;
对所述三维分布特征图进行三维融合卷积,得到三维分割概率图;
根据所述三维分割概率图中每个像素点的最大概率类别,计算得到所述目标对象的三维分布二值图。
可选地,所述三维图像是三维医学图像。
基于临床先验知识对所述三维分布二值图中的噪声像素点进行滤除后处理;
所述临床先验知识是对所述三维医学图像中的所述目标对象的分布位置进行统计得到的知识。
在一种可选的实施方式中,在所述三维分布二值图中滤除超出目标取值范围的第一噪声像素点;
其中,所述目标取值范围是根据第一临床先验知识得到的所述目标对象可能出现的坐标取值范围。
在另一种可选的实施方式中,在所述三维分布二值图中滤除超出三维椭球模型的第二噪声像素点;
其中,所述三维椭球模型是根据第二临床先验知识得到的所述目标对象对应的椭球模型。
可选地,当所述二维切片图像的长宽比例超过预设比例范围时,按照所述二维切片图像的短边边长所形成的正方形边框对所述二维切片图像进行扫描框分割,得到若干个待处理的二维切片图像。
根据本公开实施例的另一方面,提供了一种二维图像的语义分割方法,所述方法包括:
获取所述二维图像;
调用分割模型对所述二维图像进行语义分割,得到目标对象的分布概率图;
根据所述分布概率图中每个像素点的最大概率类别,计算得到所述目标对象的二维分布二值图;
其中,所述分割模型包括:深度网络编码部和跳跃传递解码部,所述深度网络编码部包括n层卷积层,所述跳跃传递解码部包括m层反卷积层,n和m均为正整数;
所述深度网络编码部,用于通过所述n层卷积层对所述二维图像进行降采样特征提取,得到降采样后的第三中间特征图;
所述跳跃传递解码部,用于通过所述m层反卷积层对所述第三中间特征图和第四中间特征图进行升采样处理,得到升采样后的所述分布概率图;
其中,所述第四中间特征图包括所述n层卷积层中的第i层卷积层输出的特征图,i为小于或等于n的整数。
可选地,所述二维图像是二维医学图像。
基于临床先验知识对所述二维分布二值图中的噪声像素点进行滤除后处理;
所述临床先验知识是对所述二维医学图像中的所述目标对象的分布位置进行统计得到的知识。
在一种可选的实施方式中,在所述二维分布二值图中滤除超出目标取值范围的第三噪声像素点;
其中,所述目标取值范围是根据第三临床先验知识得到的所述目标对象可能出现的坐标取值范围。
可选地,当所述二维图像的长宽比例超过预设比例范围时,按照所述二维图像的短边边长所形成的正方形边框对所述二维图像进行扫描框分割,得到若干个待处理的二维图像。
根据本公开实施例的另一方面,提供了一种三维图像的语义分割装置,所述装置包括:
第一获取模块,用于获取所述三维图像;
切片模块,用于将所述三维图像按照三维坐标轴所在的三个方向面进行切片,得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像;
第一分割模块,用于调用第一分割模型对所述x轴的二维切片图像进行语义分割,得到目标对象在x轴方向面的分布概率图;
所述第一分割模块,用于调用第二分割模型将所述y轴的二维切片图像进行语义分割,得到所述目标对象在y轴方向面的分布概率图;
所述第一分割模块,用于调用第三分割模型将所述z轴的二维切片图像进行语义分割,得到所述目标对象在z轴方向面的分布概率图;
融合模块,用于调用自适应融合模型对所述x轴方向面、所述y轴方向面和所述z轴方向面各自对应的三个分布概率图进行三维融合,得到所述目标对象的三维分布二值图。
可选地,所述第一分割模型、所述第二分割模型和所述第三分割模型中的至少一个模型包括:深度网络编码部和跳跃传递解码部,所述深度网络编码部包括n层卷积层,所述跳跃传递解码部包括m层反卷积层,n和m均为正整数;
所述深度网络编码部,用于通过所述n层卷积层对所述二维切片图像进行降采样特征提取,得到降采样后的第一中间特征图;
所述跳跃传递解码部,用于通过所述m层反卷积层对所述第一中间特征图和第二中间特征图进行升采样处理,得到升采样后的所述分布概率图;
其中,所述第二中间特征图包括所述n层卷积层中的第i层卷积层输出的特征图,i为小于或等于n的整数。
可选地,所述融合模块,包括:
组合单元,用于调用所述自适应融合模型将所述x轴方向面、所述y轴方向面和所述z轴方向面各自对应的三个分布概率图进行组合,得到三维分布特征图;
融合单元,用于对所述三维分布特征图进行三维融合卷积,得到三维分割概率图;
计算单元,用于根据所述三维分割概率图中每个像素点的最大概率类别,计算得到所述目标对象的三维分布二值图。
可选地,所述三维图像是三维医学图像;所述装置还包括:
第一滤除模块,用于基于临床先验知识对所述三维分布二值图中的噪声像素点进行滤除后处理;
所述临床先验知识是对所述三维医学图像中的所述目标对象的分布位置进行统计得到的知识。
在一种可选的实施方式中,所述第一过滤模块,用于在所述三维分布二值图中滤除超出目标取值范围的第一噪声像素点;
其中,所述目标取值范围是根据第一临床先验知识得到的所述目标对象可能出现的坐标取值范围。
在另一种可选的实施方式中,所述第一过滤模块,用于在所述三维分布二值图中滤除超出三维椭球模型的第二噪声像素点;
其中,所述三维椭球模型是根据第二临床先验知识得到的所述目标对象对应的椭球模型。
可选地,所述装置还包括:
第一扫描模块,用于当所述二维切片图像的长宽比例超过预设比例范围时,按照所述二维切片图像的短边边长所形成的正方形边框对所述二维切片图像进行扫描框分割,得到若干个待处理的二维切片图像。
根据本公开实施例的另一方面,提供了一种二维图像的语义分割装置,所述装置包括:
第二获取模块,用于获取所述二维图像;
第二分割模块,用于调用分割模型对所述二维图像进行语义分割,得到目标对象的分布概率图;
计算模块,用于根据所述分布概率图中每个像素点的最大概率类别,计算得到所述目标对象的二维分布二值图;
其中,所述分割模型包括:深度网络编码部和跳跃传递解码部,所述深度网络编码部包括n层卷积层,所述跳跃传递解码部包括m层反卷积层,n和m均为正整数;
所述深度网络编码部,用于通过所述n层卷积层对所述二维图像进行降采样特征提取,得到降采样后的第三中间特征图;
所述跳跃传递解码部,用于通过所述m层反卷积层对所述第三中间特征图和第四中间特征图进行升采样处理,得到升采样后的所述分布概率图;
其中,所述第四中间特征图包括所述n层卷积层中的第i层卷积层输出的特征图,i为小于或等于n的整数。
可选地,所述二维图像是二维医学图像;所述装置还包括:
第二滤除模块,用于基于临床先验知识对所述二维分布二值图中的噪声像素点进行滤除后处理;
所述临床先验知识是对所述二维医学图像中的所述目标对象的分布位置进行统计得到的知识。
在一种可选的实施方式中,所述第二滤除模块,用于在所述二维分布二值图中滤除超出目标取值范围的第三噪声像素点;
其中,所述目标取值范围是根据第三临床先验知识得到的所述目标对象可能出现的坐标取值范围。
可选地,所述装置还包括:
第二扫描模块,用于当所述二维图像的长宽比例超过预设比例范围时,按照所述二维图像的短边边长所形成的正方形边框对所述二维图像进行扫描框分割,得到若干个待处理的二维图像。
根据本公开实施例的另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的三维图像的语义分割方法。
根据本公开实施例的另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的二维图像的语义分割方法。
根据本公开实施例的另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如上所述的三维图像的语义分割方法。
根据本公开实施例的另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如上所述的二维图像的语义分割方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过将3D医学图像按照3D坐标轴所在的三个方向面进行切片,得到三个坐标轴分别对应的2D切片图像,使用三个2D分割模型分别对三个坐标轴对应的2D切片图像进行语义分割后,将三个2D语义分割结果使用自适应融合模型进行3D融合,从而得到目标器官的3D分布二值图,解决了相关技术中的Pspnet网络模型仅适用于2D自然图像的语义分割,不支持对3D医学图像进行语义分割的问题,达到了能够利用三个2D分割模型和一个自适应融合模型,实现对3D医学图像进行语义分割的效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是相关技术中提供的Pspet网络模型的结构示意图;
图2是本申请一个示例性实施例提供的实施环境的示意图;
图3是本申请一个示例性实施例提供的三维图像的语义分割的方法流程图;
图4是本申请一个示例性实施例提供的三维医学图像的语义分割的结构示意图;
图5是本申请另一个示例性实施例提供的三维图像的语义分割的方法流程图;
图6是本申请另一个示例性实施例提供的不改变二维切片图像尺寸时目标对象形状变化的示意图;
图7是本申请另一个示例性实施例提供的改变二维切片图像尺寸时目标对象形状不变化的示意图;
图8是本申请另一个示例性实施例提供的第一分割模型的结构示意图;
图9是本申请另一个示例性实施例提供的ResNet101网络模型中第一模块的结构示意图;
图10是本申请另一个示例性实施例提供的自适应融合模型的结构示意图;
图11是本申请一个示例性实施例提供的卷积网络模型训练方法的流程图;
图12是本申请另一个示例性实施例提供的二维图像的语义分割的方法流程图;
图13是本申请一个示例性实施例提供的三维图像的语义分割的装置示意图;
图14是本申请另一个示例性实施例提供的三维图像的语义分割的装置示意图;
图15是本申请另一个示例性实施例提供的融合模块的装置示意图;
图16是本申请一个示例性实施例提供的二维图像的语义分割的装置示意图;
图17是本申请一个实施例提供的计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例涉及的若干个名词进行介绍:
语义分割:是指根据图像的灰度、颜色、纹理和形状等特征把图像划分成若干互不交叠的区域,并使这些特征在同一区域内呈现出相似性,而在不同区域呈现出明显的差异性。
三维图像:相比于二维图像增加一个空间维度(比如深度维)或时间维的图像,比如三维医学图像可认为是增加了一个深度维的三维图像,视频可认为是增加了一个时间维的三维图像。
目标对象:语义分割中属于前景区域的对象。针对三维医学图像,目标对象可以是目标器官,目标器官是指人体的内脏器官或组织,和/或,动物的内脏器官或组织,比如,心脏、肺、肝、脾、胃等;针对二维医学图像,目标对象可以是目标器官。本申请实施例主要以目标对象是三维医学图像中的人体器官来举例说明。
医学图像中,人体器官/组织的外形或体积变化对临床诊断有着重要的启示作用。为了避免人工分析时可能会产生的误判,相关技术中使用卷积网络模型对医学图像进行语义分割,即将医学图像输入卷积网络模型中,由构建的卷积网络模型将医学图像中对应的人体器官/组织的特征提取出来,并对人体器官/组织的特征进行分类,从而得到人体器官/组织在医学图像中的具体区域。语义分割后的医学图像能够将人体器官/组织区域与背景区域区分开来,之后再由医生进行临床诊断。这里的“医学图像”可以包括利用X射线照射人体得到的X射线(X-Ray)图像、通过电子计算机扫描(Computerized Tomography,CT)得到的CT图像、通过磁共振成像(Magnetic Resonance Imaging,MRI)得到的MRI图像等。通过医学影像采集设备采集得到的医学图像,可以是2D医学图像,也可以是3D医学图像。
在一种示意性的相关技术中,使用Pspnet对2D医学图像进行语义分割。Pspnet采用多种不同尺寸的卷积核对输入的医学图像进行卷积,提取出医学图像的特征,形成多种不同尺寸的特征图(feature map),最后将输出的特征图插值放大,得到语义分割结果。
示意性的如图1所示,将医学图像101输入Pspnet网络模型中,提取医学图像101的特征,得到与医学图像101相同尺寸的第一特征图102。接着,Pspnet网络模型分别采用四种不同尺度的卷积核对简化后的第一特征图102进行卷积计算,获得4个与卷积核尺寸对应的子特征图,该4个子特征图的尺寸各不相同。之后,通过升采样(或叫上采样)将4个不同尺寸的子特征图的尺寸插值放大为医学图像101的尺寸,并将放大后的4个子特征图与第一特征图102进行连接,从而得到第二特征图103。最后,第二特征图103通过卷积进行语义分割后,得到最终的概率图104。
然而,Pspnet只支持对2D医学图像进行语义分割,不支持3D医学图像进行语义分割。当医学图像是CT图像和MRI图像等具备较高清晰度和检测精度的3D医学图像时,强行使用Pspnet对该3D医学图像进行语义分割,会容易出现“断层现象”,而且图像分割后的边缘拟合达不到要求。同时,Pspnet也不支持对3D医学图像的处理。
本申请实施例提供了一种三维图像的语义分割方法、装置、设备及存储介质,可以用于解决上述相关技术中存在的问题。该方法能够实现对三维图像进行语义分割。典型的,三维图像是三维医学图像或者视频。本申请实施例以三维图像是三维医学图像来举例说明。
图2示出了本申请一个示例性实施例提供的实施环境的示意图,图2中包括:医学影像采集设备100和计算机设备200。
医学影像采集设备100用于采集人体器官/组织的医学图像,该医学图像包括二维医学图像和三维医学图像。医学影像采集设备100还用于将采集到的医学图像发送至计算机设备200。计算机设备200用于接收医学图像,并对医学图像进行语义分割。
可选地,该医学影像采集设备100可以是独立于计算机设备200之外的设备,也可以组合至计算机设备200中作为一个整体的设备。
该计算机设备200包括:中央处理器(Central Processing Unit,CPU)210和存储器220。
CPU210用于调用实现语义分割的神经网络模型。存储器220用于存储实现语义分割的神经网络模型,该神经网络模型包括第一切割模型221、第二切割模型222、第三切割模型223和自适应融合模型224。可选地,第一切割模型221、第二切割模型222和第三切割模型223是基于卷积神经网络进行语义分割的二维模型。自适应融合模型224是用于将三个二维语义分割模型的语义分割结果,进行自适应融合来得到三维语义分割结果的三维模型。
第一分割模型221,用于对该x轴的二维切片图像进行二维语义分割,得到目标器官在x轴方向面的分布概率图。
第二分割模型222,用于对该y轴的二维切片图像进行二维语义分割,得到目标器官在y轴方向面的分布概率图。
第三分割模型223,用于对该z轴的二维切片图像进行二维语义分割,得到目标器官在z轴方向面的分布概率图。
自适应融合模型224,用于对x轴方向面、y轴方向面和z轴方向面各自对应的三个分布概率图进行三维融合,得到目标对象的三维分布二值图。
在本申请的一些实施例中,先对三维图像按照三维坐标轴所在的三个方向面进行切片进行二维切片,再通过三个分割模型对三个方向面的二维切片图像进行语义分割,得到三个方向面的分布概率图,之后通过自适应融合模型将三个分布概率图进行三维融合,得到最终的目标对象对应的三维分布二值图。
图3示出了本申请一个示例性实施例提供的三维图像的语义分割的方法流程图,该方法可以应用于图2所示的实施环境,该方法包括:
步骤301,获取三维图像。
可选地,终端通过影像采集设备采集三维图像。
步骤302,将三维图像按照三维坐标轴所在的三个方向面进行切片,得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像。
终端在获取到三维图像后,将三维图像按照三维坐标轴所在的三个方向面进行切片,从而得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像。
其中,x轴的方向面是指x轴和z轴所在的平面,y轴的方向面是指y轴和z轴所在的平面,z轴的方向面是指x轴和y轴所在的平面。
步骤303,调用第一分割模型对x轴的二维切片图像进行语义分割,得到目标对象在x轴方向面的分布概率图。
CPU调用存储于存储器内的第一分割模型对x轴的二维切片图像进行语义分割。第一分割模型根据目标对象在x轴的二维切片图像中的灰度、颜色、纹理和形状等特征,完成目标对象在x轴的二维切片图像的语义分割过程,从而输出目标对象在x轴方向面的分布概率图。
步骤304,调用第二分割模型对y轴的二维切片图像进行语义分割,得到目标对象在y轴方向面的分布概率图。
CPU调用存储于存储器内的第二分割模型对y轴的二维切片图像进行语义分割。第二分割模型根据目标对象在y轴的二维切片图像中的灰度、颜色、纹理和形状等特征,完成目标对象在y轴的二维切片图像的语义分割过程,从而输出目标对象在y轴方向面的分布概率图。
步骤305,调用第三分割模型对z轴的二维切片图像进行语义分割,得到目标对象在z轴方向面的分布概率图。
CPU调用存储于存储器内的第三分割模型对z轴的二维切片图像进行语义分割。第三分割模型根据目标对象在z轴的二维切片图像中的灰度、颜色、纹理和形状等特征,完成目标对象在z轴的二维切片图像的语义分割过程,从而输出目标对象在z轴方向面的分布概率图。
步骤306,调用自适应融合模型对x轴方向面、y轴方向面和z轴方向面各自对应的三个分布概率图进行三维融合,得到目标对象的三维分布二值图。
CPU调用存储于存储器中的自适应融合模型对得到的x轴,y轴,z轴对应的三个分布概率图进行自适应融合。由于自适应融合模型是将三个不同维度的二维分布概率图进行融合,因此可以抑制掉许多背景噪点,并对目标对象的边缘分割进行光滑和准确地分割,最终得到目标对象的三维分布二值图。
以三维图像是三维医学图像为例,参考图4,计算设备将输入的三维医学图像401在x轴方向面进行分割得到x轴的二维切片图像402、在y轴方向面进行分割得到y轴的二维切片图像403、在z轴方向面进行分割得到z轴的二维切片图像404,然后对三个二维切片图像进行二维语义分割,得到目标对象在三个方向面上的二维分布概率图405-407,然后由自适应融合模型将三个二维分布概率图405-407进行三维融合,得到目标对象的三维分布二值图408(3D Mask)。
综上所述,在本实施例提供的方法中,通过将获得的三维图像按照三维坐标轴所在的三个方向面进行切片,得到三个方向面对应的二维切片图像,再通过三个方向面对应的三个分割模型,得到三个方向面对应的二维分布概率图,实现了终端对三维医学图像的二维语义分割。再通过自适应融合模型将三个分布概率图进行三维融合,得到目标对象的三维分布二值图,从而解决了相关技术中的Pspnet网络模型仅适用于2D自然图像的语义分割,不支持对3D医学图像进行语义分割的问题,达到了能够利用三个2D分割模型和一个自适应融合模型,实现对3D医学图像进行语义分割的效果,且由于自适应融合模型是将三个不同维度的二维分布概率图进行融合,在三维融合时有效抑制了背景噪点,实现对目标对象的边缘分割进行光滑和准确地分割。
图5示出了本申请另一个示例性实施例提供的三维图像的语义分割的方法流程图,该方法可以应用于图2所示的实施环境中,本实施例中以三维图像是三维医学图像,目标对象是目标器官来举例说明。该方法包括:
步骤501,获取三维医学图像。
计算机设备通过医学影像采集设备采集三维医学图像,该三维医学图像包括三维目标器官,以及除目标器官以外的背景区域。
步骤502,将三维医学图像按照三维坐标轴所在的三个方向面进行切片,得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像。
故计算机设备在获取到三维医学图像后,将三维医学图像按照三维坐标轴所在的三个方向面进行切片,从而得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像。
在一个可选的实施例中,由于每种目标器官在三维医学图像中的分布位置是相对固定的,计算机设备还读取预先存储的第一临床先验知识,该第一临床先验知识用于指示目标器官在每个二维切片图像中的候选出现位置的目标取值范围。比如,目标器官A在x轴的二维切片图像中候选出现的横坐标范围为[a1,a2],在y轴的二维切片图像中候选出现的纵坐标范围为[b1,b2]。该目标取值范围用于在后处理过程中进行第一噪声滤除。
在另一个可选的实施例中,由于每种目标器官的外部形状呈椭球形,计算机设备还读取预先存储的第二临床先验知识,该第二临床先验知识用于指示目标器官的3D椭球模型。示意性的,计算机设备利用第二临床先验知识统计出目标器官在x,y,z三个方向面上可能的最长轴、最短轴,从而预先建立目标器官的三维椭球模型。该三维椭球模型指示了目标器官在三维医学图像中的候选出现位置,该三维椭球模型用于在后处理过程中进行第二噪声滤除。
步骤503,当二维切片图像的长宽比例超过预设比例范围时,按照二维切片图像的短边边长所形成的正方形边框对二维切片图像进行扫描框分割,得到若干个待处理的二维切片图像。
由于三个坐标轴所对应的分割模型的输入图尺寸通常为正方形尺寸,而某些实施方式中的二维切片图像太过狭长,直接将狭长的二维切片图像转换为正方形尺寸后,会导致目标器官发生严重变形而导致语义分割失败,因此计算机设备还可以采用如下图像预处理方式,对二维切片图像进行处理。
在一种可选的实施方式中,当获得的二维切片图像的长宽比例在预设比例范围内时,计算机设备将二维切片图像的尺寸转换为符合分割模型的输入尺寸。预设比例范围可以是[1/3,3]。
在另一种可选的实施方式中,如图6所示,当获得的二维切片图像的长宽比例超过预设比例范围时,即二维切片图像的长宽比例超出[1/3,3]时,认为二维切片图像太过狭长,若计算机设备直接将二维切片图像601按照原始尺寸转换为输入尺寸602,该输入尺寸是符合分割模型的像素点尺寸,则二维切片图像601中的目标器官会挤压成条形,从而造成最终的预测结果不准确。
在这种情况下,如图7所示,计算机设备在训练分割模型时,将根据样本图像得到的二维切片图像701按照短边边长所形成的正方形边框进行切割,得到中间待处理的二维切片图像702。计算机设备将中间待处理的二维切片图像702的尺寸转换为分割模型的输入尺寸703进行训练。
计算机设备在测试过程或预测过程中,将根据三维医学图像获得的二维切片图像704按照短边边长所形成的正方形边框对二维切片图像进行扫描框分割,得到若干个待处理的二维切片图像705(比如图7中为3张)。之后,计算机设备再将若干个待处理的二维切片图像705的尺寸转换为分割模型的输入尺寸703,然后分别输入至分割模型进行预测。
步骤504,调用第一分割模型对x轴的二维切片图像进行语义分割,得到目标器官在x轴方向面的分布概率图。
计算机设备调用存储于存储器内的第一分割模型对x轴的二维切片图像进行语义分割。第一分割模型根据目标器官在三维医学图像中的分布位置、大小和形状等特征,完成目标器官在x轴的二维切片图像的语义分割过程,从而输出目标器官在x轴方向面的分布概率图。
在一种可选的实施方式中,该第一分割模型包括深度网络解码部和跳跃传递解码部,深度网络解码部包括n层卷积层,跳跃传递解码部包括m层反卷积层,n和m均为正整数。
该深度网络编码部,用于通过n层卷积层对二维切片图像进行降采样特征提取,得到降采样后的第一中间特征图。该跳跃传递解码部,用于通过m层反卷积层对第一中间特征图和第二中间特征图进行升采样处理,得到升采样后的分布概率图。其中,第二中间特征图包括n层卷积层中的第i层卷积层输出的特征图,i为小于或等于n的整数。
可选地,该深度网络编码部是基于残差网络模型构建的神经网络模型,或,该深度网络编码部是基于其它分类模型构建的神经网络模型,本实施例不做限定。
示意性的,如图8所示,计算机设备将获得的x轴的二维切片图像801输入至基于ResNet101模型构建的深度网络编码部802中,该深度网络编码部802包括5层卷积层,该5层卷积层分别为Conv1、Conv2_x、Conv3_x、Conv4_x和Conv5_x,每层卷积层对应的卷积核尺寸和卷积核数量,以及每次卷积核进行卷积的步长(stride)的信息如表一所示。表中的x表示属于该层卷积层的子卷积层编号。
表一
如表一所示,深度网络编码部802的Conv1层包括64个7x7的卷积核,每次卷积步长为2。Conv2_x包括级联的1个子卷积层和3个第一模块,第一个子卷积层包括3x 3的卷积核,每次卷积步长为2,且在该第一个子卷积层卷积后进行一次最大池化。位于第一个子卷积层后的三个第一模块(block)是相同的。如图9所示,该第一模块包括三个子卷积层,第一子卷积层901包括64个1x1的卷积核,第二子卷积层902包括64个3x3的卷积核,第三子卷积层903包括256个1x1的卷积核,且每层子卷积层之后都连接有激活(relu)层和批归一化(BatchNormalization,BN)层(图中未示出)。此外,该第一模块还用于将上一层第一个子卷积层输出的特征图对应的像素通过跳跃连接(skip connection)映射至第三子卷积层903输出的特征图中,并通过relu层进行激活,从而得到下一个模块的输入的特征图。该relu层用于将卷积后得到的线性数据转化为非线性数据,从而提升ResNet101模型的表达能力。该BN层用于加快ResNet101模型的收敛速度,缓解了ResNet101模型深层时的梯度弥散问题,从而使得该ResNet101模型更加稳定和易于训练。
Conv3_x包括级联的4个第二模块,4个第二模块是相同的。且第二模块与第一模块的结构相同,可以参考第一模块的结构理解第二模块。该第二模块包括三个子卷积层,第四子卷积层包括128个1x1的卷积核,且每次卷积步长为2,第五子卷积层包括128个3x3的卷积核,第六子卷积层包括512个1x1的卷积核,且每层子卷积层之后都连接有relu层和BN层。此外,该第二模块还用于将上一个模块的输出的特征图对应的像素通过跳跃连接映射至第六子卷积层输出的特征图中,并通过relu层进行激活,从而得到下一个模块的输入的特征图。
Conv4_x包括级联的23个第三模块,23个第三模块是相同的。且第三模块与第一模块的结构相同,可以参考第一模块的结构理解第三模块。该第三模块包括三个子卷积层,第七子卷积层包括256个1x1的卷积核,且每次卷积步长为1,为了保证每层第七子卷积层之后输出的特征图的面积(又称感受野)不缩小,空洞设置为2,第八子卷积层包括256个3x3的卷积核,第九子卷积层包括1024个1x1的卷积核,且每层子卷积层之后都连接有relu层和BN层。此外,该第三模块还用于将上一个模块输出的特征图对应的像素通过跳跃连接映射至第九子卷积层输出的特征图中,并通过relu层进行激活,从而得到下一个模块的输入的特征图。
其中,空洞卷积也称为扩张卷积,是一种在卷积核之间注入空洞的一种卷积方式。相较于普通卷积,空洞卷积引入了一个称为“扩张率(dilation rate)”的超参数,该参数定义了卷积核处理数据时各值的间距。通过空洞卷积处理,一方面能够保持图像特征的空间尺度不变,从而避免因减少了图像特征的像素的信息而导致的信息损失,另一方面能够扩大感受野,从而实现更加精准的目标检测。其中,感受野是神经网络中的隐藏层输出的特征图上的像素点在原始图像上映射的区域大小,像素在原始图像上的感受野越大,表示其映射的原始图像范围越大,也意味着其可能蕴含更为全局、语义层次更高的特征。
Conv5_x包括级联的3个第四模块,3个第四模块是相同的。且第四模块与第一模块的结构相同,可以参考第一模块的结构理解第四模块。该第四模块包括三个子卷积层,第十子卷积层包括512个1x1的卷积核,第十一子卷积层包括512个3x3的卷积核,第十二子卷积层包括2048个1x1的卷积核,且每层子卷积层之后都连接有relu层和BN层。此外,该第四模块还用于将上一个模块输出的特征图对应的像素通过跳跃连接映射至第十二子卷积层输出的特征图中,并通过relu层进行激活,从而得到下一个模块的输入的特征图。
x轴的二维切片图像801经由深度网络编码部802的5层卷积层提取特征后,得到第一中间特征图(1),该第一中间特征图(1)对应于x轴的方向面。示意性的,该第一中间特征图(1)是8倍降采样后的特征图。可选地,在Conv5_3之后使用pooling进行降采样,鉴于3D切割为切片时容易出现尺度范围分布差异巨大的情况,需要加入多尺度信息,降采样核尺寸设置为1/9/19/37/74五种。
示意性的,计算机设备接着将第一中间特征图(1)输入至跳跃传递解码部803,该跳跃传递解码部803包括2层反卷积层。计算机设备通过反卷积层进行逐步式解码第一中间特征图(1),解码次数为两次,每次解码倍数为2。解码第一中间特征图(1)是指将第一中间特征图(1)与深度网络编辑部802中预定层输出的特征图进行跳跃连接以及升采样处理。第一层反卷积层将第一中间特征图(1)与深度网络解码部802的Conv3_x卷积层输出的第二中间特征图(2)进行跳跃连接以及2倍升采样处理,得到2倍升采样后的第一中间特征图(1’),将升采样后的第一中间特征图(1’)与深度网络解码部802的Conv1卷积层输出的第二中间特征图(2’)进行跳跃连接以及2倍升采样处理,得到4倍升采样后的第二中间特征图(2’),得到最终的分布概率图。可选地,跳跃连接的第一中间特征图和第二中间特征图的尺寸是相同的。
计算机设备通过第一分割模型得到目标器官在x轴方向面的分布概率图804。该分部概率图804指示了二维切片图像上的每个像素点属于前景区域的概率和/或属于背景区域的概率。前景区域是指目标器官所在的区域,背景区域是指非目标器官所在的区域。
步骤505,调用第二分割模型对y轴的二维切片图像进行语义分割,得到目标器官在y轴方向面的分布概率图。
可选地,第二分割模型和第一分割模型具有相同的结构,仅为训练过程所使用的样本图像存在区别。因此,采用第二分割模型对y轴的二维切片图像进行语义分割的过程可以参考步骤504的描述,不再赘述。
步骤506,调用第三分割模型对z轴的二维切片图像进行语义分割,得到目标器官在z轴方向面的分布概率图。
可选地,第三分割模型和第一分割模型具有相同的结构,仅为训练过程所使用的样本图像存在区别。因此,采用第二分割模型对y轴的二维切片图像进行语义分割的过程可以参考步骤504的描述,不再赘述。
步骤507,调用自适应融合模型将x轴方向面、y轴方向面和z轴方向面各自对应的三个分布概率图进行组合,得到三维分布特征图。
计算机设备调用存储于存储器中的自适应融合模型将x轴方向面、y轴方向面和z轴方向面各自对应的三个分布概率图进行组合,得到三维分布特征图。
如图10所示,计算机设备将得到的目标器官在x轴方向面的分布概率图1001、目标器官在y轴方向面的分布概率图1002和目标器官在z轴方向面的分布概率图1003进行三维融合,得到三维分布特征图1004。该三个方向面的分布概率图1001-1003的尺寸与三维医学图像的尺寸相同,并具有各自方向面对应的概率。该三维分布特征图1004包括三个方向面各自对应的目标器官对应的概率,且该三维分布特征图1004的尺寸与三维医学图像的尺寸相同。
步骤508,对三维分布特征图进行三维融合卷积,得到三维分割概率图。
计算机设备调用存储于存储器中的自适应融合模型对得到的三维分布特征图1004进行三层卷积层进行三维融合卷积,从而得到三维分割概率图1005,该三维分割概率图1005用于指示三维医学图像中每个像素点属于前景区域的概率和/或属于背景区域的概率。前景区域是指目标器官所在的区域,背景区域是指非目标器官所在的区域。图10中,H*W*D*C表示图像的尺寸和对应的概率。
可选地,该自适应融合模型包括三个浅层的3D卷积层,第一3D卷积层包括64个3*3*3的3D卷积核且卷积步长为1、第二3D卷积层包括64个3*3*3的3D卷积核且卷积步长为1、第三3D卷积层包括1个3*3*3的3D卷积核且卷积步长为1。
可选地,该三维分割概率图1005的尺寸与三维医学图像的尺寸相同。
步骤509,根据三维分割概率图中每个像素点的最大概率类别,计算得到目标器官的三维分布二值图。
可选地,自适应融合模型根据三维分割概率图中每个像素点的最大概率类别,确定图像中每个像素点所属的类别,该类别包括属于目标器官的前景像素点和不属于目标器官的背景像素点。
可选地,三维分割概率图1005中包括每个像素点属于前景像素点的第一概率以及属于背景像素点的第二概率,最大概率类别是根据第一概率和第二概率中较大一个概率所对应的类别。比如,某个像素点属于前景像素点的概率是80%,属于背景像素点的概率是20%,则该像素点的最大概率类别是前景像素点。在一些实施例中,三维分布二值图中采用1来代表前景像素点,0来代表背景像素点。
步骤510,基于临床先验知识对三维分布二值图中的噪声像素点进行滤除后处理。
由于每种目标器官在三维医学图像中的分布位置是相对固定的,计算机设备还可采用临床先验知识对三维分布二值图中的噪声像素点进行滤除。
第一,计算机设备在三维分布二值图中滤除超出目标取值范围的第一噪声像素点。
其中,目标取值范围是根据第一临床先验知识得到的目标器官可能出现的坐标取值范围。可选地,目标取值范围是一个三维的立方体框区域。第一临床先验知识可以是基于多个样本图像构建的。
第二,计算机设备在三维分布二值图中滤除超出三维椭球模型的第二噪声像素点。
其中,三维椭球模型是根据第二临床先验知识得到的目标器官对应的椭球模型。第二临床先验知识可以是基于多个样本图像构建的。由于大部分器官的形状偏向椭球体,故终端可以预先统计目标器官在x轴、y轴、z轴各自的方向面上的二维切片图像上的最长轴和最短轴,从而构建目标器官的三维椭球模型。根据构建的三维椭球模型,在候选像素点中滤除超出三维椭球模型的噪声像素点。
可选地,计算机设备滤除噪声像素点的方法可以采用上述两种滤除方式中的至少一种。
综上所述,在本实施例提供的方法中,通过将获得的三维图像按照三维坐标轴所在的三个方向面进行切片,得到三个方向面对应的二维切片图像,再通过三个方向面对应的三个分割模型,得到三个方向面对应的二维分布概率图,实现了终端对三维医学图像的二维语义分割。再通过自适应融合模型将三个分布概率图进行三维融合,得到目标对象的三维分布二值图,从而解决了相关技术中的Pspnet网络模型仅适用于2D自然图像的语义分割,不支持对3D医学图像进行语义分割的问题,达到了能够利用三个2D分割模型和一个自适应融合模型,实现对3D医学图像进行语义分割的效果,且由于自适应融合模型是将三个不同维度的二维分布概率图进行融合,在三维融合时有效抑制了背景噪点,实现对目标对象的边缘分割进行光滑和准确地分割。
在本实施例提供的方法中,通过临床先验知识对噪声像素点的过滤处理,终端获取属于目标器官的像素点,具备较强的降噪能力和良好的边缘分割效果。
在本实施例提供的方法中,将二维切片图像的尺寸从原始尺寸改为输入尺寸,避免使用二维切片图像原始尺寸可能产生的误差问题,使得三维医学图像进行语义分割时,能够将目标器官准确的分割。在实际应用中,能够实现多种器官/组织与外形相关的自动化病变的判断,从而达到辅助诊断的目的。
可选地,上述第一分割模型、第二分割模型、第三分割模型和自适应融合模型都属于卷积网络模型,在调用该卷积网络模型之前,还需要通过计算机设备对卷积网络模型进行训练,如图11所示,三个二维分割模型的训练方法包括但不仅限于如下步骤:
步骤1101,获取至少一组样本图像。
计算机设备通过医学影像采集设备采集得到至少一组样本图像,每组样本图像的数量不限,可以根据训练人员的需求设定。样本图像可以包括具有样本器官的图像、不具有样本器官的图像。对于存在样本器官的样本图像,该样本图像中标定有样本器官所属的像素点。
对于第一分割模型,样本图像可以是x轴方向面上的二维切片图像,该x轴方向面上的二维切片图像上标定有样本器官所属的像素点。
对于第二分割模型,样本图像可以是y轴方向面上的二维切片图像,该y轴方向面上的二维切片图像上标定有样本器官所属的像素点。
对于第三分割模型,样本图像可以是z轴方向面上的二维切片图像,该z轴方向面上的二维切片图像上标定有样本器官所属的像素点。
步骤1102,获取样本图像中的样本器官的标定结果,得到样本图像和样本图像对应的样本器官组成的样本图像数据组,标定结果包括样本器官在样本图像中的分布位置。
计算机设备在获取样本图像后,由训练人员或计算机设备对样本图像中设定标定结果,该标定结果包括样本器官所属的像素点。该标定结果用于指示样本器官在样本图像中的分布位置、样本器官的大小和样本器官对应的椭球体形状中的至少一种信息。
比如,在具有样本器官的图像中标定出样本器官所在的区域和除样本器官以外的背景区域;在不具有样本器官的图像中标定出不存在样本器官所在的区域。
该样本图像数据组用于与样本图像对应的训练结果进行比较。
步骤1103,将样本图像输入原始的分割模型,得到训练结果。
计算机设备将标定过的同一组样本图像输入原始的分割模型中,通过原始的分割模型对样本图像和样本图像中的样本器官进行识别,将识别结果作为训练结果输出。
可选地,原始的分割模型是基于ResNet模型所构建的模型,如图8所示。该分割模型的初始权重可以由训练人员根据经验值进行设定,或,由计算机设备随机设定。在一个可能的实施例中,该分割模型中深度网络编码部的权重采用在ImageNet数据集上训练的ResNet参数进行初始化,而跳跃传递解码部的权重采用均值为0,方差为2除以输入个数的高斯分布数值进行初始化。
步骤1104,根据每组样本图像数据组,将训练结果与样本器官的标定结果进行比较,得到计算损失,计算损失用于指示训练结果与样本器官的标定结果之间的误差。
计算机设备根据得到的训练结果与同一组样本图像对应的样本图像数据组进行比较,计算训练结果与标定结果之间的误差。可选地,该误差为加权损失函数。该计算损失用于指示训练结果与样本器官的标定结果之间的误差。该加权损失函数采用交叉熵损失(cross entropy loss)函数,该交叉熵损失函数的加权损失公式为
其中,p表示该像素属于目标器官对应的目标像素的概率;y表示类别,即y是0或1;wfg表示前景类别的权重,wwg表示背景类别的权重;ti表示第i张样本图像中前景的像素个数;ni表示第i张样本图像中全图的像素个数;N为一个批输入尺寸(Batchsize)的样本图像的个数,加权的数值来源于对样本图像中前景和背景的比例统计。
步骤1105,根据至少一组样本图像数据组各自对应的计算损失,采用误差反向传播算法训练得到分割模型。
终端根据至少一组样本图像数据组各自对应的计算损失,采用误差反向传播算法重新设定权重,直至终端根据重新设定的权重得到的加权损失满足预设阈值,或终端进行训练的次数达到预设次数。如,要求训练次数达到20000次,终端可以停止训练,这时用于二维语义分割的分割模型训练完成。可选地,误差反向传播算法可以采用SGD(StochasticGradient Descent)的梯度下降法,根据SGD求解分割模型的卷积模板参数w和偏置参数b,训练迭代参数可以根据交叉验证选择。
在三个坐标轴分别对应的分割模型训练完毕后,根据每个三维样本图像的二维切片图像在训练完毕的分割模型中得到二维的分布概率图,将该二维的分布概率图和标定好的三维二值图作为另一组样本图像组。使用该样本图像组对自适应融合模型进行训练,该自适应融合模型的训练过程与上述方法相同或相似,本申请不再赘述。
可选地,计算加权损失即是通过计算特征图中的每个像素点属于目标像素的概率,该目标像素是目标器官中每个特征对应的像素。
需要说明的是,自适应融合模型的训练过程与三个分割模型的训练过程相同,自适应融合模型的训练过程可以参照图11所示的步骤实现。其中,当自适应融合模型获得训练结果后,使用Dice损失(Dice Loss)函数作为损失函数,该Dice损失函数用于计算自适应融合模型的训练结果与自适应融合模型的标定结果之间的误差。
在本申请提供的三维图像的语义分割方法也可以应用于二维图像的语义分割方法中。
图12示出了本申请另一个示例性实施例提供的二维图像的语义分割的方法流程图,该方法可以应用于图2所示的实施环境中,本实施例中以二维图像是二维医学图像,目标对象是目标器官来举例说明。该方法包括:
步骤1201,获取二维医学图像。
计算机设备通过医学影像采集设备采集三维医学图像,该三维医学图像包括三维目标器官,以及除目标器官以外的背景区域。
计算机设备在获取到二维医学图像后,对进行分析。在一种可选的实施方式中,由于每种目标器官在二维医学图像中的分布位置是相对固定的,计算机设备还读取预先存储的第三临床先验知识,该第三临床先验知识用于指示目标器官在每个二维医学图像中的候选出现位置的目标取值范围。比如,目标器官A在x轴的二维医学图像中候选出现的横坐标范围为[a1,a2],在y轴的二维医学图像中候选出现的纵坐标范围为[b1,b2]。该目标取值范围用于在后处理过程中进行第三噪声滤除。
步骤1202,当二维医学图像的长宽比例超过预设比例范围时,按照二维医学图像的短边边长所形成的正方形边框对二维医学图像进行扫描框分割,得到若干个待处理的二维医学图像。
由于两个个坐标轴所对应的分割模型的输入图尺寸通常为正方形尺寸,而某些实施方式中的二维医学图像太过狭长,直接将狭长的二维医学图像转换为正方形尺寸后,会导致目标器官发生严重变形而导致语义分割失败,因此计算机设备还可以采用如下图像预处理方式,对二维医学图像进行处理。
在一种可选的实施方式中,当获得的二维医学图像的长宽比例在预设比例范围内时,计算机设备将二维医学图像的尺寸转换为符合分割模型的输入尺寸。预设比例范围可以是[1/3,3]。
在另一种可选的实施方式中,如图6所示,当获得的二维医学图像的长宽比例超过预设比例范围时,即二维医学图像的长宽比例超出[1/3,3]时,认为二维医学图像太过狭长,若计算机设备直接将二维医学图像按照原始尺寸转换为输入尺寸,该输入尺寸是符合分割模型的像素点尺寸,则二维医学图像中的目标器官会挤压成条形,从而造成最终的预测结果不准确。
在这种情况下,如图7所示,计算机设备按照二维医学图像的短边边长所形成的的正方形边框对该二维医学图像进行扫描框分割,得到若干个待处理的二维医学图像。之后,计算机设备再将若干个待处理的二维医学图像的尺寸转换为分割模型的输入尺寸,然后分别输入至分割模型进行预测。
步骤1203,调用分割模型对二维医学图像进行语义分割,得到目标器官的分布概率图。
其中,分割模型结构与第一分割模型结构相同,故分割模型结构可以参考如图8所示的模型结构。分割模型包括:深度网络编码部和跳跃传递解码部,深度网络编码部包括n层卷积层,跳跃传递解码部包括m层反卷积层,n和m均为正整数。
深度网络编码部,用于通过n层卷积层对二维图像进行降采样特征提取,得到降采样后的第三中间特征图。
跳跃传递解码部,用于通过m层反卷积层对第三中间特征图和第四中间特征图进行升采样处理,得到升采样后的分布概率图。
其中,第四中间特征图包括n层卷积层中的第i层卷积层输出的特征图,i为小于或等于n的整数。
可选地,分割模型和第一分割模型具有相同的结构,仅为训练过程所使用的样本图像存在区别。因此,采用分割模型对二维医学图像进行语义分割的过程可以参考步骤504的描述,不再赘述。
步骤1204,根据分布概率图中每个像素点的最大概率类别,计算得到目标器官的二维分布二值图。
可选地,分割模型根据分布概率图中每个像素点的最大概率类别,确定图像中每个像素点所属的类别,该类别包括属于目标器官的前景像素点和不属于目标器官的背景像素点。
可选地,分布概率图中包括每个像素点属于前景像素点的第三概率以及属于背景像素点的第四概率,最大概率类别是根据第三概率和第四概率中较大一个概率所对应的类别。比如,某个像素点属于前景像素点的概率是80%,属于背景像素点的概率是20%,则该像素点的最大概率类别是前景像素点。在一些实施例中,二维分布二值图中采用1来代表前景像素点,0来代表背景像素点。
步骤1205,基于临床先验知识对二维分布二值图中的噪声像素点进行滤除后处理。
由于每种目标器官在二维医学图像中的分布位置是相对固定的,计算机设备还可采用临床先验指示对二维分布二值图中的噪声像素点进行滤除。
计算机设备在二维分布二值图中滤除超出目标取值范围的第三噪声像素点。
其中,目标取值范围是根据第三临床先验知识得到的目标器官可能出现的坐标取值范围。可选地,目标取值范围是一个二维的平面框区域。第三临床先验知识可以是基于多个样本图像构建的。
综上所述,在本实施例提供的方法中,通过分割模型对获得的二维图像进行语义分割,得到目标器官的分布概率图,通过确定分布概率图中每个像素点的最大概率类别,得到目标器官的二维分布二值图,并根据第三临床先验知识对得到的二维分布二值图进行噪声像素点的滤除,实现对二维图像的语义分割的目的,且经过对噪声像素点的滤除,使得语义分割后的图像分割边界清晰,且边缘处理友好。并且证明了本申请提供的三维图像的语义分割方法不仅适用于三维图像的语义分割,还适用于二维图像的语义分割,而且分割效果较为优秀。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图13示出了本申请一个示例性实施例提供的三维图像的语义分割的装置示意图,该装置包括:
第一获取模块1310,用于获取三维图像。
切片模块1320,用于将三维图像按照三维坐标轴所在的三个方向面进行切片,得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像。
第一分割模块1330,用于调用第一分割模型对x轴的二维切片图像进行语义分割,得到目标对象在x轴方向面的分布概率图;调用第二分割模型将y轴的二维切片图像进行语义分割,得到目标对象在y轴方向面的分布概率图;调用第三分割模型将z轴的二维切片图像进行语义分割,得到目标对象在z轴方向面的分布概率图。
融合模块1340,用于调用自适应融合模型对x轴方向面、y轴方向面和z轴方向面各自对应的三个分布概率图进行三维融合,得到目标对象的三维分布二值图。
图14示出了本申请另一个示例性实施例提供的三维图像的语义分割的装置示意图,该装置包括:
第一获取模块1410,用于获取三维图像。
切片模块1420,用于将三维图像按照三维坐标轴所在的三个方向面进行切片,得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像。
第一扫描模块1430,用于当二维切片图像的长宽比例超过预设比例范围时,按照二维切片图像的短边边长所形成的正方形边框对二维切片图像进行扫描框分割,得到若干个待处理的二维切片图像。
第一分割模块1440,用于调用第一分割模型对x轴的二维切片图像进行语义分割,得到目标对象在x轴方向面的分布概率图;调用第二分割模型将y轴的二维切片图像进行语义分割,得到目标对象在y轴方向面的分布概率图;调用第三分割模型将z轴的二维切片图像进行语义分割,得到目标对象在z轴方向面的分布概率图。
可选地,第一分割模型、第二分割模型和第三分割模型中的至少一个模型包括:深度网络编码部和跳跃传递解码部,深度网络编码部包括n层卷积层,跳跃传递解码部包括m层反卷积层,n和m均为正整数。
深度网络编码部,用于通过n层卷积层对二维切片图像进行降采样特征提取,得到降采样后的第一中间特征图。
跳跃传递解码部,用于通过m层反卷积层对第一中间特征图和第二中间特征图进行升采样处理,得到升采样后的分布概率图。
其中,第二中间特征图包括n层卷积层中的第i层卷积层输出的特征图,i为小于或等于n的整数。
融合模块1450,用于调用自适应融合模型对x轴方向面、y轴方向面和z轴方向面各自对应的三个分布概率图进行三维融合,得到目标对象的三维分布二值图。
可选地,如图15所示,融合模块1450,包括:
组合单元1451,用于调用自适应融合模型将x轴方向面、y轴方向面和z轴方向面各自对应的三个分布概率图进行组合,得到三维分布特征图。
融合单元1452,用于对三维分布特征图进行三维融合卷积,得到三维分割概率图。
计算单元1453,用于根据三维分割概率图中每个像素点的最大概率类别,计算得到目标对象的三维分布二值图。
可选地,三维图像是三维医学图像;
第一滤除模块1460,用于基于临床先验知识对三维分布二值图中的噪声像素点进行滤除后处理;
所述临床先验知识是对所述三维医学图像中的所述目标对象的分布位置进行统计得到的知识。
在一种可选的实施方式中,第一滤除模块1460,用于在三维分布二值图中滤除超出目标取值范围的第一噪声像素点。
其中,目标取值范围是根据第一临床先验知识得到的目标对象可能出现的坐标取值范围。
在另一种可选的实施方式中,第一滤除模块1460,用于在三维分布二值图中滤除超出三维椭球模型的第二噪声像素点。
其中,三维椭球模型是根据第二临床先验知识得到的目标对象对应的椭球模型。
相关细节可结合参考图3和图5所示的方法实施例。其中,第一获取模块1410还用于实现上述方法实施例中其他任意隐含或公开的获取步骤相关的功能;切片模块1420还用于实现上述方法实施例中其他任意隐含或公开的切片步骤相关的功能;第一扫描模块1430还用于实现上述方法实施例中其他任意隐含或公开的扫描步骤相关的功能;第一分割模块1440还用于实现上述方法实施例中其他任意隐含或公开的分割步骤相关的功能;融合模块1450还用于实现上述方法实施例中其他任意隐含或公开的融合步骤相关的功能;第一滤除模块1460还用于实现上述方法实施例中其他任意隐含或公开的滤除步骤相关的功能。
需要说明的是:上述实施例提供的三维图像的语义分割装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的三维图像的语义分割装置与三维图像的语义分割方法的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图16示出了本申请一个示例性实施例提供的二维图像的语义分割的装置示意图,该装置包括:
第二获取模块1610,用于获取二维图像。
第二扫描模块1620,用于当二维图像的长宽比例超过预设比例范围时,按照二维图像的短边边长所形成的正方形边框对二维图像进行扫描框分割,得到若干个待处理的二维图像。
第二分割模块1630,用于调用分割模型对二维图像进行语义分割,得到目标对象的分布概率图;
其中,分割模型包括:深度网络编码部和跳跃传递解码部,深度网络编码部包括n层卷积层,跳跃传递解码部包括m层反卷积层,n和m均为正整数。
深度网络编码部,用于通过n层卷积层对二维图像进行降采样特征提取,得到降采样后的第三中间特征图。
跳跃传递解码部,用于通过m层反卷积层对第三中间特征图和第四中间特征图进行升采样处理,得到升采样后的分布概率图。
其中,第四中间特征图包括n层卷积层中的第i层卷积层输出的特征图,i为小于或等于n的整数。
计算模块1640,用于根据分布概率图中每个像素点的最大概率类别,计算得到目标对象的二维分布二值图。
可选地,三维图像是三维医学图像;
第二滤除模块1650,用于基于临床先验知识对二维分布二值图中的噪声像素点进行滤除后处理;
所述临床先验知识是对所述三维医学图像中的所述目标对象的分布位置进行统计得到的知识。
可选地,第二滤除模块1650,用于在二维分布二值图中滤除超出目标取值范围的第三噪声像素点。
其中,目标取值范围是根据第三临床先验知识得到的目标对象可能出现的坐标取值范围。
相关细节可结合参考图12所示的方法实施例。其中,第二获取模块1610还用于实现上述方法实施例中其他任意隐含或公开的获取步骤相关的功能;第二扫描模块1620还用于实现上述方法实施例中其他任意隐含或公开的扫描步骤相关的功能;第二分割模块1630还用于实现上述方法实施例中其他任意隐含或公开的分割步骤相关的功能;计算模块1640还用于实现上述方法实施例中其他任意隐含或公开的计算步骤相关的功能;第二滤除模块1650还用于实现上述方法实施例中其他任意隐含或公开的滤除步骤相关的功能。
需要说明的是:上述实施例提供的二维图像的语义分割装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的二维图形的语义分割装置与二维图像的语义分割方法的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图17示出了本申请一个实施例提供的计算机设备的结构示意图。该计算机设备用于实施上述实施例中提供的三维图像的语义分割方法和二维图像的语义分割方法。具体来讲:
计算机设备1700包括中央处理单元(CPU)1701、包括随机存取存储器(RAM)1702和只读存储器(ROM)1703的系统存储器1704,以及连接系统存储器1704和中央处理单元1701的系统总线1705。该计算机设备1700还包括帮助计算机内的各个器件之间传输信息的基本输入/输出系统(I/O系统)1706,和用于存储操作系统1713、应用程序1714和其他程序模块1715的大容量存储设备1707。
基本输入/输出系统1706包括有用于显示信息的显示器1708和用于用户输入信息的诸如鼠标、键盘之类的输入设备1709。其中该显示器1708和输入设备1709都通过连接到系统总线1705的输入输出控制器1710连接到中央处理单元1701。基本输入/输出系统1706还可以包括输入输出控制器1710以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器1710还提供输出到显示屏、打印机或其他类型的输出设备。
大容量存储设备1707通过连接到系统总线1705的大容量存储控制器(未示出)连接到中央处理单元1701。该大容量存储设备1707及其相关联的计算机可读介质为计算机设备1700提供非易失性存储。也就是说,大容量存储设备1707可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知该计算机存储介质不局限于上述几种。上述的系统存储器1704和大容量存储设备1707可以统称为存储器。
根据本申请的各种实施例,计算机设备1700还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即计算机设别1700可以通过连接在系统总线1705上的网络接口单元1711连接到网络1712,或者说,也可以使用网络接口单元1711来连接到其他类型的网络或远程计算机系统(未示出)。
存储器还包括一个或者一个以上的程序,该一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行。上述一个或者一个以上程序包含用于进行以下操作的指令:
获取三维图像;将三维图像按照三维坐标轴所在的三个方向面进行切片,得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像;调用第一分割模型对x轴的二维切片图像进行语义分割,得到目标对象在x轴方向面的分布概率图;调用第二分割模型将y轴的二维切片图像进行语义分割,得到目标对象在y轴方向面的分布概率图;调用第三分割模型将z轴的二维切片图像进行语义分割,得到目标对象在z轴方向面的分布概率图;调用自适应融合模型对x轴方向面、y轴方向面和z轴方向面各自对应的三个分布概率图进行三维融合,得到目标对象的三维分布二值图。
假设上述为第一种可能的实施方式,则在第一种可能的实施方式作为基础而提供的第二种可能的实施方式中,所述服务器的存储器中,还包含用于执行以下操作的指令:
获取二维图像;调用分割模型对二维图像进行语义分割,得到目标对象的分布概率图;根据分布概率图中每个像素点的最大概率类别,计算得到目标对象的二维分布二值图。
在示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质为非易失性的计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,存储的计算机程序被处理组件执行时能够实现本公开上述实施例提供的三维图像的语义分割方法。
在示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质为非易失性的计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,存储的计算机程序被处理组件执行时能够实现本公开上述实施例提供的二维图像的语义分割方法。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (9)
1.一种三维图像的语义分割方法,其特征在于,所述方法包括:
获取所述三维图像;
将所述三维图像按照三维坐标轴所在的三个方向面进行切片,得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像;
调用第一分割模型对所述x轴的二维切片图像进行语义分割,得到目标对象在x轴方向面的分布概率图;
调用第二分割模型将所述y轴的二维切片图像进行语义分割,得到所述目标对象在y轴方向面的分布概率图;
调用第三分割模型将所述z轴的二维切片图像进行语义分割,得到所述目标对象在z轴方向面的分布概率图;
调用自适应融合模型将所述x轴方向面、所述y轴方向面和所述z轴方向面各自对应的三个分布概率图进行组合,得到三维分布特征图,所述自适应融合模型是用于将三个二维语义分割模型的语义分割结果,进行自适应融合来得到三维语义分割结果的三维模型;
对所述三维分布特征图进行三维融合卷积,得到三维分割概率图;
根据所述三维分割概率图中每个像素点的最大概率类别,计算得到所述目标对象的三维分布二值图。
2.根据权利要求1所述的方法,其特征在于,所述第一分割模型、所述第二分割模型和所述第三分割模型中的至少一个模型包括:深度网络编码部和跳跃传递解码部,所述深度网络编码部包括n层卷积层,所述跳跃传递解码部包括m层反卷积层,n和m均为正整数;
所述深度网络编码部,用于通过所述n层卷积层对所述二维切片图像进行降采样特征提取,得到降采样后的第一中间特征图;
所述跳跃传递解码部,用于通过所述m层反卷积层对所述第一中间特征图和第二中间特征图进行升采样处理,得到升采样后的所述分布概率图;
其中,所述第二中间特征图包括所述n层卷积层中的第i层卷积层输出的特征图,i为小于或等于n的整数。
3.根据权利要求1所述的方法,其特征在于,所述三维图像是三维医学图像;
所述根据所述三维分割概率图中每个像素点的最大概率类别,计算得到所述目标对象的三维分布二值图之后,还包括:
基于临床先验知识对所述三维分布二值图中的噪声像素点进行滤除后处理;
所述临床先验知识是对所述三维医学图像中的所述目标对象的分布位置进行统计得到的知识。
4.根据权利要求3所述的方法,其特征在于,所述基于临床先验知识对所述三维分布二值图中的噪声像素点进行滤除后处理,包括:
在所述三维分布二值图中滤除超出目标取值范围的第一噪声像素点;
其中,所述目标取值范围是根据第一临床先验知识得到的所述目标对象可能出现的坐标取值范围。
5.根据权利要求3所述的方法,其特征在于,所述基于临床先验知识对所述三维分布二值图中的噪声像素点进行滤除后处理,包括:
在所述三维分布二值图中滤除超出三维椭球模型的第二噪声像素点;
其中,所述三维椭球模型是根据第二临床先验知识得到的所述目标对象对应的椭球模型。
6.根据权利要求1至5任一所述的方法,其特征在于,所述方法还包括:
当所述二维切片图像的长宽比例超过预设比例范围时,按照所述二维切片图像的短边边长所形成的正方形边框对所述二维切片图像进行扫描框分割,得到若干个待处理的二维切片图像。
7.一种三维图像的语义分割装置,其特征在于,所述装置包括:
第一获取模块,用于获取所述三维图像;
切片模块,用于将所述三维图像按照三维坐标轴所在的三个方向面进行切片,得到x轴的二维切片图像、y轴的二维切片图像和z轴的二维切片图像;
第一分割模块,用于调用第一分割模型对所述x轴的二维切片图像进行语义分割,得到目标对象在x轴方向面的分布概率图;
所述第一分割模块,用于调用第二分割模型将所述y轴的二维切片图像进行语义分割,得到所述目标对象在y轴方向面的分布概率图;
所述第一分割模块,用于调用第三分割模型将所述z轴的二维切片图像进行语义分割,得到所述目标对象在z轴方向面的分布概率图;
组合模块,用于调用自适应融合模型将所述x轴方向面、所述y轴方向面和所述z轴方向面各自对应的三个分布概率图进行组合,得到三维分布特征图,所述自适应融合模型是用于将三个二维语义分割模型的语义分割结果,进行自适应融合来得到三维语义分割结果的三维模型;
融合模块,用于对所述三维分布特征图进行三维融合卷积,得到三维分割概率图;
计算模块,用于根据所述三维分割概率图中每个像素点的最大概率类别,计算得到所述目标对象的三维分布二值图。
8.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如权利要求1至6任一所述的三维图像的语义分割方法。
9.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如权利要求1至6任一所述的三维图像的语义分割方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811204375.4A CN109446951B (zh) | 2018-10-16 | 2018-10-16 | 三维图像的语义分割方法、装置、设备及存储介质 |
CN201911319326.XA CN111126242B (zh) | 2018-10-16 | 2018-10-16 | 肺部图像的语义分割方法、装置、设备及存储介质 |
PCT/CN2019/110562 WO2020078269A1 (zh) | 2018-10-16 | 2019-10-11 | 三维图像的语义分割方法、装置、终端及存储介质 |
EP19872855.2A EP3869387A4 (en) | 2018-10-16 | 2019-10-11 | METHOD AND DEVICE FOR SEMANTIC SEGMENTATION OF THREE-DIMENSIONAL IMAGE, TERMINAL AND STORAGE MEDIA |
US17/074,629 US11861501B2 (en) | 2018-10-16 | 2020-10-20 | Semantic segmentation method and apparatus for three-dimensional image, terminal, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811204375.4A CN109446951B (zh) | 2018-10-16 | 2018-10-16 | 三维图像的语义分割方法、装置、设备及存储介质 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911319326.XA Division CN111126242B (zh) | 2018-10-16 | 2018-10-16 | 肺部图像的语义分割方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109446951A CN109446951A (zh) | 2019-03-08 |
CN109446951B true CN109446951B (zh) | 2019-12-10 |
Family
ID=65545672
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811204375.4A Active CN109446951B (zh) | 2018-10-16 | 2018-10-16 | 三维图像的语义分割方法、装置、设备及存储介质 |
CN201911319326.XA Active CN111126242B (zh) | 2018-10-16 | 2018-10-16 | 肺部图像的语义分割方法、装置、设备及存储介质 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911319326.XA Active CN111126242B (zh) | 2018-10-16 | 2018-10-16 | 肺部图像的语义分割方法、装置、设备及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11861501B2 (zh) |
EP (1) | EP3869387A4 (zh) |
CN (2) | CN109446951B (zh) |
WO (1) | WO2020078269A1 (zh) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109446951B (zh) * | 2018-10-16 | 2019-12-10 | 腾讯科技(深圳)有限公司 | 三维图像的语义分割方法、装置、设备及存储介质 |
CN109978037B (zh) * | 2019-03-18 | 2021-08-06 | 腾讯科技(深圳)有限公司 | 图像处理方法、模型训练方法、装置、和存储介质 |
CN110070022A (zh) * | 2019-04-16 | 2019-07-30 | 西北工业大学 | 一种基于图像的自然场景材料识别方法 |
US11126895B2 (en) * | 2019-05-22 | 2021-09-21 | Lawrence Livermore National Security, Llc | Mimicking of corruption in images |
CN110197712B (zh) * | 2019-06-05 | 2023-09-15 | 桂林电子科技大学 | 一种医学图像储存系统及储存方法 |
CN110276408B (zh) * | 2019-06-27 | 2022-11-22 | 腾讯科技(深圳)有限公司 | 3d图像的分类方法、装置、设备及存储介质 |
CN110348351B (zh) * | 2019-07-01 | 2021-09-28 | 达闼机器人有限公司 | 一种图像语义分割的方法、终端和可读存储介质 |
CN110533029A (zh) * | 2019-08-02 | 2019-12-03 | 杭州依图医疗技术有限公司 | 确定影像中目标区域的方法及装置 |
CN110414620B (zh) * | 2019-08-06 | 2021-08-31 | 厦门大学 | 一种语义分割模型训练方法、计算机设备及存储介质 |
CN110782446B (zh) * | 2019-10-25 | 2022-04-15 | 杭州依图医疗技术有限公司 | 一种确定肺结节体积的方法及装置 |
CN110942465A (zh) * | 2019-11-08 | 2020-03-31 | 浙江工业大学 | 一种基于ResUnet的3视图PET图像分割方法 |
CN111179269B (zh) * | 2019-11-11 | 2023-07-11 | 浙江工业大学 | 一种基于多视图和三维卷积融合策略的pet图像分割方法 |
CN111178211B (zh) * | 2019-12-20 | 2024-01-12 | 天津极豪科技有限公司 | 图像分割方法、装置、电子设备及可读存储介质 |
EP3846123B1 (en) * | 2019-12-31 | 2024-05-29 | Dassault Systèmes | 3d reconstruction with smooth maps |
CN111325766B (zh) * | 2020-02-20 | 2023-08-25 | 腾讯科技(深圳)有限公司 | 三维边缘检测方法、装置、存储介质和计算机设备 |
CN111337710A (zh) * | 2020-02-20 | 2020-06-26 | 罗浩维 | 一种压电力显微镜数据读取和测量系统、装置及方法 |
TWI731604B (zh) * | 2020-03-02 | 2021-06-21 | 國立雲林科技大學 | 三維點雲資料處理方法 |
KR102534762B1 (ko) * | 2020-03-30 | 2023-05-19 | 주식회사 뷰웍스 | 신쎄틱 2차원 영상 합성 방법 및 장치 |
CN111461130B (zh) * | 2020-04-10 | 2021-02-09 | 视研智能科技(广州)有限公司 | 一种高精度图像语义分割算法模型及分割方法 |
CN111967462B (zh) * | 2020-04-26 | 2024-02-02 | 杭州依图医疗技术有限公司 | 一种获取感兴趣区域的方法及装置 |
CN111753839A (zh) * | 2020-05-18 | 2020-10-09 | 北京捷通华声科技股份有限公司 | 一种文本检测方法和装置 |
US11430176B2 (en) | 2020-05-20 | 2022-08-30 | International Business Machines Corporation | Generating volume predictions of three-dimensional volumes using slice features |
CN111739159A (zh) * | 2020-06-29 | 2020-10-02 | 上海商汤智能科技有限公司 | 三维模型生成方法、神经网络生成方法及装置 |
CN113949867B (zh) * | 2020-07-16 | 2023-06-20 | 武汉Tcl集团工业研究院有限公司 | 一种图像处理的方法及装置 |
CN113949868B (zh) * | 2020-07-17 | 2023-07-07 | 武汉Tcl集团工业研究院有限公司 | 一种熵编码方法及装置 |
CN112034456B (zh) * | 2020-08-27 | 2023-10-17 | 五邑大学 | 烟雾巡检系统、方法、控制装置及存储介质 |
US20220172330A1 (en) * | 2020-12-01 | 2022-06-02 | BWXT Advanced Technologies LLC | Deep learning based image enhancement for additive manufacturing |
CN112528944A (zh) * | 2020-12-23 | 2021-03-19 | 杭州海康汽车软件有限公司 | 一种图像识别方法、装置、电子设备及存储介质 |
CN112967293A (zh) * | 2021-03-04 | 2021-06-15 | 首都师范大学 | 一种图像语义分割方法、装置及存储介质 |
CN112967381B (zh) * | 2021-03-05 | 2024-01-16 | 北京百度网讯科技有限公司 | 三维重建方法、设备和介质 |
CN113409245B (zh) * | 2021-04-06 | 2024-04-02 | 中国电子技术标准化研究院 | 一种电子元器件x射线检查缺陷自动识别方法 |
CN113409340A (zh) * | 2021-06-29 | 2021-09-17 | 北京百度网讯科技有限公司 | 语义分割模型训练方法、语义分割方法、装置及电子设备 |
CN113344935B (zh) * | 2021-06-30 | 2023-02-03 | 山东建筑大学 | 基于多尺度难度感知的图像分割方法及系统 |
CN113449690A (zh) * | 2021-07-21 | 2021-09-28 | 华雁智科(杭州)信息技术有限公司 | 图像场景变化的检测方法、系统及电子设备 |
CN113487664B (zh) * | 2021-07-23 | 2023-08-04 | 深圳市人工智能与机器人研究院 | 三维场景感知方法、装置、电子设备、机器人及介质 |
CN113689406B (zh) * | 2021-08-24 | 2022-04-08 | 北京长木谷医疗科技有限公司 | 基于运动模拟算法的膝关节股骨后髁点识别方法及系统 |
CN113792623B (zh) * | 2021-08-27 | 2022-12-13 | 同方威视技术股份有限公司 | 安检ct目标物识别方法和装置 |
CN113689435B (zh) * | 2021-09-28 | 2023-06-20 | 平安科技(深圳)有限公司 | 图像分割方法、装置、电子设备及存储介质 |
CN113920314B (zh) * | 2021-09-30 | 2022-09-02 | 北京百度网讯科技有限公司 | 语义分割、模型训练方法,装置,设备以及存储介质 |
CN113989349B (zh) * | 2021-10-25 | 2022-11-25 | 北京百度网讯科技有限公司 | 图像生成方法、图像处理模型的训练方法、图像处理方法 |
CN113971728B (zh) * | 2021-10-25 | 2023-04-21 | 北京百度网讯科技有限公司 | 图像识别方法、模型的训练方法、装置、设备及介质 |
CN114092815B (zh) * | 2021-11-29 | 2022-04-15 | 自然资源部国土卫星遥感应用中心 | 一种大范围光伏发电设施遥感智能提取方法 |
CN114495236B (zh) * | 2022-02-11 | 2023-02-28 | 北京百度网讯科技有限公司 | 图像分割方法、装置、设备、介质及程序产品 |
CN114332087B (zh) * | 2022-03-15 | 2022-07-12 | 杭州电子科技大学 | Octa图像的三维皮层表面分割方法及系统 |
CN114550021B (zh) * | 2022-04-25 | 2022-08-09 | 深圳市华汉伟业科技有限公司 | 基于特征融合的表面缺陷检测方法及设备 |
CN117437516A (zh) * | 2022-07-11 | 2024-01-23 | 北京字跳网络技术有限公司 | 语义分割模型训练方法、装置、电子设备及存储介质 |
CN115439686B (zh) * | 2022-08-30 | 2024-01-09 | 一选(浙江)医疗科技有限公司 | 一种基于扫描影像的关注对象检测方法及系统 |
CN115205300B (zh) * | 2022-09-19 | 2022-12-09 | 华东交通大学 | 基于空洞卷积和语义融合的眼底血管图像分割方法与系统 |
CN116341362A (zh) * | 2023-02-07 | 2023-06-27 | 南京友一智能科技有限公司 | 一种气体扩散层三维结构压缩变形预测方法 |
CN115880573A (zh) * | 2023-03-01 | 2023-03-31 | 山东省海洋资源与环境研究院(山东省海洋环境监测中心、山东省水产品质量检验中心) | 一种基于神经网络获取海草面积的方法、装置及设备 |
CN116152241B (zh) * | 2023-04-18 | 2023-07-25 | 湖南炅旭生物科技有限公司 | 一种脑部影像的处理方法、系统、电子设备及存储介质 |
CN116912488B (zh) * | 2023-06-14 | 2024-02-13 | 中国科学院自动化研究所 | 基于多目相机的三维全景分割方法及装置 |
CN117351215B (zh) * | 2023-12-06 | 2024-02-23 | 上海交通大学宁波人工智能研究院 | 一种人工肩关节假体设计系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463825A (zh) * | 2013-09-16 | 2015-03-25 | 北京三星通信技术研究有限公司 | 用于在三维体积图像中检测对象的设备和方法 |
CN104809723A (zh) * | 2015-04-13 | 2015-07-29 | 北京工业大学 | 基于超体素和图割算法的三维肝脏ct图像自动分割方法 |
CN105513036A (zh) * | 2014-09-26 | 2016-04-20 | 上海联影医疗科技有限公司 | 三维ct图像的分割方法及装置 |
CN105957066A (zh) * | 2016-04-22 | 2016-09-21 | 北京理工大学 | 基于自动上下文模型的ct图像肝脏分割方法及系统 |
CN106548178A (zh) * | 2016-09-26 | 2017-03-29 | 深圳大学 | 一种基于肺结节ct图像的语义特征自动打分方法及系统 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8155405B2 (en) * | 2007-04-20 | 2012-04-10 | Siemens Aktiengsellschaft | System and method for lesion segmentation in whole body magnetic resonance images |
EP2249702A4 (en) * | 2008-03-04 | 2012-01-25 | Tomotherapy Inc | METHOD AND SYSTEM FOR ENHANCED IMAGE SEGMENTATION |
CN102519391B (zh) * | 2011-12-28 | 2013-11-20 | 东南大学 | 基于弱饱和二维图像的物体表面三维立体图像重建方法 |
JP6464281B2 (ja) | 2015-11-06 | 2019-02-06 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7110098B2 (ja) * | 2015-12-18 | 2022-08-01 | ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア | 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化 |
WO2018081537A1 (en) * | 2016-10-31 | 2018-05-03 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for image segmentation using controlled feedback |
JP2020510463A (ja) * | 2017-01-27 | 2020-04-09 | アーテリーズ インコーポレイテッド | 全層畳み込みネットワークを利用する自動化されたセグメンテーション |
US10111632B2 (en) * | 2017-01-31 | 2018-10-30 | Siemens Healthcare Gmbh | System and method for breast cancer detection in X-ray images |
JP6931870B2 (ja) * | 2017-02-15 | 2021-09-08 | 国立研究開発法人理化学研究所 | 細胞の再プログラム化を検出するための方法及び装置 |
CN107220965B (zh) * | 2017-05-05 | 2021-03-09 | 上海联影医疗科技股份有限公司 | 一种图像分割方法及系统 |
US9968257B1 (en) * | 2017-07-06 | 2018-05-15 | Halsa Labs, LLC | Volumetric quantification of cardiovascular structures from medical imaging |
CN107749061A (zh) * | 2017-09-11 | 2018-03-02 | 天津大学 | 基于改进的全卷积神经网络脑肿瘤图像分割方法及装置 |
CN107563983B (zh) * | 2017-09-28 | 2020-09-01 | 上海联影医疗科技有限公司 | 图像处理方法以及医学成像设备 |
CN107644426A (zh) * | 2017-10-12 | 2018-01-30 | 中国科学技术大学 | 基于金字塔池化编解码结构的图像语义分割方法 |
CN108447063B (zh) * | 2017-12-15 | 2020-06-19 | 浙江中医药大学 | 脑胶质母细胞瘤的多模态核磁共振图像分割方法 |
CN108198184B (zh) | 2018-01-09 | 2020-05-05 | 北京理工大学 | 造影图像中血管分割的方法和系统 |
CN108062754B (zh) * | 2018-01-19 | 2020-08-25 | 深圳大学 | 基于密集网络图像的分割、识别方法和装置 |
CN108389251B (zh) * | 2018-03-21 | 2020-04-17 | 南京大学 | 基于融合多视角特征的投影全卷积网络三维模型分割方法 |
CN108629785B (zh) * | 2018-05-10 | 2021-09-10 | 西安电子科技大学 | 基于自步学习的三维磁共振胰腺图像分割方法 |
CN109446951B (zh) * | 2018-10-16 | 2019-12-10 | 腾讯科技(深圳)有限公司 | 三维图像的语义分割方法、装置、设备及存储介质 |
KR102165840B1 (ko) * | 2020-05-21 | 2020-10-16 | 주식회사 휴런 | 인공지능 기반 뇌졸중 진단 장치 및 방법 |
-
2018
- 2018-10-16 CN CN201811204375.4A patent/CN109446951B/zh active Active
- 2018-10-16 CN CN201911319326.XA patent/CN111126242B/zh active Active
-
2019
- 2019-10-11 WO PCT/CN2019/110562 patent/WO2020078269A1/zh unknown
- 2019-10-11 EP EP19872855.2A patent/EP3869387A4/en active Pending
-
2020
- 2020-10-20 US US17/074,629 patent/US11861501B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463825A (zh) * | 2013-09-16 | 2015-03-25 | 北京三星通信技术研究有限公司 | 用于在三维体积图像中检测对象的设备和方法 |
CN105513036A (zh) * | 2014-09-26 | 2016-04-20 | 上海联影医疗科技有限公司 | 三维ct图像的分割方法及装置 |
CN104809723A (zh) * | 2015-04-13 | 2015-07-29 | 北京工业大学 | 基于超体素和图割算法的三维肝脏ct图像自动分割方法 |
CN105957066A (zh) * | 2016-04-22 | 2016-09-21 | 北京理工大学 | 基于自动上下文模型的ct图像肝脏分割方法及系统 |
CN106548178A (zh) * | 2016-09-26 | 2017-03-29 | 深圳大学 | 一种基于肺结节ct图像的语义特征自动打分方法及系统 |
Non-Patent Citations (1)
Title |
---|
"SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation";Vijay Badrinarayanan等;《IEEE Transactions on Pattern Analysis & Machine Intelligence》;20171231;第39卷(第12期);第2484-2486页 * |
Also Published As
Publication number | Publication date |
---|---|
WO2020078269A1 (zh) | 2020-04-23 |
US20210049397A1 (en) | 2021-02-18 |
CN109446951A (zh) | 2019-03-08 |
CN111126242A (zh) | 2020-05-08 |
CN111126242B (zh) | 2023-03-21 |
EP3869387A4 (en) | 2021-12-08 |
EP3869387A1 (en) | 2021-08-25 |
US11861501B2 (en) | 2024-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109446951B (zh) | 三维图像的语义分割方法、装置、设备及存储介质 | |
CN111798462B (zh) | 一种基于ct图像的鼻咽癌放疗靶区自动勾画方法 | |
CN110176012B (zh) | 图像中的目标分割方法、池化方法、装置及存储介质 | |
CN108615237A (zh) | 一种肺部图像处理方法及图像处理设备 | |
WO2020125498A1 (zh) | 心脏磁共振图像分割方法、装置、终端设备及存储介质 | |
CN113554669B (zh) | 一种改进注意力模块的Unet网络脑肿瘤MRI图像分割方法 | |
CN111179247A (zh) | 三维目标检测方法及其模型的训练方法及相关装置、设备 | |
CN110782446B (zh) | 一种确定肺结节体积的方法及装置 | |
CN109035261A (zh) | 医疗影像处理方法及装置、电子设备及存储介质 | |
US20230005140A1 (en) | Automated detection of tumors based on image processing | |
CN110992377A (zh) | 图像分割方法、装置、计算机可读存储介质和设备 | |
CN112085736B (zh) | 一种基于混维卷积的肾肿瘤分割方法 | |
CN114549445A (zh) | 图像检测及相关模型的训练方法、相关装置、设备和介质 | |
CN114549552A (zh) | 基于空间邻域分析的肺部ct图像分割装置 | |
CN114742802B (zh) | 基于3Dtransformer混合卷积神经网络的胰腺CT图像分割方法 | |
WO2024066049A1 (zh) | 一种pet图像去噪的方法、终端设备及可读存储介质 | |
CN110728666A (zh) | 基于数字病理玻片进行慢性鼻窦炎的分型方法及其系统 | |
CN115619797A (zh) | 一种基于注意力机制的并行U-Net网络的肺部图像分割方法 | |
CN111028134A (zh) | 图像处理方法、装置、系统及介质 | |
CN114332120A (zh) | 图像分割方法、装置、设备及存储介质 | |
CN116862930B (zh) | 适用于多模态的脑血管分割方法、装置、设备和存储介质 | |
CN110009641A (zh) | 晶状体分割方法、装置及存储介质 | |
CN116740081A (zh) | Ct图像中肺血管分割方法、装置、终端设备及介质 | |
US20230115927A1 (en) | Systems and methods for plaque identification, plaque composition analysis, and plaque stability detection | |
US20240169544A1 (en) | Methods and systems for biomedical image segmentation based on a combination of arterial and portal image information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230713 Address after: 518057 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 floors Patentee after: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd. Patentee after: TENCENT CLOUD COMPUTING (BEIJING) Co.,Ltd. Address before: 518057 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 floors Patentee before: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd. |
|
TR01 | Transfer of patent right |