CN115049603B - 一种基于小样本学习的肠息肉分割方法及系统 - Google Patents
一种基于小样本学习的肠息肉分割方法及系统 Download PDFInfo
- Publication number
- CN115049603B CN115049603B CN202210633745.6A CN202210633745A CN115049603B CN 115049603 B CN115049603 B CN 115049603B CN 202210633745 A CN202210633745 A CN 202210633745A CN 115049603 B CN115049603 B CN 115049603B
- Authority
- CN
- China
- Prior art keywords
- prototype
- image
- query
- support
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 69
- 208000032177 Intestinal Polyps Diseases 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000003993 interaction Effects 0.000 claims abstract description 63
- 238000012549 training Methods 0.000 claims abstract description 55
- 238000000605 extraction Methods 0.000 claims abstract description 39
- 238000012360 testing method Methods 0.000 claims abstract description 34
- 238000013528 artificial neural network Methods 0.000 claims abstract description 32
- 238000003062 neural network model Methods 0.000 claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 57
- 239000011159 matrix material Substances 0.000 claims description 41
- 238000010586 diagram Methods 0.000 claims description 30
- 238000011176 pooling Methods 0.000 claims description 24
- 230000002159 abnormal effect Effects 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 14
- 230000003187 abdominal effect Effects 0.000 claims description 10
- 210000000056 organ Anatomy 0.000 claims description 10
- 238000003709 image segmentation Methods 0.000 claims description 9
- 238000003064 k means clustering Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 claims description 4
- 238000005481 NMR spectroscopy Methods 0.000 claims description 3
- 238000002591 computed tomography Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000003068 static effect Effects 0.000 description 5
- 238000013136 deep learning model Methods 0.000 description 4
- 108090000623 proteins and genes Proteins 0.000 description 4
- 208000005016 Intestinal Neoplasms Diseases 0.000 description 3
- 230000002349 favourable effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 230000017105 transposition Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 208000000461 Esophageal Neoplasms Diseases 0.000 description 2
- 206010030155 Oesophageal carcinoma Diseases 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 201000004101 esophageal cancer Diseases 0.000 description 2
- 201000002313 intestinal cancer Diseases 0.000 description 2
- 238000002493 microarray Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 206010009944 Colon cancer Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 208000029742 colonic neoplasm Diseases 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
- G06T2207/30032—Colon polyp
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于小样本学习的肠息肉分割方法及系统,系统包括:收集训练样本,获取测试样本,将训练样本和测试样本分别再次划分为支持集和查询集;构建特征提取模块来提取支持图像和查询图像的特征信息;构建多级原型学习模块来学习支持图像中的多级目标原型并使其引导查询图像来寻找疑似目标区域;构建全局信息交互模块使得支持图像和查询图像进行充分的信息交互,使查询图像与支持图像的特征层次和对比度相似;构建神经网络,利用训练样本训练该神经网络,优化网络参数,得到神经网络模型;将测试样本输入至上述模型中,经计算输出肠息肉分割图像。解决了分割精度低、依赖充分训练及过度依赖用户交互的问题。
Description
技术领域
本发明涉及医学图像、机器学习和计算机视觉领域,具体涉及一种基于小样本学习的肠息肉分割方法及系统。
背景技术
肠癌是一种常见的消化道恶性肿瘤疾病,是全球第三大癌症,而大多数肠癌是由肠息肉严重后演变而来,因此对肠息肉的准确分割是对肠癌病人进行早期诊断和治疗的关键前提。内窥镜图像是肠息肉的主要呈现方式,但是肠息肉的外观和位置会因症状轻重,个体差异性以及所处环境而产生明显不同,因此肠息肉图像的高度复杂性给它的分割任务带来了极大挑战。
肠息肉分割一开始是由专业医生依据临床实践经验来进行手动分割,但是手动分割方法效率低下且容易受到人为主观和个体差异的影响,从而导致分割准确度不高。现有技术中存在基于机器学习的分割方法,例如申请号为CN202110264294.9的现有发明专利《用于食管癌模型训练的图片的筛选方法、系统及存储介质》输入待筛选的静态图片;根据所述静态图片的特征,采用聚类算法对静态图片进行聚类,得到若干类静态图片;采用距离函数对各聚类中的静态图片进行筛选,得到相似程度低的静态图片作为用于建立食管癌识别模型的训练样本。由该现有专利的说明书内容可知,该现有专利主要通过在输入静态图片时能够允许采用更大的样本量,同时通过距离函数筛选各聚类中相似程度低的静态图片,以实现从大样本到小样本的转变,其解决的技术问题是模型泛化能力差及训练集病变图片的获取,可知该现有专利未披露本申请的技术方案,其应用场景及解决的技术问题也与本申请不同,无法达到本申请的技术效果,故该现有专利与本申请的技术方案迥异。申请号为CN201810458519.2的现有发明专利申请《群智能寻优的结肠癌癌细胞检测仪》由基因微阵列读入模块、数据预处理及特征排序模块、参数寻优模块、模型输出模块组成。系统首先将输入的基因微阵列数据预处理,然后对剩余的各个基因进行重要性排序,通过统计分数计算相关性,再利用分类器准则函数计算贡献度,将所有基因重要性进行排序。该现有专利通过加入了寻优算法种群适应度方差监测,防止种群多样性散失以及优化过程陷入局部最优,同时获取最优参数并构造分类器模型,可知该申请的主要技术特征和具体技术方案均未披露本申请的技术方案,该现有专利申请也与本申请存在显著区别。
现有基于机器学习的分割方法虽然在一定程度上提高了分割精度且大量释放了劳动力,但是严重依赖于初始学习因子和频繁的用户交互。尽管现有的深度学习模型能够实现端到端的全自动分割,然而它的成功很大程度上依赖于大量标签数据的充分训练,这在医学图像领域是难以得到满足的。
综上,现有技术存在分割精度低、依赖充分训练及过度依赖用户交互的问题。
发明内容
本发明在于如何解决分割精度低、依赖充分训练及过度依赖用户交互的问题。
本发明是采用以下技术方案解决上述问题的:一种基于小样本学习的肠息肉分割方法包括:
S1、收集不少于2种模态的腹部器官图像,以组成训练样本,获取内窥镜下肠息肉图像,以组成测试样本,将所述训练样本及所述测试样本分别再划分为支持集和查询集;
S2、构建特征提取模块以提取所述支持集中的支持图像特征,提取所述查询集中的查询图像特征;
S3、构建并使用多级原型学习模块学习所述支持图像中的多级目标原型,以引导处理所述查询图像,据以寻找疑似目标区域,所述步骤S3包括:
S31、利用双线性插值法降维处理所述支持图像的标签,并将降维后的支持标签与支持图像特征进行点乘,以提取目标特征;
S32、利用K均值聚类法将所述目标特征分为正常目标区域、异常目标区域和边缘区域,将预置全局平均池化作用于所述正常目标区域、所述异常目标区域及所述边缘区域,据以得到主原型、次原型和边缘原型;
S33、计算所述主原型、所述次原型和所述边缘原型与所述查询图像特征的余弦相似度并得到各原型相似度概率图;
S34、根据所述各原型相似度概率图对每一空间位置(x,y)取概率最大值所属的原型,将所述原型插入当前所述空间位置,据以形成具有丰富目标信息的原型分布图Mapproto;
S4、构建全局信息交互模块,通过全局平均池化处理所述支持图像特征和所述查询图像特征,以得到支持向量和查询向量,点乘所述支持图像特征和所述查询向量以得到新支持特征,点乘所述查询图像特征和所述支持向量以得到新查询特征,拉平并转置所述新支持特征及所述新查询特征,以通过预设矩阵乘逻辑处理获取全局信息交互图,根据所述全局信息交互图使得所述查询图像及所述支持图像具有相似特征层次及对比度;
S5、以所述特征提取模块、所述多级原型学习模块、所述全局信息交互模块与预置解码模块组成肠息肉分割神经网络,利用所述训练样本训练所述肠息肉分割神经网络并优化网络参数,以得到适用神经网络模型;
S6、利用所述适用神经网络模型计算所述测试样本得到肠息肉分割图像。
本发明通过构建特征提取模块来提取支持图像和查询图像的特征信息,构建多级原型学习模块来学习支持图像中的多级目标原型并使其引导查询图像来寻找疑似目标区域,构建全局信息交互模块使得支持图像和查询图像进行充分的信息交互,引导查询图像与支持图像具有相似的特征层次和对比度,将各模块共同组成神经网络,并利用训练样本训练该神经网络得到最优的神经网络模型来分割肠息肉图像,解决基于深度学习模型的肠息肉分割缺乏大量标签数据的问题,并且能够实现良好的分割精度。
在更具体的技术方案中,所述步骤S1包括:
S11、采集获取核磁共振图像和计算机断层扫描图像中的腹部器官图像数据集并将其划分为所述支持集和所述查询集,将该数据集作为所述训练集Strain;
S12、采集获取内窥镜下肠息肉图像数据集并将其划分为所述支持集和所述查询集,将该数据集作为所述测试集Stest;
S13、利用线性插值法将所有图像的分辨率调整至预设分辨率值;
S14、将所述支持图像、支持标签、查询图像作为神经网络的输入Ninput,将查询标签作为所述神经网络输出Noutput的监督信息。
在更具体的技术方案中,所述步骤S2包括:
S21、由不少于4个的编码模块依次连接组成所述特征提取模块;
S22、所述支持图像和所述查询图像共享所述特征提取模块,得到所述支持图像特征Fsup和所述查询图像特征Fque。
本发明利用特征提取模块将支持图像和查询图像的特征信息提取出来,使其特征信息具备同质性以便于后期相似性度量的准确性。
在更具体的技术方案中,所述步骤S21中的每个所述编码模块包括2个卷积核为3×3的卷积层:其中,/>和/>分别为(l+1)层的第n个特征图和l层的第m个特征图,M为l层特征图的数量,/>为从l层的第m个特征图映射到(l+1)层的第n个特征图的权重矩阵,*表示2D卷积操作,/>为相应的偏置量,每个所述卷积层后添加批归一化函数BatchNormalization和线性整流函数ReLU、1个池化窗口为2×2的最大池化层:/>其中m和n代表被池化窗口覆盖的区域。
在更具体的技术方案中,所述步骤S32包括:
S321、利用所述K均值聚类算法将目标内部区域分为正常目标特征向量簇及异常目标特征向量簇;
S322、全局平均池化处理所述正常目标特征向量簇及所述异常目标特征向量簇,以生成概括目标区域原型v,这里,v的第ith个元素可表示为:
其中,为支持标签,/>为支持特征,w和h为特征图的宽度和高度,(x,y)为像素点的坐标,i为第ith个特征通道;
S323、由正常目标特征向量簇生成的原型为所述主原型Protomain,由异常目标特征向量簇生成的原型为所述次原型Protosub;
S324、GAP处理目标的边界特征向量,以得到所述边缘原型Protomargin。
在更具体的技术方案中,所述步骤S33包括:
S331、将所述多级原型与所述查询图像特征做余弦相似度计算得到多个相似度概率图;
S332、以下述逻辑对每一空间位置(x,y)取概率最大值所属的原型并将其插入该位置以形成所述具有丰富目标信息的原型分布图Mapproto:
其中,P∈Rc×1代表原型,是查询图像在坐标(x,y)处的特征向量。
本发明利用多级原型学习模块通过支持标签和支持特征来学习目标的多级原型,包括主原型、次原型和边缘原型,它们分别是对肠息肉目标正常区域、异常区域和边缘区域的高度概括,与原始全局原型相比具有更强的目标区域特异性,多级原型能够更加准确地定位出查询图像的疑似目标区域且能够提供丰富的多级目标信息。
在更具体的技术方案中,所述步骤S4包括:
S41、将所述支持图像特征和所述查询图像特征通过全局平均池化得到所述支持向量和所述查询向量;
S42、点乘所述支持图像特征及查询向量,以得到所述新支持特征;
S43、点乘所述查询图像特征及支持向量,以得到所述新查询特征;
S44、拉平并转置所述新支持特征及所述新查询特征,以得到拉平矩阵和转置矩阵;
S45、将所述支持图像的拉平矩阵与所述查询图像的转置矩阵做矩阵乘,将所述支持图像的转置矩阵与所述查询图像的拉平矩阵做矩阵乘,以得到两个交互矩阵;
S46、将所述交互矩阵与所述查询图像特征进行矩阵乘,以得到全局信息交互图Mapinter。
本发明利用全局信息交互模块使支持向量和查询向量分别对查询图像和支持图像进行特征层次和对比度的引导来提高它们的特征相似性,以此为查询图像创造有利于目标分割的先验信息和上下文信息,进一步提高图像分割精度。
在更具体的技术方案中,所述步骤S5包括:
S51、将所述查询图像特征Fque、所述原型分布图Mapproto和全局信息交互图Mapinter连接起来作为所述解码模块的输入特征:
Fde=concate(Fque,Mapproto,Mapinter);
S52、构建解码模块,以将高级特征图恢复至原始分辨率语义特征图;
S53、利用分类函数Sigmoid处理所述原始分辨率语义特征图,以对图像进行像素级分类:
S(x)=1/1+e-x;
S54、利用二分类法,采用下述逻辑将概率图Mapprob转换成二值图Mapbina:
S55、以所述特征提取模块、所述多级原型学习模块、所述全局信息交互模块与预置解码模块组成肠息肉分割神经网络,在训练阶段,将Ninput输入所述肠息肉分割神经网络,并使用模型监督数据Noutput来监督模型的输出;
S56、设置损失函数L为:
Ltotal=LDice+LBCE,
其中,Pq(i)是查询图像在位置i处的预测结果,Yq(i)是真实结果,H和W是图像的高度和宽度;
S57、利用所述训练样本Strain对所述肠息肉分割神经网络进行训练并优化网络参数,以得到所述适用神经网络模型。
在更具体的技术方案中,所述步骤S6包括:
S61、将所述测试样本Stest输入所述适用神经网络模型;
S62、经所述适用神经网络模型运算得到肠息肉图像分割图,对比所述肠息肉图像分割图与所述测试样本的标签,据以评价模型的分割效果。
在更具体的技术方案中,一种基于小样本学习的肠息肉分割系统包括:
样本模块,用以收集不少于2种模态的腹部器官图像,以组成训练样本,获取内窥镜下肠息肉图像,以组成测试样本,将所述训练样本及所述测试样本分别再划分为支持集和查询集;
特征提取模块,用以提取所述支持集中的支持图像特征,提取所述查询集中的查询图像特征,所述特征提取模块与所述样本模块连接;
多级原型学习模块,用以学习所述支持图像中的多级目标原型,以引导处理所述查询图像,据以寻找疑似目标区域,所述多级原型学习模块与所述特征提取模块连接,所述多级原型学习模块还包括:
目标特征模块,用以利用双线性插值法降维处理所述支持图像的标签,并将降维后的支持标签与支持图像特征进行点乘,以提取目标特征;
原型模块,用以利用K均值聚类法将所述目标特征分为正常目标区域、异常目标区域和边缘区域,将预置全局平均池化作用于所述正常目标区域、所述异常目标区域及所述边缘区域,据以得到主原型、次原型和边缘原型,所述原型模块与所述目标特征模块连接;
原型相似概率图模块,用以计算所述主原型、所述次原型和所述边缘原型与所述查询图像特征的余弦相似度并得到各原型相似度概率图,所述原型相似概率图模块与所述原型模块连接;
分布图构建模块,用以根据所述各原型相似度概率图对每一空间位置(x,y)取概率最大值所属的原型,将所述原型插入当前所述空间位置,据以形成具有丰富目标信息的原型分布图Mapproto,所述分布图构建模块与所述原型相似概率图模块连接;
全局信息交互模块,用以通过全局平均池化处理所述支持图像特征和所述查询图像特征,以得到支持向量和查询向量,点乘所述支持图像特征和所述查询向量以得到新支持特征,点乘所述查询图像特征和所述支持向量以得到新查询特征,拉平并转置所述新支持特征及所述新查询特征,以通过预设矩阵乘逻辑处理获取全局信息交互图,根据所述全局信息交互图使得所述查询图像及所述支持图像具有相似特征层次及对比度,所述全局信息交互模块与所述特征提取模块连接;
模型训练模块,用以所述特征提取模块、所述多级原型学习模块、所述全局信息交互模块与预置解码模块组成肠息肉分割神经网络,利用所述训练样本训练所述肠息肉分割神经网络并优化网络参数,以得到适用神经网络模型,所述模型训练模块与所述特征提取模块、所述多级原型学习模块及所述全局信息交互模块连接;
图像分割处理模块,用以利用所述适用神经网络模型计算所述测试样本得到肠息肉分割图像,所述图像分割处理模块与所述模型训练模块连接。
本发明相比现有技术具有以下优点:本发明通过构建特征提取模块来提取支持图像和查询图像的特征信息,构建多级原型学习模块来学习支持图像中的多级目标原型并使其引导查询图像来寻找疑似目标区域,构建全局信息交互模块使得支持图像和查询图像进行充分的信息交互,引导查询图像与支持图像具有相似的特征层次和对比度,将各模块共同组成神经网络,并利用训练样本训练该神经网络得到最优神经网络模型来分割肠息肉图像,解决基于深度学习模型的肠息肉分割缺乏大量标签数据的问题,并且能够实现良好的分割精度。
本发明利用特征提取模块将支持图像和查询图像的特征信息通过共享特征提取模块提取出来,使其特征信息具备同质性以便于后期相似性度量的准确性。
本发明利用多级原型学习模块通过支持标签和支持特征来学习目标的多级原型,包括主原型、次原型和边缘原型,它们分别是对肠息肉目标正常区域、异常区域和边缘区域的高度概括,与原始全局原型相比具有更强的目标区域特异性,多级原型能够更加准确地定位出查询图像的疑似目标区域且能够提供丰富的多级目标信息。
本发明利用全局信息交互模块通过使用支持向量和查询向量分别对查询图像和支持图像进行特征层次和对比度的引导来提高它们的特征相似性,以此为查询图像创造有利于目标分割的先验信息和上下文信息,进一步提高图像分割精度。本发明解决了现有技术中存在的分割精度低、依赖充分训练及过度依赖用户交互的问题。
附图说明
图1为本发明实施例1的基于小样本学习的肠息肉分割方法步骤示意图;
图2为本发明实施例1的肠息肉分割神经网络模型结构示意图;
图3为本发明实施例1的多级原型学习示意图;
图4为本发明实施例1的全局信息交互示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1所示,本发明实施例提供了一种基于小样本学习的肠息肉分割方法,具体步骤如下:
步骤S1:收集多种模态的腹部器官图像组成训练样本,获取内窥镜下肠息肉图像组成测试样本,将训练样本和测试样本分别再次划分为支持集和查询集。
具体过程为:步骤1.1:收集多种模态(核磁共振图像和计算机断层扫描图像)的腹部器官图像数据集并将其划分为支持集和查询集,该数据集作为训练集Strain={(IS,MS),(IQ,MQ)};步骤1.2:获取内窥镜下肠息肉图像数据集并将其划分为支持集和查询集,该数据集作为测试集Stest={(IS,MS),(IQ,MQ)};步骤1.3:通过线性插值法将所有图像的分辨率调整为128×128;步骤1.4:将支持图像和标签以及查询图像作为神经网络的输入Ninput={(IS,IQ,MS)},查询标签Noutput={MQ}作为输出的监督信息。
步骤S2:构建特征提取模块来提取支持图像和查询图像的特征信息。
具体过程为:
步骤2.1:构建特征提取模块:由4个编码模块依次连接组成特征提取模块,每个编码模块包括2个卷积核为2×2的卷积层、1个池化窗口为2×2的最大池化层,卷积层可表示为:其中/>和/>分别代表(l+1)层的第n个特征图和l层的第m个特征图,M代表l层特征图的数量,/>代表从l层的第m个特征图映射到(l+1)层的第n个特征图的权重矩阵,*表示2D卷积操作,/>表示相应的偏置量,每个卷积层后面都加上批归一化函数BatchNormalization和线性整流函数ReLU来协助复杂特征信息的表达,最大池化层可表示为:/> 其中m和n代表被池化窗口覆盖的区域;
步骤2.2:支持图像和查询图像共享特征提取模块并得到支持特征Fsup和查询特征Fque。
步骤S3:构建多级原型学习模块来学习支持图像中的多级目标原型并使其引导查询图像来寻找疑似目标区域。
如图3所示,首先利用双线性插值法将支持标签降维以提取目标特征,然后使用K均值聚类法将目标分为正常区域和异常区域2类,将全局平均池化作用在正常目标区域、异常目标区域和边界区域上分别得到主原型、次原型和边缘原型,接着计算三种原型与查询特征的余弦相似度并得到三个相似度概率图,最后对每个像素位置插入概率最大值所属的原型得到原型分布图以此为查询图像提供丰富的多级目标特征信息。
具体过程为:
步骤3.1:将支持标签MS通过双线性插值法降维至与支持特征具有相同尺度;
步骤3.2:将降维后的支持标签MS与支持特征Fsup点乘提取出目标特征Fsup_targ;
步骤3.3:目标的多级原型包括:主原型Protomain、次原型Protosub和边缘原型Protomargin,其中主原型学习到的是目标的正常区域、次原型学习到的是目标的异常区域、边缘原型学习到的是目标的边界区域,首先使用K均值聚类算法将目标内部区域分成两个特征向量簇,一个是主目标簇,一个是次目标簇,然后对这两个簇分别使用全局平均池化(Global Average Pooling,GAP)来生成一个高度概括目标区域信息的特征向量v(即原型),得到主原型Protomain和次原型Protosub,最后将目标的边界特征向量进行GAP得到边缘原型Protomargin,原型v的第ith个元素可表示为:
这里代表支持标签,/>代表支持特征,w和h代表特征图的宽度和高度,(x,y)代表像素点的坐标,i代表第ith个特征通道;
步骤3.4:将上述多级原型与查询特征做余弦相似度计算得到多个相似度概率图,对每一个空间位置(x,y)取概率最大值所属的原型并将其插入该位置以形成具有丰富目标信息的原型分布图Mapproto,余弦相似度计算公式为:
这里P∈Rc×1代表的是原型,代表的是查询图像在坐标(x,y)处的特征向量。
步骤S4:构建全局信息交互模块使得支持图像和查询图像进行充分的信息交互,引导查询图像与支持图像具有相似的特征层次和对比度。
如图4所示,首先将支持特征和查询特征通过全局平均池化得到支持向量和查询向量,并将支持特征和查询向量、查询特征和支持向量分别进行点乘得到新的支持特征和查询特征,然后将它们拉平并转置形成拉平矩阵和转置矩阵,再分别将支持图像的拉平矩阵和转置矩阵分别与查询图像的转置矩阵和拉平矩阵进行矩阵乘得到两个交互矩阵,最后将其与查询特征进行矩阵乘得到全局信息交互图,该交互图作为查询分支的特征图为其提供了支持图像包含的先验信息和目标有关的上下文信息。
具体过程为:
步骤4.1:使用全局平均池化将支持特征Fsup和查询特征Fque精炼成支持向量Vsup和查询向量Vque;
步骤4.2:将支持特征Fsup与查询向量Vque进行点乘得到新的支持特征Fsup′,将查询特征Fque与支持向量Vsup进行点乘得到新的查询特征Fque′;
步骤4.3:将新的支持特征Fsup′和新的查询特征Fque′进行拉平和转置操作,得到支持特征的拉平矩阵Fsup_flatt′和转置矩阵Fsup_trans′以及查询特征的拉平矩阵Fque_flatt′和转置矩阵Fque_trans′,接着对Fsup_flatt′和Fque_trans′、Fque_flatt′和Fsup_trans′分别做矩阵乘得到交互矩阵Fsup_inter′和Fque_inter′;
步骤4.4:将Fsup_inter′和Fque_inter′进行像素加然后与查询矩阵进行矩阵乘得到全局信息交互图Mapinter。
步骤S5:将上述特征提取模块、多级原型学习模块、全局信息交互模块与解码模块共同组成神经网络,利用训练样本训练该神经网络,优化网络参数,得到神经网络模型。
如图2所示,神经网络模型的输入是支持-查询图像对和支持标签,通过共享参数的特征提取模块对支持图像和查询图像进行特征提取得到支持特征和查询特征,将其与支持标签共同输入多级原型学习模块得到原型分布图,同时将其输入全局信息交互模块得到全局信息交互图,对得到的原型分布图、全局信息交互图和查询特征进行连接并使用解码模块对其进行解码恢复至原始分辨率,之后使用分类函数Sigmoid对每个像素进行分类。在训练阶段,使用损失函数计算神经网路的输出与查询标签的损失以此对模型进行监督训练。在测试阶段,模型的输出即为测试集中查询图像的分割结果。
具体过程为:
步骤5.1:将上述查询特征Fque、原型分布图Mapproto和全局信息交互图Mapinter连接起来作为解码模块的输入特征Fde,Fde=concate(Fque,Mapproto,Mapinter);
步骤5.2:构建解码模块,由4个解码器依次连接,每个解码器包含一个2×2的上采样层和两个卷积核为2×2的卷积层,该模块用来将高级特征图恢复至原始分辨率的语义特征图;
步骤5.3:对上述语义特征图使用分类函数Sigmoid实现对图像的像素级分类,Sigmoid函数可定义为:S(x)=1/1+e-x,输出值映射在(0,1)之间,代表某一个像素点属于目标的概率,采用二分类法将这个概率图Mapprob转换成二值图Mapbina,即最终分割图,二分类法可表示为:
步骤5.4:述特征提取模块、多级原型学习模块、全局信息交互模块与解码模块共同组成神经网络,在训练阶段,将Ninput输入神经网络并使用Noitput监督网络的训练,采用Adam优化器并将初始学习率设置为0.001,以及采用权重衰减因子与学习率衰减策略来缓解过拟合现象,损失函数L设置为:
Ltotal=LDice+LBCE,
其中Pq(i)代表的是查询图像在位置i处的预测结果,Yq(i)代表的是真实结果,H和W代表的是图像的高度和宽度,通过训练样本Strain对网络进行训练并优化网络参数得到神经网络模型。
步骤S6:将测试样本输入至上述模型中,经计算输出肠息肉分割图像。
具体过程为:
将测试样本Stest输入上述模型,经模型运算得到肠息肉图像的分割图,将该分割图与其标签进行对比来评价模型的分割效果。
综上,本发明通过构建特征提取模块来提取支持图像和查询图像的特征信息,构建多级原型学习模块来学习支持图像中的多级目标原型并使其引导查询图像来寻找疑似目标区域,构建全局信息交互模块使得支持图像和查询图像进行充分的信息交互,引导查询图像与支持图像具有相似的特征层次和对比度,将各模块共同组成神经网络,并利用训练样本训练该神经网络得到最优神经网络模型来分割肠息肉图像,解决基于深度学习模型的肠息肉分割缺乏大量标签数据的问题,并且能够实现良好的分割精度。
本发明利用特征提取模块将支持图像和查询图像的特征信息通过共享特征提取模块提取出来,使其特征信息具备同质性以便于后期相似性度量的准确性。
本发明利用多级原型学习模块通过支持标签和支持特征来学习目标的多级原型,包括主原型、次原型和边缘原型,它们分别是对肠息肉目标正常区域、异常区域和边缘区域的高度概括,与原始全局原型相比具有更强的目标区域特异性,多级原型能够更加准确地定位出查询图像的疑似目标区域且能够提供丰富的多级目标信息。
本发明利用全局信息交互模块通过使用支持向量和查询向量分别对查询图像和支持图像进行特征层次和对比度的引导来提高它们的特征相似性,以此为查询图像创造有利于目标分割的先验信息和上下文信息,进一步提高图像分割精度。本发明解决了现有技术中存在的分割精度低、依赖充分训练及过度依赖用户交互的问题。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于小样本学习的肠息肉分割方法,其特征在于,所述方法包括:
S1、收集不少于2种模态的腹部器官图像,以组成训练样本,获取内窥镜下肠息肉图像,以组成测试样本,将所述训练样本及所述测试样本分别再划分为支持集和查询集;
S2、构建特征提取模块以提取所述支持集中的支持图像特征,提取所述查询集中的查询图像特征;
S3、构建并使用多级原型学习模块学习所述支持图像中的多级目标原型,以引导处理所述查询图像,据以寻找疑似目标区域,所述步骤S3包括:
S31、利用双线性插值法降维处理所述支持图像的标签,并将降维后的支持标签与支持图像特征进行点乘,以提取目标特征;
S32、利用K均值聚类法将所述目标特征分为正常目标区域、异常目标区域和边缘区域,将预置全局平均池化作用于所述正常目标区域、所述异常目标区域及所述边缘区域,据以得到主原型、次原型和边缘原型;
S33、计算所述主原型、所述次原型和所述边缘原型与所述查询图像特征的余弦相似度并得到各原型相似度概率图;
S34、根据所述各原型相似度概率图对每一空间位置(x,y)取概率最大值所属的原型,将所述原型插入当前的所述空间位置,据以形成具有丰富目标信息的原型分布图Mapproto;
S4、构建全局信息交互模块,通过全局平均池化处理所述支持图像特征和所述查询图像特征,以得到支持向量和查询向量,点乘所述支持图像特征和所述查询向量以得到新支持特征,点乘所述查询图像特征和所述支持向量以得到新查询特征,拉平并转置所述新支持特征及所述新查询特征,以通过预设矩阵乘逻辑处理获取全局信息交互图,根据所述全局信息交互图使得所述查询图像及所述支持图像具有相似特征层次及对比度;
S5、以所述特征提取模块、所述多级原型学习模块、所述全局信息交互模块与预置解码模块组成肠息肉分割神经网络,利用所述训练样本训练所述肠息肉分割神经网络并优化网络参数,以得到适用神经网络模型;
S6、利用所述适用神经网络模型计算所述测试样本得到肠息肉分割图像。
2.根据权利要求1所述的一种基于小样本学习的肠息肉分割方法,其特征在于,所述步骤S1包括:
S11、采集获取核磁共振图像和计算机断层扫描图像中的腹部器官图像数据集并将其划分为所述支持集和所述查询集,将该数据集作为训练集Strain;
S12、采集获取内窥镜下肠息肉图像数据集并将其划分为所述支持集和所述查询集,将该数据集作为测试集Stest;
S13、利用线性插值法将所有图像的分辨率调整至预设分辨率值;
S14、将所述支持图像、支持标签、查询图像作为神经网络的输入Ninput,将查询标签作为所述神经网络输出Noutput的监督信息。
3.根据权利要求1所述的一种基于小样本学习的肠息肉分割方法,其特征在于,所述步骤S2包括:
S21、由不少于4个的编码模块依次连接组成所述特征提取模块;
S22、所述支持图像和所述查询图像共享所述特征提取模块,得到所述支持图像特征Fsup和所述查询图像特征Fque。
4.根据权利要求3所述的一种基于小样本学习的肠息肉分割方法,其特征在于,所述步骤S21中的每个所述编码模块包括2个卷积核为3×3的卷积层: 其中,/>和/>分别为(l+1)层的第n个特征图和l层的第m个特征图,M为l层特征图的数量,为从l层的第m个特征图映射到(l+1)层的第n个特征图的权重矩阵,*表示2D卷积操作,为相应的偏置量,每个所述卷积层后添加批归一化函数BatchNormalization和线性整流函数ReLU、1个池化窗口为2×2的最大池化层:/>其中m和n代表被池化窗口覆盖的区域。
5.根据权利要求1所述的一种基于小样本学习的肠息肉分割方法,其特征在于,所述步骤S32包括:
S321、利用所述K均值聚类算法将目标内部区域分为正常目标特征向量簇及异常目标特征向量簇;
S322、全局平均池化处理所述正常目标特征向量簇及所述异常目标特征向量簇,以生成概括目标区域原型v,这里,v的第ith个元素可表示为:
其中,为支持标签,/>为支持特征,w和h为特征图的宽度和高度,(x,y)为像素点的坐标,i为第ith个特征通道;
S323、由正常目标特征向量簇生成的原型为所述主原型Protomain,由异常目标特征向量簇生成的原型为所述次原型Protosub;
S324、GAP处理目标的边界特征向量,以得到所述边缘原型Protomargin。
6.根据权利要求1所述的一种基于小样本学习的肠息肉分割方法,其特征在于,所述步骤S33包括:
S331、将所述多级原型与所述查询图像特征做余弦相似度计算得到多个相似度概率图;
S332、以下述逻辑对每一空间位置(x,y)取概率最大值所属的原型并将其插入该位置以形成所述具有丰富目标信息的原型分布图Mapproto:
其中,P∈Rc×1代表原型,是查询图像在坐标(x,y)处的特征向量。
7.根据权利要求1所述的一种基于小样本学习的肠息肉分割方法,其特征在于,所述步骤S4包括:
S41、将所述支持图像特征和所述查询图像特征通过全局平均池化得到所述支持向量和所述查询向量;
S42、点乘所述支持图像特征及查询向量,以得到所述新支持特征;
S43、点乘所述查询图像特征及支持向量,以得到所述新查询特征;
S44、拉平并转置所述新支持特征及所述新查询特征,以得到拉平矩阵和转置矩阵;
S45、将所述支持图像的拉平矩阵与所述查询图像的转置矩阵做矩阵乘,将所述支持图像的转置矩阵与所述查询图像的拉平矩阵做矩阵乘,以得到两个交互矩阵;
S46、将所述交互矩阵与所述查询图像特征进行矩阵乘,以得到全局信息交互图Mapinter。
8.根据权利要求1所述的一种基于小样本学习的肠息肉分割方法,其特征在于,所述步骤S5包括:
S51、将所述查询图像特征Fque、所述原型分布图Mapproto和全局信息交互图Mapinter连接起来作为所述解码模块的输入特征:
Fde=concate(Fque,Mapproto,Mapinter);
S52、构建解码模块,以将高级特征图恢复至原始分辨率语义特征图;
S53、利用分类函数Sigmoid处理所述原始分辨率语义特征图,以对图像进行像素级分类:
S(x)=1/1+e-x;
S54、利用二分类法,采用下述逻辑将概率图Mapprob转换成二值图Mapbina:
S55、以所述特征提取模块、所述多级原型学习模块、所述全局信息交互模块与预置的解码模块组成肠息肉分割神经网络,在训练阶段,将Ninput输入所述肠息肉分割神经网络,并使用模型监督数据Noutput来监督模型的输出;
S56、设置损失函数L为:
Ltotal=LDice+LBCE,
其中,Pq(i)是查询图像在位置i处的预测结果,Yq(i)是真实结果,H和W是图像的高度和宽度;
S57、利用所述训练样本Strain对所述肠息肉分割神经网络进行训练并优化网络参数,以得到所述适用神经网络模型。
9.根据权利要求1所述的一种基于小样本学习的肠息肉分割方法,其特征在于,所述步骤S6包括:
S61、将所述测试样本Stest输入所述适用神经网络模型;
S62、经所述适用神经网络模型运算得到肠息肉图像分割图,对比所述肠息肉图像分割图与所述测试样本的标签,据以评价模型的分割效果。
10.一种基于小样本学习的肠息肉分割系统,其特征在于,所述系统包括:
样本模块,用以收集不少于2种模态的腹部器官图像,以组成训练样本,获取内窥镜下肠息肉图像,以组成测试样本,将所述训练样本及所述测试样本分别再划分为支持集和查询集;
特征提取模块,用以提取所述支持集中的支持图像特征,提取所述查询集中的查询图像特征,所述特征提取模块与所述样本模块连接;
多级原型学习模块,用以学习所述支持图像中的多级目标原型,以引导处理所述查询图像,据以寻找疑似目标区域,所述多级原型学习模块与所述特征提取模块连接,所述多级原型学习模块还包括:
目标特征模块,用以利用双线性插值法降维处理所述支持图像的标签,并将降维后的支持标签与支持图像特征进行点乘,以提取目标特征;
原型模块,用以利用K均值聚类法将所述目标特征分为正常目标区域、异常目标区域和边缘区域,将预置全局平均池化作用于所述正常目标区域、所述异常目标区域及所述边缘区域,据以得到主原型、次原型和边缘原型,所述原型模块与所述目标特征模块连接;
原型相似概率图模块,用以计算所述主原型、所述次原型和所述边缘原型与所述查询图像特征的余弦相似度并得到各原型相似度概率图,所述原型相似概率图模块与所述原型模块连接;
分布图构建模块,用以根据所述各原型相似度概率图对每一空间位置(x,y)取概率最大值所属的原型,将所述原型插入当前所述空间位置,据以形成具有丰富目标信息的原型分布图Mapproto,所述分布图构建模块与所述原型相似概率图模块连接;
全局信息交互模块,用以通过全局平均池化处理所述支持图像特征和所述查询图像特征,以得到支持向量和查询向量,点乘所述支持图像特征和所述查询向量以得到新支持特征,点乘所述查询图像特征和所述支持向量以得到新查询特征,拉平并转置所述新支持特征及所述新查询特征,以通过预设矩阵乘逻辑处理获取全局信息交互图,根据所述全局信息交互图使得所述查询图像及所述支持图像具有相似特征层次及对比度,所述全局信息交互模块与所述特征提取模块连接;
模型训练模块,用以所述特征提取模块、所述多级原型学习模块、所述全局信息交互模块与预置解码模块组成肠息肉分割神经网络,利用所述训练样本训练所述肠息肉分割神经网络并优化网络参数,以得到适用神经网络模型,所述模型训练模块与所述特征提取模块、所述多级原型学习模块及所述全局信息交互模块连接;
图像分割处理模块,用以利用所述适用神经网络模型计算所述测试样本得到肠息肉分割图像,所述图像分割处理模块与所述模型训练模块连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210633745.6A CN115049603B (zh) | 2022-06-07 | 2022-06-07 | 一种基于小样本学习的肠息肉分割方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210633745.6A CN115049603B (zh) | 2022-06-07 | 2022-06-07 | 一种基于小样本学习的肠息肉分割方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115049603A CN115049603A (zh) | 2022-09-13 |
CN115049603B true CN115049603B (zh) | 2024-06-07 |
Family
ID=83160418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210633745.6A Active CN115049603B (zh) | 2022-06-07 | 2022-06-07 | 一种基于小样本学习的肠息肉分割方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115049603B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359261B (zh) * | 2022-10-21 | 2023-03-24 | 阿里巴巴(中国)有限公司 | 图像识别方法、计算机可读存储介质以及电子设备 |
CN116227573B (zh) * | 2023-04-25 | 2023-08-08 | 智慧眼科技股份有限公司 | 分割模型训练方法、图像分割方法、装置及相关介质 |
CN117132777B (zh) * | 2023-10-26 | 2024-03-22 | 腾讯科技(深圳)有限公司 | 图像分割方法、装置、电子设备及存储介质 |
CN117726815B (zh) * | 2023-12-19 | 2024-07-02 | 江南大学 | 一种基于异常检测的小样本医学图像分割方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711413A (zh) * | 2018-12-30 | 2019-05-03 | 陕西师范大学 | 基于深度学习的图像语义分割方法 |
WO2020107687A1 (zh) * | 2018-11-27 | 2020-06-04 | 邦鼓思电子科技(上海)有限公司 | 一种基于视觉的工作区域边界的检测系统、方法及机器设备 |
CN113706487A (zh) * | 2021-08-17 | 2021-11-26 | 西安电子科技大学 | 基于自监督特征小样本学习的多器官分割方法 |
CN113989301A (zh) * | 2021-10-29 | 2022-01-28 | 浙江工业大学 | 一种融合多种注意力机制神经网络的结直肠息肉分割方法 |
CN114511508A (zh) * | 2022-01-11 | 2022-05-17 | 浙江工业大学 | 融合卷积与多层感知机神经网络的结直肠息肉分割方法 |
-
2022
- 2022-06-07 CN CN202210633745.6A patent/CN115049603B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020107687A1 (zh) * | 2018-11-27 | 2020-06-04 | 邦鼓思电子科技(上海)有限公司 | 一种基于视觉的工作区域边界的检测系统、方法及机器设备 |
CN109711413A (zh) * | 2018-12-30 | 2019-05-03 | 陕西师范大学 | 基于深度学习的图像语义分割方法 |
CN113706487A (zh) * | 2021-08-17 | 2021-11-26 | 西安电子科技大学 | 基于自监督特征小样本学习的多器官分割方法 |
CN113989301A (zh) * | 2021-10-29 | 2022-01-28 | 浙江工业大学 | 一种融合多种注意力机制神经网络的结直肠息肉分割方法 |
CN114511508A (zh) * | 2022-01-11 | 2022-05-17 | 浙江工业大学 | 融合卷积与多层感知机神经网络的结直肠息肉分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115049603A (zh) | 2022-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115049603B (zh) | 一种基于小样本学习的肠息肉分割方法及系统 | |
CN109493308B (zh) | 基于条件多判别生成对抗网络的医疗图像合成与分类方法 | |
CN110930416B (zh) | 一种基于u型网络的mri图像前列腺分割方法 | |
CN110084318B (zh) | 一种结合卷积神经网络和梯度提升树的图像识别方法 | |
CN111951288B (zh) | 一种基于深度学习的皮肤癌病变分割方法 | |
Li et al. | Automatic lumbar spinal MRI image segmentation with a multi-scale attention network | |
CN112270666A (zh) | 基于深度卷积神经网络的非小细胞肺癌病理切片识别方法 | |
CN113763442A (zh) | 一种可变形医学图像配准方法及系统 | |
CN106874862B (zh) | 基于子模技术和半监督学习的人群计数方法 | |
Al-Areqi et al. | Effectiveness evaluation of different feature extraction methods for classification of covid-19 from computed tomography images: A high accuracy classification study | |
CN111242906A (zh) | 一种支持向量数据描述的胸部影像异常检测方法 | |
Xiang et al. | Towards interpretable skin lesion classification with deep learning models | |
CN111539491B (zh) | 基于深度学习与注意力机制的多发性结节分类系统和方法 | |
CN113256561B (zh) | 一种基于无归一化深度残差与注意力机制的肠道病灶辅助诊断方法 | |
CN111916206B (zh) | 一种基于级联的ct影像辅助诊断系统 | |
CN111340816A (zh) | 一种基于双u型网络框架的图像分割方法 | |
CN112085742A (zh) | 一种基于上下文注意力的nafld超声视频诊断方法 | |
CN117132849A (zh) | 基于ct平扫影像与图神经网络的脑卒中出血转化预测方法 | |
CN116523877A (zh) | 一种基于卷积神经网络的脑mri图像肿瘤块分割方法 | |
CN116228759A (zh) | 肾细胞癌类型的计算机辅助诊断系统及设备 | |
CN115565013A (zh) | 一种基于半监督学习的心肌梗死图像分割方法及系统 | |
CN113889235A (zh) | 一种三维医学影像无监督特征抽取系统 | |
CN113269783A (zh) | 一种基于三维注意力机制的肺结节分割方法及装置 | |
CN116486101B (zh) | 一种基于窗口注意力的图像特征匹配方法 | |
CN112085718B (zh) | 一种基于孪生注意力网络的nafld超声视频诊断系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |