CN112489048B - 一种基于深度网络的视神经自动分割方法 - Google Patents
一种基于深度网络的视神经自动分割方法 Download PDFInfo
- Publication number
- CN112489048B CN112489048B CN202011381767.5A CN202011381767A CN112489048B CN 112489048 B CN112489048 B CN 112489048B CN 202011381767 A CN202011381767 A CN 202011381767A CN 112489048 B CN112489048 B CN 112489048B
- Authority
- CN
- China
- Prior art keywords
- data
- network
- optic nerve
- image
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 65
- 210000001328 optic nerve Anatomy 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 34
- 238000002372 labelling Methods 0.000 claims abstract description 14
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims abstract description 7
- 210000005036 nerve Anatomy 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 5
- 238000009792 diffusion process Methods 0.000 claims description 5
- 210000004556 brain Anatomy 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 241001655903 Phortica omega Species 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000000354 decomposition reaction Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000005192 partition Methods 0.000 claims description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 2
- 210000005013 brain tissue Anatomy 0.000 claims 4
- 238000005070 sampling Methods 0.000 claims 1
- 210000003792 cranial nerve Anatomy 0.000 abstract description 8
- 238000004458 analytical method Methods 0.000 abstract description 3
- 238000002360 preparation method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000003709 image segmentation Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000003759 clinical diagnosis Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 208000004929 Facial Paralysis Diseases 0.000 description 1
- 208000019695 Migraine disease Diseases 0.000 description 1
- 206010061296 Motor dysfunction Diseases 0.000 description 1
- 238000005481 NMR spectroscopy Methods 0.000 description 1
- 241000746983 Phleum pratense Species 0.000 description 1
- 208000036826 VIIth nerve paralysis Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000003477 cochlea Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 210000000695 crystalline len Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 206010027599 migraine Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007659 motor function Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000037152 sensory function Effects 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 210000003901 trigeminal nerve Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
一种基于深度网络的视神经自动分割方法,使用具有NVIDIA GeForce系列显卡的操作平台,通过对标注数据进行预处理及深度网络训练等一系列操作,得出网络模型,能够对视神经结构进行预测分割。相比较于常用的人工标注和基于可变模型的分割方法,本发明可以更为快速地获得视神经分割数据,分割精度通过深度网络学习得到提高,能够为视神经分割过程提供精确、高效的方法,还能够为其他颅神经提供可重复分析的方法。
Description
技术领域
本发明涉及人工智能领域和信息技术计算机图像学下的医学成像、医学图像分割领域,尤其是一种基于深度网络的视神经自动分割方法。
背景技术
随着医学影像技术的发展和计算机设备的革新,医学图像分辨率以及成像精度不断提高,使得医学图像在临床以及医学研究中得到广泛应用。医学图像分割技术是诸多医学图像应用中不可或缺的重要技术,术前将医生关注的关键结构单独分割出来,便于疾病分析诊断、手术方案规划。大脑中有12对颅神经,分别支配着鼻子、眼睛、面部、耳蜗等重要区域的感觉与运动功能。任意一对颅神经受到损伤时,就会表现出该神经支配区域的感觉或运动功能障碍,如视力异常、面瘫、偏头痛等等。视神经是颅神经中其中一对特征较为明显的结构,但是,2019年Timothée Jacquesson等人总结了21篇参考文献的重构结果并测试了9个常用算法表明,现有算法难以完整重构较大颅神经如视神经、三叉神经,并无法重建其它小颅神经,而面临挑战。选取视神经作为分割对象有利于研究由浅入深顺利进行,便于将研究方法扩展到其余颅神经的分割成像中。
视神经分割方法主要有人工标注法、基于图谱导航的最佳中轴线法、可行变模型的MR和CT图像分割法、基于深度网络的分割方法等。由于视神经结构部分边界难以区别,具有较高的复杂性且缺少简单的线性特征,人工标注法的分割结果主要决定于医生的水平,而且人工标注需要消耗大量人力物力,难以满足临床需求。随着计算机技术的发展,人们分割视神经的方法逐渐由手动发展为半自动和自动。但是由于医学图像存在噪声多、不同设备之间的图像质量差异大等特点,基于几何模型用于CT图像中的眼球、晶状体、视神经、视交叉的半自动分割,其视神经分割的准确率达到了77%,视交叉达到了65%。2011年,一种基图谱导航和可形变模型算法结合的视神经分割方法在10例以上的数据进行测试对比,平均Dice系数达到了0.8。X.Yang等人2014年提出了一种基于ASM(活动轮廓模型)的视神经分割方法,通过在传统的活动轮廓模型的基础上,引入一种加权分割的主动形状模型。最终分割的的平均Dice系数从传统活动轮廓模型的0.31提升到了0.73。如今,深度学习为图像分割提供了最先进的方法,自2012年以来,人们已经提出了多种卷积神经网络模型用于医学图像的分割。
传统的基于卷积神经网络的分割方法是对将一个像素周围的块作为训练网络的输入进行预测。这一类方法的缺点是:计算机内存运算开销大、计算内容重复效率低下、像素块大小限制感知区域大小。为了解决上述问题,人们提出了全卷积网络结构,全卷积网络可以对图像进行像素级的分类。在全卷积网络结构的基础上,人们又提出了U-Net网络,进一步提高了图像分割准确率。U-Net是一种基于全卷积网络的语义分割网络,由于其训练效率高、所需数据集小就可以得到较好的分割效果而在分割领域广受应用。
目前,视神经分割的研究逐渐成为当前关注点,但是相关文献少。
发明内容
为克服现有人工标记繁琐、分割精确度低的问题,本发明提供了一种基于深度网络的视神经自动分割方法,其中的深度网络是基于U-Net网络进行改进,能够大大减少分割时间,提高分割精度,从而提高视神经分割的时效性和实用性,使视神经分割能够更好地应用于医学临床诊断中。具体的说,本发明将改进的图像算法与深度网络相结合。使用卷积网络对T1和FA图像进行训练,通过网络强大的描述能力,帮助生成高质量的视神经和非视神经掩码和概率图。
本发明解决其技术问题所采用的技术方案是:
一种基于深度网络的视神经自动分割方法,包括如下步骤:
步骤1、数据集准备:从HCP下载训练数据,经过数据筛选后。选择102例数据的MRI和DWI图像,选择MRI图像中的T1图像以及DWI图像生成的FA图像。结合T1和FA图像和医生交流修改进行视神经标注;
步骤2、数据预处理:对步骤1中得到的数据进行切片成128×160×128大小,对图像数据进行直方图均衡化,灰度直方图归一化以及图像增广操作。完成训练数据和测试数据的准备工作;
步骤3、网络设计及训练:构建U-Net网络模型,使用步骤2中生成的训练样本训练构建好的网络模型,分别生成T1、FA的概率映射图和分割掩码;
步骤4、预测分割:使用训练得到的网络模型对没有标记的数据进行视神经区域的预测,将预测得到的结果和标记得到的结果进行对比,计算预测的准确率。
本发明中,基于深度网络的视神经分割系统由数据集准备、数据预处理、网络设计及训练、预测分割四个部分组成,数据集准备是进行网络训练前的首要步骤,数据集的好坏直接关乎最后的预测分割效果;数据预处理包括在网络训练前对图像进行图像裁剪、图像归一化、Mask区域提取、训练数据提取等一系列操作;然后,结合当下医学分割使用较为广泛的U-Net分割网络和视神经的结构特点,进行网络的设计和训练,最后通过训练好的模型,对测试集数据进行预测分割,合成分割结果。
本发明的有益效果表现在:能够大大减少分割时间,提高分割精度,从而提高视神经分割的时效性和实用性,使视神经分割能够更好地应用于医学临床诊断中;本发明将改进的图像算法与深度网络相结合,使用卷积网络对T1和FA图像进行训练,通过网络强大的描述能力,帮助生成高质量的视神经和非视神经掩码和概率图。
附图说明
图1是一种基于深度网络的视神经自动分割方法的流程图。
图2是深度网络的编码解码过程示意图。
具体实施方式
为了使本发明的目的、技术方案和有点更加清楚明白,以下结合具体实施和附图,对本发明做进一步补充说明。
参照图1和图2,一种基于深度网络的视神经自动分割方法,能够充分利用对模态图像之间的信息,实现视神经区域的自动、准确分割,包括如下步骤:
步骤1、数据集准备:收集102例美国人脑连接计划核磁共振数据(HCP)进行标注,首先,在标注之前,两位学生先学习视神经的解剖知识,再与一名神经外科手术经验丰富的医生进行交流,区分识别视神经区域。其次,由于数据需要标注的层数多、样本数量大、边界识别难度大,在完成人工粗略标注之后,再与医生进行交流,通过医生的反馈,不断修正。标注完成后将各自标注的数据和对方交换,再次检查标注的准确性。经过以上步骤后,最后交由两名临床经验丰富的医生进行检查修正。将标注数据按照7:2:1的比例分成训练集、验证集、测试集。至此,完成数据集的准备。
数据预处理:预处理操作包括:图像裁剪、直方图均衡化、图像归一化、Mask区域提取操作、训练数据提取,过程如下:
(1)图像裁剪。原数据为145×174×145的三维MRI数据,三个维度分别设为x、y、z方向。经统计,视神经存在于z轴上的25-60层之间,且在y轴上截去多余背景,取其中心128×160×128的数据,保存成nii.gz格式。
(2)直方图均衡化。为了增强图像的对比图,减小不同数据之间的差异性,对MRI图像进行直方图均衡化。将需处理的图像转化成灰度图像,灰度级为0-255,设为L,计算每个灰度在整个图像中体素个数的占比,记第i个灰度的直方图分布概率为P(i),N为体素总个数,直方图均衡化公式如下:
设K为最大灰度级,则直方图均衡化后的新图像灰度值表示为:
Vk=Sk×K
(3)图像归一化。将上述直方图均衡化后的图像灰度值归一化为0-1的范围,此操作不改变图像信息,但能够加速之后训练过程的网络收敛。归一化公式如下:
其中Vnew为归一化后体素的灰度值,Vold为归一化前体素的灰度值,Vmax、Vmin分别为三维数据中信号值最大值和最小值。
(4)Mask区域提取。图像Mask区域的提取就是用选定的图像、图形或物体,对处理的图像(全部或局部)进行遮挡,来控制图像处理的区域或处理过程。Mask区域提取的步骤为:一、设置合适的阈值对图像进行阈值分割,大于阈值的图像灰度值为1小于阈值的为0;二、对图像进行去噪操作,去除图像中的噪点;三、对图像进行腐蚀膨胀,填充闭合图像中的孔洞。
(5)FA图像的生成。由于视神经的视交叉到外侧膝状体部分在FA图像上的边界较为明显,因此将T1和FA图像都作为深度网络的训练数据以取得更好的训练效果。生成FA图首先通过使用FSL软件FDT功能中的eddy_correct对图像进行头动涡流矫正,再对4D的DTI数据中使用fslroi命令得到b0图像后去除b0图像的头骨得到了限制张量计算范围的mask区域。最后使用FSL的dtifit功能计算得到FA值组成FA图像。为了得到FA图需要对DTI的张量矩阵进行特征分解得到水分子扩散的三个方向的特征值λ1,λ2和λ3。最终计算FA值的公式如下:
其中λ为平均扩散系数(Mean Diffusivity),计算λ的公式如下:
步骤2、生成训练样本:根据视神经结构特点、分布的区域及其所占的区域大小,在128×128×128的三维MR数据中以12为步长分别在三个维度上提取64×64×64的数据,每个数据单独保存成nii.gz格式文件。具体利用pytorch的sklearn包的feature_extraction.imag导入extract_patches函数进行提取。对包含视神经区域的数据,使用np.flip功能对图像进行镜像翻转,此操作能取得数据扩充的效果,使得最终训练数据的正负样本比例在1:1左右。
步骤3、网络模型搭建:本发明应用到的3D-Unet框架,编码器模块分别包含5个卷积层和最大池层,分别包含32、64、128、256、512个特征映射;解码器模块包含5个反卷积层和卷积层,分别包含512、256、128、64、32特征映射。在卷积层中,所有卷积核的尺寸为3×3×3。对于所有的最大池层,池大小为2×2×2,步长为2;对于所有的反卷积层,将反卷积后的特征映射与编码器模块中的相应特征相结合。解码后,使用Softmax分类器生成体素级概率映射和预测。使用步骤3中生成的训练样本训练构建好的网络模型,为了克服网络训练过程中图像类别不均衡使得最终结果不佳的问题,采用Dice系数作为网络的Loss函数,下面为Dice的定义,其中TP是真阳性体素的数目,FP是假阳性体素的数目,FN是假阴性体素的数目:
同时Dice系数也可以写成:
其中px∈P:Ω→{0,1}为预测的二值分割含量,gx∈G:Ω→{0,1}为真值的二值含量,s=1为添加的平滑因子(拉普拉斯平滑)。然后,Dice系数在每个位置j处惩罚px与真标签gx的偏差,使用差分梯度:
步骤4、测试图像预测分割:首先将测试集数据,裁剪其中心128×128×128的数据,然后经过直方图均衡化后,按64×64×64大小,以64为步长分别在三个维度上提取数据,每个测试集则有8个64×64×64大小的数据。将每个数据通过Pytorch的Dataset和DataLoader自定义读取数据机制,输入到训练好的模型中进行预测,最后将预测结果拼接成128×128×128大小的数据,最后填补成与原数据相同的145×174×145大小的数据,并保存成nii.gz格式。完成测试集的预测分割后通过3D Slicer软件直观看分割效果。
通过调试参数训练好网络后,这种基于深度网络的视神经分割方法可以大大提高视神经分割的效率、精确性。再进一步,所述步骤5中,在进行图像裁剪时,视神经不存在于被裁剪的区域中,因此在将预测结果填补成与原图大小相同的图像时,只需将被裁剪的区域的灰度值还原为0即可。
本发明由于采用上述技术方案,具有以下优点:能够有效提高视神经的分割精确性;通过深度网络学习方法能够提高分割效率;能够为除视神经以外其他颅神经的分割研究提供稳定、高效、可重复的分析方法。
以上所述的具体实施仅为本发明的一种最佳实现方式,并不用于限制本发明的专利范围,凡是利用本发明精神和原则及附图内容所作的等效结构或等效流程变换,均应包括在本发明的专利保护范围内。
Claims (5)
1.一种基于深度网络的视神经自动分割方法,其特征在于:该分割方法包括以下步骤:
步骤1、图像预处理:获取人脑MRI数据,将图像灰度值归一化和均衡化,再进一步经过灰度值阈值化生成对应的脑组织/非脑组织区域掩码;再将经过配准的MRI数据对应的DWI数据进行头动矫正后提取b0图像确定图像的区域掩码,通过局部拟合计算出FA值;
为了得到FA值,对DTI的张量矩阵进行特征分解得到水分子扩散的三个方向的特征值λ1,λ2和λ3,最终计算FA值的公式如下:
其中λ为平均扩散系数,计算λ的公式如下:
步骤2、生成训练样本:结合步骤1中生成的T1和FA值,使用人工标记的方法结合两类图像得到视神经的标注信息;以脑组织/非脑组织区域掩码和视神经标注信息,以不同的方法对不同的层进行提取作为训练样本;
步骤3、训练网络模型:构建U-Net网络模型,采用Dice系数作为网络的Loss函数来解决图像类别不均衡的问题;并且重新定义网络的输入,将原本的单模态输入的网络改为T1+FA的多模态网络输入结构;并使用步骤2中生成的训练样本训练搭建好的网络模型,并将最终训练得到的权重在测试数据上进行测试;
步骤4、预测分割:使用训练得到的网络模型对没有标记的数据进行视神经区域的预测,将预测得到的结果和标记得到的结果进行对比,计算预测的准确率。
2.如权利要求1所述的基于深度网络的视神经自动分割方法,其特征在于,所述步骤1中,配准过程采用的算法为互信息的B样条配准方法,FA图像提取过程中的头动矫正和FA值计算使用FSL软件的FDT功能。
3.如权利要求1或2所述的基于深度网络的视神经自动分割方法,其特征在于,所述步骤2中,对每一幅包含视神经区域的图像进行镜像操作,再使用随机抽样的方法删除一部分的无视神经区域的图像,使得最终的数据比例为1:1。
4.如权利要求1所述的基于深度网络的视神经自动分割方法,其特征在于,所述步骤2中,使用的Loss函数为Dice系数是为了解决分割目标分布不平衡的问题,定义Dice,其中TP是真阳性体素的数目,FP是假阳性体素的数目,FN是假阴性体素的数目:
同时Dice系数写成:
其中px∈P:Ω→{0,1}为预测的二值分割含量,gx∈G:Ω→{0,1}为真值的二值含量,s=1为添加的平滑因子;然后,Dice系数在每个位置j处惩罚px与真标签gx的偏差,使用差分梯度:
5.如权利要求1所述的基于深度网络的视神经自动分割方法,其特征在于所述步骤3中,所使用的输入网络的多模态数据,在输入网络进行卷积前,将两类数据转变为张量形式后进行相加,数据就又单通道变为了双通道;将相加后的数据输入网络进行训练得到多模态数据输入训练得到的模型结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011381767.5A CN112489048B (zh) | 2020-12-01 | 2020-12-01 | 一种基于深度网络的视神经自动分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011381767.5A CN112489048B (zh) | 2020-12-01 | 2020-12-01 | 一种基于深度网络的视神经自动分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112489048A CN112489048A (zh) | 2021-03-12 |
CN112489048B true CN112489048B (zh) | 2024-04-16 |
Family
ID=74938363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011381767.5A Active CN112489048B (zh) | 2020-12-01 | 2020-12-01 | 一种基于深度网络的视神经自动分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112489048B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096142B (zh) * | 2021-04-30 | 2022-12-30 | 北京理工大学 | 基于联合嵌入空间的白质神经束自动分割方法 |
CN113662659B (zh) * | 2021-08-25 | 2022-08-12 | 中山大学中山眼科中心 | 一种基于3d-mri眼球模型的眼部参数获取系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101685533A (zh) * | 2009-08-18 | 2010-03-31 | 清华大学深圳研究生院 | 眼底oct图像的视神经纤维层自动分割方法 |
CN110211087A (zh) * | 2019-01-28 | 2019-09-06 | 南通大学 | 可分享的半自动糖尿病眼底病变标注方法 |
CN110517235A (zh) * | 2019-08-19 | 2019-11-29 | 苏州大学 | 一种基于GCS-Net进行OCT图像脉络膜自动分割方法 |
CN111710010A (zh) * | 2020-06-04 | 2020-09-25 | 浙江工业大学 | 一种基于深度网络学习的颅神经自动成像方法 |
-
2020
- 2020-12-01 CN CN202011381767.5A patent/CN112489048B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101685533A (zh) * | 2009-08-18 | 2010-03-31 | 清华大学深圳研究生院 | 眼底oct图像的视神经纤维层自动分割方法 |
CN110211087A (zh) * | 2019-01-28 | 2019-09-06 | 南通大学 | 可分享的半自动糖尿病眼底病变标注方法 |
CN110517235A (zh) * | 2019-08-19 | 2019-11-29 | 苏州大学 | 一种基于GCS-Net进行OCT图像脉络膜自动分割方法 |
CN111710010A (zh) * | 2020-06-04 | 2020-09-25 | 浙江工业大学 | 一种基于深度网络学习的颅神经自动成像方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112489048A (zh) | 2021-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jin et al. | 3D PBV-Net: an automated prostate MRI data segmentation method | |
CN110097550B (zh) | 一种基于深度学习的医学图像分割方法及系统 | |
CN109711426A (zh) | 一种基于gan和迁移学习的病理图片分类装置及方法 | |
CN109978037A (zh) | 图像处理方法、模型训练方法、装置、和存储介质 | |
CN112489048B (zh) | 一种基于深度网络的视神经自动分割方法 | |
CN109685724A (zh) | 一种基于深度学习的对称感知人脸图像补全方法 | |
CN113781640A (zh) | 基于弱监督学习的三维人脸重建模型建立方法及其应用 | |
CN111242233A (zh) | 一种基于融合网络的阿尔兹海默病分类方法 | |
Popescu et al. | Retinal blood vessel segmentation using pix2pix gan | |
CN110853048A (zh) | 基于粗、精训练的mri图像分割方法、装置和存储介质 | |
CN109934804A (zh) | 基于卷积神经网络的阿尔茨海默病变区域的检测方法 | |
CN115375711A (zh) | 基于多尺度融合的全局上下文关注网络的图像分割方法 | |
CN115496720A (zh) | 基于ViT机制模型的胃肠癌病理图像分割方法及相关设备 | |
CN113763406A (zh) | 基于半监督学习的婴儿脑mri分割方法 | |
Mamdouh et al. | A New Model for Image Segmentation Based on Deep Learning. | |
CN117274599A (zh) | 一种基于组合双任务自编码器的脑磁共振分割方法及系统 | |
CN109934796A (zh) | 一种基于深度集成学习的器官自动勾画方法 | |
CN116757982A (zh) | 一种基于多尺度编解码器的多模态医学图像融合方法 | |
CN116486495A (zh) | 一种基于注意力与生成对抗网络的人脸图像隐私保护方法 | |
CN116188420A (zh) | 一种基于卷积Transformer的多模态医学图像分割方法 | |
CN114494132A (zh) | 基于深度学习和纤维束空间统计分析的疾病分类系统 | |
CN114283406A (zh) | 细胞图像识别方法、装置、设备、介质及计算机程序产品 | |
Yu et al. | 3D convolutional networks based automatic diagnosis of Alzheimer's disease using structural MRI | |
CN113222887A (zh) | 基于深度学习的纳米铁标记神经干细胞示踪的方法 | |
CN112614092A (zh) | 脊柱检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |