CN113298754B - 一种前列腺组织轮廓线控制点的检测方法 - Google Patents
一种前列腺组织轮廓线控制点的检测方法 Download PDFInfo
- Publication number
- CN113298754B CN113298754B CN202110387981.XA CN202110387981A CN113298754B CN 113298754 B CN113298754 B CN 113298754B CN 202110387981 A CN202110387981 A CN 202110387981A CN 113298754 B CN113298754 B CN 113298754B
- Authority
- CN
- China
- Prior art keywords
- prostate tissue
- outline
- magnetic resonance
- nuclear magnetic
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000002307 prostate Anatomy 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims description 12
- 238000005481 NMR spectroscopy Methods 0.000 claims abstract description 38
- 238000004519 manufacturing process Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 abstract description 8
- 230000006870 function Effects 0.000 description 8
- 238000002597 diffusion-weighted imaging Methods 0.000 description 4
- 238000013421 nuclear magnetic resonance imaging Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 206010060862 Prostate cancer Diseases 0.000 description 2
- 208000000236 Prostatic Neoplasms Diseases 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000000427 antigen Substances 0.000 description 1
- 102000036639 antigens Human genes 0.000 description 1
- 108091007433 antigens Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 208000026106 cerebrovascular disease Diseases 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000005865 ionizing radiation Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 208000017497 prostate disease Diseases 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30081—Prostate
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
本发明公开了一种前列腺组织轮廓线控制点的检测方法,包括:对多张原始核磁共振图进行前列腺组织轮廓线的标注,得到多条前列腺组织轮廓线,提取每条前列腺组织轮廓线的像素坐标;在每条前列腺组织轮廓线像素坐标中选择特征点,并生成对应热图,得到数据集;构建U‑Net网络,初始化训练参数;将数据集输入U‑Net网络进行训练,得到网络模型;将原始核磁共振图输入网络模型预测得到预测特征点,将预测特征点连接得到前列腺组织轮廓线。采用自定义损失函数,能有效地缩小控制点的预测误差;同时通过可解释的训练方式,不断学习控制点的特征信息,提高模型预测控制点的效率,最终高效、自动得到核磁共振图片中前列腺组织的轮廓线。
Description
技术领域
本发明属于图像处理技术领域,涉及一种前列腺组织轮廓线控制点的检测方法。
背景技术
近年来,前列腺癌临床检测方法有特异性抗原检测、前列腺B超、穿刺活检和MR检查等,其中MR检查也叫核磁共振检查,核磁共振成像是前列腺癌影像诊断最为有效的方法,可以辅助医生提升判断前列腺疾病的效率。核磁共振成像以其无电离辐射性、较高软组织分辨率、多参数多方位多序列的成像特点,广泛应用于肿瘤、心脏病以及脑血管疾病等临床诊断方面。
随着深度学习技术的快速发展,神经网络广泛应用于医学图像处理,如Inception-v3网络判断病理切片的肿瘤、U-NET网络在CT(Computed Tomography)图像得到前列腺位置、DeepLearning计算心脏容量等。由于医生观察核磁共振影像了解患者前列腺情况,严重依赖影像医生的经验,会受情绪、认知。偏见等因素影响,导致误判,关于标注前列腺组织轮廓线仍是亟待解决的问题。基于传统的图像处理技术如SIFT(Scale-invariantfeature transform)方法还无法在核磁共振成像DWI(diffusion-weighted imaging)上对前列腺轮廓线的控制点进行标注,目前主要的轮廓线标注工作为手工标注,效率较低,费时费力。
发明内容
本发明的目的是提供一种前列腺组织轮廓线控制点的检测方法,解决了现有技术中存在的人工标注效率较低的问题。
本发明所采用的技术方案是,一种前列腺组织轮廓线控制点的检测方法,包括以下步骤:
步骤1、对多张原始核磁共振图进行前列腺组织轮廓线的标注,得到多条前列腺组织轮廓线,提取每条前列腺组织轮廓线的像素坐标;
步骤2、在每条前列腺组织轮廓线像素坐标中选择特征点,并生成对应热图,得到数据集;
步骤3、构建U-Net网络,初始化训练参数;
步骤4、将数据集输入U-Net网络进行训练,得到网络模型;
步骤5、将原始核磁共振图输入网络模型预测得到预测特征点,将预测特征点连接得到前列腺组织轮廓线。
本发明的特点还在于:
步骤2具体包括以下步骤:
步骤2.1、统计每条前列腺组织轮廓线像素坐标的个数,按照比例选取若干个像素坐标作为前列腺轮廓线控制点,前列腺轮廓线控制点平均分为上半部分控制点和下半部分控制点;
步骤2.2、获取若干个像素坐标中x轴方向的最大值max_x、最小值min_x,根据上半部分控制点个数、最大值max_x及最小值min_x计算x轴每个控制点的间距;
步骤2.3、遍历最小值min_x到最大值max_x,每间隔一个间距计算该像素坐标x值对应的坐标y值,得到两个前列腺组织轮廓线的控制点(xi,yupi)、(xi,ydowni),直至遍历结束,组成第一特征点;
步骤2.4、根据最小值min_x、最大值max_x得到x轴中心点坐标x_Center、y轴中心点坐标y_Center,组成第二特征点;
步骤2.5、将第一特征点、第二特征点组成特征点,作为网络训练数据集的初始点坐标;同时利用每张核磁共振图的前列腺组织轮廓线的特征点制作热图,设置热图的背景像素强度、特征点像素强度,得到初始数据集。
在步骤3之前,对数据集进行归一化、数据增强。
步骤3的U-Net网络采用自定义损失函数,自定义损失函数为:
LOSS=λ1*LOSS1+λ2*LOSS2 (2);
上式中,ω为惩罚项,abs()为取绝对值。
步骤4具体包括以下步骤:
步骤4.1、将数据集输入U-Net网络,以经过标注的核磁共振图作为输入图片,热图作为标签,进行多次训练后得到第一网络模型;
步骤4.2、将原始核磁共振图输入第一网络模型进行预测,得到预测特征点,将预测特征点标注在原始核磁共振图上,并对预测特征点进行人为调整,得到第二数据集;
步骤4.3、将第二数据集输入第一网络模型进行训练,得到第二网络模型;
步骤4.4、重复步骤4.2-4.3,直至模型趋于收敛,得到最终的网络模型。
步骤5具体为:将原始核磁共振图输入网络模型进行预测得到预测特征点,将最外轮廓的预测特征点连接得到前列腺组织轮廓线。
本发明的有益效果是:
本发明前列腺组织轮廓线控制点的检测方法,采用自定义损失函数,能有效地缩小控制点的预测误差;同时通过可解释的训练方式,不断学习控制点的特征信息,提高模型预测控制点的效率,最终高效、自动得到核磁共振图片中前列腺组织的轮廓线,提供给医生及时判断患者病情。
附图说明
图1是本发明一种前列腺组织轮廓线控制点的检测方法的流程图;
图2是本发明一种前列腺组织轮廓线控制点的检测方法中标注后的核磁共振DWI前列腺组织图;
图3是经过本发明一种前列腺组织轮廓线控制点的检测方法标注后的核磁共振DWI前列腺组织图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
一种前列腺组织轮廓线控制点的检测方法,如图1所示,包括以下步骤:
步骤1、医生通过手工的方式对多张原始核磁共振图前列腺组织轮廓线进行彩色标注,得到多条前列腺组织轮廓线,每张原始核磁共振图上包括一条前列腺组织轮廓线,通过代码提取每条前列腺组织轮廓线的彩色像素坐标;
步骤2、在每条前列腺组织轮廓线像素坐标中选择特征点,并生成对应热图,得到数据集;
步骤2.1、统计每条前列腺组织轮廓线像素坐标的个数color_num,按照比例选取若干个像素坐标作为前列腺轮廓线控制点,由于前列腺轮廓线包括上半部分和下半部分,所以将前列腺轮廓线控制点包括上半部分控制点和下半部分控制点,上半部分控制点个数point_num_up和下半部分控制点个数相同;
步骤2.2、获取若干个像素坐标中x轴方向的最大值max_x、最小值min_x,根据上半部分控制点个数、最大值max_x及最小值min_x计算x轴每个控制点的间距distance,公式如下:
distance=(max_x-min_x)/point_num_up (1);
步骤2.3、遍历最小值min_x到最大值max_x,每间隔一个间距计算该像素坐标x值对应的坐标y值,得到两个前列腺组织轮廓线的控制点(xi,yupi)、(xi,ydowni),直至遍历结束,得到第一特征点;
步骤2.4、根据最小值min_x、最大值max_x得到x轴中心点坐标x_Center,同理可以得到前列腺组织的y轴中心点坐标y_Center,x_Center、y_Center组成第二特征点;
步骤2.5、将第一特征点、第二特征点组成前列腺轮廓的特征点,作为网络训练数据集的初始点坐标;同时利用每张核磁共振图的前列腺组织轮廓线的特征点制作热图,设置热图的背景像素强度、特征点像素强度,得到初始数据集。
步骤3、对数据集进行归一化、数据增强,提升网络训练的效果;构建U-Net网络,初始化训练参数,并采用自定义损失函数,自定义损失函数为:
LOSS=λ1*LOSS1+λ2*LOSS2 (2);
上式中,ω为惩罚项,使Loss1不要太大,abs()为取绝对值。
loss2把两张热图按滑动窗口分为很多11*11的小窗口,计算每个滑动窗口内数据集的点与该窗口内预测点的欧式距离,累加这些欧式距离作为loss2,目的是缩小预测的点和数据集的点之间的距离,优化loss1的效果,公式如下:
步骤4、将数据集输入U-Net网络进行训练,得到网络模型;
步骤4.1、将数据集输入U-Net网络,以经过标注的核磁共振图作为输入图片,热图作为标签,进行多次训练后得到第一网络模型;
步骤4.2、在人与深度学习模型交互的过程中,希望协调自身认知与网络训练之间的矛盾或不一致性。将原始核磁共振图输入第一网络模型进行预测,得到预测特征点,将预测特征点标注在原始核磁共振图上,并对预测特征点进行人为调整,使其更加符合人眼观测的规律,得到第二数据集;
步骤4.3、将第二数据集输入第一网络模型进行训练多次,使模型不断学习热图中特征点的特征,得到第二网络模型;
步骤4.4、重复步骤4.2-4.3,使模型趋于收敛,得到最终的网络模型。
步骤5、将原始核磁共振图输入网络模型进行预测得到预测特征点,将最外轮廓的预测特征点连接得到前列腺组织轮廓线。
通过以上方式,本发明前列腺组织轮廓线控制点的检测方法,采用自定义损失函数,能有效地缩小控制点的预测误差;同时通过可解释的训练方式,不断学习控制点的特征信息,提高模型预测控制点的效率,最终高效、自动得到核磁共振图片中前列腺组织的轮廓线,提供给医生及时判断患者病情。
实施例
步骤1、医生手工地对多张原始核磁共振图进行前列腺组织轮廓线的标注,如图2所示,得到多条前列腺组织轮廓线,通过编写代码将图像RGB三通道分开提取,提取红色像素坐标,R通道为255,GB两通道为0,得到前列腺组织轮廓线的彩色像素坐标;
步骤2、统计每条前列腺组织轮廓线像素坐标的个数color_num为140,选取其数量的5%作为前列腺轮廓线控制点,作为前列腺轮廓线控制点的个数为28;上半部分控制点个数point_num_up和下半部分控制点个数均为14;
获取若干个像素坐标中x轴方向的最大值max_x=145、最小值min_x=100,根据上半部分控制点个数、最大值max_x及最小值min_x计算x轴每个控制点的间距distance,distance=(145-100)/14=3;
遍历min_x=100到max_x=145,每间隔3个像素计算该像素坐标x值对应的坐标y值,得到两个前列腺组织轮廓线的控制点(100,25)、(100,32),直至遍历结束,得到第一特征点;
根据最小值min_x、最大值max_x得到x轴中心点坐标x_Center=122,同理可以得到前列腺组织的y轴中心点坐标y_Center=28,组成第二特征点(122,28);
将第一特征点、第二特征点组成前列腺轮廓的特征点,作为网络训练数据集的初始点坐标;同时利用每张核磁共振图的前列腺组织轮廓线的特征点制作热图,设置热图的背景像素强度为0、特征点像素强度为200,得到初始数据集。
步骤3、对数据集进行归一化、数据增强,因为数据集图片较少,采用数据增强的方式,对每对训练的标注的核磁共振图、热图进行水平翻转、垂直翻转以及水平+垂直翻转,和原数据一起作为4倍的数据集供网络训练;构建U-Net网络,初始化训练参数,网络训练12个epoch,优化器采用Adam,学习率设置为0.0001,并采用自定义损失函数,自定义损失函数的λ1设置为0.5,λ2为1.5,p设置为2.5,ω为0.0001;
步骤4、将数据集输入U-Net网络,以经过标注的核磁共振图作为输入图片,热图作为标签,进行多次训练后得到第一网络模型;
将原始核磁共振图输入第一网络模型进行预测,得到预测特征点,将预测特征点标注在原始核磁共振图上,并对预测特征点进行人为调整,得到第二数据集;
将第二数据集输入第一网络模型进行训练12个epoch,使模型不断学习热图中特征点的特征,得到第二网络模型;
将第二数据集输入第二网络模型进行预测,得到预测特征点,将预测特征点标注在原始核磁共振图上,并对预测特征点进行人为调整,得到第三数据集;
将第三数据集输入第二网络模型进行训练,使模型趋于收敛,得到最终的网络模型。通过两次的调整后,不断学习控制点的特征信息,提高模型预测控制点的能力。
步骤5、将原始核磁共振图输入网络模型进行预测得到预测特征点,将最外轮廓的预测特征点连接得到前列腺组织轮廓线,如图3所示。
Claims (3)
1.一种前列腺组织轮廓线控制点的检测方法,其特征在于,包括以下步骤:
步骤1、对多张原始核磁共振图进行前列腺组织轮廓线的标注,得到多条前列腺组织轮廓线,提取每条所述前列腺组织轮廓线的像素坐标;
步骤2、在每条所述前列腺组织轮廓线像素坐标中选择特征点,并生成对应热图,得到数据集;
步骤3、构建U-Net网络,初始化训练参数;
步骤4、将所述数据集输入U-Net网络进行训练,得到网络模型;
步骤5、将所述原始核磁共振图输入网络模型预测得到预测特征点,将所述预测特征点连接得到前列腺组织轮廓线;
步骤2具体包括以下步骤:
步骤2.1、统计每条所述前列腺组织轮廓线像素坐标的个数,按照比例选取若干个像素坐标作为前列腺轮廓线控制点,所述前列腺轮廓线控制点平均分为上半部分控制点和下半部分控制点;
步骤2.2、获取若干个所述像素坐标中x轴方向的最大值max_x、最小值min_x,根据上半部分控制点个数、最大值max_x及最小值min_x计算x轴每个控制点的间距;
步骤2.3、遍历所述最小值min_x到最大值max_x,每间隔一个间距计算该像素坐标x值对应的坐标y值,得到两个前列腺组织轮廓线的控制点(xi,yupi)、(xi,ydowni),直至遍历结束,组成第一特征点;
步骤2.4、根据所述最小值min_x、最大值max_x得到x轴中心点坐标x_Center、y轴中心点坐标y_Center,组成第二特征点;
步骤2.5、将所述第一特征点、第二特征点组成特征点,作为网络训练数据集的初始点坐标;同时利用每张所述核磁共振图的前列腺组织轮廓线的特征点制作热图,设置所述热图的背景像素强度、特征点像素强度,得到初始数据集;
步骤3的U-Net网络采用自定义损失函数,所述自定义损失函数为:
LOSS=λ1*LOSS1+λ2*LOSS2 (2);
上式中,ω为惩罚项,abs()为取绝对值;
步骤4具体包括以下步骤:
步骤4.1、将所述数据集输入U-Net网络,以经过标注的所述核磁共振图作为输入图片,热图作为标签,进行多次训练后得到第一网络模型;
步骤4.2、将所述原始核磁共振图输入第一网络模型进行预测,得到预测特征点,将所述预测特征点标注在原始核磁共振图上,并对所述预测特征点进行人为调整,得到第二数据集;
步骤4.3、将所述第二数据集输入第一网络模型进行训练,得到第二网络模型;
步骤4.4、重复步骤4.2-4.3,直至模型趋于收敛,得到最终的网络模型。
2.根据权利要求1所述的一种前列腺组织轮廓线控制点的检测方法,其特征在于,在步骤3之前,对所述数据集进行归一化、数据增强。
3.根据权利要求1所述的一种前列腺组织轮廓线控制点的检测方法,其特征在于,步骤5具体为:将所述原始核磁共振图输入网络模型进行预测得到预测特征点,将最外轮廓的所述预测特征点连接得到前列腺组织轮廓线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110387981.XA CN113298754B (zh) | 2021-04-12 | 2021-04-12 | 一种前列腺组织轮廓线控制点的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110387981.XA CN113298754B (zh) | 2021-04-12 | 2021-04-12 | 一种前列腺组织轮廓线控制点的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113298754A CN113298754A (zh) | 2021-08-24 |
CN113298754B true CN113298754B (zh) | 2024-02-06 |
Family
ID=77319589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110387981.XA Active CN113298754B (zh) | 2021-04-12 | 2021-04-12 | 一种前列腺组织轮廓线控制点的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113298754B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116310627B (zh) * | 2023-01-16 | 2024-02-02 | 浙江医准智能科技有限公司 | 模型训练方法、轮廓预测方法、装置、电子设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3053487A1 (en) * | 2017-02-22 | 2018-08-30 | The United States Of America, As Represented By The Secretary, Department Of Health And Human Services | Detection of prostate cancer in multi-parametric mri using random forest with instance weighting & mr prostate segmentation by deep learning with holistically-nested networks |
CN109636806A (zh) * | 2018-11-22 | 2019-04-16 | 浙江大学山东工业技术研究院 | 一种基于多步学习的三维核磁共振胰腺图像分割方法 |
CN109919216A (zh) * | 2019-02-28 | 2019-06-21 | 合肥工业大学 | 一种用于计算机辅助诊断前列腺癌的对抗学习方法 |
CN110008992A (zh) * | 2019-02-28 | 2019-07-12 | 合肥工业大学 | 一种用于前列腺癌辅助诊断的深度学习方法 |
CN111754472A (zh) * | 2020-06-15 | 2020-10-09 | 南京冠纬健康科技有限公司 | 一种肺结节检测方法与检测系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11004183B2 (en) * | 2018-07-10 | 2021-05-11 | The Board Of Trustees Of The Leland Stanford Junior University | Un-supervised convolutional neural network for distortion map estimation and correction in MRI |
-
2021
- 2021-04-12 CN CN202110387981.XA patent/CN113298754B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3053487A1 (en) * | 2017-02-22 | 2018-08-30 | The United States Of America, As Represented By The Secretary, Department Of Health And Human Services | Detection of prostate cancer in multi-parametric mri using random forest with instance weighting & mr prostate segmentation by deep learning with holistically-nested networks |
CN109636806A (zh) * | 2018-11-22 | 2019-04-16 | 浙江大学山东工业技术研究院 | 一种基于多步学习的三维核磁共振胰腺图像分割方法 |
CN109919216A (zh) * | 2019-02-28 | 2019-06-21 | 合肥工业大学 | 一种用于计算机辅助诊断前列腺癌的对抗学习方法 |
CN110008992A (zh) * | 2019-02-28 | 2019-07-12 | 合肥工业大学 | 一种用于前列腺癌辅助诊断的深度学习方法 |
CN111754472A (zh) * | 2020-06-15 | 2020-10-09 | 南京冠纬健康科技有限公司 | 一种肺结节检测方法与检测系统 |
Non-Patent Citations (3)
Title |
---|
凌彤 ; 杨琬琪 ; 杨明 ; .利用多模态U形网络的CT图像前列腺分割.智能系统学报.2018,(第06期),全文. * |
刘云鹏 ; 刘光品 ; 王仁芳 ; 金冉 ; 孙德超 ; 邱虹 ; 董晨 ; 李瑾 ; 洪国斌 ; .深度学习结合影像组学的肝脏肿瘤CT分割.中国图象图形学报.2020,(第10期),全文. * |
詹曙 ; 梁植程 ; 谢栋栋 ; .前列腺磁共振图像分割的反卷积神经网络方法.中国图象图形学报.2017,(第04期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN113298754A (zh) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11101033B2 (en) | Medical image aided diagnosis method and system combining image recognition and report editing | |
US11645748B2 (en) | Three-dimensional automatic location system for epileptogenic focus based on deep learning | |
CN113674253B (zh) | 基于U-Transformer的直肠癌CT影像自动分割方法 | |
Luo et al. | Micro-vessel image segmentation based on the AD-UNet model | |
Huang et al. | Channel-attention U-Net: Channel attention mechanism for semantic segmentation of esophagus and esophageal cancer | |
CN109035160A (zh) | 医学影像的融合方法及基于融合医学影像学习的图像检测方法 | |
CN110930416A (zh) | 一种基于u型网络的mri图像前列腺分割方法 | |
CN110008992B (zh) | 一种用于前列腺癌辅助诊断的深度学习方法 | |
Cui et al. | Bidirectional cross-modality unsupervised domain adaptation using generative adversarial networks for cardiac image segmentation | |
CN114782307A (zh) | 基于深度学习的增强ct影像直肠癌分期辅助诊断系统 | |
CN103544695B (zh) | 一种高效的基于博弈框架的医学图像分割方法 | |
CN113420826A (zh) | 一种肝脏病灶图像处理系统及图像处理方法 | |
Zhang et al. | Brain atlas fusion from high-thickness diagnostic magnetic resonance images by learning-based super-resolution | |
CN111145185A (zh) | 一种基于聚类关键帧提取ct图像的肺实质分割方法 | |
CN113298754B (zh) | 一种前列腺组织轮廓线控制点的检测方法 | |
CN114972291A (zh) | 基于混合增强智能的医学影像结构化自动标注方法与系统 | |
CN114332910A (zh) | 一种面向远红外图像的相似特征计算的人体部位分割方法 | |
CN109949299A (zh) | 一种心脏医学图像自动分割方法 | |
CN111477304A (zh) | 一种pet和mri图像相融合的肿瘤照射成像组合方法 | |
CN116958537A (zh) | 一种基于U-Net模型的肺结节分割方法 | |
CN115731444A (zh) | 一种基于人工智能和超像素分割的医学影像融合方法 | |
CN113658193B (zh) | 基于信息融合的肝脏ct影像肿瘤分割方法 | |
Dandan et al. | A multi-model organ segmentation method based on abdominal ultrasound image | |
CN115937163A (zh) | 一种spect肺灌注成像的目标区域提取方法与系统 | |
CN115526898A (zh) | 一种医学影像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |