CN110517254B - 基于深度学习的临床靶区自动勾画方法、装置及相关设备 - Google Patents
基于深度学习的临床靶区自动勾画方法、装置及相关设备 Download PDFInfo
- Publication number
- CN110517254B CN110517254B CN201910807660.3A CN201910807660A CN110517254B CN 110517254 B CN110517254 B CN 110517254B CN 201910807660 A CN201910807660 A CN 201910807660A CN 110517254 B CN110517254 B CN 110517254B
- Authority
- CN
- China
- Prior art keywords
- image
- module
- processed
- result
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000013135 deep learning Methods 0.000 title claims abstract description 46
- 238000003062 neural network model Methods 0.000 claims abstract description 61
- 238000012545 processing Methods 0.000 claims abstract description 55
- 230000005284 excitation Effects 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims description 46
- 230000011218 segmentation Effects 0.000 claims description 41
- 230000004913 activation Effects 0.000 claims description 21
- 230000006835 compression Effects 0.000 claims description 18
- 238000007906 compression Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 18
- 238000012800 visualization Methods 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 13
- 238000011176 pooling Methods 0.000 claims description 10
- 230000003321 amplification Effects 0.000 claims description 9
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 3
- 238000003325 tomography Methods 0.000 claims description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 206010028980 Neoplasm Diseases 0.000 description 8
- 230000004044 response Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 206010008342 Cervix carcinoma Diseases 0.000 description 2
- 208000006105 Uterine Cervical Neoplasms Diseases 0.000 description 2
- 230000003187 abdominal effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 201000010881 cervical cancer Diseases 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 206010027476 Metastases Diseases 0.000 description 1
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000005111 flow chemistry technique Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 230000003211 malignant effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000009401 metastasis Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种基于深度学习的临床靶区自动勾画方法、装置、电子设备及计算机可读介质。该方法包括:获取待处理图像;通过神经网络模型对所述待处理图像进行处理,获得所述待处理图像的临床靶区勾画结果;其中,所述神经网络模型包括至少一个残差模块,每一残差模块包括压缩激励模块。本公开涉及的基于深度学习的临床靶区自动勾画方法、装置、电子设备及计算机可读介质,通过具有残差模块的神经网络模型对待处理图像进行处理,能够获得高准确性和鲁棒性的临床靶区勾画结果。
Description
技术领域
本公开涉及计算机视觉领域,具体而言,涉及一种基于深度学习的临床靶区自动勾画方法、装置、电子设备及计算机可读介质。
背景技术
医学上的靶区通常包括肿瘤区(Gross Tumor Volume,GTV)、临床靶区(clinicaltarget volume,CTV)和计划靶区(Planning target volume,PTV)。其中,肿瘤区是临床病灶部位,包括临床上是能够诊断出的具有一定大小和形状的恶性病变部位,临床靶区介于肿瘤区和计划靶区之间,在肿瘤区的基础上,增加了相应的组织以及周围可能转移的区域部位。计划靶区则是考虑到照射中患者器官运动,以及由于日常治疗中靶位置和靶体积变化等因素的影响,在临床靶区的基础上扩大照射的组织范围。图15示意性示出了肿瘤区1510、临床靶区1520和计划靶区1530的示意图。
相关技术中,可通过人工对断层扫描图像(Computed Tomography,CT)或磁共振图像(Magnetic Resonance Imaging,MRI)进行勾画,获得相应的勾画结果。然而,靶区勾画任务需要极高的专业知识储备,且一个靶区勾画任务包括上百张断层扫描图像或磁共振图像,人工完成将十分耗时耗力。
目前已有相关技术致力于基于深度学习领域的肿瘤区的勾画,但由于临床靶区勾画边界模糊、呈现不确定性的边缘,肿瘤区的勾画方式并不适用于临床靶区勾画,目前的临床靶区勾画结果始终不尽人意。
因此,需要一种新的基于深度学习的临床靶区自动勾画方法、装置、电子设备及计算机可读介质。
在所述背景技术部分公开的上述信息仅用于加强对本公开的背景的理解,因此它可以包括不构成对本领域普通技术人员已知的相关技术的信息。
发明内容
有鉴于此,本公开实施例提供一种基于深度学习的临床靶区自动勾画方法、装置、电子设备及计算机可读介质,通过具有残差模块的神经网络模型对待处理图像进行处理,能够获得高准确性和鲁棒性的临床靶区勾画结果。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一方面,提出一种基于深度学习的临床靶区自动勾画方法,该方法包括:获取待处理图像;通过神经网络模型对所述待处理图像进行处理,获得所述待处理图像的临床靶区勾画结果;其中,所述神经网络模型包括至少一个残差模块,每一残差模块包括压缩激励模块。
在本公开的一种示例性实施例中,通过神经网络模型对所述待处理图像进行处理,获得所述待处理图像的临床靶区勾画结果包括:将所述待处理图像与预定值分割结果进行拼接;通过神经网络模型对拼接的所述待处理图像和所述预定值分割结果进行处理,获得第一分割结果;将所述待处理图像和所述第一分割结果进行拼接;通过所述神经网络模型对拼接的所述待处理图像和所述第一分割结果进行处理,获得所述待处理图像的临床靶区勾画结果。
在本公开的一种示例性实施例中,所述神经网络模型包括编码结构、连接结构和解码结构,所述编码结构包括依次连接的第一编码单元和第二编码单元,每个编码单元包括依次连接的残差模块和下采样单元,所述解码结构包括依次连接的第一解码单元和第二解码单元,每个解码单元包括依次连接的上采样单元和残差模块;其中,通过神经网络模型对所述待处理图像进行处理,获得像素级标注包括:将所述待处理图像输入所述编码结构,获得所述编码结构输出的编码向量、所述第一个编码单元中的残差模块输出的第一残差向量和所述第二编码单元中的残差模块输出的第二残差向量;将所述编码向量输入所述连接结构,获得连接向量;将所述连接向量输入所述解码结构;将所述第一残差向量与所述第二解码单元中的上采样单元的输出向量级联后输入所述第二解码单元中的残差模块,将所述第二残差向量与所述第一解码单元中的上采样单元的输出向量级联后输入所述第一解码单元中的残差模块;通过所述第二解码单元中的残差模块输出的所述临床靶区勾画结果。
在本公开的一种示例性实施例中,每一残差模块包括依次连接的至少一个卷积模块、激活层和归一化层,其中根据所述至少一个卷积模块的输入信息和所述归一化层的输出信息获得每一残差模块的输出信息;其中,每一卷积模块包括依次连接的三维卷积层、非线性激活层、批正则化层和压缩激励模块;所述压缩激励模块包括依次连接的池化层、第一全连接层、第一激活层、第二全连接层和第二激活层、重缩放层,其中将所述池化层的输入信息和所述第二激活层的输出信息均输入至所述重缩放层,以获得所述压缩激励模块的输出信息。
在本公开的一种示例性实施例中,所述方法还包括:获取训练样本集;将所述训练样本集中的原始图像与预定值分割结果进行拼接;通过所述神经网络模型对拼接的所述原始图像和所述预定值分割结果进行处理,获得第一训练结果;将所述原始图像和所述第一训练结果进行拼接;通过拼接的所述原始图像和所述第一训练结果对所述神经网络模型进行训练,获得训练后的所述神经网络模型。
在本公开的一种示例性实施例中,获取训练样本集包括:获取至少一个原始图像及其临床靶区的像素级标注;对所述至少一个原始图像进行归一化处理,获得至少一个归一化原始图像;对所述至少一个归一化原始图像及其临床靶区的像素级标注进行数据扩增处理,以获得所述训练样本集。
在本公开的一种示例性实施例中,所述方法还包括:对所述临床靶区勾画结果进行可视化处理,获得可视化勾画结果;将所述可视化勾画结果发送至客户端,以用于在所述客户端显示所述可视化勾画结果。
在本公开的一种示例性实施例中,所述方法还包括:接收客户端发送的下载请求;响应于所述下载请求,将所述临床靶区勾画结果发送至所述客户端。
根据本公开的一方面,提出一种基于深度学习的临床靶区自动勾画装置,该装置包括:图像获取模块,用于获取待处理图像;图像处理模块,用于通过神经网络模型对所述待处理图像进行处理,获得所述待处理图像的临床靶区勾画结果;其中,所述神经网络模型包括至少一个残差模块,每一残差模块包括压缩-激励模块。
根据本公开的一方面,提出一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上文中所述的方法。
根据本公开的一方面,提出一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上文中所述的方法。
根据本公开一些实施例提供的基于深度学习的临床靶区自动勾画方法、装置、电子设备及计算机可读介质,通过具有残差模块的神经网络模型对待处理图像进行处理,能够实现高鲁棒性的特征表达;进一步地,每一残差模块中包括的压缩激励模块能够考虑不同通道之间的重要性区分,以对于不同通道之间信息的相对重要性程度进行一定的调整和自适应校准,进而能够获得高准确性和鲁棒性的临床靶区勾画结果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
通过参照附图详细描述其示例实施例,本公开的上述和其它目标、特征及优点将变得更加显而易见。下面描述的附图仅仅是本公开的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的一种基于深度学习的临床靶区自动勾画方法的流程图;
图2是基于图1的步骤S120在一示例性实施例中的流程图;
图3是基于图1的步骤S120在另一示例性实施例中的流程图;
图4示意性示出了根据本公开一示例性实施例的神经网络模型的框架图;
图5是根据一示例性实施例示出的残差模块的结构图;
图6是根据另一示例性实施例示出的一种基于深度学习的临床靶区自动勾画方法的流程图;
图7是基于图6的步骤S610在一个示例性实施例中的流程图;
图8是根据又一示例性实施例示出的一种基于深度学习的临床靶区自动勾画方法的流程图;
图9是根据再一示例性实施例示出的一种基于深度学习的临床靶区自动勾画方法的流程图;
图10是根据再一示例性实施例示出的一种基于深度学习的临床靶区自动勾画方法的流程图;
图11是根据一示例性实施例示出的一种基于深度学习的临床靶区自动勾画装置的框图;
图12是根据另一示例性实施例示出的一种基于深度学习的临床靶区自动勾画系统的用例图;
图13是根据另一示例性实施例示出的一种基于深度学习的临床靶区自动勾画系统的框图;
图14为腹部区域宫颈癌的临床靶区勾画结果示意图;
图15示意性示出了肿瘤区、临床靶区和计划靶区的示意图;
图16是根据一示例性实施例示出的一种电子设备的框图;
图17示意性示出本公开示例性实施例中一种计算机可读存储介质示意图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本公开将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
应理解,虽然本文中可能使用术语第一、第二、第三等来描述各种组件,但这些组件不应受这些术语限制。这些术语乃用以区分一组件与另一组件。因此,下文论述的第一组件可称为第二组件而不偏离本公开概念的教示。如本文中所使用,术语“及/或”包括相关联的列出项目中的任一个及一或多者的所有组合。
本领域技术人员可以理解,附图只是示例实施例的示意图,附图中的模块或流程并不一定是实施本公开所必须的,因此不能用于限制本公开的保护范围。
图1是根据一示例性实施例示出的一种基于深度学习的临床靶区自动勾画方法的流程图。本公开实施例提供的基于深度学习的临床靶区自动勾画方法可以由任意具备计算处理能力的电子设备执行,例如用户终端和/或服务器,在下面的实施例中,以服务器执行所述方法为例进行举例说明,但本公开并不限定于此。本公开实施例提供的基于深度学习的临床靶区自动勾画方法10可以包括步骤S110至S120。
如图1所示,在步骤S110中,获取待处理图像。
本公开实施例中,所述待处理图像可例如为断层扫描图像或磁共振图像。以断层扫描图像为例,对一特定部位的断层扫描图像可以包含多张。且待处理图像可以是医学数字成像和通信(Digital Imaging and Communications in Medicine,DICOM)图像,后者为医学图像和相关信息的国际标准(ISO 12052),它定义了质量能满足临床需要的可用于数据交换的医学图像格式。
在步骤S120中,通过神经网络模型对所述待处理图像进行处理,获得所述待处理图像的临床靶区勾画结果;其中,所述神经网络模型包括至少一个残差模块,每一残差模块包括压缩激励模块。
本公开实施例中,可首先对待处理图像进行图像预处理。图像预处理操作可包括归一化处理和数据扩增处理。其中,数据扩增用于提高数据容量,进而提高模型效果。数据扩增可包括:反转、平移、缩放、亮度变化、裁剪、光照等外部影响、颜色变换、模糊、灰度等,但本公开对此并不作特殊限定。
其中,残差模块用于统计实际观察值与估计值(拟合值)之间的差。残差模块能够实现鲁棒性的特征表达。压缩激励模块(Squeeze and excitation,SE)是一种图像识别结构,它通过对特征通道间的相关性进行建模,把重要的特征进行强化来提升准确率。通过压缩激励模块对不同通道的信息之间进行整合,在对不同的通道之间的信息进行注意力机制的加权,能够对于不同的通道之间信息的相对重要性程度进行调整。本公开实施例通过在残差模块进一步包括压缩激励模块,能够自适应地校准每个特征信道内的残差特征图,并能够通过扩展二维的压缩、激励和缩放卷积函数到三维。图14为腹部区域宫颈癌的临床靶区勾画结果示意图,其中,白色虚线区域为临床靶区勾画结果。
根据本公开实施方式提供的基于深度学习的临床靶区自动勾画方法,通过具有残差模块的神经网络模型对待处理图像进行处理,能够实现高鲁棒性的特征表达;进一步地,每一残差模块中包括的压缩激励模块能够考虑不同通道之间的重要性区分,以对于不同通道之间信息的相对重要性程度进行一定的调整和自适应校准,进而能够获得高准确性和鲁棒性的临床靶区勾画结果。
应清楚地理解,本公开描述了如何形成和使用特定示例,但本公开的原理不限于这些示例的任何细节。相反,基于本公开公开的内容的教导,这些原理能够应用于许多其它实施例。
图2是基于图1的步骤S120在一示例性实施例中的流程图。
如图2所示,上述步骤S120可以进一步包括以下步骤。
在步骤S121中,将所述待处理图像与预定值分割结果进行拼接。
在本公开实施例中,预定值分割结果可为全为0的分割结果。
在步骤S122中,通过神经网络模型对拼接的所述待处理图像和所述预定值分割结果进行处理,获得第一分割结果。
在本公开实施例中,可将拼接的所述待处理图像和所述预定值分割结果作为输入,以通过神经网络模型对该输入进行处理。
在步骤S123中,将所述待处理图像和所述第一分割结果进行拼接。
本公开实施例中,待处理图像和第一分割结果的拼接方式可与步骤S121相同,此处不再赘述。
在步骤S124中,通过所述神经网络模型对拼接的所述待处理图像和所述第一分割结果进行处理,获得所述待处理图像的临床靶区勾画结果。
本公开实施例中,可将拼接的所述待处理图像和所述第一分割结果作为输入,以通过神经网络模型对该输入进行处理。
在本公开实施例中,通过将第一次分割结果与原始图像结合进行模型的循环运算,能够实现对分割细节的进一步处理,以在前一生成结果的基础上修改与润色相应细节,进而在细节方面逐步优化结果,提升勾画质量。本公开实施例中,进行了两次循环过程,但本公开的技术方案对循环过程的具体次数并不作特殊限定,还可以是三次、五次等。
图3是基于图1的步骤S120在另一示例性实施例中的流程图。
如图3所示,上述步骤S120可以进一步包括以下步骤。
本公开实施例中,所述神经网络模型包括编码结构、连接结构和解码结构,所述编码结构包括依次连接的第一编码单元和第二编码单元,每个编码单元包括依次连接的残差模块和下采样单元,所述解码结构包括依次连接的第一解码单元和第二解码单元,每个解码单元包括依次连接的上采样单元和残差模块。
在示例性实施例中,神经网络模型的解码结构能够对分割任务进行密集的预测。
在示例性实施例中,连接结构可包括压缩激励模块。
在示例性实施例中,编码结构和解码结构中可采用特征拼接方式,以融合低级别和高级别的特征。
本公开实施例中,编码结构中包括两个编码单元:第一编码单元和第二编码单元,但应该理解,本公开的技术方案对编码结构中编码单元的个数并不作特殊限定,还可以包括三个、四个、五个等。本实施例仅以两个为例,类似地,解码结构中的解码单元同理。图4示意性示出了根据本公开另一示例性实施例的神经网络模型的框架图。图4中编码结构410包括五个依次连接的编码单元:第一编码单元411、第二编码单元412、第三编码单元413、第四编码单元414以及第五编码单元415,解码结构430包括五个依次连接的解码单元:第一解码单元431、第二解码单元432、第三解码单元433、第四解码单元434以及第五解码单元435。
在步骤S1201中,将所述待处理图像输入所述编码结构,获得所述编码结构输出的编码向量、所述第一个编码单元中的残差模块输出的第一残差向量和所述第二编码单元中的残差模块输出的第二残差向量。
在步骤S1202中,将所述编码向量输入所述连接结构,获得连接向量。
在步骤S1203中,将所述连接向量输入所述解码结构。
在步骤S1204中,将所述第一残差向量与所述第二解码单元中的上采样单元的输出向量级联后输入所述第二解码单元中的残差模块,将所述第二残差向量与所述第一解码单元中的上采样单元的输出向量级联后输入所述第一解码单元中的残差模块。
在步骤S1205中,通过所述第二解码单元中的残差模块输出的所述临床靶区勾画结果。
本公开实施例中,可循环多次执行步骤S1201至S1205,其循环的具体方式可与图2相同,循环次数可例如为两次、五次等,并不以此为限,该方式能够实现对分割细节的进一步处理,提高临床靶区勾画结构的质量。
在本公开实施例中,通过编码结构中残差模块输出的残差向量和解码结构中上采样单元输出向量进行级联,能够实现编码结构和解码结构之间的特征融合,以实现低级别特征和高级版特征的融合。
图5是根据一示例性实施例示出的残差模块的结构图。
如图5所示,本公开实施例的神经网络模型中,每一残差模块440包括依次连接的至少一个卷积模块510、激活层520和归一化层530,其中根据所述至少一个卷积模块510的输入信息和所述归一化层530的输出信息获得每一残差模块440的输出信息;其中,每一卷积模块510包括依次连接的三维卷积层511、非线性激活层512、批正则化层513和压缩激励模块514;所述压缩激励模514块包括依次连接的池化层5141、第一全连接层5142、第一激活层5143、第二全连接层5144和第二激活层5145、重缩放层5146,其中将所述池化层5141的输入信息和所述第二激活层5145的输出信息均输入至所述重缩放层5146,以获得所述压缩激励模块514的输出信息。
其中,激活层(Activate Function)用于实现非线性化操作。第一激活层可以是线性整流函数(Rectified Linear Unit,ReLU),第二激活层可以是S型生长函数(sigmoid函数)。在信息科学中,由于Sigmoid函数单增以及反函数单增等性质,能够将变量映射到0,1之间。
图6是根据另一示例性实施例示出的一种基于深度学习的临床靶区自动勾画方法的流程图。
如图6所示,本公开的基于深度学习的临床靶区自动勾画方法可以包括以下步骤。
在步骤S610中,获取训练样本集。
本公开实施例中,训练样本集可以包括原始图像以及该原始图像对应的临床靶区像素级标注。其中,训练样本集可例如为医学数字成像和通信图像。
在步骤S620中,将所述训练样本集中的原始图像与预定值分割结果进行拼接。
本公开实施例中的拼接方式可与步骤S121中的拼接方式类似,此处不再赘述。
在步骤S630中,通过所述神经网络模型对拼接的所述原始图像和所述预定值分割结果进行处理,获得第一训练结果。
本公开实施例中,可以将拼接的原始图像和预定值分割结果作为输入,并将训练样本集中的临床靶区像素级标注作为期望输出对神经网络模型进行训练。
在步骤S640中,将所述原始图像和所述第一训练结果进行拼接。
在步骤S650中,通过拼接的所述原始图像和所述第一训练结果对所述神经网络模型进行训练,获得训练后的所述神经网络模型。
本公开实施例中,可以将拼接的所述原始图像和所述第一训练结果作为神经网络模型的输入,并将训练样本集中的临床靶区像素级标注作为期望输出对神经网络模型进行训练。
本公开实施例中,对模型的一次迭代过程中,进行了两次循环训练。但本公开对每一迭代过程中的循环训练次数并不作特殊限定,还可以是三次、四次、五次等。
图7是基于图6的步骤S610在一个示例性实施例中的流程图。
如图7所示,上述步骤S610可以进一步包括以下步骤。
在步骤S611中,获取至少一个原始图像及其临床靶区的像素级标注。
在步骤S612中,对所述至少一个原始图像进行归一化处理,获得至少一个归一化原始图像。
在步骤S613中,对所述至少一个归一化原始图像及其临床靶区的像素级标注进行数据扩增处理,以获得所述训练样本集。
图8是根据又一示例性实施例示出的一种基于深度学习的临床靶区自动勾画方法的流程图。
如图8所示,本公开的基于深度学习的临床靶区自动勾画方法还可以包括以下步骤。
在步骤S810中,对所述临床靶区勾画结果进行可视化处理,获得可视化勾画结果。
本公开实施例中,可接收客户端的可视化请求。并响应于可视化请求确定目标待处理图像,以根据目标待处理图像获得目标临床靶区勾画结果。也可响应于可视化请求确定数据库或缓冲区中存储的目标临床靶区勾画结果。进而对目标临床靶区勾画结果进行可视化处理,获得可视化勾画结果。其中,可视化勾画结果可以是能够进行图像显示格式的文件数据。
在步骤S820中,将所述可视化勾画结果发送至客户端,以用于在所述客户端显示所述可视化勾画结果。
图9是根据再一示例性实施例示出的一种基于深度学习的临床靶区自动勾画方法的流程图。
如图9所示,本公开的基于深度学习的临床靶区自动勾画方法还可以包括以下步骤。
在步骤S910中,接收客户端发送的下载请求。
本公开实施例中,客户端发送的下载请求中可包括临床靶区勾画结果的名称、标识等,以根据下载请求确定待下载的临床靶区勾画结果。
在步骤S920中,响应于所述下载请求,将所述临床靶区勾画结果发送至所述客户端。
图10是根据再一示例性实施例示出的一种基于深度学习的临床靶区自动勾画方法的流程图。
如图10所示,本公开的基于深度学习的临床靶区自动勾画方法可以包括以下步骤。
在步骤S1010中,接收上传图像。其中,上传图像可是待处理的图像。
在步骤S1020中,对上传图像进行检测。若检测通过执行步骤S1030,否则执行步骤S1010。
本公开实施例中,可判断上传图像是否有效的断层扫描图像或磁共振图像,以及判断上传图像是否是医学数字成像和通信格式的图像,以对上传图像进行检测。
在步骤S1030中,对上传图像进行存储。
在步骤S1040中,通过神经网络模型对上传图像进行处理,获得临床靶区勾画结果。
在步骤S1050中,对临床靶区勾画结果进行存储。
在步骤S1060中,根据存储的上传图像和临床靶区勾画结果生成可视化结果。
在步骤S1070中,接收客户端发送的下载请求,并响应于该下载请求将临床靶区勾画结果发送至客户端。
本领域技术人员可以理解实现上述实施例的全部或部分步骤被实现为由CPU执行的计算机程序。在该计算机程序被CPU执行时,执行本公开提供的上述方法所限定的上述功能。所述的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。
此外,需要注意的是,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图11是根据一示例性实施例示出的一种基于深度学习的临床靶区自动勾画装置的框图。本公开实施例提供的基于深度学习的临床靶区自动勾画装置1100可以包括:图像获取模块1110和图像处理模块1120。
在基于深度学习的临床靶区自动勾画装置1100中,图像获取模块1110可用于获取待处理图像。
图像处理模块1120可用于通过神经网络模型对所述待处理图像进行处理,获得所述待处理图像的临床靶区勾画结果;其中,所述神经网络模型包括至少一个残差模块,每一残差模块包括压缩-激励模块。
在示例性实施例中,图像处理模块1120可以包括第一拼接单元、第一模型处理单元、第二拼接单元和第二模型处理单元。其中,第一拼接单元可用于将所述待处理图像与预定值分割结果进行拼接。第一模型处理单元可用于通过神经网络模型对拼接的所述待处理图像和所述预定值分割结果进行处理,获得第一分割结果。第二拼接单元可用于将所述待处理图像和所述第一分割结果进行拼接。第二模型处理单元可用于通过所述神经网络模型对拼接的所述待处理图像和所述第一分割结果进行处理,获得所述待处理图像的临床靶区勾画结果。
在示例性实施例中,所述神经网络模型包括编码结构、连接结构和解码结构,所述编码结构包括依次连接的第一编码单元和第二编码单元,每个编码单元包括依次连接的残差模块和下采样单元,所述解码结构包括依次连接的第一解码单元和第二解码单元,每个解码单元包括依次连接的上采样单元和残差模块。其中,图像处理模块1120可以包括残差向量输出单元、连接向量输出单元、解码结构输入单元、残差向量输入单元和临床靶区勾画结果输出单元。其中,残差向量输出单元可用于将所述待处理图像输入所述编码结构,获得所述编码结构输出的编码向量、所述第一个编码单元中的残差模块输出的第一残差向量和所述第二编码单元中的残差模块输出的第二残差向量。连接向量输出单元可用于将所述编码向量输入所述连接结构,获得连接向量。解码结构输入单元可用于将所述连接向量输入所述解码结构。残差向量输入单元可用于将所述第一残差向量与所述第二解码单元中的上采样单元的输出向量级联后输入所述第二解码单元中的残差模块,将所述第二残差向量与所述第一解码单元中的上采样单元的输出向量级联后输入所述第一解码单元中的残差模块。临床靶区勾画结果输出单元可用于通过所述第二解码单元中的残差模块输出的所述临床靶区勾画结果。
在示例性实施例中,每一残差模块包括依次连接的至少一个卷积模块、激活层和归一化层,其中根据所述至少一个卷积模块的输入信息和所述归一化层的输出信息获得每一残差模块的输出信息;其中,每一卷积模块包括依次连接的三维卷积层、非线性激活层、批正则化层和压缩激励模块;所述压缩激励模块包括依次连接的池化层、第一全连接层、第一激活层、第二全连接层和第二激活层、重缩放层,其中将所述池化层的输入信息和所述第二激活层的输出信息均输入至所述重缩放层,以获得所述压缩激励模块的输出信息。
在示例性实施例中,基于深度学习的临床靶区自动勾画装置1100还可包括训练样本集获取单元、第一训练拼接单元、第一训练结果获取单元、第二训练拼接单元和第二训练结果获取单元。其中,训练样本集获取单元可用于获取训练样本集。第一训练拼接单元可用于将所述训练样本集中的原始图像与预定值分割结果进行拼接。第一训练结果获取单元可用于通过所述神经网络模型对拼接的所述原始图像和所述预定值分割结果进行处理,获得第一训练结果。第二训练拼接单元可用于将所述原始图像和所述第一训练结果进行拼接。第二训练结果获取单元可用于通过拼接的所述原始图像和所述第一训练结果对所述神经网络模型进行训练,获得训练后的所述神经网络模型。
在示例性实施例中,训练样本集获取单元可以包括原始图像获取子单元、归一化子单元和数据扩增子单元。其中,原始图像获取子单元可用于获取至少一个原始图像及其临床靶区的像素级标注。归一化子单元可用于对所述至少一个原始图像进行归一化处理,获得至少一个归一化原始图像。数据扩增子单元可用于对所述至少一个归一化原始图像及其临床靶区的像素级标注进行数据扩增处理,以获得所述训练样本集。
在示例性实施例中,基于深度学习的临床靶区自动勾画装置1100还可包括可视化模块和可视化勾画结果发送模块。其中,可视化模块可用于对所述临床靶区勾画结果进行可视化处理,获得可视化勾画结果。可视化勾画结果发送模块可用于将所述可视化勾画结果发送至客户端,以用于在所述客户端显示所述可视化勾画结果。
在示例性实施例中,基于深度学习的临床靶区自动勾画装置1100还可包括下载请求接收模块和临床靶区勾画结果发送模块。其中,下载请求接收模块可用于接收客户端发送的下载请求。临床靶区勾画结果发送模块可用于响应于所述下载请求,将所述临床靶区勾画结果发送至所述客户端。
根据本公开实施方式提供的基于深度学习的临床靶区自动勾画装置,通过具有残差模块的神经网络模型对待处理图像进行处理,能够实现高鲁棒性的特征表达;进一步地,每一残差模块中包括的压缩激励模块能够考虑不同通道之间的重要性区分,以对于不同通道之间信息的相对重要性程度进行一定的调整和自适应校准,进而能够获得高准确性和鲁棒性的临床靶区勾画结果。
图12是根据另一示例性实施例示出的一种基于深度学习的临床靶区自动勾画系统的用例图。
如图12所示,客户端1200可通过该基于深度学习的临床靶区自动勾画系统进行图像上传;并基于可视化结果进行逐张显示;临床靶区勾画结果的整体显示;以及临床靶区勾画结果的下载。
服务端可通过该基于深度学习的临床靶区自动勾画系统接收上传图像;对上传图像进行数据预处理;对上传图像进行存储管理;根据上传图像生成临床靶区勾画结果;临床靶区勾画结果的存储管理;根据临床靶区勾画结果生成可视化结果;以及响应于客户端的下载请求发送临床靶区勾画结果。
图13是根据另一示例性实施例示出的一种基于深度学习的临床靶区自动勾画系统的框图。
如图13所示,本公开实施例的基于深度学习的临床靶区自动勾画装置可以包括上传功能模块1310、可视化结果显示模块1320以及勾画结果下载模块1330。
在基于深度学习的临床靶区自动勾画装置中,上传功能模块1310用于向服务端发送上传图像。可视化结果显示模块1320用于接收服务端的可视化结果,并将其进行显示。勾画结果下载模块1330用于发送下载请求,并接收服务端响应于下载请求返回的临床靶区勾画结果。
图16是根据一示例性实施例示出的一种电子设备的框图。
下面参照图16来描述根据本公开的这种实施方式的电子设备200。图16显示的电子设备200仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图16所示,电子设备200以通用计算设备的形式表现。电子设备200的组件可以包括但不限于:至少一个处理单元210、至少一个存储单元220、连接不同系统组件(包括存储单元220和处理单元210)的总线230、显示单元240等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元210执行,使得所述处理单元210执行本说明书上述电子处方流转处理方法部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元210可以执行如图1,图2,图3,图6,图7,图8,图9中所示的步骤。
所述存储单元220可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)2201和/或高速缓存存储单元2202,还可以进一步包括只读存储单元(ROM)2203。
所述存储单元220还可以包括具有一组(至少一个)程序模块2205的程序/实用工具2204,这样的程序模块2205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线230可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备200也可以与一个或多个外部设备300(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备200交互的设备通信,和/或与使得该电子设备200能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口250进行。并且,电子设备200还可以通过网络适配器260与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器260可以通过总线230与电子设备200的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备200使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本公开实施方式的上述方法。
图17示意性示出本公开示例性实施例中一种计算机可读存储介质示意图。
参考图17所示,描述了根据本公开的实施方式的用于实现上述方法的程序产品400,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该计算机可读介质实现如下功能:获取待处理图像;通过神经网络模型对所述待处理图像进行处理,获得所述待处理图像的临床靶区勾画结果;其中,所述神经网络模型包括至少一个残差模块,每一残差模块包括压缩激励模块。
本领域技术人员可以理解上述各模块可以按照实施例的描述分布于装置中,也可以进行相应变化唯一不同于本实施例的一个或多个装置中。上述实施例的模块和/或单元和/或子单元可以合并为一个模块和/或单元和/或子单元,也可以进一步拆分成多个模块和/或单元和/或子单元和/或子模块。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施例的方法。
以上具体地示出和描述了本公开的示例性实施例。应可理解的是,本公开不限于这里描述的详细结构、设置方式或实现方法;相反,本公开意图涵盖包含在所附权利要求的精神和范围内的各种修改和等效设置。
此外,本说明书说明书附图所示出的结构、比例、大小等,均仅用以配合说明书所公开的内容,以供本领域技术人员了解与阅读,并非用以限定本公开可实施的限定条件,故不具技术上的实质意义,任何结构的修饰、比例关系的改变或大小的调整,在不影响本公开所能产生的技术效果及所能实现的目的下,均应仍落在本公开所公开的技术内容得能涵盖的范围内。同时,本说明书中所引用的如“上”、“第一”、“第二”及“一”等的用语,也仅为便于叙述的明了,而非用以限定本公开可实施的范围,其相对关系的改变或调整,在无实质变更技术内容下,当也视为本公开可实施的范畴。
Claims (9)
1.一种基于深度学习的临床靶区自动勾画方法,其特征在于,包括:
获取待处理图像,所述待处理图像包括对特定部位的多张断层扫描图像;
通过神经网络模型对所述待处理图像进行处理,获得所述待处理图像的临床靶区勾画结果;
其中,所述神经网络模型包括至少一个残差模块,每一残差模块包括依次连接的至少一个卷积模块、激活层和归一化层,其中根据所述至少一个卷积模块的输入信息和所述归一化层的输出信息获得每一残差模块的输出信息;其中,每一卷积模块包括依次连接的三维卷积层、非线性激活层、批正则化层和三维压缩激励模块,所述三维压缩激励模块具有将二维的压缩、激励和缩放函数扩展到三维的功能;
其中,通过神经网络模型对所述待处理图像进行处理,获得所述待处理图像的临床靶区勾画结果包括:将所述待处理图像与预定值分割结果进行拼接;通过神经网络模型对拼接的所述待处理图像和所述预定值分割结果进行处理,获得第一分割结果;将所述待处理图像和所述第一分割结果进行拼接;通过所述神经网络模型对拼接的所述待处理图像和所述第一分割结果进行处理,获得所述待处理图像的临床靶区勾画结果;
所述三维压缩激励模块包括依次连接的池化层、第一全连接层、第一激活层、第二全连接层和第二激活层、重缩放层,其中将所述池化层的输入信息和所述第二激活层的输出信息均输入至所述重缩放层,以获得所述三维压缩激励模块的输出信息。
2.如权利要求1所述的方法,其特征在于,所述神经网络模型包括编码结构、连接结构和解码结构,所述编码结构包括依次连接的第一编码单元和第二编码单元,每个编码单元包括依次连接的残差模块和下采样单元,所述解码结构包括依次连接的第一解码单元和第二解码单元,每个解码单元包括依次连接的上采样单元和残差模块;其中,通过神经网络模型对所述待处理图像进行处理,获得所述待处理图像的临床靶区勾画结果包括:
将所述待处理图像输入所述编码结构,获得所述编码结构输出的编码向量、所述第一编码单元中的残差模块输出的第一残差向量和所述第二编码单元中的残差模块输出的第二残差向量;
将所述编码向量输入所述连接结构,获得连接向量;
将所述连接向量输入所述解码结构;
将所述第一残差向量与所述第二解码单元中的上采样单元的输出向量级联后输入所述第二解码单元中的残差模块,将所述第二残差向量与所述第一解码单元中的上采样单元的输出向量级联后输入所述第一解码单元中的残差模块;
通过所述第二解码单元中的残差模块输出的所述临床靶区勾画结果。
3.如权利要求1所述的方法,其特征在于,还包括:
获取训练样本集;
将所述训练样本集中的原始图像与预定值分割结果进行拼接;
通过所述神经网络模型对拼接的所述原始图像和所述预定值分割结果进行处理,获得第一训练结果;
将所述原始图像和所述第一训练结果进行拼接;
通过拼接的所述原始图像和所述第一训练结果对所述神经网络模型进行训练,获得训练后的所述神经网络模型。
4.如权利要求3所述的方法,其特征在于,获取训练样本集包括:
获取至少一个原始图像及其临床靶区的像素级标注;
对所述至少一个原始图像进行归一化处理,获得至少一个归一化原始图像;
对所述至少一个归一化原始图像及其临床靶区的像素级标注进行数据扩增处理,以获得所述训练样本集。
5.如权利要求1所述的方法,其特征在于,还包括:
对所述临床靶区勾画结果进行可视化处理,获得可视化勾画结果;
将所述可视化勾画结果发送至客户端,以用于在所述客户端显示所述可视化勾画结果。
6.如权利要求1所述的方法,其特征在于,还包括:
接收客户端发送的下载请求;
响应于所述下载请求,将所述临床靶区勾画结果发送至所述客户端。
7.一种基于深度学习的临床靶区自动勾画装置,其特征在于,包括:
图像获取模块,用于获取待处理图像,所述待处理图像包括对特定部位的多张断层扫描图像;
图像处理模块,用于通过神经网络模型对所述待处理图像进行处理,获得所述待处理图像的临床靶区勾画结果;
其中,所述神经网络模型包括至少一个残差模块,每一残差模块包括依次连接的至少一个卷积模块、激活层和归一化层,其中根据所述至少一个卷积模块的输入信息和所述归一化层的输出信息获得每一残差模块的输出信息;其中,每一卷积模块包括依次连接的三维卷积层、非线性激活层、批正则化层和三维压缩激励模块,所述三维压缩激励模块具有将二维的压缩、激励和缩放函数扩展到三维的功能;
所述三维压缩激励模块包括依次连接的池化层、第一全连接层、第一激活层、第二全连接层和第二激活层、重缩放层,其中将所述池化层的输入信息和所述第二激活层的输出信息均输入至所述重缩放层,以获得所述三维压缩激励模块的输出信息;
图像处理模块包括:第一拼接单元,用于将所述待处理图像与预定值分割结果进行拼接;第一模型处理单元,用于通过神经网络模型对拼接的所述待处理图像和所述预定值分割结果进行处理,获得第一分割结果; 第二拼接单元,用于将所述待处理图像和所述第一分割结果进行拼接;第二模型处理单元,用于通过所述神经网络模型对拼接的所述待处理图像和所述第一分割结果进行处理,获得所述待处理图像的临床靶区勾画结果。
8.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
9.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910807660.3A CN110517254B (zh) | 2019-08-29 | 2019-08-29 | 基于深度学习的临床靶区自动勾画方法、装置及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910807660.3A CN110517254B (zh) | 2019-08-29 | 2019-08-29 | 基于深度学习的临床靶区自动勾画方法、装置及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110517254A CN110517254A (zh) | 2019-11-29 |
CN110517254B true CN110517254B (zh) | 2023-03-10 |
Family
ID=68628845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910807660.3A Active CN110517254B (zh) | 2019-08-29 | 2019-08-29 | 基于深度学习的临床靶区自动勾画方法、装置及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110517254B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111298305B (zh) | 2020-02-18 | 2024-06-14 | 上海联影医疗科技股份有限公司 | 一种数据同步方法和系统 |
CN111584044B (zh) * | 2020-05-14 | 2023-07-14 | 上海深至信息科技有限公司 | 一种标准超声图像训练集的生成方法及系统 |
CN112336996A (zh) * | 2020-09-30 | 2021-02-09 | 四川大学 | 基于深度神经网络的放疗靶区自动勾画系统 |
WO2022140990A1 (zh) * | 2020-12-28 | 2022-07-07 | 西安大医集团股份有限公司 | 医学图像轮廓勾画方法、装置及系统 |
CN112767315B (zh) * | 2020-12-31 | 2024-04-19 | 深圳市联影高端医疗装备创新研究院 | 靶区勾画质量的确定方法、展示方法及电子设备 |
CN112686900B (zh) * | 2020-12-31 | 2024-06-18 | 北京医智影科技有限公司 | 用于图像自动处理的方法、装置、电子设备和存储介质 |
CN112582048A (zh) * | 2021-03-01 | 2021-03-30 | 四川大学 | 一种基于深度学习的放射治疗靶区自动勾画系统及方法 |
CN113288193B (zh) * | 2021-07-08 | 2022-04-01 | 广州柏视医疗科技有限公司 | 基于深度学习的ct影像乳腺癌临床靶区的自动勾画系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358600A (zh) * | 2017-06-14 | 2017-11-17 | 北京全域医疗技术有限公司 | 放疗计划中的自动勾靶方法、装置和电子设备 |
CN109190752A (zh) * | 2018-07-27 | 2019-01-11 | 国家新闻出版广电总局广播科学研究院 | 基于深度学习的全局特征和局部特征的图像语义分割方法 |
CN109934241A (zh) * | 2019-03-28 | 2019-06-25 | 南开大学 | 可集成到神经网络架构中的图像多尺度信息提取方法及应用 |
-
2019
- 2019-08-29 CN CN201910807660.3A patent/CN110517254B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358600A (zh) * | 2017-06-14 | 2017-11-17 | 北京全域医疗技术有限公司 | 放疗计划中的自动勾靶方法、装置和电子设备 |
CN109190752A (zh) * | 2018-07-27 | 2019-01-11 | 国家新闻出版广电总局广播科学研究院 | 基于深度学习的全局特征和局部特征的图像语义分割方法 |
CN109934241A (zh) * | 2019-03-28 | 2019-06-25 | 南开大学 | 可集成到神经网络架构中的图像多尺度信息提取方法及应用 |
Non-Patent Citations (1)
Title |
---|
Iterative deep convolutional encoder-decoder network for medical image segmentation;Jung Uk Kim et al.;《2017 39th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC)》;20170914;第685-688页、图1 * |
Also Published As
Publication number | Publication date |
---|---|
CN110517254A (zh) | 2019-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110517254B (zh) | 基于深度学习的临床靶区自动勾画方法、装置及相关设备 | |
US11568533B2 (en) | Automated classification and taxonomy of 3D teeth data using deep learning methods | |
US11055847B2 (en) | Adversarial and dual inverse deep learning networks for medical image analysis | |
EP3729380B1 (en) | Automated 3d root shape prediction using deep learning methods | |
EP3511942B1 (en) | Cross-domain image analysis using deep image-to-image networks and adversarial networks | |
US11501438B2 (en) | Cone-beam CT image enhancement using generative adversarial networks | |
EP3818500B1 (en) | Automated determination of a canonical pose of a 3d objects and superimposition of 3d objects using deep learning | |
US20220318956A1 (en) | Sct image generation using cyclegan with deformable layers | |
US20160210749A1 (en) | Method and system for cross-domain synthesis of medical images using contextual deep network | |
KR20190103926A (ko) | 딥러닝을 이용한 의료영상의 공간 정규화 장치 및 그 방법 | |
CN117218133A (zh) | 肺图像处理方法及装置、电子设备和存储介质 | |
CN117392119B (zh) | 基于位置先验和特征感知的肿瘤病变区域检测方法及装置 | |
US9224229B2 (en) | Process and apparatus for data registration | |
AU2021370630A1 (en) | Deep magnetic resonance fingerprinting auto-segmentation | |
Alshamrani et al. | [Retracted] Automation of Cephalometrics Using Machine Learning Methods | |
Khader et al. | Transformers for CT reconstruction from monoplanar and biplanar radiographs | |
CN116758286B (zh) | 医学影像分割方法、系统、装置、存储介质及产品 | |
EP4350629A1 (en) | Artifact-driven data synthesis in computed tomography | |
Shi et al. | Diffusion Models for Medical Image Computing: A Survey | |
van der Heijden et al. | GENERATION OF LUNG CT IMAGES USING SEMANTIC LAYOUTS | |
Thakkar | Enhancing Histopathology Image Generation with Diffusion Generative Models: A Comprehensive Study | |
CN117893498A (zh) | 一种基于大模型的鼻咽癌病灶区域检测方法、装置及设备 | |
CN117671388A (zh) | 基于分割引导的图像分类方法、装置、电子设备及介质 | |
Choi et al. | Gray’s Anatomy for Segment Anything Model: Optimizing Grayscale Medical Images for Fast and Lightweight Segmentation | |
Agrawal et al. | Deep Learning Techniques in Brain Cancer Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |