CN112419338A - 一种基于解剖先验知识的头颈部危及器官的分割方法 - Google Patents
一种基于解剖先验知识的头颈部危及器官的分割方法 Download PDFInfo
- Publication number
- CN112419338A CN112419338A CN202011424075.4A CN202011424075A CN112419338A CN 112419338 A CN112419338 A CN 112419338A CN 202011424075 A CN202011424075 A CN 202011424075A CN 112419338 A CN112419338 A CN 112419338A
- Authority
- CN
- China
- Prior art keywords
- image
- head
- neck
- segmentation
- roi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 266
- 238000000034 method Methods 0.000 title claims abstract description 147
- 210000000056 organ Anatomy 0.000 title abstract description 66
- 210000000920 organ at risk Anatomy 0.000 claims description 174
- 230000005484 gravity Effects 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 26
- 230000000007 visual effect Effects 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 20
- 210000001328 optic nerve Anatomy 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 6
- 210000003484 anatomy Anatomy 0.000 abstract description 8
- 210000003128 head Anatomy 0.000 description 229
- 238000002591 computed tomography Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 17
- 238000001959 radiotherapy Methods 0.000 description 17
- 206010028980 Neoplasm Diseases 0.000 description 12
- 210000000133 brain stem Anatomy 0.000 description 12
- 201000010536 head and neck cancer Diseases 0.000 description 12
- 208000014829 head and neck neoplasm Diseases 0.000 description 12
- 230000005855 radiation Effects 0.000 description 11
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 10
- 210000004373 mandible Anatomy 0.000 description 10
- 238000005070 sampling Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000002786 image-guided radiation therapy Methods 0.000 description 9
- 210000004872 soft tissue Anatomy 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 210000003681 parotid gland Anatomy 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 201000011510 cancer Diseases 0.000 description 5
- 210000001165 lymph node Anatomy 0.000 description 5
- 238000003672 processing method Methods 0.000 description 5
- 238000004611 spectroscopical analysis Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 4
- 210000000695 crystalline len Anatomy 0.000 description 4
- 210000003027 ear inner Anatomy 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 230000001817 pituitary effect Effects 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 210000000959 ear middle Anatomy 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 210000000278 spinal cord Anatomy 0.000 description 3
- 210000001913 submandibular gland Anatomy 0.000 description 3
- 210000003478 temporal lobe Anatomy 0.000 description 3
- 210000001738 temporomandibular joint Anatomy 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- 208000002454 Nasopharyngeal Carcinoma Diseases 0.000 description 2
- 206010061306 Nasopharyngeal cancer Diseases 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 2
- 238000001793 Wilcoxon signed-rank test Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000010931 gold Substances 0.000 description 2
- 229910052737 gold Inorganic materials 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000002721 intensity-modulated radiation therapy Methods 0.000 description 2
- 210000000867 larynx Anatomy 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000036210 malignancy Effects 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 210000003928 nasal cavity Anatomy 0.000 description 2
- 201000011216 nasopharynx carcinoma Diseases 0.000 description 2
- 210000003977 optic chiasm Anatomy 0.000 description 2
- 210000003695 paranasal sinus Anatomy 0.000 description 2
- 210000003800 pharynx Anatomy 0.000 description 2
- 230000002285 radioactive effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 206010041823 squamous cell carcinoma Diseases 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000002560 therapeutic procedure Methods 0.000 description 2
- 241000710177 Citrus tristeza virus Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 210000001638 cerebellum Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000113 differential scanning calorimetry Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000004907 gland Anatomy 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 210000001847 jaw Anatomy 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000004881 tumor cell Anatomy 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/467—Arrangements for interfacing with the operator or the patient characterised by special input means
- A61B6/469—Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Optics & Photonics (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- High Energy & Nuclear Physics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radiology & Medical Imaging (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Pulmonology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本申请公开了一种基于解剖先验知识的头颈部危及器官的分割方法,所述方法包括基于预设的模板图像以及该模板图像对应的OAR模板图像,确定待分割图像对应的OAR图像;基于所述OAR图像确定所述待分割图像对应的若干ROI区域;根据若干ROI区域确定所述待分割图像对应的分割图像。本申请利用头颈部OAR的解剖结构信息和上下文信息,可以快速、准确对头颈部OAR进行三维分割以得到分割图像,这样可以提高头颈部OAR的勾画速度,并减少医生在颈部OAR的勾画所花费的时间和精力。
Description
技术领域
本申请涉及CT技术领域,特别涉及一种基于解剖先验知识的头颈部危及器官的分割方法。
背景技术
头颈部癌症是常见的癌症类型,每年发病人数超过50万,为全球人民的健康带来了威胁。头颈部癌症包括在鼻旁窦、鼻腔、口腔以及咽和喉中出现的上皮恶性肿瘤,这些上皮恶性肿瘤几乎都是头颈部的鳞状细胞癌。由于头颈部癌症对放射线较敏感,所以放射治疗是目前最有效的治疗手段。头颈部的重要器官较多,高剂量的放射线会损伤重要器官,导致患者放疗后的生活质量降低。目前,临床上常用图像引导的放射治疗(image guidedradiation therapy,IGRT)进行头颈部癌症的治疗,IGRT包括调强放射治疗和容积旋转调强治疗。IGRT根据医生制定的放疗计划对靶区进行精确的放射线治疗,在对肿瘤进行高剂量辐射的同时,尽可能减少重要器官所受到的辐射,能够很好地保护重要器官。
但是,在采用图像引导的放射治疗的过程中,需要医生手动勾画OAR(organ-at-risk,危及器官)区域,这需要花费医生大量的时间,例如,一例患者的9种OAR大约需要20~30分钟。此外,不同的医生勾画同一个患者的OAR区域可以也可能存在差异,且长时间的连续工作可能因疲劳导致勾画误差。
发明内容
本申请要解决的技术问题在于,针对现有技术的不足,提供一种基于解剖先验知识的头颈部危及器官的分割方法。
为了解决上述技术问题,本申请实施例第一方面提供了一种基于解剖先验知识的头颈部危及器官的分割方法,所述方法包括:
基于预设的模板图像以及该模板图像对应的OAR模板图像,确定待分割图像对应的OAR图像;
基于所述OAR图像确定所述待分割图像对应的若干ROI区域;
根据若干ROI区域确定所述待分割图像对应的分割图像,其中,所述分割图像标注有各危及器官区域。
所述基于解剖先验知识的头颈部危及器官的分割方法,其中,所述模板图像的确定过程包括:
获取若干头颈部图像;
对于每个头颈部图像,将若干头颈部图像中的除该头颈部图像外的各头颈部图像分别与该头颈部图像配准;
确定该头颈部图像与各配准后的头颈部图像的相似性,以得到该头颈部图像对应的相似度;
基于各头颈部图像各自对应的相似度确定模板图像,其中,所述模板图像包含于所述若干头颈部图像。
所述基于解剖先验知识的头颈部危及器官的分割方法,其中,所述获取若干头颈部图像具体包括:
获取若干候选头颈部图像;
对于每个候选头颈部图像,基于该候选头颈部图像的横断面积变化曲线确定所述候选头颈部图像中的头部区域,并将该头部区域作为头颈部图像,以得到若干头颈部图像。
所述基于解剖先验知识的头颈部危及器官的分割方法,其中,所述分割方法应用于经过训练的头颈部分割网络模型;所述头颈部分割网络模型包括配准网络模型;所述基于预设的模板图像以及该模板图像对应的OAR模板图像,确定待分割图像对应的OAR图像具体包括:
所述配准网络模型基于所述模板图像以及待分割图像,确定待分割图像对应的形变场;
所述配准网络模型基于所述形变场以及所述OAR模板图像,确定所述待分割图像对应的OAR图像。
所述基于解剖先验知识的头颈部危及器官的分割方法,其中,所述配准网络模型为经过训练的网络模型,并且所述配准网络模型在训练过程中所采用的总损失包括MSE损失函数、Dice损失函数和重心距离损失函数。
所述基于解剖先验知识的头颈部危及器官的分割方法,其中,所述分割方法应用于经过训练的头颈部分割网络模型;所述头颈部分割网络模型包括ROI分割层;所述基于所述OAR图像确定所述待分割图像对应的若干ROI区域具体包括:
所述ROI分割层根据预设的若干ROI类别,确定所述OAR图像对应的若干ROI重心,其中,若干ROI重心与若干ROI类别一一对应;
对于若干ROI类别中的每个ROI类别,所述ROI分割层根据该ROI类别对应的区域尺寸以及该ROI类别对应的ROI重心,确定该ROI类别对应的ROI区域,以得到若干ROI区域。
所述基于解剖先验知识的头颈部危及器官的分割方法,其中,所述分割方法应用于经过训练的头颈部分割网络模型;所述头颈部分割网络模型包括分割网络模型,所述根据若干ROI区域确定所述待分割图像对应的分割图像具体包括:
对于每个ROI区域,所述分割网络模型获取该ROI区域的三维图像特征和二维横断面特征;
所述分割网络模型基于所述三维图像特征和二维横断面特征,确定该ROI区域对应的特征图;
所述分割网络模型基于所述特征图,确定该ROI区域对应的危及器官区域,以得到候选分割图像;
将所述候选分割图像与待分割图像输入分割网络模型,通过所述分割网络模型得到所述待分割图像对应的分割图像,其中,所述候选分割图像为作为上下文信息。
所述基于解剖先验知识的头颈部危及器官的分割方法,其中,所述根据若干ROI区域确定所述待分割图像对应的分割图像之后,所述方法还包括:
分别将所述分割图像中的视交叉和视神经以及OAR模板图像的视交叉和视神经进行重力方向投影,以得到分割图像对应的第一投影图像和OAR模板图像对应的第二投影图像;
以所述第一投影图像为配准图像,将所述第二投影图像与所述第二投影图像配准,并将配准后的第一投影图像;
基于配置后的第一投影图像对所述第二投影图像进行修正,以得到修正所述分割图像。
本申请实施例第二方面提提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上任一所述的基于解剖先验知识的头颈部危及器官的分割方法中的步骤。
本申请实施例第三方面提提供了一种终端设备,其包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如上任一所述的基于解剖先验知识的头颈部危及器官的分割方法中的步骤。
有益效果:与现有技术相比,本申请提供了一种基于解剖先验知识的头颈部危及器官的分割方法,所述方法包括基于预设的模板图像以及该模板图像对应的OAR模板图像,确定待分割图像对应的OAR图像;基于所述OAR图像确定所述待分割图像对应的若干ROI区域;根据若干ROI区域确定所述待分割图像对应的分割图像。本申请利用头颈部OAR的解剖结构信息和上下文信息,基于轻量化的网络模型,可以快速、准确对头颈部OAR进行三维分割以得到分割图像,这样可以提高头颈部OAR的勾画速度,并减少医生在颈部OAR的勾画所花费的时间和精力。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员而言,在不符创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法的流程图。
图2为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法的流程示例图。
图3为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法的原理示例图。
图4为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法中的带有标注的CT图像的一个示例图。
图5为图4对应的三维标注示例图。
图6为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法中的带有标注的CT图像的一个示例图。
图7为图6对应的三维标注示例图。
图8为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法中的头颈部图像的选取过程的流程示意图。
图9为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法中的配准网络模型的原理示意图。
图10为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法中的重心、边框和距离的关系的一个示例图。
图11为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法中的重心、边框和距离的关系的一个示例图。
图12为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法中的重心、边框和距离的关系的一个示例图。
图13为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法中的重心与边框距离的示例图。
图14为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法中的分割网络模型的原理示意图。
图15为本申请提供的基于解剖先验知识的头颈部危及器官的分割方法中的分割图像修改过程的流程示例图。
图16为本申请提供的终端设备的结构原理图。
具体实施方式
本申请提供一种基于解剖先验知识的头颈部危及器官的分割方法,为使本申请的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本申请进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
发明人经过研究发现,头颈部癌症是常见的癌症类型,每年发病人数超过50万,为全球人民的健康带来了威胁。头颈部癌症包括在鼻旁窦、鼻腔、口腔以及咽和喉中出现的上皮恶性肿瘤,这些上皮恶性肿瘤几乎都是头颈部的鳞状细胞癌。由于头颈部癌症对放射线较敏感,所以放射治疗是目前最有效的治疗手段。头颈部的重要器官较多,高剂量的放射线会损伤重要器官,导致患者放疗后的生活质量降低。目前,临床上常用图像引导的放射治疗(image guided radiation therapy,IGRT)进行头颈部癌症的治疗,IGRT包括调强放射治疗和容积旋转调强治疗。IGRT根据医生制定的放疗计划对靶区进行精确的放射线治疗,在对肿瘤进行高剂量辐射的同时,尽可能减少重要器官所受到的辐射,能够很好地保护重要器官。
临床医生基于患者治疗前的计算机断层(computed tomography,CT)图像或磁共振(magnetic resonance,MR)图像制定放疗计划。放疗计划制定的关键步骤是勾画放疗靶区。放疗靶区包括4个部分,分别为:大体肿瘤区(gross tumor volume,GTV)、危及器官(organ-at-risk,OAR)、临床靶区(clinical target volume,CTV)和计划靶区(planningtarget volume,PTV)。其中,GTV为肿瘤病灶区,是需要进行高剂量放射以杀死肿瘤细胞的区域;OAR为被保护的重要器官,需要尽可能减少该区域受到的放射剂量;CTV包括GTV以及肿瘤可能侵犯的区域,是需要接受高剂量放射的区域;PTV为实际放疗的靶区,为了避免放疗的实际摆位与计划摆位存在差异导致边缘的癌细胞未受到高剂量辐射或OAR暴露在高剂量放射线下,物理师将CTV外扩3-5mm作为PTV,如靠近OAR则只外扩1mm。
为了勾画头颈部的OAR区域,已有研究者尝试应用各种图像处理方法来实现OAR的自动分割。目前普遍采用的方法包括传统图像处理方法、传统机器学习方法和深度学习方法。下面从传统图像处理方法、传统机器学习方法和深度学习方法方面介绍头颈部OAR分割的研究现状。
1、基于传统图像处理方法的头颈部危及器官分割
基于传统图像处理方法进行头颈部OAR分割的研究报道,主要基于头颈部CT图像,少数基于头颈部MR图像。已有研究者基于图谱法实现了头颈部OAR的分割。例如,Zhang等应用基于图谱的方法实现了脑干、左右腮腺、下颌骨、脊髓和淋巴结的自动分割,在7个患者的数据集中的平均Dice相关系数(Dice similarity coefficient,DSC)为0.8。Isambert等对基于图谱法分割得到的头颈部OAR进行了评估,以判断该方法得到的OAR能否用于放射治疗计划制定,作者在11个患者的T1加权MR图像上应用图谱法得到眼球、视神经、视交叉、腮腺、脑干和小脑的自动分割图像,大体积结构的平均DSC超过0.8,小体积结构的平均DSC低于0.41,分割一个患者的OAR需要约7-8分钟。Commowick等利用图谱法实现了脑干、脊髓、下颌骨和淋巴结的自动分割,平均误差、敏感度和特异度分别为0.25、0.82和0.86。Leavens等基于图谱法实现了头颈部OAR自动分割,分割图像与金标准的均方差距离为9.5±0.6mm。Han等提出了一种基于阶级式图谱配准的方法,实现了头颈部CT图像中7种组织和淋巴结的自动分割,该方法的平均Dice系数为0.65,实现一个OAR的分割大约需要7分钟。Levendag等和Sims等对基于图谱法得到的部分头颈部OAR的分割图像进行了评估,结果表明临床医生虽然对下颌骨的分割图像表示认可,但是腮腺或脑干等软组织的分割性能仍需提高。
单纯基于图谱法难以实现准确的OAR分割,所以有研究者尝试将图谱法与其他方法结合以进一步提高分割精度。Chen等结合图谱法和主动形状模型实现了头颈部CT图像的淋巴结区域自动分割,该方法的平均DSC比单纯用图谱法高0.107。Voet等应用图谱法实现了颈部腺体的分割。Qazi等结合形变配准模型和形状统计表达的方法,实现了部分OAR和淋巴结的准确分割,10个患者的平均DSC为0.81,完成1例患者5种器官的分割大约需10分钟。Fortunati等结合图割法和图谱法实现了11种OAR的自动分割,平均DSC为0.70。Fritscher等结合多图谱法、统计学表示模型和测地线主动轮廓法实现了脑干和左右腮腺的自动分割,在18个患者的留一验证中的平均DSC为0.836。Duc等将图谱法得到的6种OAR的自动分割图像和临床医生勾画的结果进行对比,结果表明自动分割图像与临床医生勾画的结果的差异不具有统计学意义。Wachinger等基于轮廓驱动的图谱法实现了腮腺的自动分割,平均DSC约为0.82。Fortunati等在MR图像上利用位置权重融合的强度模型实现了头颈部OAR的自动分割。Mannion-Haworth等设计了一个主动外观模型,主动外观模型通过形变适应不同的目标实现了OAR分割,该方法在2015年国际医学图像计算和计算机辅助介入大会(International Conference on Medical Image Computing and Computer AssistedIntervention,MICCAI)的头颈部自动分割挑战数据集中的平均DSC为0.73。
以上传统方法利用了分割目标的解剖结构信息,以图谱法为主,少部分应用了主动轮廓或图割法等。虽然传统方法很好地利用了先验知识且应用广泛,但是有较多限制:性能很大程度上由图谱的构建质量和配准性能决定,构建图谱的数据质量差或者配准误差大,都可能会导致分割图像不准确;因图谱是已固定的OAR,不能很好地解决不同患者的器官差异;传统配准算法耗时较长,分割一个患者需要约7-10分钟。
2、基于传统机器学习的头颈部危及器官分割
由于以图谱法为代表的传统方法过于依赖图谱的质量和配准性能,于是有研究者考虑采用基于机器学习的方法实现OAR的自动分割。Wang等提出了一种基于阶层顶点回归的分割方法,应用了一个新的可学习机制来定位复杂的顶点,再用一个可迭代的随机森林框架将顶点进行连接,实现了脑干、下颌骨和左右腮腺的自动分割。该方法将形状知识与学习模型进行结合提高了算法的鲁棒性,平均DSC为0.89,但是需要的计算时间较长,完成一个脑干的分割需时36分钟。Tam等基于方向直方图和医生勾画的金标准提取形状特征,并利用多个输出的支持向量回归实现了OAR的自动分割,平均DSC为0.826,分割一个器官大约需要2.75分钟。Wu等描述了自动器官识别(automatic anatomy recognition,AAR)的整个流程,主要包括模型构建、目标识别和目标勾画三个步骤,作者在模型的构建中加入了边界关系、纹理和强度作为特征,并在目标识别步骤中对先验的解剖信息进行编码,最后经过目标勾画阶段实现了OAR的自动分割,其平均Dice系数约为0.80。Tong等应用层次模型进行目标定位,实现了OAR的自动分割,该方法主要针对AAR中的目标识别进行了改进,作者在AAR中引进了纹理和强度特征,利用最佳生成树实现层次的识别,以减少误差,该方法在298例患者数据集中的位置误差小于4 mm。
以上基于机器学习的方法相对于传统图谱法,能够更好地解决不同患者之间的差异,提高了分割性能。然而,基于机器学习的方法需要人工设计特征,特征泛化性较差,鲁棒性甚至不如传统图谱法,同时基于机器学习的方法需要复杂的数据处理步骤,算法运算也相对较长。
3、基于深度学习的头颈部危及器官分割
近年来深度学习在图像领域的优异表现吸引了许多研究者的注意,已有许多研究者基于深度学习方法实现了头颈部OAR的分割。Fritscher等基于伪三维的CNN实现了OAR的自动分割,作者结合了横断面、矢状面和冠状面二维块的信息提高分割性能。该方法在2015年MICCAI头颈部分割挑战赛数据集中的平均DSC为0.65。Ibragimov等基于CNN和马尔科夫随机场提出了一种半自动的方法实现了OAR的分割,该方法首先手动定位各个器官的位置,再基于各个器官的感兴趣区(region of interest,ROI)训练了13个CNN,实现了多个OAR的分割,该方法的平均DSC大约为0.75,完成一例患者的分割大约需要4分钟。
虽然以上方法能够实现较准确的OAR分割,但是对视神经、视交叉和垂体等小体积的软组织分割性能较差。Ren等针对体积较小的器官设计了一个交错式的级联三维CNN对小器官进行自动分割,作者首先利用多图谱法定位出各个器官的ROI,再基于不同器官的ROI训练多个交错式的CNN以避免类别不均衡问题,该方法在2015年MICCAI头颈部分割挑战赛数据集中,视交叉和视神经的平均DSC分别为0.58和0.71。Hansch等对比了二维U-Net、二维集成U-Net和三维U-Net在头颈部CT图像上分割腮腺的性能,最终实验结果表明二维集成U-Net的分割图像最好,在2015年MICCAI头颈部分割挑战赛数据集中,腮腺分割的平均DSC为0.86。Tong等结合CNN和形状表示模型,作者利用形状表示模型学习形状信息,再利用深度CNN实现了OAR的自动分割,该方法在2015年MICCAI头颈部分割挑战赛数据集上的平均DSC为0.77,完成一个患者的9种OAR分割需要约9.5秒。Liang等利用一个检测网络对各个器官进行定位,再基于所检测的ROI实现了头颈部OAR的自动分割,该方法的平均DSC为0.86。
以上方法大多基于二维图像或者将图像裁成多个小块进行分割,容易丢失三维层面的全局信息。为了使网络能够获得三维层面的全局信息,Zhu等应用了AnatomyNet实现了OAR的分割,该网络能够直接输入整个三维CT图,为了提高小体积器官的分割性能,作者减少了网络的下采样次数并设计了focal dice损失。该网络在2015年MICCAI头颈部分割挑战赛公共数据集中的平均DSC为0.75,分割一个患者只需要0.12秒。
以上研究主要是基于CNN的方法,从结果可以看出CNN方法对大体积的器官如下颌骨、腮腺、脑干等器官的分割性能已较好,但是小体积器官的分割性能仍有待提高。同时现有技术中的基于深度学习技术所设计的方法都没有利用头颈部OAR自身的解剖先验知识,解剖先验知识的缺少导致模型的可解释性降低,分割图像可能与正确的解剖结构差异较大,导致临床医生对深度学习方法的可信度表示质疑。
为了解决上述问题,在本申请实施例中,基于预设的模板图像以及该模板图像对应的OAR模板图像,确定待分割图像对应的OAR图像;基于所述OAR图像确定所述待分割图像对应的若干ROI区域;根据若干ROI区域确定所述待分割图像对应的分割图像。本申请利用头颈部OAR的解剖结构信息,可以快速、准确对头颈部OAR进行三维分割以得到分割图像,这样可以提高头颈部OAR的勾画速度,并减少医生在颈部OAR的勾画所花费的时间和精力。
下面结合附图,通过对实施例的描述,对申请内容作进一步说明。
本实施例提供的一种基于解剖先验知识的头颈部危及器官的分割方法,所述方法可以由分割装置来执行,所述装置可以由软件实现,应用于诸如PC机、平板电脑或个人数字助理等之类的智能终端上。参见图1、图2和图3所示,本实施例提供的基于解剖先验知识的头颈部危及器官的分割方法具体包括:
S10、基于预设的模板图像以及该模板图像对应的OAR模板图像,确定待分割图像对应的OAR图像。
具体地,所述待分割图像可以为通过配置有该基于解剖先验知识的头颈部危及器官的分割方法的终端设备采集得到,也可以是外部设备采集并发送给终端设备的,还可以是存储于终端设备本地的。所述待分割图像为头颈部图像,例如,所述待分割图像为头颈部CT图像。本实施例的应用场景可以为:通过CT设备采集患者的头颈部CT图像,并将采集到头颈部CT图像发送给配置有该基于解剖先验知识的头颈部危及器官的分割方法的终端设备,以得到该终端设备可以获取到待分割图像。
所述模板图像与待分割图像相对应,当待分割图像为头颈部图像时,模板图像也为头颈部图像。例如,待分割图像为头颈部CT图像,模板图像也为头颈部CT图像。所述OAR模板图像为所述模板图像对应的OAR金标图像,所述OAR模板图像中的图像内容与所述模板图像的图像内容相同,所述OAR模板图像与所述模板图像的区别在于所述OAR模板图像中携带有OAR区域的标注信息,例如,OAR模板图像中的标注有OAR区域框等。
在本实施例的一个实现方式中,所述模板图像的确定过程包括:
A10、获取若干头颈部图像;
A20、对于每个头颈部图像,将若干头颈部图像中的除该头颈部图像外的各头颈部图像分别与该头颈部图像配准;
A30、确定该头颈部图像与各配准后的头颈部图像的相似性,以得到该头颈部图像对应的相似度;
A40、基于各头颈部图像各自对应的相似度确定模板图像,其中,所述模板图像包含于所述若干头颈部图像。
具体地,在所述步骤A10中,所述若干头颈部图像中的每个头颈部图像对应一个头颈部癌症患者,并且各头颈部图像各自对应的头颈部癌症患者互不相同。例如,如图4和5所示,若干头颈部图像来自广州市番禺区中心医院的95例鼻咽癌患者的95张头颈部CT图像,其中,每张头颈部CT图像对应一个鼻咽癌患者,并且每张头颈部CT图像的成像视野均为从胸部到头顶,若干头颈部CT图像中每张头颈部CT图像的分辨率均包含于0.85×0.85×3mm3到1.19×1.19×3mm3之间。每张头颈部CT图像对应的OAR金标图像可以为临床医生手动勾画的用于制定放疗计划的OAR,包括左右下颌骨、左右腮腺、垂体、左右颞叶、左右视神经、视交叉、左右眼球、左右晶状体、脑干、脊髓、左右内耳、左右中耳以及左右颞下颌关节,共22种器官。再如,如图6和图7所示,若干头颈部CT图像可以为2015年MICCAI的头颈部自动分割挑战赛公共数据集,简称为MICCAI 2015数据集,该数据集包括48例头颈部CT图像,每张头颈部CT图像的成像视野从胸部到头顶,若干头颈部CT图像中每张头颈部CT图像的分辨率均包含于0.76×0.76×1.25mm3到1.25×1.25×3mm3之间。每张头颈部CT图像对应的OAR金标图像可以为临床医生手动勾画,包括左右腮腺、视交叉、左右视神经、脑干、下颌骨和左右颌下腺,共9种器官。
在本实施例的一个实现方式中,由上述可知,若干头颈部图像的分辨率可能不相同,从而在确定模板图像之前需要对若干头颈部图像进行重采样,以使得若干头颈部图像中的各头颈部图像的分辨率相同。在对若干头颈部图像进行重采样的过程具体可以包括:获取各头颈部图像的分辨率,按照分辨率将若干头颈部图像进行分组,以得到若干头颈部图像组,其中,若干头颈部图像组中的每组头颈部图像组中的各头颈部图像的分辨率相同;获取各头颈部图像组包括的头颈部头像的数量,选取数量最大的头颈部图像组中的头颈部图像的分辨率作为目标分辨率;将若干头颈部图像中的候选头颈部图像的分辨率重采样值至该目标分辨率,其中,候选头颈部图像的分辨率与目标分辨率不相同,这样可以减少重采样头颈部图像的数量。此外,在对头颈部图像进行重采样后,对头颈部图像对应的OAR金标图像进行重采样,以使得OAR金标图像的分辨率与头颈部图像的分辨率相同。在本实施例的一个具体实现方式中,头颈部图像可以采用三线性插值方法,而为了保证金标准不会出现0和1以外的值,所以金标准采用最近邻插值。
在本实施例的一个实现方式中,为了由于OAR区域集中在头部,从而可以提取头颈部图像中的头部区域,以减少算法运算量和冗余信息。相应的,如图8所示,所述获取若干头颈部图像具体包括:
获取若干候选头颈部图像;
对于每个候选头颈部图像,基于该候选头颈部图像的横断面积变化曲线确定所述候选头颈部图像中的头部区域,并将该头部区域作为头颈部图像,以得到若干头颈部图像。
具体地,所述横断面积变化曲线为头颈部图像的各横断面层中的对象区域的区域面积形成的曲线。由于头部与胸部有颈部连接,又因为颈部在横断面上的面积最小,由此,可以在横断面积变化曲线中最小面积对应的横断面层以确定颈部位置,并选取颈部位置以上的区域作为头部区域,以得到候选头颈部图像中的头部区域。在获取到头部区域后,将头部区域作为头颈部图像,以得到若干头颈部图像。
进一步,在所述步骤A20中,对于每个头颈部图像,若干头颈部图像中除该头颈部
图像外的其余头颈部图像记为头颈部图像A,将该头颈部图像记为目标头颈部图像,以该目
标头颈部图像为基准,将每张头颈部图像A与该目标头颈部图像进行配准。可以理解的是,
假设若干头颈部图像的数量为P,那么对于每张头颈部图像,均会进行P-1次配准,从而若干
头颈部图像会进行次配准。此外,所述将每张头颈部图像A与该头颈部图像进行配
准的配准方法可以采用单模态配准算法,该单模态配准算法采用均方差(mean square
error,MSE)作为代价函数,以规则的逐步梯度下降法作为优化器,学习率为1.0。在本实施
例中,为了减少配准时间,将最大迭代次数设置为30次,最小步长为1×10-4,变换方式采用
三维相似性变换。此外,在对头颈部图像进行配准后,需要对头颈部对应的OAR金标图像进
行配准,两例患者的CT图像经过配准算法得到形变场后,利用相同的形变场对OAR金标图像
进行配准,其中CT图像采用三线性插值,OAR金标图像采用最近邻插值。
进一步,所述相似性用于反映目标头颈部图像与各头颈部图像A对应的配置后的头颈部图像的相似程度,所述相似度可以为各相似性的平均值。其中,所述相似性可以表示为(1-DSC)+0.5×MSE,相似性指标为非负数,越接近0说明两数据的相似程度越高,其中,MSE(mean square error,均方差)的权重相对DSC(Dice similarity coefficient,平均Dice相关系数)较低,主要原因是定位任务中器官的重叠程度更重要。此外,所述MSE为目标头颈部图像与头颈部图像A对应的配置后的头颈部图像的MSE,DSC为基于配准后的OAR金标图像计算头颈部图像A对应的配置后的头颈部图像与目标头颈部图像同一器官的DSC,其中,目标头颈部图像和头颈部图像A对应的配置后的头颈部图像均为经过Z变换标准化后的图像,两患者数据间的DSC越高,MSE越低,说明配准效果越好。
进一步,在所述步骤A40中,所述模板图像包含于所述若干头颈部图像,并且所述模板图像为所述若干头颈部图像中相似度最小的头颈部图像,并且该头颈部图像的OAR金标图像为OAR模板图像。
在本实施例的一个实现方式中,所述分割方法应用于经过训练的头颈部分割网络模型;如图9所示,所述头颈部分割网络模型包括配准网络模型;所述基于预设的模板图像以及该模板图像对应的OAR模板图像,确定待分割图像对应的OAR图像具体包括:
所述配准网络模型基于所述模板图像以及待分割图像,确定待分割图像对应的形变场;
所述配准网络模型基于所述形变场以及所述OAR模板图像,确定所述待分割图像对应的OAR图像。
具体地,所述配准网络模型3个编码块、3个解码块和1个三维空间形变层,每个编码块后面都连接1个下采样层,每个解码块后都连接1个上采样层。编码块的主要功能是对输入图像提取特征以及降低图像分辨率,编码块包括2个卷积核为3×3×3的三维卷积块,1个卷积核为1×1×1的三维卷积层,1个压缩和激励块(squeeze and excitation,SE)构成。其中,三维卷积块包含1个3×3×3的卷积核,1个可切换归一化层(switchablenormalization,SN)和1个带泄露线性激活单元(leaky rectified linear unit,leakyReLU)层,卷积过程中会在图像周边进行零填充以保证卷积前后的特征图大小不变。SN层能够自适应的根据数据特征调整归一化的方式,通常SN层会自动分配批归一化、实例归一化(instance normalization,IN)的归一化权重。在本实施例中,SN层只分配IN和层归一化的权重。leaky ReLU激活层能够避免特征图中的负数导致梯度消失,有助于网络收敛。SE块能够降低冗余特征的权重,导致有效特征的权重相对增加。所述编码块的工作过程可以为:特征图被输入编码块后,首先经过两层三维卷积块进行特征提取,再通过SE块给不同的通道的特征图赋予不同的权重,并利用残差连接将新产生的特征图与输入的特征图相加,最后经过1个卷积核为1×1×1的三维卷积层增加特征维度,并输出新的特征图。
所述解码块用于对特征进行降维,并通过上采样放大特征图,最后一个解码块的输出的图像尺寸与最前的编码块的输入项的图像尺寸相同,以实现点到点的配准。所述解码块可以包括1个卷积核为3×3×3的三维卷积块和1个卷积核为1×1×1的三维卷积层。解码块输入的特征图结合了高低层次的特征,是前一层特征图与编码块相应大小的特征图在通道维级联而成的,特征图经过简单的三维卷积块和残差连接结构后,直接通过1×1×1的三维卷积层进行特征降维,最后输出新的特征图。
在本实施例中,所述配准网络模型的输入项包括三通道的待分割图像、三通道的模板图像以及N通道的OAR模板图像,其中,N为待分割图像需要定位的OAR种类。待分割图像的三个通道的窗宽窗位互不相同,第一个通道为原始窗宽窗位,第二个通道突出骨骼信息(窗宽1500HU,窗位300HU),第三个通道突出软组织信息(窗宽500HU,窗位50HU),并且待分割图像的标准化方式为分通道的Z变换。此外,模板图像的三个通道的窗宽窗与待分割图像的三个通道的窗宽窗位相匹配。
进一步,在将三通道的待分割图像、三通道的模板图像以及N通道的OAR模板图像输入配准网络模型后,配准网络模型将三通道的待分割图像和三通道的模板图像在通道维度级联,构成六通道的输入图像,输入图像经过1个分组卷积(其中,分组卷积的组数设置为2)输出2个特征图,分组卷积能够使卷积核在提取特征时能够分别提取目标图像的特征和模板图像的特征。分组卷积的输出项将作为最前的编码块的输入项依次通过三个编码块和三个下采样层,经过三个编码块和三次下采样后特征图再经过卷积块得到编码特征图;编码特征图经过三个解码块和三次上采样,得到图像尺寸与输入图像的图像尺寸相同,以实现体素点级别的精确配准。
在本实施例的一个实现方式中,下采样层采用最大值池化,上采样为三线性插值,采用该上下采样方式能够在保证模型性能的同时,减少网络计算量和显存占用。编码块与解码块采用跳跃连接,有助于梯度的传递,以及高低层次特征的融合。此外,最后的解码块输出的特征图经过1×1×1的卷积层,将通道数降维至3以得到形变场,其中,3个通道分别代表x、y、z三个坐标轴的坐标偏移量。
在本实施例的一个实现方式中,三维空间形变层将根据形变场中的偏移量计算每个体素点变换后的位置,形变场与形变图像的关系如下公式所示:
其中,P为形变图像,x’,y’,z’是变换后的坐标点,能够通过变换前的坐标x,y,z加上形变场中相应的偏移量得到;D为形变场,c为形变场矩阵的通道数,不同坐标轴的偏移量体现在形变场的不同通道上。
在本实施例的一个实现方式中,所述配准网络模型为经过训练的网络模型,并且所述配准网络模型在训练过程中所采用的总损失包括MSE损失函数、Dice损失函数和重心距离损失函数。其中,MSE损失能够保证整体配准效果;Dice损失使网络能够针对不同器官进行准确的配准;重心距离损失是配准后OAR重心与金标准OAR重心的距离,该损失能够保证OAR器官不会偏离正确的位置,有助于提高OAR的定位准确度。
损失函数可以通过对MSE损失函数、Dice损失函数和重心距离损失函数进行加权求和等。在本实施例中,由于OAR的定位准确度最为关键,需要配准后的模板OAR和目标OAR重叠度较高,所以Dice损失权重设置为1;整体配准性能的重要性相对较低,所以MSE损失仅作为辅助损失,权重设置为0.5;重心距离损失因本身数值较大的原因,权重设置为0.1。所述MSE损失函数、Dice损失函数、重心距离损失函以及所述配准网络模型在训练过程中所采用的总损失分别可以表示为:
其中,predict表示配准网络模型输出的配准后的模板图像;label表示待分割图像;C代表图像通道数;S代表图像体素总数;predict_OAR表示配准网络模型输出的OAR模板图像;label_OAR表示待分割图像对应的OAR金标图像;predict_center表示配准网络模型输出的OAR模板图像的重心;label_center表示待分割图像对应的OAR金标图像的重心;N表示需要定位的器官的种类数;epsilon设置为1×10-7,防止除零错误。
S20、基于所述OAR图像确定所述待分割图像对应的若干ROI区域。
具体地,所述若干ROI区域中的每个ROI区域对应一个ROI类别,并且各ROI区域各自对应的ROI类别互不相同。其中,若干ROI类别为预先确定,所述若干ROI类别为根据器官的位置与器官间的相关程度确定。在本实施例中,若干ROI类别包括8个类别,8个类别中的一个类别为下颌骨区域类别,下颌骨区域类别包括下颌骨和颞下颌关节,这是由于下颌骨与颞下颌关节紧密相连;8个类别中的一个类别为神经垂体区域类别,神经垂体区域类别包括左右视神经、视交叉和垂体,这样由于这些器官都为软组织,体积较小,且都处于一个邻近的区域;8个类别中的一个类别为眼球区域类别,眼球区域类别包括眼球和晶状体,这是由于晶状体在眼球的边缘;8个类别中的一个类别为耳区类别,耳区类别包括中耳和内耳;8个类别中的一个类别为颞叶类别;8个类别中的一个类别为腮腺类别;8个类别中的一个类别为脑干类别;8个类别中的一个类别为颌下腺类别,这样由于颞叶、腮腺、脑干以及颌下腺的位置相对其他器官独立且体积较大,所以分别独自作为一个ROI类别。
在实施例的一个实现方式中,如图3所示,所述分割方法应用于经过训练的头颈部分割网络模型;所述头颈部分割网络模型包括ROI分割层;所述基于所述OAR图像确定所述待分割图像对应的若干ROI区域具体包括:
所述ROI分割层根据预设的若干ROI类别,确定所述OAR图像对应的若干ROI重心,其中,若干ROI重心与若干ROI类别一一对应;
对于若干ROI类别中的每个ROI类别,所述ROI分割层根据该ROI类别对应的区域尺寸以及该ROI类别对应的ROI重心,确定该ROI类别对应的ROI区域,以得到若干ROI区域。
具体地,所述若干ROI重心中的每个ROI重心均为其对应的ROI类别所包括的所有器官的重心。所述区域尺寸为预先设置的ROI重心到其对应的ROI区域的区域边框的距离,其中,ROI区域的区域边框为长方体形状。例如,耳区类别对应的ROR重心为耳和内耳的共同重心,耳区类别对应的ROI区域的区域边框能够同时包含中耳和内耳两种器官。
在本实施例的一个实现方式中,如图10-12所示,所述ROI类别对应的区域尺寸的确定过程可以为:获取若干头颈部图像,对于每个头颈部图像,确定该ROI类别包括的所有器官的共同重心,并确定包含所有器官的边界框的x、y和z坐标,在确定共同重心与边界框后,计算共同重心在x、y、z三个坐标轴方向上到边界框的距离(例如,如图13所示,可以得到6个数值-x,+x,-y,+y,-z,+z),根据该距离确定该ROI类别在该头颈部图像中的候选ROI区域尺寸,以得到该ROI类别在各头颈部图像中的候选ROI区域尺寸。在获取到该ROI类别在各头颈部图像中的候选ROI区域尺寸后,分别计算该ROI类别在各头颈部图像中的候选ROI区域尺寸中的-x,+x,-y,+y,-z以及+z的平均值和标准差,以确定该ROI类别对应的ROI区域尺寸,其计算公式可以为:
其中,D(x,y,z)表示重心至边界框在x、y、z方向上的距离,R(x,y,z)表示确定的ROI重心至边界框在x、y、z方向上的距离(即,ROI区域尺寸),mean表示均值,std表示标准差。这样将ROI进行了外扩,可以使得ROI的大小能够包括器官的周边信息用于分割,以及避免不同患者OAR的误差。
S30、根据若干ROI区域确定所述待分割图像对应的分割图像,其中,所述分割图像标注有各危及器官区域。
具体地,所述分割图像的图像内容与待分割图像相同,所述分割图像与所述待分割图像的区别在于所述分割图像中携带有OAR区域的标注信息,其中,所述OAR区域的标注信息指的OAR区域包括的各器官各自对应的标注信息,例如,分割图像中的标注有OAR区域包括的各器官各自对应的标注框等。
在本实施例的一个实现方式中,如图14所示,所述分割方法应用于经过训练的头颈部分割网络模型;所述头颈部分割网络模型包括分割网络模型,所述根据若干ROI区域确定所述待分割图像对应的分割图像具体包括:
对于每个ROI区域,所述分割网络模型获取该ROI区域的三维图像特征和二维横断面特征;
所述分割网络模型基于所述三维图像特征和二维横断面特征,确定该ROI区域对应的特征图;
所述分割网络模型基于所述特征图,确定该ROI区域对应的危及器官区域,以得到候选分割图像;
将所述候选分割图像与待分割图像输入分割网络模型,通过所述分割网络模型得到所述待分割图像对应的分割图像,其中,所述候选分割图像为作为上下文信息
具体地,所述分割网络模型包括编码阶段和解码阶段,其中,编码阶段包括9个编码块,解码阶段包括4个解码块。分割网络模型的编码块的模型结构与配准网络模型的编码块的模型结构基本相同,分割网络模型的解码块的模型结构与配准网络模型的解码块的模型结构基础相同,所述分割网络模型的编码块与配准网络模型的编码块的区别在于以下几点;
第一点:分割网络模型的编码块和分割网络模型的解码块中用于提取特征的卷积核均包括3×3×3的卷积和3×3×1的卷积核,3×3×3的卷积和3×3×1的卷积核并行,3×3×3的卷积用于提取三维图像特征,3×3×1的卷积核用于针对图像的二维横断面提取二维横断面特征,卷积过程同样在图像周围进行零填充以保证卷积前和卷积后的特征图大小不变,在获取到三维图像特征和二维横断面特征后,将三维图像特征和二维横断面特征相加得到该ROI区域对应的特征图。
第二点:分割网络模型仅设置一个下采样层一个上,因为下采样层的减少能够提高小器官的分割精度。下采样和上采样分别为三维最大值池化和三线性插值,有助于减少显存的占用,且能够保证分割的精度。分割网络模型中的跳跃连接能够在解码阶段利用编码阶段的高分辨率信息,有利于提高分割精度,同时有助于避免梯度消失。由于该分割网络需要对多种不同大小的ROI分割多种器官,不同类别的ROI所包含的器官类别也不同,又因为所设计网络参数量较少,直接用单个网络实现多种器官的分割性能较差。为了提高网络分割多类器官的分割精度,在网络中增加了一个ROI分类支路,对输入的ROI进行分类,以提高不同ROI间的特征辨识度,使网络能够根据ROI所包含的内容针对性地分割相应的器官。此外,将编码结构的最后一层经过一个全局平均池化、全连接层和Softmax激活函数输出相应器官的分类结果,对ROI区域的类别进行分类。
分割网络模型的输入项是基于定位结果裁剪后的ROI图像,且为三通道的三维图像,分别包括原始窗宽窗位图像、突出骨骼信息的图像和突出软组织信息的图像。该输入方式使网络能够结合不同的图像信息进行OAR分割。网络对输入进行了编码解码操作后,经过Sigmoid激活函数输出N通道的分割概率图,通道数N根据分割器官类别决定。同时,网络根据编码层最后一层的特征输出分类结果,进行ROI区域的分类。训练中,分割任务的损失函数为Dice损失函数,相对于交叉熵损失,Dice损失对器官大小不敏感,不会因器官太小而导致损失较小,有助于提高小器官的分割精度。分类支路的损失函数采用经典分类任务常用的交叉熵损失。
在本实施例中,为了避免配准阶段的产生的偏差,同时进一步提高分割精度,在分割阶段将候选分割图像作为上下文信息。这种利用上下文信息的方式与马尔科夫过程相似,将分割网络的分割图像作为当前状态,将分割图像以额外通道与原图同时输入分割网络,得到一个新的分割图像,新的分割图像再作为当前状态与原图再次输入分割网络。在此过程中,新的分割图像将作为新的配准结果,以减少定位偏差。通过此过程,分割图像能够修正配准定位的结果,同时给网络提供上下文信息以提高分割精度,且不会增加网络的数量以及网络的参数量。
在本实施例的一个实现方式中,如图15所示,所述根据若干ROI区域确定所述待分割图像对应的分割图像之后,所述方法还包括:
分别将所述分割图像中的视交叉和视神经以及OAR模板图像的视交叉和视神经进行重力方向投影,以得到分割图像对应的第一投影图像和OAR模板图像对应的第二投影图像;
以所述第一投影图像为配准图像,将所述第二投影图像与所述第二投影图像配准,并将配准后的第一投影图像;
基于配置后的第一投影图像对所述第二投影图像进行修正,以得到修正所述分割图像。
具体地,视交叉是软组织,其周围组织也是密度相近的软组织,从而边缘信息不明显。临床医生在勾画时往往依据头部组织的解剖结构进行定位后(一般会依据视神经的相对位置),根据视交叉的形状先验知识勾画一个×的形状。虽然勾画精确度不高,但是放疗靶区最重要的是保护器官,所以只要能包括视交叉区域即可。与临床医生利用先验知识进行分割不同,分割网络模型基于图像灰度信息进行像素级别的分割,对于边缘信息不明显的软组织(如视交叉),难以提取到足够的边缘信息。
基于此,在获取到分割图像后,将分割图像的视交叉和视神经在z轴方向进行投影,可得到第一投影图,其中,视交叉和视神经的灰度值分别设置为1和2。对OAR模板图像的视交叉和视神经在z轴方向进行投影,可得到第二投影图。然后,第二投影图像利用相似性变换配准至第一投影图像上,所用代价函数为MSE。
在第一投影图像和第二投影图像配准后,分别计算第一投影图像和第二投影图像中的视交叉的Hu矩以及两者的DSC,以评价OAR模板图像的视交叉和分割图像的视交叉的形状相似度。其中,Hu矩有7个特征值,由归一化中心距的不同的线性组合计算得到,能够表示图像的形状信息,且具有旋转不变性、平移不变性、缩放不变性、镜像不变性等性质,用于进行形状的对比。矩的本质是数学期望,在二维图像中常用像素值的求和表示,二维图像矩的计算公式如下:
其中,I(x,y)为图像在坐标点x,y处的灰度值;p和q为距的阶数,如p和q都为0,则为0阶距,即图像的面积。
矩只能描述灰度图像的期望,而不能反应其分布情况,所以常利用中心距描述灰度的分布情况。中心距类似于图像的方差,归一化中心距是归一化后的中心矩,使中心距不受目标大小的影响对图像灰度分布进行描述。归一化中心距的计算公式如下:
基于此,可以计算2阶到3阶的归一化中心距的线性组合,得到Hu矩的7个表示形状特征的值:
然后,用对数函数对其进行规范化后再对比两个形状的特征值差异,差异越小说明两个形状越相似,差异值按照如下公式计算:
通过计算配准后的OAR模板图像的视交叉和分割图像的视交叉在二维平面投影的DSC以及两者轮廓差异值,分为三种情况进行分割图像的优化:1)当DSC小于60.0%,形状差异值大于1时,说明分割图像的视交叉与OAR模板图像的视交叉形状差异非常大,且出现严重的漏分割,可直接用配准后的OAR模板图像的视交叉替换掉分割图像的视交叉,替换掉分割图像的视交叉面积最大的一层,删除其余面积较小的层;2)当DSC大于60.0%,形状差异值大于1时,说明分割图像与OAR模板图像的重叠性满足要求,但是形状差异为满足要求,将利用OAR模板图像的视交叉乘以分割图像视交叉进行形状修正;3)其余情况说明分割图像的视交叉乘与模板视交叉的形状较相似,可不对分割图像进行修改。
此外,对于分割图像中出现的边缘锯齿明显、空洞等问题,以二维横断面为单位,逐层对器官内的空洞进行填充和中值滤波。中值滤波的滤波器大小为3×3,该滤波方法能够平滑边缘,同时一定程度上去除较小的离散点。对于体积较小的器官如视交叉、视神经和垂体,因为像素点较少容易在滤波过程中删去正确的分割图像,所以不进行滤波处理。
在本实施例中,为了说明本实施例的效果进行了实验对比,实验对比包括:
在MICCAI 2015数据集上对比基于配准结果进行定位与基于金标准进行定位对分割性能的影响,并探究上下文信息对分割性能的影响。我们将对分割图像进行后处理,对比后处理前后的DSC和95%HD,并对结果进行统计学分析,说明后处理对分割图像的作用。
在MICCAI 2015数据集和番禺数据集中验证所设计的三维级联分割网络的分割性能,并基于MICCAI 2015数据集的分割图像与文献中的其他方法进行性能的对比。
基于分割图像勾画MICCAI 2015数据集的9种OAR,并与完全人工勾画的时间对比,以说明我们的方法能够辅助医生提高勾画OAR的速度。
实验结果:
1)上下文信息对分割性能的影响
在MICCAI 2015数据集上对基于手动选取ROI和基于配准结果定位ROI的分割结果进行对比。前者的平均DSC为76.2%,平均95%HD为3.9 mm;后者的平均DSC为75.5%,平均95%HD为4.2 mm。配对Wilcoxon符号秩和检验的P值为0.041,说明差异具有统计学意义。这表明配准结果的偏差可能会影响分割网络的分割精度。
在利用了上下文信息后,基于配准结果定位ROI的平均DSC提高至78.6%,平均95%HD降低至3.6 mm。与基于手动选取ROI分割结果的DSC进行配对Wilcoxon符号秩检验,P值为0.003,表明差异具有统计学意义。此外,经过上下文信息对配准定位结果的修正,所有OAR的定位敏感度提高至100.0%±0.0%,表明所有OAR都能完全包括在相应的ROI内。以上结果表明,上下文信息能够有效地提高分割精度,降低定位误差。
)后处理对分割性能的影响
对分割结果进行了后处理,经过后处理后的平均DSC为79.1%,平均95%HD为3.5 mm。经过与未进行后处理的分割结果的DSC(78.6%)进行配对Wilcoxon符号秩检验,P值为0.005,说明差异具有统计学意义。图15为进行形状修正前后的视交叉示例图,由图中可以看出,虽然修正后的视交叉与金标准仍存在差异,但是形状已与金标准基本相似,形状已符合正确的解剖结构。此外,测试集中视交叉的平均DSC由61.7%提高至64.3%。结果表明,所提出的后处理算法能够提高分割性能。
)三维级联分割网络在两个数据集上的分割结果
表1所提出方法在两个数据集中的分割结果
本实施例提供的分割方法在两个数据集上分别进行了实验,实验结果为番禺数据集的平均DSC为72.7%,平均95%HD为4.9 mm。MICCAI 2015数据集的平均DSC为79.1%,95%HD为3.5mm。
)所提出分割方法与现有分割方法的对比
在MICCAI 2015数据集上与现有文献中的方法进行了分割性能的对比,本实施例提供的方法的模型参数量相对较少,只有160万参数,且速度非常快,仅需3.5秒即可完成一例患者的OAR分割。同时,经验较少的医生基于所提出方法的分割结果勾画MICCAI 2015数据集的9种头颈部OAR,只需约3分钟即可完成1例患者9种OAR的勾画,完全人工勾画9种OAR需要约20-30分钟,表明所提出方法能够辅助医生提高勾画OAR的速度。
综上所述本实施例提供了一种基于解剖先验知识的头颈部危及器官的分割方法,所述方法该方法利用了头颈部OAR的解剖结构信息,基于简单的网络结构和较少的网络参数实现快速、准确、全自动的头颈部OAR三维分割,能够辅助医生提高头颈部OAR的勾画速度。本文所提出的分割方法首先需要通过模板配准的方法定位出图像中的OAR大致位置,基于定位结果裁出各个OAR的ROI,将ROI输入到分割网络进行OAR分割,最后再对分割结果进行后处理。
对配准后的两个患者数据计算相似性指标,在若干头颈部图像中选择一个相似性指标最好的患者的OAR数据作为OAR模板图像,该OAR模板图像与若干头颈部图像中若干头颈部图像的OAR相似性最高,并通过实验验证该方法选择的模板是较为合适的。此外,为确保所确定的ROI大小能包括整个器官,统计了不同OAR的大小,基于统计结果确定各个ROI的大小。为利用若干头颈部图像进行OAR的定位,采用了三维配准网络将若OAR模板图像配准至需要进行分割的待分割图像,以此实现待分割图像的OAR的定位。此外,还引入了重心距离损失以提高定位的精确度,并通过实验验证了重心距离损失能够提高定位的精度。
同时,在对待分割图像进行定位外,采用三维多视角分割网络基于定位得到的ROI区域进行多类OAR的分割。该三维多视角分割网络的三维信息和横断面二维信息,有效地提高了分割精度。在本方法中横断面信息相对于冠状面和矢状面信息更能提高分割性能,图像的三维信息比二维信息更有助于提高分割精度。此外,为利用单个模型实现多类OAR的分割,减少训练模型的时间和资源,在三维多视角分割网络中加入了ROI分类支路以提高不同ROI的特征辨识度。
将配准网络模型和分割网络模型通过ROI分割层进行级联,实现了快速准确的OAR自动分割。为进一步提高分割精度与定位精度,在分割阶段利用了上下文信息,将分割结果作为辅助信息再次输入分割网络以提高分割精度,并利用分割结果修正配准结果,以避免定位偏差。为进一步提高分割结果的准确度,我们应用模板的形状信息对分割结果中的视交叉进行了修正,并通过空洞填充算法填充了分割结果中的空洞,中值滤波算法去除了部分离散点和平滑分割边缘。与文献中的方法对比表明,本文所提出的分割方法利用最少的模型参数量与最少的模型数量实现了最快的头颈部OAR准确分割,并通过实验验证我们的分割结果能够辅助医生提高OAR的勾画速度。
基于上述基于解剖先验知识的头颈部危及器官的分割方法,本实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上述实施例所述的基于解剖先验知识的头颈部危及器官的分割方法中的步骤。
基于上述基于解剖先验知识的头颈部危及器官的分割方法,本申请还提供了一种终端设备,如图16所示,其包括至少一个处理器(processor)20;显示屏21;以及存储器(memory)22,还可以包括通信接口(Communications Interface)23和总线24。其中,处理器20、显示屏21、存储器22和通信接口23可以通过总线24完成相互间的通信。显示屏21设置为显示初始设置模式中预设的用户引导界面。通信接口23可以传输信息。处理器20可以调用存储器22中的逻辑指令,以执行上述实施例中的方法。
此外,上述的存储器22中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器22作为一种计算机可读存储介质,可设置为存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令或模块。处理器20通过运行存储在存储器22中的软件程序、指令或模块,从而执行功能应用以及数据处理,即实现上述实施例中的方法。
存储器22可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器。例如,U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
此外,上述存储介质以及移动终端中的多条指令处理器加载并执行的具体过程在上述方法中已经详细说明,在这里就不再一一陈述。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的·本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种基于解剖先验知识的头颈部危及器官的分割方法,其特征在于,所述方法包括:
基于预设的模板图像以及该模板图像对应的OAR模板图像,确定待分割图像对应的OAR图像;
基于所述OAR图像确定所述待分割图像对应的若干ROI区域;
根据若干ROI区域确定所述待分割图像对应的分割图像,其中,所述分割图像标注有各危及器官区域。
2.根据权利要求1所述基于解剖先验知识的头颈部危及器官的分割方法,其特征在于,所述模板图像的确定过程包括:
获取若干头颈部图像;
对于每个头颈部图像,将若干头颈部图像中的除该头颈部图像外的各头颈部图像分别与该头颈部图像配准;
确定该头颈部图像与各配准后的头颈部图像的相似性,以得到该头颈部图像对应的相似度;
基于各头颈部图像各自对应的相似度确定模板图像,其中,所述模板图像包含于所述若干头颈部图像。
3.根据权利要求2所述基于解剖先验知识的头颈部危及器官的分割方法,其特征在于,所述获取若干头颈部图像具体包括:
获取若干候选头颈部图像;
对于每个候选头颈部图像,基于该候选头颈部图像的横断面积变化曲线确定所述候选头颈部图像中的头部区域,并将该头部区域作为头颈部图像,以得到若干头颈部图像。
4.根据权利要求1所述基于解剖先验知识的头颈部危及器官的分割方法,其特征在于,所述分割方法应用于经过训练的头颈部分割网络模型;所述头颈部分割网络模型包括配准网络模型;所述基于预设的模板图像以及该模板图像对应的OAR模板图像,确定待分割图像对应的OAR图像具体包括:
所述配准网络模型基于所述模板图像以及待分割图像,确定待分割图像对应的形变场;
所述配准网络模型基于所述形变场以及所述OAR模板图像,确定所述待分割图像对应的OAR图像。
5.根据权利要求4所述基于解剖先验知识的头颈部危及器官的分割方法,其特征在于,所述配准网络模型为经过训练的网络模型,并且所述配准网络模型在训练过程中所采用的总损失包括MSE损失函数、Dice损失函数和重心距离损失函数。
6.根据权利要求1所述基于解剖先验知识的头颈部危及器官的分割方法,其特征在于,所述分割方法应用于经过训练的头颈部分割网络模型;所述头颈部分割网络模型包括ROI分割层;所述基于所述OAR图像确定所述待分割图像对应的若干ROI区域具体包括:
所述ROI分割层根据预设的若干ROI类别,确定所述OAR图像对应的若干ROI重心,其中,若干ROI重心与若干ROI类别一一对应;
对于若干ROI类别中的每个ROI类别,所述ROI分割层根据该ROI类别对应的区域尺寸以及该ROI类别对应的ROI重心,确定该ROI类别对应的ROI区域,以得到若干ROI区域。
7.根据权利要求1所述基于解剖先验知识的头颈部危及器官的分割方法,其特征在于,所述分割方法应用于经过训练的头颈部分割网络模型;所述头颈部分割网络模型包括分割网络模型,所述根据若干ROI区域确定所述待分割图像对应的分割图像具体包括:
对于每个ROI区域,所述分割网络模型获取该ROI区域的三维图像特征和二维横断面特征;
所述分割网络模型基于所述三维图像特征和二维横断面特征,确定该ROI区域对应的特征图;
所述分割网络模型基于所述特征图,确定该ROI区域对应的危及器官区域,以得到候选分割图像;
将所述候选分割图像与待分割图像输入分割网络模型,通过所述分割网络模型得到所述待分割图像对应的分割图像,其中,所述候选分割图像为作为上下文信息。
8.根据权利要求1或所述基于解剖先验知识的头颈部危及器官的分割方法,其特征在于,所述根据若干ROI区域确定所述待分割图像对应的分割图像之后,所述方法还包括:
分别将所述分割图像中的视交叉和视神经以及OAR模板图像的视交叉和视神经进行重力方向投影,以得到分割图像对应的第一投影图像和OAR模板图像对应的第二投影图像;
以所述第一投影图像为配准图像,将所述第二投影图像与所述第二投影图像配准,并将配准后的第一投影图像;
基于配置后的第一投影图像对所述第二投影图像进行修正,以得到修正所述分割图像。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-8任意一项所述的基于解剖先验知识的头颈部危及器官的分割方法中的步骤。
10.一种终端设备,其特征在于,包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如权利要求1-8任意一项所述的基于解剖先验知识的头颈部危及器官的分割方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011424075.4A CN112419338B (zh) | 2020-12-08 | 2020-12-08 | 一种基于解剖先验知识的头颈部危及器官的分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011424075.4A CN112419338B (zh) | 2020-12-08 | 2020-12-08 | 一种基于解剖先验知识的头颈部危及器官的分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112419338A true CN112419338A (zh) | 2021-02-26 |
CN112419338B CN112419338B (zh) | 2021-12-07 |
Family
ID=74775451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011424075.4A Active CN112419338B (zh) | 2020-12-08 | 2020-12-08 | 一种基于解剖先验知识的头颈部危及器官的分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112419338B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298828A (zh) * | 2021-06-11 | 2021-08-24 | 上海交通大学医学院附属第九人民医院 | 一种基于卷积神经网络的颌骨自动分割方法 |
CN113409333A (zh) * | 2021-06-16 | 2021-09-17 | 青岛海信医疗设备股份有限公司 | 一种三维图像的切割方法及电子设备 |
CN113487622A (zh) * | 2021-05-25 | 2021-10-08 | 中国科学院自动化研究所 | 头颈部器官影像分割方法、装置、电子设备和存储介质 |
CN114119558A (zh) * | 2021-11-29 | 2022-03-01 | 桂林电子科技大学 | 一种自动生成鼻咽癌影像诊断结构化报告方法 |
CN115294110A (zh) * | 2022-09-30 | 2022-11-04 | 杭州太美星程医药科技有限公司 | 扫描期的识别方法、装置、电子设备和存储介质 |
CN116309751A (zh) * | 2023-03-15 | 2023-06-23 | 北京医准智能科技有限公司 | 影像处理方法、装置、电子设备及介质 |
CN117351489A (zh) * | 2023-12-06 | 2024-01-05 | 四川省肿瘤医院 | 面向全身pet/ct扫描的头颈肿瘤靶区的勾画系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106169028A (zh) * | 2016-07-05 | 2016-11-30 | 西南医科大学附属医院 | 调强放疗中危及器官吸收剂量预测数学模型的构建方法 |
CN109615642A (zh) * | 2018-11-05 | 2019-04-12 | 北京全域医疗技术有限公司 | 一种放疗计划中的危及器官自动勾画方法及装置 |
CN109712186A (zh) * | 2018-12-11 | 2019-05-03 | 上海联影医疗科技有限公司 | 图像中勾画感兴趣区域的方法、计算机设备和存储介质 |
CN110136182A (zh) * | 2019-05-28 | 2019-08-16 | 北京百度网讯科技有限公司 | 激光点云与2d影像的配准方法、装置、设备和介质 |
CN110310287A (zh) * | 2018-03-22 | 2019-10-08 | 北京连心医疗科技有限公司 | 基于神经网络的危及器官自动勾画方法、设备和存储介质 |
CN111127444A (zh) * | 2019-12-26 | 2020-05-08 | 广州柏视医疗科技有限公司 | 基于深度语义网络的ct影像中自动识别放疗危及器官的方法 |
CN111340789A (zh) * | 2020-02-29 | 2020-06-26 | 平安科技(深圳)有限公司 | 眼底视网膜血管识别及量化方法、装置、设备及存储介质 |
CN111798463A (zh) * | 2020-06-30 | 2020-10-20 | 电子科技大学 | 一种头颈部ct图像中多器官自动分割方法 |
CN111861999A (zh) * | 2020-06-24 | 2020-10-30 | 北京百度网讯科技有限公司 | 动静脉交叉压迫征的检测方法、装置、电子设备及可读存储介质 |
CN111862022A (zh) * | 2020-07-13 | 2020-10-30 | 中山大学 | 全身多部位放射治疗危及器官自动勾画方法 |
-
2020
- 2020-12-08 CN CN202011424075.4A patent/CN112419338B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106169028A (zh) * | 2016-07-05 | 2016-11-30 | 西南医科大学附属医院 | 调强放疗中危及器官吸收剂量预测数学模型的构建方法 |
CN110310287A (zh) * | 2018-03-22 | 2019-10-08 | 北京连心医疗科技有限公司 | 基于神经网络的危及器官自动勾画方法、设备和存储介质 |
CN109615642A (zh) * | 2018-11-05 | 2019-04-12 | 北京全域医疗技术有限公司 | 一种放疗计划中的危及器官自动勾画方法及装置 |
CN109712186A (zh) * | 2018-12-11 | 2019-05-03 | 上海联影医疗科技有限公司 | 图像中勾画感兴趣区域的方法、计算机设备和存储介质 |
CN110136182A (zh) * | 2019-05-28 | 2019-08-16 | 北京百度网讯科技有限公司 | 激光点云与2d影像的配准方法、装置、设备和介质 |
CN111127444A (zh) * | 2019-12-26 | 2020-05-08 | 广州柏视医疗科技有限公司 | 基于深度语义网络的ct影像中自动识别放疗危及器官的方法 |
CN111340789A (zh) * | 2020-02-29 | 2020-06-26 | 平安科技(深圳)有限公司 | 眼底视网膜血管识别及量化方法、装置、设备及存储介质 |
CN111861999A (zh) * | 2020-06-24 | 2020-10-30 | 北京百度网讯科技有限公司 | 动静脉交叉压迫征的检测方法、装置、电子设备及可读存储介质 |
CN111798463A (zh) * | 2020-06-30 | 2020-10-20 | 电子科技大学 | 一种头颈部ct图像中多器官自动分割方法 |
CN111862022A (zh) * | 2020-07-13 | 2020-10-30 | 中山大学 | 全身多部位放射治疗危及器官自动勾画方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113487622A (zh) * | 2021-05-25 | 2021-10-08 | 中国科学院自动化研究所 | 头颈部器官影像分割方法、装置、电子设备和存储介质 |
CN113487622B (zh) * | 2021-05-25 | 2023-10-31 | 中国科学院自动化研究所 | 头颈部器官影像分割方法、装置、电子设备和存储介质 |
CN113298828B (zh) * | 2021-06-11 | 2023-09-22 | 上海交通大学医学院附属第九人民医院 | 一种基于卷积神经网络的颌骨自动分割方法 |
CN113298828A (zh) * | 2021-06-11 | 2021-08-24 | 上海交通大学医学院附属第九人民医院 | 一种基于卷积神经网络的颌骨自动分割方法 |
CN113409333A (zh) * | 2021-06-16 | 2021-09-17 | 青岛海信医疗设备股份有限公司 | 一种三维图像的切割方法及电子设备 |
CN113409333B (zh) * | 2021-06-16 | 2022-07-22 | 青岛海信医疗设备股份有限公司 | 一种三维图像的切割方法及电子设备 |
CN114119558A (zh) * | 2021-11-29 | 2022-03-01 | 桂林电子科技大学 | 一种自动生成鼻咽癌影像诊断结构化报告方法 |
CN114119558B (zh) * | 2021-11-29 | 2024-05-03 | 桂林电子科技大学 | 一种自动生成鼻咽癌影像诊断结构化报告方法 |
CN115294110B (zh) * | 2022-09-30 | 2023-01-06 | 杭州太美星程医药科技有限公司 | 扫描期的识别方法、装置、电子设备和存储介质 |
CN115294110A (zh) * | 2022-09-30 | 2022-11-04 | 杭州太美星程医药科技有限公司 | 扫描期的识别方法、装置、电子设备和存储介质 |
CN116309751A (zh) * | 2023-03-15 | 2023-06-23 | 北京医准智能科技有限公司 | 影像处理方法、装置、电子设备及介质 |
CN117351489A (zh) * | 2023-12-06 | 2024-01-05 | 四川省肿瘤医院 | 面向全身pet/ct扫描的头颈肿瘤靶区的勾画系统 |
CN117351489B (zh) * | 2023-12-06 | 2024-03-08 | 四川省肿瘤医院 | 面向全身pet/ct扫描的头颈肿瘤靶区的勾画系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112419338B (zh) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112419338B (zh) | 一种基于解剖先验知识的头颈部危及器官的分割方法 | |
Liu et al. | Segmentation of organs-at-risk in cervical cancer CT images with a convolutional neural network | |
US11455732B2 (en) | Knowledge-based automatic image segmentation | |
Jin et al. | DeepTarget: Gross tumor and clinical target volume segmentation in esophageal cancer radiotherapy | |
Lei et al. | Deep learning in multi-organ segmentation | |
Lu et al. | Precise segmentation of multiple organs in CT volumes using learning-based approach and information theory | |
US9727975B2 (en) | Knowledge-based automatic image segmentation | |
Mlynarski et al. | Anatomically consistent CNN-based segmentation of organs-at-risk in cranial radiotherapy | |
KR20210067913A (ko) | 학습 모델을 이용한 데이터 처리 방법 | |
US20220058806A1 (en) | Systems and methods for image segmentation | |
Keustermans et al. | Integrating statistical shape models into a graph cut framework for tooth segmentation | |
Zhang et al. | Topology-preserving segmentation network: A deep learning segmentation framework for connected component | |
Mlynarski et al. | Anatomically consistent segmentation of organs at risk in MRI with convolutional neural networks | |
Ai et al. | Spatial probabilistic distribution map-based two-channel 3D U-net for visual pathway segmentation | |
KR20220133834A (ko) | 학습 모델을 이용한 데이터 처리 방법 | |
Astaraki et al. | Fully automatic segmentation of gross target volume and organs-at-risk for radiotherapy planning of nasopharyngeal carcinoma | |
Dréan et al. | Inter-individual organ-driven CT registration for dose mapping in prostate cancer radiotherapy | |
Ninomiya et al. | Feasibility of anatomical feature points for the estimation of prostate locations in the Bayesian delineation frameworks for prostate cancer radiotherapy | |
Trabelsi et al. | 3D Active Shape Model for CT-scan liver segmentation | |
Lin et al. | Organs-At-Risk Segmentation in Medical Imaging Based on the U-Net with Residual and Attention Mechanisms | |
Kos et al. | Comparison of ASM and CNN based prostate segmentation in CT images | |
Soomro et al. | OARnet: Automated organs-at-risk delineation in Head and Neck CT images | |
Moon et al. | Very fast, high-resolution aggregation 3D detection CAM to quickly and accurately find facial fracture areas | |
Chan | Quasi-Conformal Geometry for Medical Imaging, Analysis and Diagnosis | |
Fischl | EXPECTED LABEL VALUE COMPUTATION FOR ATLAS-BASED IMAGE SEGMENTATION |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |