CN117391984A - 一种提升cbct影像质量的方法 - Google Patents
一种提升cbct影像质量的方法 Download PDFInfo
- Publication number
- CN117391984A CN117391984A CN202311449636.XA CN202311449636A CN117391984A CN 117391984 A CN117391984 A CN 117391984A CN 202311449636 A CN202311449636 A CN 202311449636A CN 117391984 A CN117391984 A CN 117391984A
- Authority
- CN
- China
- Prior art keywords
- global
- image
- features
- cbct
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007408 cone-beam computed tomography Methods 0.000 title claims abstract description 94
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000004927 fusion Effects 0.000 claims abstract description 27
- 238000000605 extraction Methods 0.000 claims description 26
- 238000001959 radiotherapy Methods 0.000 claims description 20
- 230000006872 improvement Effects 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 2
- 206010008342 Cervix carcinoma Diseases 0.000 abstract description 17
- 208000006105 Uterine Cervical Neoplasms Diseases 0.000 abstract description 17
- 201000010881 cervical cancer Diseases 0.000 abstract description 17
- 230000002708 enhancing effect Effects 0.000 abstract description 3
- 230000002194 synthesizing effect Effects 0.000 abstract 1
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 230000004083 survival effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011275 oncology therapy Methods 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种提升CBCT影像质量的方法,包括以下步骤:将质量较差的宫颈癌CBCT影像和从CBCT裁剪出的感兴趣区域影像输入训练完毕的模型中,获取更高质量的生成CT影像。本方法包含两个子网络:局部生成子网络和全局判别子网络。其中,局部生成子网络包含的局部融合模块,用于增强感兴趣区域的特征。全局判别子网络包含的全局细化模块,增强生成CT影像的细节,使影像包含更多的细节信息。综合来看,本发明在合成目标区域和整体结构的细节增强图像方面表现出优越性和有效性,可以提升CBCT影像的质量。
Description
技术领域
本发明涉及医学影像质量改善技术领域,具体为一种提升CBCT影像质量的方法。
背景技术
宫颈癌是一种严重的妇科疾病,对女性健康产生极大的威胁。放射治疗已成为宫颈癌疾病的主要治疗方式,在临床上得到了广泛应用。尽管放射治疗可以改善预后,但据报道,国际妇产科联合会(FIGO)II、III和IVA期的5年总生存率仅为65%、40%和15%。此外,2年进展无病生存率(PFS)在70%到78%之间,高达三分之一的宫颈癌患者在治疗后18个月内出现复发。同时,由于自适应放射治疗具有精确的照射剂量和准确的照射范围等优点,因此在宫颈癌治疗中自适应放射治疗的应用愈加广泛。然而,在自适应放射治疗中使用的CBCT影像并不能真正满足需求。尽管其有诸多便利,但CBCT扫描中存在显著的影像伪影与变形,影像质量不达标。因此,在宫颈癌放射治疗过程中提高CBCT影像质量对于促进临床实践中自适应放射治疗的广泛应用至关重要。
目前已经提出了各种技术来提高CBCT影像质量,主要是通过生成CT影像来改善CBCT影像质量。目前有两种主要方法用于CBCT转换为CT:强监督方法和模态转换方法。强监督方法指的是训练神经网络实现CBCT到CT的转换,这种方法具有高准确性和稳定性,但对像素敏感,并容易产生解剖学伪影。相比之下,模态转换方法利用生成对抗网络将CBCT转换为CT,与强监督方法相比,该技术产生的影像伪影较少。
但是在这些研究中,无论是强监督方法还是模态变换方法都侧重于提高全局影像质量,而并未关注局部区域;并且目前方法中使用的CBCT和CT影像并不完全匹配,这主要是因为宫颈部位是软组织,不同于头部和颈部,在成像过程中会发生形变;因此,目前的方法无法在局部区域合成效果较好的影像。然而,局部区域的质量,特别是局部放疗区域的质量,在评估宫颈癌放疗效果中起着至关重要的作用。此外,在模态转换过程中,往往倾向于优先增强合成影像的信息内容,而忽视对输入CBCT影像中存在的详细信息的管理和利用。这种疏忽可能导致原始输入影像的细节丢失,从而导致输出影像失真。此外,对全局细节的关注不足可能会影响肿瘤边界、周围组织结构和解剖标志等重要特征。从而出现不正确或不精确的肿瘤识别和定位,影响宫颈癌放疗治疗的有效性。因此,针对宫颈癌放疗中的CBCT影像质量提升的方法还需要进一步研究。
发明内容
本发明针对现有技术中针对宫颈癌放疗中的CBCT影像质量提升的方法欠缺的问题,提供了一种提升CBCT影像质量的方法,包括以下步骤:
获取照射时间距离短且照射体位一致的CBCT全局影像、CBCT局部影像和标签CT影像;
将两个编码器、一个局部融合模块和一个解码器依次连接,构建局部生成子网络;其中两个编码器分别用于提取CBCT全局影像和CBCT局部影像的特征;局部融合模块用于将两个编码器输出的局部特征与全局特征对应位置的特征进行融合替换,增强局部区域影像特征;解码器用于将局部融合模块输出的特征解码为生成CT影像;
将全局特征提取模块、全局细化模块和判别模块依次连接,构建全局判别子网络;将局部生成子网络的解码器和全局判别子网络的全局特征提取模块连接,构建质量提升模型;其中全局特征提取模块用于提取生成CT影像和标签CT影像的全局特征;全局细化模块用于计算CBCT全局影像和标签CT影像之间的相似特征,输出全局细节特征,将输出的全局细节特征与全局特征提取模块输出的全局特征相结合,输出全局细节增强后的特征;判别模块用于对全局细化模块输出的全局细节增强后的特征进行判断,输出所有影像块判断平均结果,如果判断为假,则反馈给局部生成子网络进行重新生成图像,直到局部生成子网络的生成图像能够使得全局判别子网络判别为真;
将获取的CBCT全局影像、CBCT局部影像和标签CT影像输入训练后的质量提升模型,利用局部生成子网络和全局判别子网络将CBCT转换为CT模态,输出质量提升的影像。
进一步的,所述全局特征提取模块基于PatchGAN鉴别器创建,相较于PatchGAN鉴别器,全局特征提取模块删除了一个鉴别过程,只输出一个N×N的特征,即全局特征。
进一步的,所述获取照射时间距离短且照射体位一致的CBCT全局影像、CBCT局部影像和标签CT影像,具体包括:
收集照射时间距离短且照射体位一致的CBCT影像和CT影像,CT影像作为标签CT影像;
对收集到的CBCT影像和CT影像使用非刚性配准的方法进行逐层匹配,得到CBCT-CT影像对;
将CBCT影像放疗靶区进行勾勒,统一裁剪得到CBCT局部影像。
进一步的,本发明提供的一种提升CBCT影像质量的方法,还包括对质量提升模型进行训练,具体包括:
将CBCT全局影像和CBCT局部影像作为训练影像质量提升模型的原始数据,标签CT影像作为训练影像质量提升模型的数据的标签;
使用编码器分别提取CBCT全局影像和CBCT局部影像的特征;使用局部融合模块将局部特征与全局特征对应位置的特征进行融合替换;使用解码器将局部融合模块输出的特征解码为生成CT影像;
使用全局特征提取模块计算影像的全局特征,输入生成CT影像和标签CT影像,输出全局特征;使用全局细化模块计算输入的CBCT和标签CT影像之间的相似特征,输出全局细节特征,并且将输出的细节特征与全局特征相结合,输出全局细节增强后的特征;使用判别模块对全局细节增强后的特征进行判别,输出真假判断;
迭代训练10000次,在训练期间使用测试集进行定期评估,确保模型达到质量提升效果。
进一步的,所述局部融合模块用于将两个编码器输出的局部特征与全局特征对应位置的特征进行融合替换,增强局部区域影像特征,具体包括:
在提取局部特征和全局特征之后,从全局特征中随机抽取一个局部特征子集;
在选择特定的局部特征后,采用KL散度方法计算相应位置的局部影像特征ψlocal与从全局特征中得到的局部特征子集φglobal之间的相似度;
M=g(φglobal,ψlocal)
式中,g表示使用KL散度方法来计算相似度;
找到与局部区域特征最相似的CBCT全局特征位置,为每个特征分配依据经验设置的权重系数,将其融合在一起形成一个新的融合特征,将新的融合特征替换全局特征相应位置的局部特征。
进一步的,所述全局细化模块用于计算CBCT全局影像和标签CT影像之间的相似特征,输出全局细节特征,将输出的全局细节特征与全局特征提取模块输出的全局特征相结合,输出全局细节增强后的特征,具体包括:
全局细化模块从CBCT影像和标签CT影像中提取细节信息;全局细化模块该模块由多个卷积层组成,卷积层计算CBCT和标签CT影像之间的相似特征,最后一个卷积层输出CBCT中存在的真实全局细节特征,之后在与全局特征进行融合,融合的公式表示为:
式中,Ad表示得到的全局细节特征,Ag表示全局特征提取模块的特征提取结果。
与现有技术相比,本发明提供的一种提升CBCT影像质量的方法,其有益效果是:
本发明提出了一种提升CBCT影像质量的模型,将CBCT影像和局部影像输入到该模型,在局部生成子网络中设计了一个局部融合模块,将局部区域的影像作为核心,以提高生成影像中局部区域的质量,全局判别子网络中构建了一个全局细化模块来增强影像中的细节,以保留原始影像中更多有价值的细节信息,不仅能够对CBCT影像质量进行改善,还能够着重提升局部区域影像质量,并且保留更多的原始数据的细节信息,从而能够给临床医生提供更多有价值的信息,帮助其更好的评估放疗疗效。
附图说明
图1为本发明提供的提升CBCT影像质量的方法的总体示意图;
图2为本发明实施例提供的局部融合模块的示意图;
图3为本发明实施例提供的全局细化模块的示意图。
具体实施方式
下面结合附图1-附图3,对本发明的具体实施方式作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例1:本发明提供一种提升CBCT影像质量的方法,包括:
将质量较差的宫颈癌CBCT影像和从CBCT裁剪出的感兴趣区域影像输入训练完毕的质量提升模型中,获取更高质量的生成CT影像;
其中,所述质量提升模型包含两个子网络:局部生成子网络和全局判别子网络;局部生成子网络输出端连接全局判别子网络;
所述局部生成子网络包含两个编码器、一个解码器和一个局部融合模块。其中,两个编码器分别用于提取全局影像和局部影像(感兴趣区域影像)的特征。局部融合模块是用来将局部特征与全局特征对应位置的特征进行融合替换,达到增强局部区域影像特征的目的。解码器是将局部融合模块输出的特征解码为影像;
所述的该全局判别子网络包括全局特征提取模块、全局细化模块和判别模块。全局特征提取模块基于PatchGAN原理创建,与PatchGAN鉴别器相比,它删除了一个鉴别过程,只输出一个N×N的特征,即全局特征。全局细化模块是用来计算输入的CBCT和标签CT影像之间的相似特征,输出全局细节特征,并且将输出的细节特征与全局特征相结合,输出全局细节增强后的特征。之后将全局细节增强后的特征输入判别模块进行判断,最后的输出是所有影像块判断的平均结果。
优选地,训练所述模型的方法,包括以下步骤:
收集宫颈癌放疗过程中CBCT影像数据和CT影像数据,将CBCT和CT影像进行配对,并且将CBCT影像上的放疗靶区单独裁剪下来作为局部影像。将CBCT和局部影像作为训练影像质量提升模型的原始数据,CT影像作为训练影像质量提升模型的数据的标签;
使用编码器分别提取CBCT影像和局部影像的特征;使用局部融合模块将局部特征与全局特征对应位置的特征进行融合替换;使用解码器将局部融合模块输出的特征解码为生成CT影像;
使用全局特征提取模块计算影像的全局特征,输入生成CT和标签CT影像,输出全局特征;使用全局细化模块计算输入的CBCT和标签CT影像之间的相似特征,输出全局细节特征,并且将输出的细节特征与全局特征相结合,输出全局细节增强后的特征;使用判别模块对全局细节增强后的特征进行判别,输出真假判断;
如图二所示,所述的局部融合模块中局部特征与全局特征对应位置的特征进行融合替换的计算流程和方法:
整个融合过程可分为局部选择、局部匹配、局部重构三个步骤。
局部选择:在提取局部特征和全局特征之后,需要在全局特征中找到需要替换的特定局部特征的对应特征。这一步包括从全局特征中随机选择几个局部特征。通过这个特征选择过程,我们从全局特征中随机抽取一个局部特征子集,用于局部匹配步骤。
局部匹配:在选择特定的局部特征后,采用KL散度方法计算相应位置的局部影像特征ψlocal与从全局特征中得到的局部特征子集φglobal之间的相似度。
M=g(φglobal,ψlocal)
其中,g表示使用KL散度方法来计算相似度。
局部重构:指将上述的局部特征进行整合。具体来说,通过局部匹配步骤,找到与局部区域特征最相似的CBCT全局特征位置。随后,为每个特征分配依据经验设置的权重系数,将它们融合在一起形成一个新的融合特征。然后将该融合特征替换全局特征相应位置的局部特征。
如图三所示,所述的全局细化模块增强全局细节的计算流程和结构:
全局细化模块从CBCT影像和标签CT影像中提取细节信息。该模块由多个卷积层组成,这些卷积层计算CBCT和标签CT影像之间的相似特征。最后一个卷积层输出CBCT中存在的真实全局细节特征。之后在与全局特征进行融合,融合的公式表示为:
其中,Ad表示得到的全局细节特征,Ag表示全局特征提取模块的特征提取结果。
综上所述,本发明与现有的技术相比,存在以下优势:
本发明提出了一种局部-全局集成网络,用于提高宫颈癌放射治疗中CBCT影像质量。本发明在局部生成子网中设计了局部融合模块,时模型更加关注局部区域,以提高局部区域的影像合成质量。此外,本发明在全局判别子网络中设计了全局细化模块,以提高全局影像的合成质量并保留更多的细节信息。
本发明方法对提高宫颈癌患者放射治疗过程中CBCT影像质量具有重要的潜力,为临床医生及时评估治疗效果提供了有价值的支持。随着方法学的进一步进步,相信这种方法最终将对接受放射治疗的宫颈癌患者产生积极影响。此外,该方法在增强具有形变的CBCT影像质量方面具有强大的能力和广泛的适用性。这种方法不仅局限于解决宫颈癌病例,而且通过扩展其与更广泛的医学成像场景的相关性,为无数的临床应用提供了潜在的和新颖的途径,从而开辟了新的领域。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (6)
1.一种提升CBCT影像质量的方法,其特征在于,包括以下步骤:
获取照射时间距离短且照射体位一致的CBCT全局影像、CBCT局部影像和标签CT影像;
将两个编码器、一个局部融合模块和一个解码器依次连接,构建局部生成子网络;其中两个编码器分别用于提取CBCT全局影像和CBCT局部影像的特征;局部融合模块用于将两个编码器输出的局部特征与全局特征对应位置的特征进行融合替换,增强局部区域影像特征;解码器用于将局部融合模块输出的特征解码为生成CT影像;
将全局特征提取模块、全局细化模块和判别模块依次连接,构建全局判别子网络;将局部生成子网络的解码器和全局判别子网络的全局特征提取模块连接,构建质量提升模型;其中全局特征提取模块用于提取生成CT影像和标签CT影像的全局特征;全局细化模块用于计算CBCT全局影像和标签CT影像之间的相似特征,输出全局细节特征,将输出的全局细节特征与全局特征提取模块输出的全局特征相结合,输出全局细节增强后的特征;判别模块用于对全局细化模块输出的全局细节增强后的特征进行判断,输出所有影像块判断平均结果,如果判断为假,则反馈给局部生成子网络进行重新生成图像,直到局部生成子网络的生成图像能够使得全局判别子网络判别为真;
将获取的CBCT全局影像、CBCT局部影像和标签CT影像输入训练后的质量提升模型,利用局部生成子网络和全局判别子网络将CBCT转换为CT模态,输出质量提升的影像。
2.如权利要求1所述的一种提升CBCT影像质量的方法,其特征在于,所述全局特征提取模块基于PatchGAN鉴别器创建,相较于PatchGAN鉴别器,全局特征提取模块删除了一个鉴别过程,只输出一个N×N的特征,即全局特征。
3.如权利要求1所述的一种提升CBCT影像质量的方法,其特征在于,所述获取照射时间距离短且照射体位一致的CBCT全局影像、CBCT局部影像和标签CT影像,具体包括:
收集照射时间距离短且照射体位一致的CBCT影像和CT影像,CT影像作为标签CT影像;
对收集到的CBCT影像和CT影像使用非刚性配准的方法进行逐层匹配,得到CBCT-CT影像对;
将CBCT影像放疗靶区进行勾勒,统一裁剪得到CBCT局部影像。
4.如权利要求1所述的一种提升CBCT影像质量的方法,其特征在于,还包括对质量提升模型进行训练,具体包括:
将CBCT全局影像和CBCT局部影像作为训练影像质量提升模型的原始数据,标签CT影像作为训练影像质量提升模型的数据的标签;
使用编码器分别提取CBCT全局影像和CBCT局部影像的特征;使用局部融合模块将局部特征与全局特征对应位置的特征进行融合替换;使用解码器将局部融合模块输出的特征解码为生成CT影像;
使用全局特征提取模块计算影像的全局特征,输入生成CT影像和标签CT影像,输出全局特征;使用全局细化模块计算输入的CBCT和标签CT影像之间的相似特征,输出全局细节特征,并且将输出的细节特征与全局特征相结合,输出全局细节增强后的特征;使用判别模块对全局细节增强后的特征进行判别,输出真假判断;
迭代训练10000次,在训练期间使用测试集进行定期评估,确保模型达到质量提升效果。
5.如权利要求1所述的一种提升CBCT影像质量的方法,其特征在于,所述局部融合模块用于将两个编码器输出的局部特征与全局特征对应位置的特征进行融合替换,增强局部区域影像特征,具体包括:
在提取局部特征和全局特征之后,从全局特征中随机抽取一个局部特征子集;
在选择特定的局部特征后,采用KL散度方法计算相应位置的局部影像特征ψlocal与从全局特征中得到的局部特征子集φglobal之间的相似度;
M=g(φglobal,ψlocal)
式中,g表示使用KL散度方法来计算相似度;
找到与局部区域特征最相似的CBCT全局特征位置,为每个特征分配依据经验设置的权重系数,将其融合在一起形成一个新的融合特征,将新的融合特征替换全局特征相应位置的局部特征。
6.如权利要求1所述的一种提升CBCT影像质量的方法,其特征在于,所述全局细化模块用于计算CBCT全局影像和标签CT影像之间的相似特征,输出全局细节特征,将输出的全局细节特征与全局特征提取模块输出的全局特征相结合,输出全局细节增强后的特征,具体包括:
全局细化模块从CBCT影像和标签CT影像中提取细节信息;全局细化模块该模块由多个卷积层组成,卷积层计算CBCT和标签CT影像之间的相似特征,最后一个卷积层输出CBCT中存在的真实全局细节特征,之后在与全局特征进行融合,融合的公式表示为:
式中,Ad表示得到的全局细节特征,Ag表示全局特征提取模块的特征提取结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311449636.XA CN117391984B (zh) | 2023-11-02 | 2023-11-02 | 一种提升cbct影像质量的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311449636.XA CN117391984B (zh) | 2023-11-02 | 2023-11-02 | 一种提升cbct影像质量的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117391984A true CN117391984A (zh) | 2024-01-12 |
CN117391984B CN117391984B (zh) | 2024-04-05 |
Family
ID=89464681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311449636.XA Active CN117391984B (zh) | 2023-11-02 | 2023-11-02 | 一种提升cbct影像质量的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117391984B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190333219A1 (en) * | 2018-04-26 | 2019-10-31 | Elekta, Inc. | Cone-beam ct image enhancement using generative adversarial networks |
CN112837244A (zh) * | 2021-03-11 | 2021-05-25 | 太原科技大学 | 用于低剂量ct图像降噪及去伪影的渐进式生成对抗网络 |
CN113674330A (zh) * | 2021-07-12 | 2021-11-19 | 华南理工大学 | 一种基于生成对抗网络的伪ct影像生成系统 |
CN114219943A (zh) * | 2021-11-24 | 2022-03-22 | 华南理工大学 | 一种基于深度学习的ct图像危及器官分割系统 |
WO2022121160A1 (zh) * | 2020-12-07 | 2022-06-16 | 苏州深透智能科技有限公司 | 一种基于深度学习的增强ct图像质量和分辨率的方法 |
CN115601257A (zh) * | 2022-09-30 | 2023-01-13 | 青海民族大学(Cn) | 一种基于局部特征和非局部特征的图像去模糊方法 |
CN115908270A (zh) * | 2022-10-26 | 2023-04-04 | 国网湖南省电力有限公司 | Ct图像新冠肺炎区域分割方法及成像方法 |
CN115937423A (zh) * | 2022-12-13 | 2023-04-07 | 西安电子科技大学 | 肝脏肿瘤医疗影像的三维智能重建方法 |
WO2023151141A1 (zh) * | 2022-02-09 | 2023-08-17 | 苏州大学 | 一种基于全局与局部特征重建网络的医学图像分割方法 |
CN116681679A (zh) * | 2023-06-09 | 2023-09-01 | 成都信息工程大学 | 基于双分支特征融合注意的医学图像小目标分割方法 |
CN116797609A (zh) * | 2023-06-12 | 2023-09-22 | 西安电子科技大学 | 全局-局部特征关联融合的肺部ct图像分割方法 |
-
2023
- 2023-11-02 CN CN202311449636.XA patent/CN117391984B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190333219A1 (en) * | 2018-04-26 | 2019-10-31 | Elekta, Inc. | Cone-beam ct image enhancement using generative adversarial networks |
WO2022121160A1 (zh) * | 2020-12-07 | 2022-06-16 | 苏州深透智能科技有限公司 | 一种基于深度学习的增强ct图像质量和分辨率的方法 |
CN112837244A (zh) * | 2021-03-11 | 2021-05-25 | 太原科技大学 | 用于低剂量ct图像降噪及去伪影的渐进式生成对抗网络 |
CN113674330A (zh) * | 2021-07-12 | 2021-11-19 | 华南理工大学 | 一种基于生成对抗网络的伪ct影像生成系统 |
CN114219943A (zh) * | 2021-11-24 | 2022-03-22 | 华南理工大学 | 一种基于深度学习的ct图像危及器官分割系统 |
WO2023151141A1 (zh) * | 2022-02-09 | 2023-08-17 | 苏州大学 | 一种基于全局与局部特征重建网络的医学图像分割方法 |
CN115601257A (zh) * | 2022-09-30 | 2023-01-13 | 青海民族大学(Cn) | 一种基于局部特征和非局部特征的图像去模糊方法 |
CN115908270A (zh) * | 2022-10-26 | 2023-04-04 | 国网湖南省电力有限公司 | Ct图像新冠肺炎区域分割方法及成像方法 |
CN115937423A (zh) * | 2022-12-13 | 2023-04-07 | 西安电子科技大学 | 肝脏肿瘤医疗影像的三维智能重建方法 |
CN116681679A (zh) * | 2023-06-09 | 2023-09-01 | 成都信息工程大学 | 基于双分支特征融合注意的医学图像小目标分割方法 |
CN116797609A (zh) * | 2023-06-12 | 2023-09-22 | 西安电子科技大学 | 全局-局部特征关联融合的肺部ct图像分割方法 |
Non-Patent Citations (3)
Title |
---|
CHENGYIN LI 等: "A new architecture combining convolutional and transformer-based networks for automatic 3D multi-organ segmentation on CT images", 《MEDICAL PHYSICS》, 22 September 2023 (2023-09-22), pages 6990 - 7002 * |
武文博;顾广华;刘青茹;赵志明;李刚;: "基于深度卷积与全局特征的图像密集字幕描述", 信号处理, no. 09, 25 September 2020 (2020-09-25), pages 153 - 160 * |
赵小虎;尹良飞;赵成龙;: "基于全局-局部特征和自适应注意力机制的图像语义描述算法", 浙江大学学报(工学版), no. 01, 8 January 2020 (2020-01-08), pages 131 - 139 * |
Also Published As
Publication number | Publication date |
---|---|
CN117391984B (zh) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | CBCT‐based synthetic CT generation using deep‐attention cycleGAN for pancreatic adaptive radiotherapy | |
AlGhamdi et al. | DU-Net: Convolutional network for the detection of arterial calcifications in mammograms | |
US10157462B2 (en) | System and method for image-based quantification of white and brown adipose tissue at the whole-body, organ and body-region levels | |
Hu et al. | Brain MR to PET synthesis via bidirectional generative adversarial network | |
Iqbal et al. | Generative adversarial networks and its applications in the biomedical image segmentation: a comprehensive survey | |
Avola et al. | Ultrasound medical imaging techniques: a survey | |
CN108428233B (zh) | 基于知识的自动图像分割 | |
Valanarasu et al. | Learning to segment brain anatomy from 2D ultrasound with less data | |
Liu et al. | NHBS-Net: A feature fusion attention network for ultrasound neonatal hip bone segmentation | |
Abhisheka et al. | Recent trend in medical imaging modalities and their applications in disease diagnosis: a review | |
CN107980149A (zh) | 用于脊椎标记的方法、装置和系统 | |
Boutillon et al. | Combining shape priors with conditional adversarial networks for improved scapula segmentation in MR images | |
CN115409850A (zh) | 一种跨模态注意力网络的多模态图像分割方法及装置 | |
Xu et al. | Bg-net: Boundary-guided network for lung segmentation on clinical ct images | |
Murabito et al. | Deep recurrent-convolutional model for automated segmentation of craniomaxillofacial CT scans | |
Fatima et al. | Vertebrae localization and spine segmentation on radiographic images for feature‐based curvature classification for scoliosis | |
Das | Optimizing prediction of MGMT promoter methylation from MRI scans using adversarial learning | |
Kumari et al. | Data efficient deep learning for medical image analysis: A survey | |
CN117391984B (zh) | 一种提升cbct影像质量的方法 | |
Zhang et al. | Automatic parotid gland segmentation in MVCT using deep convolutional neural networks | |
Zhang et al. | Application of a pyramid pooling Unet model with integrated attention mechanism and Inception module in pancreatic tumor segmentation | |
Xu et al. | Graph-and transformer-guided boundary aware network for medical image segmentation | |
KR102672010B1 (ko) | 인공지능을 이용한 안면부 골절 판독 장치 및 방법 | |
Astaraki et al. | Fully automatic segmentation of gross target volume and organs-at-risk for radiotherapy planning of nasopharyngeal carcinoma | |
Lasala et al. | FetalBrainAwareNet: Bridging GANs with anatomical insight for fetal ultrasound brain plane synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |