CN118134893A - 基于人工智能的pet-ct肺癌影像数据库适应性扩展方法 - Google Patents
基于人工智能的pet-ct肺癌影像数据库适应性扩展方法 Download PDFInfo
- Publication number
- CN118134893A CN118134893A CN202410352253.9A CN202410352253A CN118134893A CN 118134893 A CN118134893 A CN 118134893A CN 202410352253 A CN202410352253 A CN 202410352253A CN 118134893 A CN118134893 A CN 118134893A
- Authority
- CN
- China
- Prior art keywords
- image
- features
- feature
- primary
- dimensions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 206010058467 Lung neoplasm malignant Diseases 0.000 title claims abstract description 54
- 201000005202 lung cancer Diseases 0.000 title claims abstract description 54
- 208000020816 lung neoplasm Diseases 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 15
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 15
- 230000008713 feedback mechanism Effects 0.000 claims abstract description 42
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000013441 quality evaluation Methods 0.000 claims abstract description 11
- 238000012937 correction Methods 0.000 claims abstract description 7
- 238000013500 data storage Methods 0.000 claims abstract description 4
- 238000001914 filtration Methods 0.000 claims description 69
- 239000011159 matrix material Substances 0.000 claims description 54
- 230000001419 dependent effect Effects 0.000 claims description 33
- 230000006870 function Effects 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 12
- 238000003062 neural network model Methods 0.000 claims description 12
- 238000010606 normalization Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 11
- 230000008439 repair process Effects 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000017105 transposition Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000009469 supplementation Effects 0.000 claims description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000006798 recombination Effects 0.000 claims description 3
- 238000005215 recombination Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 abstract description 6
- 238000004364 calculation method Methods 0.000 abstract description 4
- 238000001303 quality assessment method Methods 0.000 abstract 1
- 230000009471 action Effects 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 208000037841 lung tumor Diseases 0.000 description 1
- 230000002503 metabolic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明属于图像处理领域,具体是基于人工智能的PET‑CT肺癌影像数据库适应性扩展方法。所述方法包括图像采集、图像去模糊、图像修复、图像增强、图像质量评估、数据入库,本发明采用基于反馈机制与双门注意力的网络模型对PET‑CT肺癌影像进行去模糊处理,使用基于自适应反馈机制的解码器网络,提高重构图像质量,使用双门控注意模块,避免卷积冗余和通道冗余,降低计算成本,提高重构效率;同时,本发明采用双分支修正残差网络模型,对PET‑CT肺癌影像进行统一标准的质量评估,实现对图像质量进行快速且准确的评估,统一图像的质量标准,扩展PET‑CT肺癌影像数据库的适应性。
Description
技术领域
本发明属于图像处理领域,具体是基于人工智能的PET-CT肺癌影像数据库适应性扩展方法。
背景技术
PET-CT肺癌影像是一种结合了正电子发射计算机断层扫描的图像技术,它能够提供关于肺部结构和功能的详细信息,以及检测肺部肿瘤的位置、大小和代谢活性,PET-CT肺癌影像可以帮助医生确定肺癌的位置和分布,评估肿瘤的生物学特征,观察肿瘤的进展;但是由于图像采集设备的老化,导致PET-CT肺癌影像模糊、缺损以及分辨率过低,影像医生对病变的准确评估;现有的图像修复方法在对PET-CT肺癌影像进行修复时,修复质量较差且效率较低,针对修复的图像的质量评估方法主要为人工评估,效率较低,且无统一标准,图像质量参差不齐,导致PET-CT肺癌影像数据库适应性较差。
发明内容
针对上述情况,为克服现有技术的缺陷,本发明提供基于人工智能的PET-CT肺癌影像数据库适应性扩展方法,针对现有的图像修复方法在对PET-CT肺癌影像进行修复时,修复质量较差且效率较低的问题,本发明采用基于反馈机制与双门注意力的网络模型对PET-CT肺癌影像进行去模糊处理,使用基于自适应反馈机制的解码器网络,提高重构图像质量,使用双门控注意模块,避免卷积冗余和通道冗余,降低计算成本,提高重构效率;针对现有的修复的图像的质量评估方法效率较低、无统一标准,图像质量参差不齐,导致PET-CT肺癌影像数据库适应性较差的问题,本发明采用双分支修正残差网络模型,对PET-CT肺癌影像进行统一标准的质量评估,实现对图像质量进行快速且准确的评估,统一图像的质量标准,扩展PET-CT肺癌影像数据库的适应性。
本发明采取的技术方案如下:基于人工智能的PET-CT肺癌影像数据库适应性扩展方法,具体包括以下步骤:
步骤S1:图像采集,采集旧CT拍摄设备拍摄的PET-CT肺癌影像,并将其定义为待修复图像,采集新CT拍摄设备拍摄的清晰PET-CT肺癌影像,并将其定义为清晰图像;
步骤S2:图像去模糊,使用基于反馈机制与双门注意力的网络模型对待修复图像进行去模糊处理,得到去模糊图像;
步骤S3:图像修复,使用卷积神经网络对去模糊图像进行缺失值补充,得到修复图像;
步骤S4:图像增强,对修复图像进行细节增强处理,得到增强图像;
步骤S5:图像质量评估,采用双分支残差网络,对增强图像进行质量评估,得到质量分数,并根据质量分数对基于反馈机制与双门注意力的网络模型、卷积神经网络模型进行优化、迭代,并使用优化后的基于反馈机制与双门注意力的网络模型与卷积神经网络模型对所有待修复图像进行处理得到增强图像集;
步骤S6:数据入库,新建图像存储数据库,将增强图像集存入新建图像存储数据库,得到重构PET-CT肺癌影像数据库。
进一步的,步骤S2,具体包括以下步骤:
步骤S21:数据预处理,对所有清晰图像进行预处理,得到预处理后的清晰图像;
步骤S22:人工加噪,对预处理后的清晰图像进行随机加噪,得到带噪声图像;
步骤S23:去噪训练,使用预处理后的清晰图像与带噪声图像,对基于反馈机制与双门注意力的网络模型进行去噪训练;
进一步的,步骤S23,具体包括以下步骤:
步骤S231:图像参数与模型初始化,初始化预处理后的清晰图像与带噪声图像的维度为(C,H,W),其中C为通道数、H为图像高度、W为图像宽度,并将其定义为维度为(C,H,W)的初级特征,初始化基于反馈机制与双门注意力的网络模型的编码器、双门控注意力模块、基于反馈机制的解码器以及损失函数,设置损失函数阈值;
步骤S232:编码器特征提取,使用卷积核大小为3*3的编码器对带噪声图像进行特征提取,得到维度为(2C,H/2,W/2)的一级特征,使用卷积核大小为2*2,步长为2的编码器对一级特征进行下采样和特征提取,得到维度为(4C,H/4,W/4)的二级特征,将二级特征按通道划分,得到4个维度为(C,H/4,W/4)的三级特征;
步骤S233:特征增强,使用双门控注意力模块对三级特征捕捉远程依赖,得到增强特征;
进一步的,步骤S233,具体包括以下步骤:
步骤S2331:特征归一化,对三级特征进行归一化处理,得到维度为(C,H/4,W/4)的归一化特征;
步骤S2332:通道变换,采用1*1卷积对归一化特征进行通道变换卷积,将归一化特征的通道数从C扩展到(2m+n)C,得到维度为((2m+n)C,H/4,W/4)的通道扩展特征,其中m与n为控制去除通道用于的缩减因子的超参数,其中0<m≤1,0<n≤1;
步骤S2333:特征分流,将通道拓展特征根据通道进行分流处理,得到两个通道数为mC的分流特征和一个通道数为nC的分流特征,并构建一个H×W×C的学习矩阵ω;
步骤S2334:特征映射,将一个通道数为mC的分流特征与一个通道数为nC的分流特征分别进行傅里叶变换,得到频域特征m与频域特征n;
步骤S2335:依赖获取,将频域特征m与频域特征n分别与学习矩阵ω相乘,得到频域依赖特征Fm与频域依赖特征Fn;
步骤S2336:特征重组,将频域依赖特征Fm与频域依赖特征Fn与分别进行逆傅里叶变换,得到依赖特征Ym与依赖特征Yn,采用1*1卷积将依赖特征Ym与通道数为mC的分流特征通道数转都换为nC并与依赖特征Yn重组,得到最终依赖特征,其中最终依赖特征通道数为nC;
步骤S2337:特征输出,采用1*1卷积将最终依赖特征的通道数转换为C,并与归一化特征进行加权求和,得到增强特征,其中增强特征的维度为(C,H/4,W/4);
步骤S234:图像重建,采用基于反馈机制的解码器重建图像,得到去噪图像;
进一步的,步骤S234,具体包括以下步骤:
步骤S2341:特征一级上采样,对维度为(C,H/4,W/4)的增强特征进行上采样,得到维度为(2C,H/2,W/2)的增强特征,将维度为(2C,H/2,W/2)的增强特征与维度为(2C,H/2,W/2)的一级特征进行加权融合,得到维度为(2C,H/2,W/2)的一级增强特征;
步骤S2342:特征二级上采样,使用残差块对维度为(2C,H/2,W/2)的一级增强特征进行处理后,将维度为(2C,H/2,W/2)的一级增强特征进行上采样,得到维度为(C,H,W)的一级增强特征,将维度为(C,H,W)的一级增强特征与维度为(C,H,W)的初级特征进行加权求和,得到维度为(C,H,W)的二级增强特征;
步骤S2343:特征转换为图像,使用反卷积与激活函数将维度为(C,H,W)的二级增强特征转换为去噪图像,其中图像为维度为(C,H,W);
步骤S235:对抗训练,使用去噪图像与清晰图像进行对抗训练,并使用损失函数计算损失λ;
步骤S236:反馈传递,提取去噪图像的特征,并将其定义为反馈特征,其中反馈特征的维度为(C,H,W),使用3*3卷积将反馈特征卷积为维度为(C,H/4,W/4)的反馈特征,并将维度为(C,H/4,W/4)的反馈特征乘以损失λ后与维度为(C,H/4,W/4)的增强特征进行加权求和,得到新的维度为(C,H/4,W/4)增强图像;
步骤S237:多级传递,重复步骤S234至步骤S236,直至损失函数到达损失函数阈值,并得到最终去噪图像以及训练好的基于反馈机制与双门注意力的网络模型;
步骤S24:待修复图像去模糊,使用训练好的基于反馈机制与双门注意力的网络模型对待修复图像进行去模糊处理,得到去模糊图像。
进一步的,步骤S5,具体包括以下步骤:
步骤S51:图像转换,将增强图像转换为灰度图像和色彩过滤图像;
步骤S52:双分支修正残差特征提取,使用双分支修正残差特征提取网络对灰度图像和色彩过滤图像进行特征提取,得到灰度图像的特征与色彩过滤图像的特征,其中特征维度为(C,H,W);
进一步的,步骤S52,具体包括以下步骤:
步骤S521:初级特征提取,采用3*3卷积提取灰度图像和色彩过滤图像的初级特征,得到初级灰度特征与初级色彩过滤特征;
步骤S522:初级残差处理,对初级灰度特征与初级色彩过滤特征进行3*3卷积处理后进行归一化处理,并采用三层3*3卷积进行特征提取,得到初级灰度卷积特征与初级色彩过滤卷积特征,将两个初级灰度卷积特征和初级色彩过滤卷积特征分别与初级灰度卷积特征和初级色彩过滤卷积特征叠加并激活,得到初级灰度残差特征与初级色彩过滤灰度特征;
步骤S523:多层二级残差处理,对初级灰度残差特征与初级色彩过滤灰度特征进行四层3*3卷积-池化-归一化-3*3卷积-3*3卷积-3*3卷积-叠加-激活处理,得到灰度图像的特征与色彩过滤图像的特征,其中特征维度为(C,H,W);
步骤S53:全局注意力处理,根据维度计算全局灰度特征与全局色彩过滤特征;
进一步的,步骤S53,具体包括以下步骤:
步骤S531:特征拆分,对灰度图像的特征与色彩过滤图像的特征按照高度H与宽度W进行拆分,得到维度为(C,H)灰度特征、维度为(C,W)的灰度特征、维度为(C,H)的色彩过滤特征、维度为(C,W)的色彩过滤特征;
步骤S532:矩阵转置,并将四个拆分出来的特征进行矩阵转置,得到灰度矩阵(C,H)、灰度矩阵(C,W)、色彩过滤矩阵(C,H)、色彩过滤矩阵(C,W);
步骤S533:自相关特征计算,将灰度矩阵(C,H)与灰度矩阵(C,W)相乘,得到灰度自相关矩阵,将色彩过滤矩阵(C,H)与色彩过滤矩阵(C,W)相乘,得到色彩过滤自相关矩阵;
步骤S534:特征融合,将灰度自相关矩阵与色彩过滤自相关矩阵进行归一化和矩阵逆转置,并将逆转置后的矩阵分别与灰度图像的特征、色彩过滤图像的特征进行加权求和,得到全局灰度特征与全局色彩过滤特征;
步骤S54:特征组合,将全局灰度特征与全局色彩过滤特征进行组合,得到组合特征F;
步骤S55:质量分数计算,使用全连接层计算组合特征F的权重与对应的分数,将该分数定义为最终的质量分数,并设置唯一一个质量分数阈值;
步骤S56:模型迭代,对基于反馈机制与双门注意力的网络模型、卷积神经网络模型进行优化、迭代,直至所有增强图像的质量分数到达质量分数阈值,得到优化后的基于反馈机制与双门注意力的网络模型、卷积神经网络模型以及所有待修复图像对应的增强图像,并所有增强图像定义为增强图像集。
采用上述方案本发明取得的有益成果如下:
(1)针对现有的图像修复方法在对PET-CT肺癌影像进行修复时,修复质量较差且效率较低的问题,本发明采用基于反馈机制与双门注意力的网络模型对PET-CT肺癌影像进行去模糊处理,使用基于自适应反馈机制的解码器网络,提高重构图像质量,使用双门控注意模块,避免卷积冗余和通道冗余,降低计算成本,提高重构效率;
(2)针对现有的修复的图像的质量评估方法效率较低、无统一标准,图像质量参差不齐,导致PET-CT肺癌影像数据库适应性较差的问题,本发明采用双分支修正残差网络模型,对PET-CT肺癌影像进行统一标准的质量评估,实现对图像质量进行快速且准确的评估,统一图像的质量标准,扩展PET-CT肺癌影像数据库的适应性。
附图说明
图1为本发明提供的基于人工智能的PET-CT肺癌影像数据库适应性扩展方法的流程图;
图2为步骤S2的流程示意图;
图3为双门控注意力模块示意图;
图4为反馈机制示意图;
图5为步骤S5的流程示意图。
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例;基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:参阅图1,本发明提供的基于人工智能的PET-CT肺癌影像数据库适应性扩展方法,具体包括以下步骤:
步骤S1:图像采集,采集旧CT拍摄设备拍摄的PET-CT肺癌影像,并将其定义为待修复图像,采集新CT拍摄设备拍摄的清晰PET-CT肺癌影像,并将其定义为清晰图像;
步骤S2:图像去模糊,使用基于反馈机制与双门注意力的网络模型对待修复图像进行去模糊处理,得到去模糊图像;
步骤S3:图像修复,使用卷积神经网络对去模糊图像进行缺失值补充,得到修复图像;
步骤S4:图像增强,对修复图像进行细节增强处理,得到增强图像;
步骤S5:图像质量评估,采用双分支残差网络,对增强图像进行质量评估,得到质量分数,并根据质量分数对基于反馈机制与双门注意力的网络模型、卷积神经网络模型进行优化、迭代,并使用优化后的基于反馈机制与双门注意力的网络模型与卷积神经网络模型对所有待修复图像进行处理得到增强图像集;
步骤S6:数据入库,新建图像存储数据库,将增强图像集存入新建图像存储数据库,得到重构PET-CT肺癌影像数据库。
实施例二,参阅图2、图3、图4,本实施例基于上述实施例,步骤S2,具体包括以下步骤:
步骤S21:数据预处理,对所有清晰图像进行预处理,得到预处理后的清晰图像;
步骤S22:人工加噪,对预处理后的清晰图像进行随机加噪,得到带噪声图像;
步骤S23:去噪训练,使用预处理后的清晰图像与带噪声图像,对基于反馈机制与双门注意力的网络模型进行去噪训练,具体包括以下步骤:
步骤S231:图像参数与模型初始化,初始化预处理后的清晰图像与带噪声图像的维度为(C,H,W),其中C为通道数、H为图像高度、W为图像宽度,并将其定义为维度为(C,H,W)的初级特征,初始化基于反馈机制与双门注意力的网络模型的编码器、双门控注意力模块、基于反馈机制的解码器以及损失函数,设置损失函数阈值;
步骤S232:编码器特征提取,使用卷积核大小为3*3的编码器对带噪声图像进行特征提取,得到维度为(2C,H/2,W/2)的一级特征,使用卷积核大小为2*2,步长为2的编码器对一级特征进行下采样和特征提取,得到维度为(4C,H/4,W/4)的二级特征,将二级特征按通道划分,得到4个维度为(C,H/4,W/4)的三级特征;
步骤S233:特征增强,使用双门控注意力模块对三级特征捕捉远程依赖,得到增强特征,具体包括以下步骤:
步骤S2331:特征归一化,对三级特征进行归一化处理,得到维度为(C,H/4,W/4)的归一化特征;
步骤S2332:通道变换,采用1*1卷积对归一化特征进行通道变换卷积,将归一化特征的通道数从C扩展到(2m+n)C,得到维度为((2m+n)C,H/4,W/4)的通道扩展特征,其中m与n为控制去除通道用于的缩减因子的超参数,其中0<m≤1,0<n≤1;
步骤S2333:特征分流,将通道拓展特征根据通道进行分流处理,得到两个通道数为mC的分流特征和一个通道数为nC的分流特征,并构建一个H×W×C的学习矩阵ω;
步骤S2334:特征映射,将一个通道数为mC的分流特征与一个通道数为nC的分流特征分别进行傅里叶变换,得到频域特征m与频域特征n;
步骤S2335:依赖获取,将频域特征m与频域特征n分别与学习矩阵ω相乘,得到频域依赖特征Fm与频域依赖特征Fn;
步骤S2336:特征重组,将频域依赖特征Fm与频域依赖特征Fn与分别进行逆傅里叶变换,得到依赖特征Ym与依赖特征Yn,采用1*1卷积将依赖特征Ym与通道数为mC的分流特征通道数转都换为nC并与依赖特征Yn重组,得到最终依赖特征,其中最终依赖特征通道数为nC;
步骤S2337:特征输出,采用1*1卷积将最终依赖特征的通道数转换为C,并与归一化特征进行加权求和,得到增强特征,其中增强特征的维度为(C,H/4,W/4);
步骤S234:图像重建,采用基于反馈机制的解码器重建图像,得到去噪图像,具体包括以下步骤:
步骤S2341:特征一级上采样,对维度为(C,H/4,W/4)的增强特征进行上采样,得到维度为(2C,H/2,W/2)的增强特征,将维度为(2C,H/2,W/2)的增强特征与维度为(2C,H/2,W/2)的一级特征进行加权融合,得到维度为(2C,H/2,W/2)的一级增强特征;
步骤S2342:特征二级上采样,使用残差块对维度为(2C,H/2,W/2)的一级增强特征进行处理后,将维度为(2C,H/2,W/2)的一级增强特征进行上采样,得到维度为(C,H,W)的一级增强特征,将维度为(C,H,W)的一级增强特征与维度为(C,H,W)的初级特征进行加权求和,得到维度为(C,H,W)的二级增强特征;
步骤S2343:特征转换为图像,使用反卷积与激活函数将维度为(C,H,W)的二级增强特征转换为去噪图像,其中图像为维度为(C,H,W);
步骤S235:对抗训练,使用去噪图像与清晰图像进行对抗训练,并使用损失函数计算损失λ;
步骤S236:反馈传递,提取去噪图像的特征,并将其定义为反馈特征,其中反馈特征的维度为(C,H,W),使用3*3卷积将反馈特征卷积为维度为(C,H/4,W/4)的反馈特征,并将维度为(C,H/4,W/4)的反馈特征乘以损失λ后与维度为(C,H/4,W/4)的增强特征进行加权求和,得到新的维度为(C,H/4,W/4)增强图像;
步骤S237:多级传递,重复步骤S234至步骤S236,直至损失函数到达损失函数阈值,并得到最终去噪图像以及训练好的基于反馈机制与双门注意力的网络模型;
步骤S24:待修复图像去模糊,使用训练好的基于反馈机制与双门注意力的网络模型对待修复图像进行去模糊处理,得到去模糊图像。
通过执行上述操作,针对现有的图像修复方法在对PET-CT肺癌影像进行修复时,修复质量较差且效率较低的问题,本发明采用基于反馈机制与双门注意力的网络模型对PET-CT肺癌影像进行去模糊处理,使用基于自适应反馈机制的解码器网络,提高重构图像质量,使用双门控注意模块,避免卷积冗余和通道冗余,降低计算成本,提高重构效率。
实施例三,本实施例基于上述实施例,步骤S3,具体包括以下步骤:
步骤S31:数据准备,将去模糊图像划分为训练集和测试集,并确保每个去模糊图像都有对应的掩码(mask),用于标识缺失的像素位置;
步骤S32:网络架构设计,设计编码器-解码器网络模型,包括以下步骤:
步骤S321:编码器设计,使用10个卷积层和10个池化层堆叠,提取去模糊图像的抽象特征,最后,抽象特征作为特征表示传递给解码器;
步骤S322:解码器设计,使用反卷积层和卷积层将特征表示映射回原始去模糊图像的尺寸和通道数,并通过反卷积操作,逐步增加尺寸和通道数,最终生成与原始去模糊图像相同尺寸的补充图像;
步骤S323:损失函数选择,使用均方误差作为损失函数;
步骤S33:模型训练,使用测试集对训练好的模型进行评估,将补充图像与原始去模糊图像进行比较,并使用损失函数计算损失,评估模型的性能和补充效果,并根据评估结果对编码器-解码器网络模型进行优化;
步骤S34:缺失值补充,使用训练好的编码器-解码器网络模型对所有去模糊图像进行缺失值补充,得到修复图像。
实施例四,本实施例基于上述实施例,步骤S4,具体包括以下步骤:
步骤S41:使用拉普拉斯滤波器,增强修复图像的边缘与细节,所用代码如下:
import cv2;
import numpy as np;
#读取图像;
image=cv2.imread('input_image.jpg',cv2.IMREAD_GRAYSCALE);
#应用拉普拉斯滤波器;
laplacian=cv2.Laplacian(image,cv2.CV_64F);
# 调整图像范围(0-255);
laplacian=np.uint8(np.absolute(laplacian));
#原始图像与增强后的图像拼接;
enhanced_image=np.hstack((image,laplacian));
#显示图像;
cv2.imshow('Enhanced Image', nhanced_image);
cv2.waitKey(0);
cv2.destroyAllWindows();
步骤S42:通过直方图均衡化,增强图像对比度;
步骤S43:根据实际增强效果,优化滤波器与直方图均衡化方法,并使用优化后的拉普拉斯滤波器与直方图均衡化方法对修复图像进行增强处理,得到增强图像。
实施例五,参阅图5,本实施例基于上述实施例,步骤S5,具体包括以下步骤:
步骤S51:图像转换,将增强图像转换为灰度图像和色彩过滤图像;
步骤S52:双分支修正残差特征提取,使用双分支修正残差特征提取网络对灰度图像和色彩过滤图像进行特征提取,得到灰度图像的特征与色彩过滤图像的特征,其中特征维度为(C,H,W),具体包括以下步骤:
步骤S521:初级特征提取,采用3*3卷积提取灰度图像和色彩过滤图像的初级特征,得到初级灰度特征与初级色彩过滤特征;
步骤S522:初级残差处理,对初级灰度特征与初级色彩过滤特征进行3*3卷积处理后进行归一化处理,并采用三层3*3卷积进行特征提取,得到初级灰度卷积特征与初级色彩过滤卷积特征,将两个初级灰度卷积特征和初级色彩过滤卷积特征分别与初级灰度卷积特征和初级色彩过滤卷积特征叠加并激活,得到初级灰度残差特征与初级色彩过滤灰度特征;
步骤S523:多层二级残差处理,对初级灰度残差特征与初级色彩过滤灰度特征进行四层3*3卷积-池化-归一化-3*3卷积-3*3卷积-3*3卷积-叠加-激活处理,得到灰度图像的特征与色彩过滤图像的特征,其中特征维度为(C,H,W);
步骤S53:全局注意力处理,根据维度计算全局灰度特征与全局色彩过滤特征,具体包括以下步骤:
步骤S531:特征拆分,对灰度图像的特征与色彩过滤图像的特征按照高度H与宽度W进行拆分,得到维度为(C,H)灰度特征、维度为(C,W)的灰度特征、维度为(C,H)的色彩过滤特征、维度为(C,W)的色彩过滤特征;
步骤S532:矩阵转置,并将四个拆分出来的特征进行矩阵转置,得到灰度矩阵(C,H)、灰度矩阵(C,W)、色彩过滤矩阵(C,H)、色彩过滤矩阵(C,W);
步骤S533:自相关特征计算,将灰度矩阵(C,H)与灰度矩阵(C,W)相乘,得到灰度自相关矩阵,将色彩过滤矩阵(C,H)与色彩过滤矩阵(C,W)相乘,得到色彩过滤自相关矩阵;
步骤S534:特征融合,将灰度自相关矩阵与色彩过滤自相关矩阵进行归一化和矩阵逆转置,并将逆转置后的矩阵分别与灰度图像的特征、色彩过滤图像的特征进行加权求和,得到全局灰度特征与全局色彩过滤特征;
步骤S54:特征组合,将全局灰度特征与全局色彩过滤特征进行组合,得到组合特征F;
步骤S55:质量分数计算,使用全连接层计算组合特征F的权重与对应的分数,将该分数定义为最终的质量分数,并设置唯一一个质量分数阈值;
步骤S56:模型迭代,对基于反馈机制与双门注意力的网络模型、卷积神经网络模型进行优化、迭代,直至所有增强图像的质量分数到达质量分数阈值,得到优化后的基于反馈机制与双门注意力的网络模型、卷积神经网络模型以及所有待修复图像对应的增强图像,并所有增强图像定义为增强图像集。
通过执行上述操作,针对现有的修复的图像的质量评估方法效率较低、无统一标准,图像质量参差不齐,导致PET-CT肺癌影像数据库适应性较差的问题,本发明采用双分支修正残差网络模型,对PET-CT肺癌影像进行统一标准的质量评估,实现对图像质量进行快速且准确的评估,统一图像的质量标准,扩展PET-CT肺癌影像数据库的适应性。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
以上对本发明及其实施方式进行了描述,这种描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。总而言之如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。
Claims (8)
1.基于人工智能的PET-CT肺癌影像数据库适应性扩展方法,其特征在于:包括以下步骤:
步骤S1:图像采集,采集旧CT拍摄设备拍摄的PET-CT肺癌影像,并将其定义为待修复图像,采集新CT拍摄设备拍摄的清晰PET-CT肺癌影像,并将其定义为清晰图像;
步骤S2:图像去模糊,使用基于反馈机制与双门注意力的网络模型对待修复图像进行去模糊处理,得到去模糊图像;
步骤S3:图像修复,使用卷积神经网络对去模糊图像进行缺失值补充,得到修复图像;
步骤S4:图像增强,对修复图像进行细节增强处理,得到增强图像;
步骤S5:图像质量评估,采用双分支残差网络,对增强图像进行质量评估,得到质量分数,并根据质量分数对基于反馈机制与双门注意力的网络模型、卷积神经网络模型进行优化、迭代,并使用优化后的基于反馈机制与双门注意力的网络模型与卷积神经网络模型对所有待修复图像进行处理得到增强图像集;
步骤S6:数据入库,新建图像存储数据库,将增强图像集存入新建图像存储数据库,得到重构PET-CT肺癌影像数据库。
2.根据权利要求1所述的基于人工智能的PET-CT肺癌影像数据库适应性扩展方法,其特征在于:步骤S2,具体包括以下步骤:
步骤S21:数据预处理,对所有清晰图像进行预处理,得到预处理后的清晰图像;
步骤S22:人工加噪,对预处理后的清晰图像进行随机加噪,得到带噪声图像;
步骤S23:去噪训练,使用预处理后的清晰图像与带噪声图像,对基于反馈机制与双门注意力的网络模型进行去噪训练;
步骤S24:待修复图像去模糊,使用训练好的基于反馈机制与双门注意力的网络模型对待修复图像进行去模糊处理,得到去模糊图像。
3.根据权利要求2所述的基于人工智能的PET-CT肺癌影像数据库适应性扩展方法,其特征在于:步骤S23,具体包括以下步骤:
步骤S231:图像参数与模型初始化,初始化预处理后的清晰图像与带噪声图像的维度为(C,H,W),其中C为通道数、H为图像高度、W为图像宽度,并将其定义为维度为(C,H,W)的初级特征,初始化基于反馈机制与双门注意力的网络模型的编码器、双门控注意力模块、基于反馈机制的解码器以及损失函数,设置损失函数阈值;
步骤S232:编码器特征提取,使用卷积核大小为3*3的编码器对带噪声图像进行特征提取,得到维度为(2C,H/2,W/2)的一级特征,使用卷积核大小为2*2,步长为2的编码器对一级特征进行下采样和特征提取,得到维度为(4C,H/4,W/4)的二级特征,将二级特征按通道划分,得到4个维度为(C,H/4,W/4)的三级特征;
步骤S233:特征增强,使用双门控注意力模块对三级特征捕捉远程依赖,得到增强特征;
步骤S234:图像重建,根据增强特征采用基于反馈机制的解码器重建图像,得到去噪图像;
步骤S235:对抗训练,使用去噪图像与清晰图像进行对抗训练,并使用损失函数计算损失λ;
步骤S236:反馈传递,提取去噪图像的特征,并将其定义为反馈特征,其中反馈特征的维度为(C,H,W),使用3*3卷积将反馈特征卷积为维度为(C,H/4,W/4)的反馈特征,并将维度为(C,H/4,W/4)的反馈特征乘以损失λ后与维度为(C,H/4,W/4)的增强特征进行加权求和,得到新的维度为(C,H/4,W/4)增强图像;
步骤S237:多级传递,重复步骤S234至步骤S236,直至损失函数到达损失函数阈值,并得到最终去噪图像以及训练好的基于反馈机制与双门注意力的网络模型。
4.根据权利要求3所述的基于人工智能的PET-CT肺癌影像数据库适应性扩展方法,其特征在于:步骤S233,具体包括以下步骤:
步骤S2331:特征归一化,对三级特征进行归一化处理,得到维度为(C,H/4,W/4)的归一化特征;
步骤S2332:通道变换,采用1*1卷积对归一化特征进行通道变换卷积,将归一化特征的通道数从C扩展到(2m+n)C,得到维度为((2m+n)C,H/4,W/4)的通道扩展特征,其中m与n为控制去除通道用于的缩减因子的超参数,其中0<m≤1,0<n≤1;
步骤S2333:特征分流,将通道拓展特征根据通道进行分流处理,得到两个通道数为mC的分流特征和一个通道数为nC的分流特征,并构建一个H×W×C的学习矩阵ω;
步骤S2334:特征映射,将一个通道数为mC的分流特征与一个通道数为nC的分流特征分别进行傅里叶变换,得到频域特征m与频域特征n;
步骤S2335:依赖获取,将频域特征m与频域特征n分别与学习矩阵ω相乘,得到频域依赖特征Fm与频域依赖特征Fn;
步骤S2336:特征重组,将频域依赖特征Fm与频域依赖特征Fn与分别进行逆傅里叶变换,得到依赖特征Ym与依赖特征Yn,采用1*1卷积将依赖特征Ym与通道数为mC的分流特征通道数转都换为nC并与依赖特征Yn重组,得到最终依赖特征,其中最终依赖特征通道数为nC;
步骤S2337:特征输出,采用1*1卷积将最终依赖特征的通道数转换为C,并与归一化特征进行加权求和,得到增强特征,其中增强特征的维度为(C,H/4,W/4)。
5.根据权利要求3所述的基于人工智能的PET-CT肺癌影像数据库适应性扩展方法,其特征在于:步骤S234,具体包括以下步骤:
步骤S2341:特征一级上采样,对维度为(C,H/4,W/4)的增强特征进行上采样,得到维度为(2C,H/2,W/2)的增强特征,将维度为(2C,H/2,W/2)的增强特征与维度为(2C,H/2,W/2)的一级特征进行加权融合,得到维度为(2C,H/2,W/2)的一级增强特征;
步骤S2342:特征二级上采样,使用残差块对维度为(2C,H/2,W/2)的一级增强特征进行处理后,将维度为(2C,H/2,W/2)的一级增强特征进行上采样,得到维度为(C,H,W)的一级增强特征,将维度为(C,H,W)的一级增强特征与维度为(C,H,W)的初级特征进行加权求和,得到维度为(C,H,W)的二级增强特征;
步骤S2343:特征转换为图像,使用反卷积与激活函数将维度为(C,H,W)的二级增强特征转换为去噪图像,其中图像维度为(C,H,W)。
6.根据权利要求1所述的基于人工智能的PET-CT肺癌影像数据库适应性扩展方法,其特征在于:步骤S5,具体包括以下步骤:
步骤S51:图像转换,将增强图像转换为灰度图像和色彩过滤图像;
步骤S52:双分支修正残差特征提取,使用双分支修正残差特征提取网络对灰度图像和色彩过滤图像进行特征提取,得到灰度图像的特征与色彩过滤图像的特征,其中特征维度为(C,H,W);
步骤S53:全局注意力处理,根据维度计算全局灰度特征与全局色彩过滤特征;
步骤S54:特征组合,将全局灰度特征与全局色彩过滤特征进行组合,得到组合特征F;
步骤S55:质量分数计算,使用全连接层计算组合特征F的权重与对应的分数,将该分数定义为最终的质量分数,并设置唯一一个质量分数阈值;
步骤S56:模型迭代,对基于反馈机制与双门注意力的网络模型、卷积神经网络模型进行优化、迭代,直至所有增强图像的质量分数到达质量分数阈值,得到优化后的基于反馈机制与双门注意力的网络模型、卷积神经网络模型以及所有待修复图像对应的增强图像,并所有增强图像定义为增强图像集。
7.根据权利要求6所述的基于人工智能的PET-CT肺癌影像数据库适应性扩展方法,其特征在于:步骤S52,具体包括以下步骤:
步骤S521:初级特征提取,采用3*3卷积提取灰度图像和色彩过滤图像的初级特征,得到初级灰度特征与初级色彩过滤特征;
步骤S522:初级残差处理,对初级灰度特征与初级色彩过滤特征进行3*3卷积处理后进行归一化处理,并采用三层3*3卷积进行特征提取,得到初级灰度卷积特征与初级色彩过滤卷积特征,将两个初级灰度卷积特征和初级色彩过滤卷积特征分别与初级灰度卷积特征和初级色彩过滤卷积特征叠加并激活,得到初级灰度残差特征与初级色彩过滤灰度特征;
步骤S523:多层二级残差处理,对初级灰度残差特征与初级色彩过滤灰度特征进行四层3*3卷积-池化-归一化-3*3卷积-3*3卷积-3*3卷积-叠加-激活处理,得到灰度图像的特征与色彩过滤图像的特征,其中特征维度为(C,H,W)。
8.根据权利要求6所述的基于人工智能的PET-CT肺癌影像数据库适应性扩展方法,其特征在于:步骤S53,具体包括以下步骤:
步骤S531:特征拆分,对灰度图像的特征与色彩过滤图像的特征按照高度H与宽度W进行拆分,得到维度为(C,H)灰度特征、维度为(C,W)的灰度特征、维度为(C,H)的色彩过滤特征、维度为(C,W)的色彩过滤特征;
步骤S532:矩阵转置,并将四个拆分出来的特征进行矩阵转置,得到灰度矩阵(C,H)、灰度矩阵(C,W)、色彩过滤矩阵(C,H)、色彩过滤矩阵(C,W);
步骤S533:自相关特征计算,将灰度矩阵(C,H)与灰度矩阵(C,W)相乘,得到灰度自相关矩阵,将色彩过滤矩阵(C,H)与色彩过滤矩阵(C,W)相乘,得到色彩过滤自相关矩阵;
步骤S534:特征融合,将灰度自相关矩阵与色彩过滤自相关矩阵进行归一化和矩阵逆转置,并将逆转置后的矩阵分别与灰度图像的特征、色彩过滤图像的特征进行加权求和,得到全局灰度特征与全局色彩过滤特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410352253.9A CN118134893B (zh) | 2024-03-26 | 2024-03-26 | 基于人工智能的pet-ct肺癌影像数据库适应性扩展方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410352253.9A CN118134893B (zh) | 2024-03-26 | 2024-03-26 | 基于人工智能的pet-ct肺癌影像数据库适应性扩展方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118134893A true CN118134893A (zh) | 2024-06-04 |
CN118134893B CN118134893B (zh) | 2024-09-03 |
Family
ID=91235367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410352253.9A Active CN118134893B (zh) | 2024-03-26 | 2024-03-26 | 基于人工智能的pet-ct肺癌影像数据库适应性扩展方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118134893B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106558021A (zh) * | 2016-11-21 | 2017-04-05 | 重庆大学 | 基于超分辨率技术的视频增强方法 |
CN107590779A (zh) * | 2017-08-07 | 2018-01-16 | 浙江工业大学 | 一种基于图像块聚类字典训练的图像去噪去模糊方法 |
US20180137606A1 (en) * | 2015-05-15 | 2018-05-17 | Peking University Shenzhen Graduate School | Method and system for image de-blurring |
CN110276726A (zh) * | 2019-05-13 | 2019-09-24 | 南昌大学 | 一种基于多通道网络先验信息引导的图像去模糊方法 |
CN110942436A (zh) * | 2019-11-29 | 2020-03-31 | 复旦大学 | 一种基于图像质量评价的图像去模糊方法 |
US20220207728A1 (en) * | 2019-04-05 | 2022-06-30 | Oxford University Innovation Limited | Quality assessment in video endoscopy |
CN114972064A (zh) * | 2022-04-11 | 2022-08-30 | 南京信息工程大学 | 基于融合生成对抗网络的自适应图像修复方法 |
-
2024
- 2024-03-26 CN CN202410352253.9A patent/CN118134893B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180137606A1 (en) * | 2015-05-15 | 2018-05-17 | Peking University Shenzhen Graduate School | Method and system for image de-blurring |
CN106558021A (zh) * | 2016-11-21 | 2017-04-05 | 重庆大学 | 基于超分辨率技术的视频增强方法 |
CN107590779A (zh) * | 2017-08-07 | 2018-01-16 | 浙江工业大学 | 一种基于图像块聚类字典训练的图像去噪去模糊方法 |
US20220207728A1 (en) * | 2019-04-05 | 2022-06-30 | Oxford University Innovation Limited | Quality assessment in video endoscopy |
CN110276726A (zh) * | 2019-05-13 | 2019-09-24 | 南昌大学 | 一种基于多通道网络先验信息引导的图像去模糊方法 |
CN110942436A (zh) * | 2019-11-29 | 2020-03-31 | 复旦大学 | 一种基于图像质量评价的图像去模糊方法 |
CN114972064A (zh) * | 2022-04-11 | 2022-08-30 | 南京信息工程大学 | 基于融合生成对抗网络的自适应图像修复方法 |
Non-Patent Citations (1)
Title |
---|
王晓红;卢辉;黄中秋;麻祥才;: "基于颜色空间变换和CNN的自适应去模糊方法", 包装工程, no. 07, 10 April 2020 (2020-04-10) * |
Also Published As
Publication number | Publication date |
---|---|
CN118134893B (zh) | 2024-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111192200A (zh) | 基于融合注意力机制残差网络的图像超分辨率重建方法 | |
CN113177882B (zh) | 一种基于扩散模型的单帧图像超分辨处理方法 | |
CN106952228A (zh) | 基于图像非局部自相似性的单幅图像的超分辨率重建方法 | |
CN112132758B (zh) | 基于非对称光学系统点扩散函数模型的图像复原方法 | |
CN103218791A (zh) | 基于稀疏自适应字典的图像去噪方法 | |
CN109636722B (zh) | 一种基于稀疏表示的在线字典学习超分辨率重建的方法 | |
CN109887050B (zh) | 一种基于自适应字典学习的编码孔径光谱成像方法 | |
CN113191983A (zh) | 一种基于深度学习注意力机制的图像去噪方法及装置 | |
CN107292855B (zh) | 一种结合自适应非局部样本和低秩的图像去噪方法 | |
CN114820352A (zh) | 一种高光谱图像去噪方法、装置及存储介质 | |
CN115170410A (zh) | 融合小波变换和注意力机制的图像增强方法及装置 | |
CN110335196A (zh) | 一种基于分形解码的超分辨率图像重建方法及系统 | |
CN117252782A (zh) | 基于条件去噪扩散和掩膜优化的图像修复方法 | |
CN114742911A (zh) | 图像压缩感知重建方法、系统、设备及介质 | |
CN113344804A (zh) | 一种弱光图像增强模型的训练方法和弱光图像增强方法 | |
CN114638749A (zh) | 低光照图像增强模型、方法、电子设备及存储介质 | |
CN117828333A (zh) | 一种基于信号混合增强和cnn的电缆局放特征提取方法 | |
CN117408924A (zh) | 一种基于多重语义特征融合网络的低光照图像增强方法 | |
CN107301629A (zh) | 一种基于变换域联合稀疏表示的图像重构方法 | |
CN118134893B (zh) | 基于人工智能的pet-ct肺癌影像数据库适应性扩展方法 | |
Wen et al. | The power of complementary regularizers: Image recovery via transform learning and low-rank modeling | |
CN113947538A (zh) | 一种多尺度高效卷积自注意力单幅图像除雨方法 | |
CN111145103B (zh) | 基于细节保留神经网络模型的蒙特卡洛去噪方法 | |
CN113066023A (zh) | 一种基于自校准卷积神经网络的sar图像去斑方法 | |
CN113240581A (zh) | 一种针对未知模糊核的真实世界图像超分辨率方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |