CN114926383A - 基于细节增强分解模型的医学图像融合方法 - Google Patents
基于细节增强分解模型的医学图像融合方法 Download PDFInfo
- Publication number
- CN114926383A CN114926383A CN202210545079.0A CN202210545079A CN114926383A CN 114926383 A CN114926383 A CN 114926383A CN 202210545079 A CN202210545079 A CN 202210545079A CN 114926383 A CN114926383 A CN 114926383A
- Authority
- CN
- China
- Prior art keywords
- detail
- image
- layer
- decomposition model
- medical image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 33
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 23
- 230000004927 fusion Effects 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims description 2
- 238000012887 quadratic function Methods 0.000 claims description 2
- 150000001875 compounds Chemical class 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 2
- 239000003086 colorant Substances 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000002603 single-photon emission computed tomography Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000001959 radiotherapy Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明是一种基于细节增强分解模型的医学图像融合方法,包括:步骤1、数据集获取;步骤2、将彩色图像转换为YUV信道;步骤3、设计细节增强分解模型,对医学图像进行分解,得到基本层B和细节层L,所述基本层B包含图像的基本内容信息,所述细节层L包含纹理细节与边缘轮廓信息;步骤4、使用不同的融合规则对步骤3中获得的基本层B和细节层L分别进行融合,步骤5、根据融合后的图像进行重构。本发明能在较短的处理时间内提供更清晰的边缘细节和优越的色彩,为现代医学图像融合提供了一定的应用价值。
Description
技术领域
本发明属于医学图像融合领域,主要涉及利用一个细节增强分解模型在不失真的情况下提高图像质量进行医学图像融合的融合方法。
背景技术
图像融合的目的是将多幅不同输入图像的特征融合成一幅图像,从而使其更可靠,更易于患者和医生理解。随着医学影像技术的迅速发展,大量医学影像设备被成功地应用于疾病诊断、放射治疗和外科手术。然而,不同的传感器对相同的细胞、组织、骨骼、器官和系统产生不同的成像结果。单一模式的医学成像不能完全反映器官或组织的全部生理信息。此外,融合图像不仅合成互补信息,还减少多模态医学图像中的冗余信息,从而节省存储成本。
基于深度学习网络的图像融合算法近年来成为热门研究课题。其中包括卷积神经网络(CNN),多交点图像融合框架(IFCNN)等。这些基于深度神经网络的融合算法已经在非医学领域取得了众多成就。然而,由于缺乏地面实况信息和大量有效数据,基于神经网络的医学图像融合算法的发展受到了挫折。因此,像素级医学图像融合算法的开发仍然是一个热门的研究课题,其直接从原始像素中提取特征并应用,无需额外处理。此外,像素级的医学融合算法在空间域和变换域中运行。
特征提取方法和特征融合规则是医学融合算法的基础。基于特征提取方法,医学图像融合算法可分为三类。首先,使用多尺度变换(MST)或多尺度几何分析方法,如拉普拉斯金字塔(LP)、离散小波变换(DWT)。其次,通过局部拉普拉斯金字塔滤波等滤波分解获得图像的基本层和细节层(LLF)。第三,输入图像的能量和边缘细节层通过求解混合分解模型等目标函数和正则化项获得。特征提取后采用适当的特征融合规则,得到满意的融合图像。然而现有医学图像融合算法遇到的典型问题是对比度降低、细节模糊、颜色失真和耗时。
发明内容
为了解决上述问题,本发明提供了一种细节增强分解模型的医学图像融合方法,该方法提供了一种细节增强模型,增强了图像的边缘细节,并且对分解后的每一层提出了有针对性的融合规则,有效的解决了现有的医学图像融合算法中存在的对比度降低以及失真等问题,为现代医学图像融合提供了一定的应用价值。
为了达到上述目的,本发明是通过以下技术方案实现的:
本发明是一种基于细节增强分解模型的医学图像融合方法,该方法包括如下步骤:
步骤1:获取数据集,从公开数据库或者实验等其他途径中获取对应的输入图像1记录为I1,输入图像2记录为I2。
步骤2:由于本研究的主要实验对象是灰度与彩色图像融合。因此,彩色图像首先被转换成YUV通道;然后,使用Y通道与相应的灰度图像进行融合。
步骤3:使用细节增强分解模型对医学图像进行分解。
细节增强分解模型为:
其中wb为一阶导数滤波器w1=[-1 1],w2=[-1 1]T与二阶拉普拉斯滤波器ρ(x)为非凸变量,λ控制平滑度,表示对基本层使用拉普拉斯滤波器,表示强制定位的基本层B和细节层L与原始图像I接近。
步骤4:选用特定的融合规则将增强后的层融合。
基本层B包含了图像的基本内容信息,因此使用加权平均法获得基本层,具体公式如下:
其中X=1,γ=1.5,B′表示进行加权平均处理后的基本层,N代表有N个输入。
细节层L分别包含纹理细节与边缘轮廓信息,l2范数和最大奇异值分别表示细节与主要变形信息,通过使用3X3窗口滑动图像来获得一系列面片,对于每一个面片,通过计算l2范数和最大奇异值的乘积来确定,具体细节层融合规则为:
其中Vmax(lg,m)表示细节层的最大奇异值,在得到所有的融合面片lg,g=1,2,...,G后,选择对重叠区域的平均操作得到融合的细节层L。
融合图像的计算公式如下:
F=B+L。
步骤5:根据融合后的图像进行重构。
本研究的主要实验对象是灰度和彩色图像融合。因此,彩色图像首先被转换成YUV通道;然后,使用Y通道与相应的灰度图像进行融合。最后进行颜色空间反演,得到彩色融合图像。
本发明的有益效果是:
本发明的融合方法增强分解图像的细节与边缘,更加的高效并且不引入噪声,有助于解决因融合而遇到的对比度降低、细节模糊以及颜色失真等问题;
本发明相比于单纯的特征提取,使用细节增强模型使分解出的层更加的平滑,不失真;
本发明针对每一层提出有效的、有针对性的融合规则,比传统的融合方法更具优势。
本发明细节增强分解模型与作为经典增强分解方法的局部拉普拉斯金字塔滤波相比具有无附加噪声、主观效果可接受、时间短等优点。
附图说明
图1为本发明的算法流程图。
图2为本发明与其他先进方法在PET-MRI数据集上的对比实验图,其中:输入图像:PET图像为(a1/b1/c1/d1);MRI图像为(a2/b2/c2/d2);MST-SR方法图像为(a3/b3/c3/d3);CSR方法图像为(a4/b4/c4/d4);CNN方法图像为(a5/b5/c5/d5);LR-SR方法图像为(a6/b6/c6/d6);NSST-CSTF方法图像为(a7/b7/c7/d7);NSST-PAPCNN方法图像为(a8/b8/c8/d8);ReLP方法图像为(a9/b9/c9/d9);TL-ST方法图像为(a10/b10/c10/d10);CSMCA方法图像为(a11/b11/c11/d11);IFCNN方图像为法(a12/b12/c12/d12);NSCT-DCT图像为(a13/b13/c13/d13);PCA-SVD方法图像为(a14/b14/c14/d14),本发明的融合方法图像为(a15/b15/c15/d15)。
图3为本发明与其他先进方法在SPECT-MRI数据集上的对比实验图,其中:输入图像:SPECT图像为(a1/b1/c1/d1);MRI图像为(a2/b2/c2/d2);MST-SR方法图像为(a3/b3/c3/d3);CSR方法图像为(a4/b4/c4/d4);CNN方法图像为(a5/b5/c5/d5);LR-SR方法图像为(a6/b6/c6/d6);NSST-CSTF方法图像为(a7/b7/c7/d7);NSST-PAPCNN方法图像为(a8/b8/c8/d8);ReLP方法图像为(a9/b9/c9/d9);TL-ST方法图像为(a10/b10/c10/d10);CSMCA方法图像为(a11/b11/c11/d11);IFCNN方法图像为(a12/b12/c12/d12);NSCT-DCT图像为(a13/b13/c13/d13);PCA-SVD方法图像为(a14/b14/c14/d14),本发明融合方法图像为(a15/b15/c15/d15)
具体实施方式
以下将以图式揭露本发明的实施方式,为明确说明起见,许多实务上的细节将在以下叙述中一并说明。然而,应了解到,这些实务上的细节不应用以限制本发明。也就是说,在本发明的部分实施方式中,这些实务上的细节是非必要的。
如图1-3所示,本发明公开了一种基于细节增强分解模型的医学图像融合方法,该方法包括如下步骤:
第一步:挑选数据集。
本发明研究的是灰度与彩色图像的融合,因此从公开数据库中选用MRI&PET、MRI&SPECT数据集,从公开数据库或者实验等其他途径中获取对应的输入图像1记录为I1,输入图像2记录为I2。
步骤2、将步骤1中获取的彩色图像转换为YUV信道,具体为:彩色图像首先被转换成YUV通道,然后,使用Y通道与灰度图像进行融合。
步骤3、设计细节增强分解模型,对医学图像进行分解。
细节增强分解模型为:
其中wb为一阶导数滤波器w1=[-1 1],w2=[-1 1]T与二阶拉普拉斯滤波器ρ(x)为非凸变量,λ控制平滑度,表示对基本层使用拉普拉斯滤波器,表示强制定位的基本层B和细节层L与原始图像I接近。
其中β是优化过程中增加的权重;
其中:*是复共轭,加在分母上的参数τ是增加算法稳定性所需的一个小数值(在我们的实验中τ=10-16),乘法和划分都是执行的,解决公式仅需要两次傅立叶变换,并且在每次迭代时只需要一个逆傅立叶变换IFFT,是对基本层B进行傅立叶变换,是卷积矩阵Wb进行对角化。
步骤4、使用不同的融合规则对分解的层进行融合。
基本层B融合规则为:
其中X=1,γ=1.5,B′表示进行加权平均处理后的基本层,N代表有N个输入。
细节层L分别包含纹理细节与边缘轮廓信息,l2范数和最大奇异值分别表示细节与主要变形信息,通过使用3X3窗口滑动图像来获得一系列面片,对于每一个面片,通过计算l2范数和最大奇异值的乘积来确定,具体细节层融合规则为:
其中Vmax(lg,m)表示细节层的最大奇异值,在得到所有的融合面片lg,g=1,2,...,G后,选择对重叠区域的平均操作得到融合的细节层L。
为了解决医学图像融合算法遇到的一些典型问题,例如:对比度降低、细节模糊、颜色失真和耗时等。本发明在得到包含不同特征的信息层后,有针对性的为每一层提出了有效的融合规则,与传统的融合方法比具有明显的优势。
步骤5:模型测试。
影响模型的主要参数是λ和β。λ控制基本层的平滑度;β控制增强程度。为了证明本发明的有效性,使用100组PET-MRI和100组SPECT-MRI分析所提算法融合规则的效果。融合规则为旨在在多个输入图像之间保留尽可能多的非公共信息,同时删除冗余信息。为了更好地观察本研究算法的主观视觉效果,选取两组PET-MRI医学图像、两组SPECT-MRI医学图像进行比较。获得融合图像后,客观评价图像至关重要。多方位评价更有利于这种分析。
为了验证所提出的医学图像融合方法的有效性,选取了以下经典图像融合方法进行了比较:分别是MST-SR、CSR、CNN、LR-SR、NSST-CSTF、NSST-PAPCNN、ReLP、TL-ST、CSMCA、IFCNN、NSCT-DCT和PCA-SVD。其中CNN和IFCNN是深度学习融合算法;其他十种是传统的融合算法。本发明是在一台配备英特尔I5处理器(1.6GHz)和8GB内存的Mac上完成的。在没有任何GPU加速的情况下,使用Matlab实现。获得融合图像后,客观评价图像至关重要。多方位评价更有利于这种分析。本发明选取信息熵(EN)、平均梯度(AG)、边缘结构相似性(SSIM)、互信息(MI)和空间频率(SF)。EN是信息熵,代表信息的丰富程度。MI是互信息,表示融合图像保留得源图像的信息量大小。值越大,说明融合图像保留得信息越多,融合结果越好。AG是平均梯度,提取图像的对比度和纹理变化特征。
不同方法在不同图像上客观评价指标的值参照下表1
表1
对于所有指标,值越大,融合图像越好。本发明所提出的融合方法在PET-MRI和SPECT-MRI数据集上表现最好。通过观察表1可以看出,AG、MI、SF的平均值在三个数据集中都是最优的。这说明本发明的所提出的方法的综合性能对于不同的数据集都有更好的表现。
本发明提出了一个细节增强分解模型从一个图像中提取两层,在分解的过程中适当的增强图像的边缘与纹理细节,来解决细节不清晰以及边缘模糊的问题。从单个图像进行层分解本质上是不适定的,通过调整参数灵活的增强细节,抑制分解过程中的残留噪声。随后针对每一层提出有针对性的融合规则,最后重构,完成了此过程。并且进行了大量的实验证明了所提出的算法比现有的算法更加有效,在增强和去噪方面都达到了更好的质量。
以上所述仅为本发明的实施方式而已,并不用于限制本发明。对于本领域技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原理的内所作的任何修改、等同替换、改进等,均应包括在本发明的权利要求范围之内。
Claims (7)
1.一种基于细节增强分解模型的医学图像融合方法,其特征在于:所述医学图像融合方法包括如下步骤:
步骤1、从数据集中获取灰度和彩色图像;
步骤2、将步骤1中获取的彩色图像转换为YUV信道;
步骤3、设计细节增强分解模型,对医学图像进行分解,得到基本层B和细节层L,所述基本层B包含图像的基本内容信息,所述细节层L包含纹理细节与边缘轮廓信息;
步骤4、使用不同的融合规则对步骤3中获得的基本层B和细节层L分别进行融合,融合图像的计算公式如下:
F=B+L;
步骤5、根据融合后的图像进行重构。
6.根据权利要求1所述基于细节增强分解模型的医学图像融合方法,其特征在于:所述步骤2将彩色图像转换为YUV信道具体为:彩色图像首先被转换成YUV通道,然后,使用Y通道与灰度图像进行融合。
7.根据权利要求1所述基于细节增强分解模型的医学图像融合方法,其特征在于:步骤1中,数据集的获取具体为:从公开数据库中获取对应的输入图像1记录为I1,输入图像2记录为I2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210545079.0A CN114926383A (zh) | 2022-05-19 | 2022-05-19 | 基于细节增强分解模型的医学图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210545079.0A CN114926383A (zh) | 2022-05-19 | 2022-05-19 | 基于细节增强分解模型的医学图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114926383A true CN114926383A (zh) | 2022-08-19 |
Family
ID=82809042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210545079.0A Pending CN114926383A (zh) | 2022-05-19 | 2022-05-19 | 基于细节增强分解模型的医学图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114926383A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116630762A (zh) * | 2023-06-25 | 2023-08-22 | 山东卓业医疗科技有限公司 | 一种基于深度学习的多模态医学图像融合方法 |
-
2022
- 2022-05-19 CN CN202210545079.0A patent/CN114926383A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116630762A (zh) * | 2023-06-25 | 2023-08-22 | 山东卓业医疗科技有限公司 | 一种基于深度学习的多模态医学图像融合方法 |
CN116630762B (zh) * | 2023-06-25 | 2023-12-22 | 山东卓业医疗科技有限公司 | 一种基于深度学习的多模态医学图像融合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112258415B (zh) | 一种基于生成对抗网络的胸部x光片超分辨率和去噪方法 | |
Jiang et al. | Low-dose CT lung images denoising based on multiscale parallel convolution neural network | |
CN109934887B (zh) | 一种基于改进的脉冲耦合神经网络的医学图像融合方法 | |
CN110223255B (zh) | 一种基于残差编解码网络的低剂量ct图像去噪递归方法 | |
CN112837274A (zh) | 一种基于多模态多站点数据融合的分类识别方法 | |
Arai et al. | Significant dimension reduction of 3D brain MRI using 3D convolutional autoencoders | |
Xia et al. | A novel medical image enhancement algorithm based on improvement correction strategy in wavelet transform domain | |
CN115018728A (zh) | 基于多尺度变换和卷积稀疏表示的图像融合方法及系统 | |
CN116645283A (zh) | 基于自监督感知损失多尺度卷积神经网络的低剂量ct图像去噪方法 | |
Huang et al. | Multi-modal feature-fusion for CT metal artifact reduction using edge-enhanced generative adversarial networks | |
Lepcha et al. | Multimodal medical image fusion based on pixel significance using anisotropic diffusion and cross bilateral filter | |
Li et al. | An adaptive self-guided wavelet convolutional neural network with compound loss for low-dose CT denoising | |
Chan et al. | An attention-based deep convolutional neural network for ultra-sparse-view CT reconstruction | |
CN114926383A (zh) | 基于细节增强分解模型的医学图像融合方法 | |
Fan et al. | SGUNet: Style-guided UNet for adversely conditioned fundus image super-resolution | |
Cheng et al. | CAIR: Combining integrated attention with iterative optimization learning for sparse-view CT reconstruction | |
Li et al. | Quad-Net: Quad-domain network for CT metal artifact reduction | |
Wang et al. | SemiMAR: Semi-supervised learning for CT metal artifact reduction | |
CN116894783A (zh) | 基于时变约束的对抗生成网络模型的金属伪影去除方法 | |
Zhang et al. | An adaptive enhancement method for breast X-ray images based on the nonsubsampled contourlet transform domain and whale optimization algorithm | |
Li et al. | Dual-domain fusion deep convolutional neural network for low-dose CT denoising | |
CN112750097B (zh) | 基于多cnn组合和模糊神经网络的多模态医学图像融合 | |
CN115330600A (zh) | 一种基于改进srgan的肺部ct图像超分辨率方法 | |
Xiong et al. | Re-UNet: a novel multi-scale reverse U-shape network architecture for low-dose CT image reconstruction | |
Kayal et al. | Spectral data augmentation techniques to quantify lung pathology from CT-Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB03 | Change of inventor or designer information |
Inventor after: Zhu Hu Inventor after: Dai Lina Inventor after: Deng Lizhen Inventor before: Dai Lina Inventor before: Zhu Hu Inventor before: Deng Lizhen |
|
CB03 | Change of inventor or designer information | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |