CN114926383A - 基于细节增强分解模型的医学图像融合方法 - Google Patents

基于细节增强分解模型的医学图像融合方法 Download PDF

Info

Publication number
CN114926383A
CN114926383A CN202210545079.0A CN202210545079A CN114926383A CN 114926383 A CN114926383 A CN 114926383A CN 202210545079 A CN202210545079 A CN 202210545079A CN 114926383 A CN114926383 A CN 114926383A
Authority
CN
China
Prior art keywords
detail
image
layer
decomposition model
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210545079.0A
Other languages
English (en)
Inventor
戴丽娜
朱虎
邓丽珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202210545079.0A priority Critical patent/CN114926383A/zh
Publication of CN114926383A publication Critical patent/CN114926383A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明是一种基于细节增强分解模型的医学图像融合方法,包括:步骤1、数据集获取;步骤2、将彩色图像转换为YUV信道;步骤3、设计细节增强分解模型,对医学图像进行分解,得到基本层B和细节层L,所述基本层B包含图像的基本内容信息,所述细节层L包含纹理细节与边缘轮廓信息;步骤4、使用不同的融合规则对步骤3中获得的基本层B和细节层L分别进行融合,步骤5、根据融合后的图像进行重构。本发明能在较短的处理时间内提供更清晰的边缘细节和优越的色彩,为现代医学图像融合提供了一定的应用价值。

Description

基于细节增强分解模型的医学图像融合方法
技术领域
本发明属于医学图像融合领域,主要涉及利用一个细节增强分解模型在不失真的情况下提高图像质量进行医学图像融合的融合方法。
背景技术
图像融合的目的是将多幅不同输入图像的特征融合成一幅图像,从而使其更可靠,更易于患者和医生理解。随着医学影像技术的迅速发展,大量医学影像设备被成功地应用于疾病诊断、放射治疗和外科手术。然而,不同的传感器对相同的细胞、组织、骨骼、器官和系统产生不同的成像结果。单一模式的医学成像不能完全反映器官或组织的全部生理信息。此外,融合图像不仅合成互补信息,还减少多模态医学图像中的冗余信息,从而节省存储成本。
基于深度学习网络的图像融合算法近年来成为热门研究课题。其中包括卷积神经网络(CNN),多交点图像融合框架(IFCNN)等。这些基于深度神经网络的融合算法已经在非医学领域取得了众多成就。然而,由于缺乏地面实况信息和大量有效数据,基于神经网络的医学图像融合算法的发展受到了挫折。因此,像素级医学图像融合算法的开发仍然是一个热门的研究课题,其直接从原始像素中提取特征并应用,无需额外处理。此外,像素级的医学融合算法在空间域和变换域中运行。
特征提取方法和特征融合规则是医学融合算法的基础。基于特征提取方法,医学图像融合算法可分为三类。首先,使用多尺度变换(MST)或多尺度几何分析方法,如拉普拉斯金字塔(LP)、离散小波变换(DWT)。其次,通过局部拉普拉斯金字塔滤波等滤波分解获得图像的基本层和细节层(LLF)。第三,输入图像的能量和边缘细节层通过求解混合分解模型等目标函数和正则化项获得。特征提取后采用适当的特征融合规则,得到满意的融合图像。然而现有医学图像融合算法遇到的典型问题是对比度降低、细节模糊、颜色失真和耗时。
发明内容
为了解决上述问题,本发明提供了一种细节增强分解模型的医学图像融合方法,该方法提供了一种细节增强模型,增强了图像的边缘细节,并且对分解后的每一层提出了有针对性的融合规则,有效的解决了现有的医学图像融合算法中存在的对比度降低以及失真等问题,为现代医学图像融合提供了一定的应用价值。
为了达到上述目的,本发明是通过以下技术方案实现的:
本发明是一种基于细节增强分解模型的医学图像融合方法,该方法包括如下步骤:
步骤1:获取数据集,从公开数据库或者实验等其他途径中获取对应的输入图像1记录为I1,输入图像2记录为I2
步骤2:由于本研究的主要实验对象是灰度与彩色图像融合。因此,彩色图像首先被转换成YUV通道;然后,使用Y通道与相应的灰度图像进行融合。
步骤3:使用细节增强分解模型对医学图像进行分解。
细节增强分解模型为:
Figure BDA0003651972620000021
其中
Figure BDA0003651972620000022
wb为一阶导数滤波器w1=[-1 1],w2=[-1 1]T与二阶拉普拉斯滤波器
Figure BDA0003651972620000023
ρ(x)为非凸变量,λ控制平滑度,
Figure BDA0003651972620000024
表示对基本层使用拉普拉斯滤波器,
Figure BDA0003651972620000025
表示强制定位的基本层B和细节层L与原始图像I接近。
步骤4:选用特定的融合规则将增强后的层融合。
基本层B包含了图像的基本内容信息,因此使用加权平均法获得基本层,具体公式如下:
Figure BDA0003651972620000031
Figure BDA0003651972620000032
其中X=1,γ=1.5,B′表示进行加权平均处理后的基本层,N代表有N个输入。
细节层L分别包含纹理细节与边缘轮廓信息,l2范数和最大奇异值分别表示细节与主要变形信息,通过使用3X3窗口滑动图像来获得一系列面片,对于每一个面片,通过计算l2范数和最大奇异值的乘积来确定,具体细节层融合规则为:
Figure BDA0003651972620000033
其中(i,j)是窗口中的位置,G是面片的数量,
Figure BDA0003651972620000034
表示g块在i,j中的融合像素,
Figure BDA0003651972620000035
表示位于(i,j)中的第m个局部平均细节层的g块的像素,
Figure BDA0003651972620000036
的定义如下:
Figure BDA0003651972620000037
其中Vmax(lg,m)表示细节层的最大奇异值,在得到所有的融合面片lg,g=1,2,...,G后,选择对重叠区域的平均操作得到融合的细节层L。
融合图像的计算公式如下:
F=B+L。
步骤5:根据融合后的图像进行重构。
本研究的主要实验对象是灰度和彩色图像融合。因此,彩色图像首先被转换成YUV通道;然后,使用Y通道与相应的灰度图像进行融合。最后进行颜色空间反演,得到彩色融合图像。
本发明的有益效果是:
本发明的融合方法增强分解图像的细节与边缘,更加的高效并且不引入噪声,有助于解决因融合而遇到的对比度降低、细节模糊以及颜色失真等问题;
本发明相比于单纯的特征提取,使用细节增强模型使分解出的层更加的平滑,不失真;
本发明针对每一层提出有效的、有针对性的融合规则,比传统的融合方法更具优势。
本发明细节增强分解模型与作为经典增强分解方法的局部拉普拉斯金字塔滤波相比具有无附加噪声、主观效果可接受、时间短等优点。
附图说明
图1为本发明的算法流程图。
图2为本发明与其他先进方法在PET-MRI数据集上的对比实验图,其中:输入图像:PET图像为(a1/b1/c1/d1);MRI图像为(a2/b2/c2/d2);MST-SR方法图像为(a3/b3/c3/d3);CSR方法图像为(a4/b4/c4/d4);CNN方法图像为(a5/b5/c5/d5);LR-SR方法图像为(a6/b6/c6/d6);NSST-CSTF方法图像为(a7/b7/c7/d7);NSST-PAPCNN方法图像为(a8/b8/c8/d8);ReLP方法图像为(a9/b9/c9/d9);TL-ST方法图像为(a10/b10/c10/d10);CSMCA方法图像为(a11/b11/c11/d11);IFCNN方图像为法(a12/b12/c12/d12);NSCT-DCT图像为(a13/b13/c13/d13);PCA-SVD方法图像为(a14/b14/c14/d14),本发明的融合方法图像为(a15/b15/c15/d15)。
图3为本发明与其他先进方法在SPECT-MRI数据集上的对比实验图,其中:输入图像:SPECT图像为(a1/b1/c1/d1);MRI图像为(a2/b2/c2/d2);MST-SR方法图像为(a3/b3/c3/d3);CSR方法图像为(a4/b4/c4/d4);CNN方法图像为(a5/b5/c5/d5);LR-SR方法图像为(a6/b6/c6/d6);NSST-CSTF方法图像为(a7/b7/c7/d7);NSST-PAPCNN方法图像为(a8/b8/c8/d8);ReLP方法图像为(a9/b9/c9/d9);TL-ST方法图像为(a10/b10/c10/d10);CSMCA方法图像为(a11/b11/c11/d11);IFCNN方法图像为(a12/b12/c12/d12);NSCT-DCT图像为(a13/b13/c13/d13);PCA-SVD方法图像为(a14/b14/c14/d14),本发明融合方法图像为(a15/b15/c15/d15)
具体实施方式
以下将以图式揭露本发明的实施方式,为明确说明起见,许多实务上的细节将在以下叙述中一并说明。然而,应了解到,这些实务上的细节不应用以限制本发明。也就是说,在本发明的部分实施方式中,这些实务上的细节是非必要的。
如图1-3所示,本发明公开了一种基于细节增强分解模型的医学图像融合方法,该方法包括如下步骤:
第一步:挑选数据集。
本发明研究的是灰度与彩色图像的融合,因此从公开数据库中选用MRI&PET、MRI&SPECT数据集,从公开数据库或者实验等其他途径中获取对应的输入图像1记录为I1,输入图像2记录为I2
步骤2、将步骤1中获取的彩色图像转换为YUV信道,具体为:彩色图像首先被转换成YUV通道,然后,使用Y通道与灰度图像进行融合。
步骤3、设计细节增强分解模型,对医学图像进行分解。
细节增强分解模型为:
Figure BDA0003651972620000061
其中
Figure BDA0003651972620000062
wb为一阶导数滤波器w1=[-1 1],w2=[-1 1]T与二阶拉普拉斯滤波器
Figure BDA0003651972620000063
ρ(x)为非凸变量,λ控制平滑度,
Figure BDA0003651972620000064
表示对基本层使用拉普拉斯滤波器,
Figure BDA0003651972620000065
表示强制定位的基本层B和细节层L与原始图像I接近。
由于ρ(x)为非凸变量,因此该细节增强分解模型函数为非凸的,本发明使用半二次分离方案来解决非凸问题,在每个像素出处引入辅助变量
Figure BDA0003651972620000066
公式如下:
Figure BDA0003651972620000067
其中β是优化过程中增加的权重;
通过交替计算B和L和更新辅助变量
Figure BDA0003651972620000068
实现目标函数的最小化;
更新
Figure BDA0003651972620000069
在保持B、L固定的情况下,找到每个像素处的闭合形式解以最小化
Figure BDA00036519726200000610
Figure BDA00036519726200000611
Figure BDA00036519726200000612
计算B,L,
Figure BDA0003651972620000071
固定时,B,L的函数为二次函数,假设有循环边界条件,使用
Figure BDA0003651972620000079
对卷积矩阵Wb进行对角化,从而直接找到最优解B,L:
Figure BDA0003651972620000072
Figure BDA0003651972620000073
Figure BDA0003651972620000074
其中:*是复共轭,加在分母上的参数τ是增加算法稳定性所需的一个小数值(在我们的实验中τ=10-16),乘法和划分都是执行的,解决公式仅需要两次傅立叶变换,并且在每次迭代时只需要一个逆傅立叶变换IFFT,
Figure BDA0003651972620000075
是对基本层B进行傅立叶变换,
Figure BDA0003651972620000076
是卷积矩阵Wb进行对角化。
步骤4、使用不同的融合规则对分解的层进行融合。
基本层B融合规则为:
Figure BDA0003651972620000077
Figure BDA0003651972620000078
其中X=1,γ=1.5,B′表示进行加权平均处理后的基本层,N代表有N个输入。
细节层L分别包含纹理细节与边缘轮廓信息,l2范数和最大奇异值分别表示细节与主要变形信息,通过使用3X3窗口滑动图像来获得一系列面片,对于每一个面片,通过计算l2范数和最大奇异值的乘积来确定,具体细节层融合规则为:
Figure BDA0003651972620000081
其中(i,j)是窗口中的位置,G是面片的数量,
Figure BDA0003651972620000082
表示g块在i,j中的融合像素,
Figure BDA0003651972620000083
表示位于(i,j)中的第m个局部平均细节层的g块的像素,
Figure BDA0003651972620000084
的定义如下:
Figure BDA0003651972620000085
其中Vmax(lg,m)表示细节层的最大奇异值,在得到所有的融合面片lg,g=1,2,...,G后,选择对重叠区域的平均操作得到融合的细节层L。
为了解决医学图像融合算法遇到的一些典型问题,例如:对比度降低、细节模糊、颜色失真和耗时等。本发明在得到包含不同特征的信息层后,有针对性的为每一层提出了有效的融合规则,与传统的融合方法比具有明显的优势。
步骤5:模型测试。
影响模型的主要参数是λ和β。λ控制基本层的平滑度;β控制增强程度。为了证明本发明的有效性,使用100组PET-MRI和100组SPECT-MRI分析所提算法融合规则的效果。融合规则为旨在在多个输入图像之间保留尽可能多的非公共信息,同时删除冗余信息。为了更好地观察本研究算法的主观视觉效果,选取两组PET-MRI医学图像、两组SPECT-MRI医学图像进行比较。获得融合图像后,客观评价图像至关重要。多方位评价更有利于这种分析。
为了验证所提出的医学图像融合方法的有效性,选取了以下经典图像融合方法进行了比较:分别是MST-SR、CSR、CNN、LR-SR、NSST-CSTF、NSST-PAPCNN、ReLP、TL-ST、CSMCA、IFCNN、NSCT-DCT和PCA-SVD。其中CNN和IFCNN是深度学习融合算法;其他十种是传统的融合算法。本发明是在一台配备英特尔I5处理器(1.6GHz)和8GB内存的Mac上完成的。在没有任何GPU加速的情况下,使用Matlab实现。获得融合图像后,客观评价图像至关重要。多方位评价更有利于这种分析。本发明选取信息熵(EN)、平均梯度(AG)、边缘结构相似性(SSIM)、互信息(MI)和空间频率(SF)。EN是信息熵,代表信息的丰富程度。MI是互信息,表示融合图像保留得源图像的信息量大小。值越大,说明融合图像保留得信息越多,融合结果越好。AG是平均梯度,提取图像的对比度和纹理变化特征。
不同方法在不同图像上客观评价指标的值参照下表1
表1
Figure BDA0003651972620000091
Figure BDA0003651972620000101
对于所有指标,值越大,融合图像越好。本发明所提出的融合方法在PET-MRI和SPECT-MRI数据集上表现最好。通过观察表1可以看出,AG、MI、SF的平均值在三个数据集中都是最优的。这说明本发明的所提出的方法的综合性能对于不同的数据集都有更好的表现。
本发明提出了一个细节增强分解模型从一个图像中提取两层,在分解的过程中适当的增强图像的边缘与纹理细节,来解决细节不清晰以及边缘模糊的问题。从单个图像进行层分解本质上是不适定的,通过调整参数灵活的增强细节,抑制分解过程中的残留噪声。随后针对每一层提出有针对性的融合规则,最后重构,完成了此过程。并且进行了大量的实验证明了所提出的算法比现有的算法更加有效,在增强和去噪方面都达到了更好的质量。
以上所述仅为本发明的实施方式而已,并不用于限制本发明。对于本领域技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原理的内所作的任何修改、等同替换、改进等,均应包括在本发明的权利要求范围之内。

Claims (7)

1.一种基于细节增强分解模型的医学图像融合方法,其特征在于:所述医学图像融合方法包括如下步骤:
步骤1、从数据集中获取灰度和彩色图像;
步骤2、将步骤1中获取的彩色图像转换为YUV信道;
步骤3、设计细节增强分解模型,对医学图像进行分解,得到基本层B和细节层L,所述基本层B包含图像的基本内容信息,所述细节层L包含纹理细节与边缘轮廓信息;
步骤4、使用不同的融合规则对步骤3中获得的基本层B和细节层L分别进行融合,融合图像的计算公式如下:
F=B+L;
步骤5、根据融合后的图像进行重构。
2.根据权利要求1所述基于细节增强分解模型的医学图像融合方法,其特征在于:步骤3中的细节增强分解模型为:
Figure FDA0003651972610000011
其中
Figure FDA0003651972610000012
wb为一阶导数滤波器w1=[-1 1],w2=[-1 1]T与二阶拉普拉斯滤波器
Figure FDA0003651972610000013
ρ(x)为非凸变量,λ控制平滑度,
Figure FDA0003651972610000014
表示对基本层使用拉普拉斯滤波器,
Figure FDA0003651972610000015
表示强制定位的基本层B和细节层L与原始图像I接近。
3.根据权利要求2所述基于细节增强分解模型的医学图像融合方法,其特征在于:步骤3中对医学图像进行分解,具体的分解方法包括如下步骤:
步骤3-1:由于细节增强分解模型中的每个像素出处引入辅助变量
Figure FDA0003651972610000016
节增强分解模型写成:
Figure FDA0003651972610000021
其中β是优化过程中增加的权重;
步骤3-2:通过交替计算B和L和更新辅助变量
Figure FDA0003651972610000022
实现目标函数的最小化;
步骤3-3:更新
Figure FDA0003651972610000023
在保持B、L固定的情况下,找到每个像素处的闭合形式解以最小化
Figure FDA0003651972610000024
Figure FDA0003651972610000025
Figure FDA0003651972610000026
计算B,L,
Figure FDA0003651972610000027
固定时,B,L的函数为二次函数,假设有循环边界条件,使用
Figure FDA0003651972610000028
对卷积矩阵Wb进行对角化,从而直接找到最优解B,L:
Figure FDA0003651972610000029
Figure FDA00036519726100000210
Figure FDA00036519726100000211
其中:*是复共轭,
Figure FDA00036519726100000212
是对基本层B进行傅立叶变换,
Figure FDA00036519726100000213
是卷积矩阵Wb进行对角化。
4.根据权利要求1所述基于细节增强分解模型的医学图像融合方法,其特征在于:步骤4中,细节层L分别包含纹理细节与边缘轮廓信息,l2范数和最大奇异值分别表示细节与主要变形信息,通过使用3X3窗口滑动图像来获得一系列面片,对于每一个面片,通过计算l2范数和最大奇异值的乘积来确定,具体细节层融合规则为:
Figure FDA0003651972610000031
其中(i,j)是窗口中的位置,G是面片的数量,
Figure FDA0003651972610000032
表示g块在i,j中的融合像素,
Figure FDA0003651972610000033
表示位于(i,j)中的第m个局部平均细节层的g块的像素,
Figure FDA0003651972610000034
的定义如下:
Figure FDA0003651972610000035
其中Vmax(lg,m)表示细节层的最大奇异值,在得到所有的融合面片lg,g=1,2,...,G后,选择对重叠区域的平均操作得到融合的细节层L。
5.根据权利要求4所述基于细节增强分解模型的医学图像融合方法,其特征在于:步骤4中,基本层B包含了图像的基本内容信息,融合规则为:
Figure FDA0003651972610000036
Figure FDA0003651972610000037
其中B′表示进行加权平均处理后的基本层,N代表有N个输入。
6.根据权利要求1所述基于细节增强分解模型的医学图像融合方法,其特征在于:所述步骤2将彩色图像转换为YUV信道具体为:彩色图像首先被转换成YUV通道,然后,使用Y通道与灰度图像进行融合。
7.根据权利要求1所述基于细节增强分解模型的医学图像融合方法,其特征在于:步骤1中,数据集的获取具体为:从公开数据库中获取对应的输入图像1记录为I1,输入图像2记录为I2
CN202210545079.0A 2022-05-19 2022-05-19 基于细节增强分解模型的医学图像融合方法 Pending CN114926383A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210545079.0A CN114926383A (zh) 2022-05-19 2022-05-19 基于细节增强分解模型的医学图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210545079.0A CN114926383A (zh) 2022-05-19 2022-05-19 基于细节增强分解模型的医学图像融合方法

Publications (1)

Publication Number Publication Date
CN114926383A true CN114926383A (zh) 2022-08-19

Family

ID=82809042

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210545079.0A Pending CN114926383A (zh) 2022-05-19 2022-05-19 基于细节增强分解模型的医学图像融合方法

Country Status (1)

Country Link
CN (1) CN114926383A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116630762A (zh) * 2023-06-25 2023-08-22 山东卓业医疗科技有限公司 一种基于深度学习的多模态医学图像融合方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116630762A (zh) * 2023-06-25 2023-08-22 山东卓业医疗科技有限公司 一种基于深度学习的多模态医学图像融合方法
CN116630762B (zh) * 2023-06-25 2023-12-22 山东卓业医疗科技有限公司 一种基于深度学习的多模态医学图像融合方法

Similar Documents

Publication Publication Date Title
CN112258415B (zh) 一种基于生成对抗网络的胸部x光片超分辨率和去噪方法
Jiang et al. Low-dose CT lung images denoising based on multiscale parallel convolution neural network
CN109934887B (zh) 一种基于改进的脉冲耦合神经网络的医学图像融合方法
CN110223255B (zh) 一种基于残差编解码网络的低剂量ct图像去噪递归方法
CN112837274A (zh) 一种基于多模态多站点数据融合的分类识别方法
Arai et al. Significant dimension reduction of 3D brain MRI using 3D convolutional autoencoders
Xia et al. A novel medical image enhancement algorithm based on improvement correction strategy in wavelet transform domain
CN115018728A (zh) 基于多尺度变换和卷积稀疏表示的图像融合方法及系统
CN116645283A (zh) 基于自监督感知损失多尺度卷积神经网络的低剂量ct图像去噪方法
Huang et al. Multi-modal feature-fusion for CT metal artifact reduction using edge-enhanced generative adversarial networks
Lepcha et al. Multimodal medical image fusion based on pixel significance using anisotropic diffusion and cross bilateral filter
Li et al. An adaptive self-guided wavelet convolutional neural network with compound loss for low-dose CT denoising
Chan et al. An attention-based deep convolutional neural network for ultra-sparse-view CT reconstruction
CN114926383A (zh) 基于细节增强分解模型的医学图像融合方法
Fan et al. SGUNet: Style-guided UNet for adversely conditioned fundus image super-resolution
Cheng et al. CAIR: Combining integrated attention with iterative optimization learning for sparse-view CT reconstruction
Li et al. Quad-Net: Quad-domain network for CT metal artifact reduction
Wang et al. SemiMAR: Semi-supervised learning for CT metal artifact reduction
CN116894783A (zh) 基于时变约束的对抗生成网络模型的金属伪影去除方法
Zhang et al. An adaptive enhancement method for breast X-ray images based on the nonsubsampled contourlet transform domain and whale optimization algorithm
Li et al. Dual-domain fusion deep convolutional neural network for low-dose CT denoising
CN112750097B (zh) 基于多cnn组合和模糊神经网络的多模态医学图像融合
CN115330600A (zh) 一种基于改进srgan的肺部ct图像超分辨率方法
Xiong et al. Re-UNet: a novel multi-scale reverse U-shape network architecture for low-dose CT image reconstruction
Kayal et al. Spectral data augmentation techniques to quantify lung pathology from CT-Images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB03 Change of inventor or designer information

Inventor after: Zhu Hu

Inventor after: Dai Lina

Inventor after: Deng Lizhen

Inventor before: Dai Lina

Inventor before: Zhu Hu

Inventor before: Deng Lizhen

CB03 Change of inventor or designer information
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination