CN114792287A - 一种基于多图像融合的医学超声图像超分辨率重建方法 - Google Patents
一种基于多图像融合的医学超声图像超分辨率重建方法 Download PDFInfo
- Publication number
- CN114792287A CN114792287A CN202210298235.8A CN202210298235A CN114792287A CN 114792287 A CN114792287 A CN 114792287A CN 202210298235 A CN202210298235 A CN 202210298235A CN 114792287 A CN114792287 A CN 114792287A
- Authority
- CN
- China
- Prior art keywords
- image
- resolution
- super
- pixel
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 238000011156 evaluation Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 23
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000002604 ultrasonography Methods 0.000 claims description 12
- 238000000354 decomposition reaction Methods 0.000 claims description 9
- 238000012706 support-vector machine Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000008447 perception Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012285 ultrasound imaging Methods 0.000 description 2
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000748 cardiovascular system Anatomy 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000002485 urinary effect Effects 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Algebra (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于多图像融合的医学超声图像超分辨率重建方法,包括以下步骤:对收集到的医学超声图像数据集进行预处理;采用基于对比度的小波图像融合算法对同一病例的多张相似的医学超声图像进行融合;基于高斯马尔科夫随机场模型对融合图像提取纹理特征;基于离散余弦变换系数的图像清晰度自动评价方法选择出低分辨率图像和高分辨率图像对用于监督学习;构建基于卷积神经网络模型CNN的生成对抗网络(GAN)架构对训练数据集进行训练;训练好的模型用于医学超声图像的超分辨率重建。本发明通过将图像融合、传统的细节提取算法与基于CNN的生成对抗网络模型相结合应用于医学超声图像,实现医学超声图像的超分辨率重建。
Description
技术领域
本发明属于医学超声成像领域,特别涉及一种基于多图像融合的图像超分辨率重建方法。
背景技术
超声成像由于具有灵活性、随意性、实时性及无创性,已经成为一种标准的成像方式,此外,与计算机断层扫描、X射线和核磁共振成像等其他成像方式相比,超声成像是一种廉价的成像方式。在医学成像中,超声成像几乎是心血管系统、腹部、泌尿系统、血管系统、产科、妇科等成像的首选方法。超声仪器受系统成本和超声本身特点的限制,成像区域相对较小,在检查过程中或者后期的查看中常常需要对图像进行放大处理,更清晰地显示图像中的边缘和细节。另一方面,随着人工智能的发展,计算机智能辅助诊断得到了快速发展,这对图像的质量有了更高的要求,所以提高医学超声图像的质量具有重要的意义。
现有技术中,较为主流的图像超分辨率重建技术包括基于插值的方法、基于重建的方法和基于学习的方法。传统的超分辨率重建方法生成的图像整体看上去非常模糊,图像质量较差。2014年,董超将卷积神经网络用到了图像的超分辨率重建任务中,提出了使用卷积神经网络的SRCNN算法,此方法利用3层的CNN网络进行低分辨率到高分辨率的端到端的映射,生成出了比传统算法有较大效果提升的高分辨率图像。但SRCNN的3层网络深度还是过于浅显,难以抽取到图像更深层次的信息。随着深度学习的蓬勃发展,越来越深的网络结构用于图像超分辨率重建任务中,2017年,Ledig将深度学习领域大热的生成对抗网络用于图像超分辨率重建,发表了基于生成对抗网络的SRGAN算法。虽然基于深度学习的方法可以产生更高质量的图像,但是在产生精细的纹理的同时经常伴随着扭曲,且训练模型太大,能耗过高。并且针对特定领域的医学超声图像的超分辨率重建任务较少,医学超声图像的质量有待进一步地提高。
发明内容
本发明提供一种基于多图像融合的医学超声图像超分辨率重建方法,以解决目前超声图像低分辨率、低对比度以及高噪声的问题。通过利用医学超声图像实时成像的特点,可以产生某一小段时间内同一组织部位的多张相似的图像,进行图像融合,并把传统的纹理特征提取算法与最新的基于深度学习的方法相结合,从而实现医学超声图像的超分辨率重建。
为实现上述目的,本发明采用的技术方案为:
一种基于多图像融合的医学超声图像超分辨率重建方法,包括以下步骤:
S1.对收集到的医学超声图像数据进行预处理;
S2.采用基于对比度的小波图像融合算法对同一病例的多张相似的医学超声图像进行融合;
S3.基于高斯马尔科夫随机场模型对融合图像提取纹理特征;
S4.基于离散余弦变换稀疏的图像清晰度自动评价方法选择出低分辨率图像和高分辨率图像对用于监督学习;
S5.构建基于卷积神经网络模型CNN的生成对抗网络(GAN)架构对训练数据集进行训练,训练好的模型用于医学超声图像的超分辨率重建。
进一步的,所述步骤S1具体为:
S11.原始超声图像数据集大约为496*348像素,将这些图片裁剪成492*372像素的图片;
S12.用双三次插值对这些图片进行下采样获得对应的缩小2倍、3倍、4倍、6倍的低分辨率的图片;
S13.将图片进行分类,各个同一组织部位的低分辨率的N张图片归为一组,每组的图片记为LR0…LRN-1,各个统一组织部位的高分辨率的N张图片归为一组,每组的图片记为HR0…HRN-1。
进一步的,所述步骤S2具体为:
S21.离散小波对同一病例的N幅低分辨率图像LR0…LRN-1和N幅高分辨率图像HR0...HRN-1进行小波分解,得到低频子带系数和一系列高频子带系数,低频子图像代表了图像的近似分量,高频分量代表了图像的细节分量,细节信息越多,清晰度越高;
S22.对高频和低频子带系数遍历计算像素的对比度,图像的对比度C一般定义为其中:LP为图像局部灰度,LB为图像局部背景灰度(相当于图像变换后的低频分量),LH=LP-LB为图像变换后的高频分量。根据像素之间的相关性,图像中各像素的新的对比度为其中:N(x,y)为以像素坐标(x,y)为中心定义的矩形窗口,gγ(m,n)和fγ(m,n)分别代表图像经过离散小波变换分解后的高频和低频子带系数,NH表示图像上的所有像素点,γ∈NH表示图像上的某一像素点,(m,n)表示像素坐标(x,y)所在局部区域的某一像素点坐标。C(x,y)越大,说明原图像中像素(x,y)所在局部区域的对比度越大,对应像素越清晰。对比度高的像素是希望得到的像素;
S23.对高频和低频子带系数按照相应的融合规则,选取对比度高的系数作为融合系数;对LR0…LRN-1这N张低分辨率图像和HR0...HRN-1这N张高分辨率图像先进行两两融合,直到最后将这N张低分辨率图像和N张高分辨率图像各融合为一张图像。高频子带的融合规则选取如
其中:gF(x,y)是融合图像的高频系数,gA(x,y)和gB(x,y)表示图像A和B经离散小波变换分解后在像素坐标(x,y)处的高频子带系数,CA(x,y)表示图像A中像素点坐标为(x,y)的像素点的对比度,CB(x,y)表示图像B中像素点坐标为(x,y)的像素点的对比度。
其中:fF(x,y)是融合图像的低频系数。
S24.小波重构得到低分辨率融合图像LRF和高分辨率融合图像HRF。
进一步的,所述步骤S3具体为:
S31.灰度共生矩阵(GLCM)提取空间中超声图像的灰度相关特征。GLCM是对图像上保持某距离的两像素分别具有某灰度的状况进行统计得到的。GLCM纹理特征是基于GLCM统计信息获得的。计算公式为其中:是灰度h1和灰度h2出现的次数,h是图像的灰度的最大值,Q一般选择0°、45°、90°和135°,s用来在Q方向上分隔图像的两个像素,是Q方向上由s分隔的两个像素的联合概率密度。GLCM中常用的纹理特征统计数据有14种类型。由于各种特征统计数据之间的相关性,因此无需计算所有特征。在超声图像的超分辨率重建中,使用了四个不相关的特征统计信息:能量、熵、对比度和相关性。能量Eg的计算公式为熵Ep的计算公式为对比度C的计算公式为p(h1,h2)是图像灰度级为h1和h2的两个像素的GLCM元素的值,h是图像的灰度的最大值。相关性Cr的计算公式为
S32.利用高斯马尔科夫随机场(GMRF)建立相邻像素之间的统计相关性特征。在GMRF中,图像的任何像素的强度值与所有周围的相邻像素有关,其可以用条件概率的形式表示为p(G(a)|G(a+t),t∈n),其中:n为像素a的GMRF邻域,a+t表示像素a邻域内的某一像素点,G(a)表示图像像素a的强度值,G(a+t)表示图像像素a+t的强度值;设U是图像块上设置的点,U={(k,q),1≤k≤n,1≤q≤n},n为像素a的GMRF邻域,k和q表示图像块U内的像素点,都在范围[1,n]内。GMRF过程可以用对称差分方程表示为G(a)=G(U)(α+β),其中:G(U)表示图像块U的强度值,α是对称邻域像素的权重,β是模型要估计的特征向量,可以使用最小二乘误差准则进行估计和求解,计算公式为β=(∑G(U)(G(U))T)-1(∑G(U)(G(a))),G(a)表示图像像素a的强度值,(·)T表示矩阵的转置运算,(·)-1表示矩阵的逆运算。β获得的模型参数是描述图像块的GMRF纹理特征;
S33.得到低分辨率融合图像的纹理特征β(LRF)和高分辨率融合图像的纹理特征β(HRF)。
进一步的,所述步骤S4具体为:
S41.同一组织部位的多张超声图像的清晰度存在差异,所以需要选择出同组中清晰度最高的图像作为超分辨率重建任务中的参考图像。首先对HR0…HRN-1中的HRi(0≤i≤N-1)进行离散余弦变换得到离散余弦变换系数矩阵C(x,y),(x,y)表示图像的某一像素点坐标,然后提取矩阵C(x,y)的对角线向量S,S=(C11,C22,…,Cuu),u=min(r,c),其中:C11,C22,…,Cuu表示离散余弦变换系数矩阵C(x,y)的对角线元素的值,u表示矩阵C(x,y)的行数r和列数c两者间的最小值,则图像HRi(0≤i≤N-1)的特征向量Sfeature=ln(S)=(ln(C1),ln(C2),…,ln(Cu)),S为对角线向量,C1,C2,…,Cu为对角线向量S的系数;所以可以提取HR0…HRN-1的特征向量Sfeature0…SfeatureN-1;HRi(0≤i≤N-1)、LRi(0≤i≤N-1)中下标i指的是第i张高分辨率图像或者第i张低分辨率图像,且第i张高分辨率图像和第i张低分辨率图像是对应的。
S42.用支持向量机模型对特征向量训练得到图像质量预测模型;特征向量Sfeature与图像质量之间存在某种关系,用支持向量机模型来建立特征向量与图像质量之间的映射关系。
S43.根据图像质量预测模型预测的图像质量分值,选择HR0...HRN-1中分值最高的HRi(0≤i≤N-1)作为参考图像,与HRi(0≤i≤N-1)对应的LRi(0≤i≤N-1)作为模型的输入。
进一步的,所述步骤S5具体为:
S51.基于生成对抗网络的图像超分辨率重建模型分为一个生成器和两个判别器,采用ESRGAN基本架构单元残差密集块(RRDB)。生成器部分包括两个分支,分别为图像超分辨率重建的主分支和纹理特征提取的辅助分支,判别器分别对图像域和纹理域恢复进行监督;
S52.主分支由23个残差密集块(RRDB)组成,分支的输入为S4中选取到的低分辨率图像,在分支的末端采用最邻近插值执行上采样,最后通过卷积—ReLU激活函数—卷积将特征映射到图像域;
S53.辅助分支的输入是S3中提取到的纹理特征图,恢复融合图像的纹理特征。辅助分支的最终目的是明确学习融合图像的纹理特征,并将纹理特征反馈到主分支。辅助分支由4个RRDB块组成,第1、2、3和4个RRDB块的输入分别与主分支的第5、10、15和20个RRDB块的输出相连。在辅助分支的每一个RRDB块后面都有一个卷积层,以减少特征通道,最后通过卷积—ReLU—卷积将上采样特征映射到纹理特征域;
S54.在生成器网络的末端采用注意力机制将辅助分支的输出乘回到主分支,注意力机制可以阻挡由于不恰当的纹理增强导致的伪影,这种设计可以使纹理特征以更适应的方式增强超分辨率图像;
S55.监督学习中的损失函数包括了图像域的损失函数和纹理域的损失函数。图像域的损失函数包括像素损失、感知损失和对抗损失,纹理域的损失函数为像素损失和对抗损失。像素损失计算的是超分辨率图像和参考图像之间的像素差异,公式为其中:G(·)表示超分辨率的生成器,G(ILR)表示低分辨率输入图像ILR经过生成器之后生成的超分辨率图像,IHR代表原始的高分辨率图像,E||·||1表示像素级别的MSE损失计算过程,为G(ILR)和IHR之间的像素损失。感知损失用来恢复图像的感知质量,计算公式为φj(·)代表VGG网络在第j层处理图像时的激活情况,G(·)表示超分辨率的生成器,G(ILR)表示低分辨率输入图像ILR经过生成器之后生成的超分辨率图像,IHR代表原始的高分辨率图像,E||·||1表示像素级别的MSE损失计算过程,为G(ILR)和IHR之间的感知损失。对抗损失计算公式为lI Adv=-E[logDI(G(II LR))],其中:表示图像域的低分辨率的输入,G(·)表示超分辨率的生成器,DI(·)表示图像域的判别器,为经过生成器得到的图像域的超分辨率结果,log表示取对数操作,E[·]表示VGG损失函数计算过程,表示计算出的图像域的对抗损失。与图像域的损失函数类似,纹理域的像素损失函数为 表示纹理域的低分辨率的输入,为经过生成器得到的纹理域的超分辨率结果,表示原始的高分辨率图像的纹理域特征,E||·||1表示像素级别的MSE损失计算。表示纹理域和之间的像素损失。对抗损失为 表示纹理域的低分辨率的输入,G(·)表示超分辨率的生成器,DT(·)表示纹理域的判别器,为经过生成器得到的纹理域的超分辨率结果,log表示取对数操作,E[·]表示VGG损失函数计算过程,表示纹理域的对抗损失。根据损失函数对模型监督学习,完成医学超声图像的超分辨率重建。
与现有技术相比,本发明具有以下有益效果:
本发明通过将多图像融合应用于医学超声图像领域,通过传统的纹理特征提取模型和现在的深度学习模型相结合,进行医学超声图像超分辨率重建。先对超声图像进行预处理,通过双三次插值对图像下采样得到低分辨率和高分辨率图像对;将同一组织部位的多张图像进行融合得到融合图像;利用GMRF对融合图像提取纹理特征;然后将同一组织部位的多张图像分为一组,利用自动清晰度评价方法选择出低分辨率和高分辨率图像对用于监督学习;最后构建生成对抗网络模型,将LR-HR和β(LRF)-β(HRF)用于模型训练,从而完成医学超声图像超分辨率重建。本发明的好处在于由于医学超声图像是实时成像,可以在一段时间内获得患者同一组织部位的多张相似的图像,多张图像之间存在信息互补,故通过多图像融合可以从多幅图像中合并可靠性高的图像,从而提升呈现图像的可靠性和清晰度;同时,图像的纹理特征是理解图像的一个及其重要的信息源,人体的各个脏器与组织都有其特定的纹理,所以提取超声图像的纹理特征作为先验知识应用于图像超分辨率重建中,对提高诊断的准确性起到了积极的作用;并且实验表明,将传统的图像处理算法与目前的深度学习方法相结合用于图像超分辨率重建能达到良好的效果。
附图说明
图1为本发明的流程图。
图2为图像融合以及融合图像纹理特征提取流程图。
图3为LR-HR对选取流程图。
图4为超分辨率重建模型图。
具体实施方式
下面结合实施例对本发明作更进一步的说明。
实施例1
如图1-4所示,一种基于多图像融合的医学超声图像超分辨率重建方法,包括以下步骤:
S1.对收集到的医学超声图像数据进行预处理;
作为一个优选方案,所述步骤S1具体为:
S11.原始超声图像数据集大约为496*348像素,将这些图片裁剪成492*372像素的图片;
S12.用双三次插值对这些图片进行下采样获得对应的缩小2倍、3倍、4倍、6倍的低分辨率的图片;
S13.将图片进行分类,各个同一组织部位的低分辨率的N张图片归为一组,每组的图片记为LR0…LRN-1,各个统一组织部位的高分辨率的N张图片归为一组,每组的图片记为HR0…HRN-1。
S2.采用基于对比度的小波图像融合算法对同一病例的多张相似的医学超声图像进行融合;
作为一个优选方案,所述步骤S2具体为:
S21.离散小波对同一病例的N幅低分辨率图像LR0…LRN-1和N幅高分辨率图像HR0...HRN-1进行小波分解,得到低频子带系数和一系列高频子带系数,低频子图像代表了图像的近似分量,高频分量代表了图像的细节分量,细节信息越多,清晰度越高;
S22.对高频和低频子带系数遍历计算像素的对比度,图像的对比度C一般定义为其中:LP为图像局部灰度,LB为图像局部背景灰度(相当于图像变换后的低频分量),LH=LP-LB为图像变换后的高频分量。根据像素之间的相关性,图像中各像素的新的对比度为其中:N(x,y)为以像素坐标(x,y)为中心定义的矩形窗口,gγ(m,n)和fγ(m,n)分别代表图像经过离散小波变换分解后的高频和低频子带系数,NH表示图像上的所有像素点,γ∈NH表示图像上的某一像素点,(m,n)表示像素坐标(x,y)所在局部区域的某一像素点坐标。C(x,y)越大,说明原图像中像素(x,y)所在局部区域的对比度越大,对应像素越清晰。对比度高的像素是希望得到的像素;
S23.对高频和低频子带系数按照相应的融合规则,选取对比度高的系数作为融合系数;对LR0…LRN-1这N张低分辨率图像和HR0...HRN-1这N张高分辨率图像先进行两两融合,直到最后将这N张低分辨率图像和N张高分辨率图像各融合为一张图像。高频子带的融合规则选取如
其中:gF(x,y)是融合图像的高频系数,gA(x,y)和gB(x,y)表示图像A和B经离散小波变换分解后在像素坐标(x,y)处的高频子带系数,CA(x,y)表示图像A中像素点坐标为(x,y)的像素点的对比度,CB(x,y)表示图像B中像素点坐标为(x,y)的像素点的对比度。
其中:fF(x,y)是融合图像的低频系数。
S24.小波重构得到低分辨率融合图像LRF和高分辨率融合图像HRF。
S3.基于高斯马尔科夫随机场模型对融合图像提取纹理特征;
作为一个优选方案,所述步骤S3具体为:
S31.灰度共生矩阵(GLCM)提取空间中超声图像的灰度相关特征。GLCM是对图像上保持某距离的两像素分别具有某灰度的状况进行统计得到的。GLCM纹理特征是基于GLCM统计信息获得的。计算公式为其中:是灰度h1和灰度h2出现的次数,h是图像的灰度的最大值,Q一般选择0°、45°、90°和135°,s用来在Q方向上分隔图像的两个像素,是Q方向上由s分隔的两个像素的联合概率密度。GLCM中常用的纹理特征统计数据有14种类型。由于各种特征统计数据之间的相关性,因此无需计算所有特征。在超声图像的超分辨率重建中,使用了四个不相关的特征统计信息:能量、熵、对比度和相关性。能量Eg的计算公式为熵Ep的计算公式为对比度C的计算公式为p(h1,h2)是图像灰度级为h1和h2的两个像素的GLCM元素的值,h是图像的灰度的最大值。相关性Cr的计算公式为
S32.利用高斯马尔科夫随机场(GMRF)建立相邻像素之间的统计相关性特征。在GMRF中,图像的任何像素的强度值与所有周围的相邻像素有关,其可以用条件概率的形式表示为p(G(a)|G(a+t),t∈n),其中:n为像素a的GMRF邻域,a+t表示像素a邻域内的某一像素点,G(a)表示图像像素a的强度值,G(a+t)表示图像像素a+t的强度值;设U是图像块上设置的点,U={(k,q),1≤k≤n,1≤q≤n},n为像素a的GMRF邻域,k和q表示图像块U内的像素点,都在范围[1,n]内。GMRF过程可以用对称差分方程表示为G(a)=G(U)(α+β),其中:G(U)表示图像块U的强度值,α是对称邻域像素的权重,β是模型要估计的特征向量,可以使用最小二乘误差准则进行估计和求解,计算公式为β=(∑G(U)(G(U))T)-1(∑G(U)(G(a))),G(a)表示图像像素a的强度值,(·)T表示矩阵的转置运算,(·)-1表示矩阵的逆运算。β获得的模型参数是描述图像块的GMRF纹理特征;
S33.得到低分辨率融合图像的纹理特征β(LRF)和高分辨率融合图像的纹理特征β(HRF)。
S4.基于离散余弦变换稀疏的图像清晰度自动评价方法选择出低分辨率图像和高分辨率图像对用于监督学习;
作为一个优选方案,所述步骤S4具体为:
S41.同一组织部位的多张超声图像的清晰度存在差异,所以需要选择出同组中清晰度最高的图像作为超分辨率重建任务中的参考图像。首先对HR0…HRN-1中的HRi(0≤i≤N-1)进行离散余弦变换得到离散余弦变换系数矩阵C(x,y),(x,y)表示图像的某一像素点坐标,然后提取矩阵C(x,y)的对角线向量S,S=(C11,C22,…,Cuu),u=min(r,c),其中:C11,C22,…,Cuu表示离散余弦变换系数矩阵C(x,y)的对角线元素的值,u表示矩阵C(x,y)的行数r和列数c两者间的最小值,则图像HRi(0≤i≤N-1)的特征向量Sfeature=ln(S)=(ln(C1),ln(C2),…,ln(Cu)),S为对角线向量,C1,C2,…,Cu为对角线向量S的系数。所以可以提取HR0…HRN-1的特征向量Sfeature0…SfeatureN-1;HRi(0≤i≤N-1)、LRi(0≤i≤N-1)中下标i指的是第i张高分辨率图像或者第i张低分辨率图像,且第i张高分辨率图像和第i张低分辨率图像是对应的。
S42.用支持向量机模型对特征向量训练得到图像质量预测模型;特征向量Sfeature与图像质量之间存在某种关系,用支持向量机模型来建立特征向量与图像质量之间的映射关系。
S43.根据图像质量预测模型预测的图像质量分值,选择HR0...HRN-1中分值最高的HRi(0≤i≤N-1)作为参考图像,与HRi(0≤i≤N-1)对应的LRi(0≤i≤N-1)作为模型的输入。
S4.基于离散余弦变换稀疏的图像清晰度自动评价方法选择出低分辨率图像和高分辨率图像对用于监督学习;
S5.构建基于卷积神经网络模型CNN的生成对抗网络(GAN)架构对训练数据集进行训练,训练好的模型用于医学超声图像的超分辨率重建;
作为一个优选方案,所述步骤S5具体为:
S51.基于生成对抗网络的图像超分辨率重建模型分为一个生成器和两个判别器,采用ESRGAN基本架构单元残差密集块(RRDB)。生成器部分包括两个分支,分别为图像超分辨率重建的主分支和纹理特征提取的辅助分支,判别器分别对图像域和纹理域恢复进行监督;
S52.主分支由23个残差密集块(RRDB)组成,分支的输入为S4中选取到的低分辨率图像,在分支的末端采用最邻近插值执行上采样,最后通过卷积—ReLU激活函数—卷积将特征映射到图像域;
S53.辅助分支的输入是S3中提取到的纹理特征图,恢复融合图像的纹理特征。辅助分支的最终目的是明确学习融合图像的纹理特征,并将纹理特征反馈到主分支。辅助分支由4个RRDB块组成,第1、2、3和4个RRDB块的输入分别与主分支的第5、10、15和20个RRDB块的输出相连。在辅助分支的每一个RRDB块后面都有一个卷积层,以减少特征通道,最后通过卷积—ReLU—卷积将上采样特征映射到纹理特征域;
S54.在生成器网络的末端采用注意力机制将辅助分支的输出乘回到主分支,注意力机制可以阻挡由于不恰当的纹理增强导致的伪影,这种设计可以使纹理特征以更适应的方式增强超分辨率图像;
S55.监督学习中的损失函数包括了图像域的损失函数和纹理域的损失函数。图像域的损失函数包括像素损失、感知损失和对抗损失,纹理域的损失函数为像素损失和对抗损失。像素损失计算的是超分辨率图像和参考图像之间的像素差异,公式为其中:G(·)表示超分辨率的生成器,G(ILR)表示低分辨率输入图像ILR经过生成器之后生成的超分辨率图像,IHR代表原始的高分辨率图像,E||·||1表示像素级别的MSE损失计算过程,为G(ILR)和IHR之间的像素损失。感知损失用来恢复图像的感知质量,计算公式为φj(·)代表VGG网络在第j层处理图像时的激活情况,G(·)表示超分辨率的生成器,G(ILR)表示低分辨率输入图像ILR经过生成器之后生成的超分辨率图像,IHR代表原始的高分辨率图像,E||·||1表示像素级别的MSE损失计算过程,为G(ILR)和IHR之间的感知损失。对抗损失计算公式为lI Adv=-E[logDI(G(II LR))],其中:表示图像域的低分辨率的输入,G(·)表示超分辨率的生成器,DI(·)表示图像域的判别器,为经过生成器得到的图像域的超分辨率结果,log表示取对数操作,E[·]表示VGG损失函数计算过程,表示计算出的图像域的对抗损失。与图像域的损失函数类似,纹理域的像素损失函数为 表示纹理域的低分辨率的输入,为经过生成器得到的纹理域的超分辨率结果,表示原始的高分辨率图像的纹理域特征,E||·||1表示像素级别的MSE损失计算。表示纹理域和之间的像素损失。对抗损失为 表示纹理域的低分辨率的输入,G(·)表示超分辨率的生成器,DT(·)表示纹理域的判别器,为经过生成器得到的纹理域的超分辨率结果,log表示取对数操作,E[·]表示VGG损失函数计算过程,表示纹理域的对抗损失。根据损失函数对模型监督学习,完成医学超声图像的超分辨率重建。
实施例2
如图1所示,一种基于多图像融合的医学超声图像超分辨率重建方法,包括以下步骤:
S1.对通过超声设备采集到的各个病例的多张相似的医学超声图像数据进行预处理,去除低质量的图像;
S11.原始超声图像数据集大约为496*348像素,将这些图片裁剪成492*372像素的图片;
S12.用双三次插值对这些图片进行下采样获得对应的缩小2倍、3倍、4倍、6倍的低分辨率的图片;
S13.将图片进行分类,各个同一病例的低分辨率的N张图片归为一组,每组的图片记为LR0...LRN-1,各个同一组织部位的高分辨率的N张图片归为一组,每组的图片记为HR0...HRN-1。
S2.采用基于对比度的小波图像融合算法对同一病例的多张相似的医学超声图像进行融合;
S21.离散小波对同一组织区域的N幅低分辨率图像LR0…LRN和N幅高分辨率图像HR0...HRN-1进行小波分解,得到低频子带系数和一系列高频子带系数;
S22.对高频和低频子带系数遍历计算像素的对比度,对比度高的像素是希望得到的像素;
S23.对高频和低频子带系数按照相应的融合规则,选取对比度高的系数作为融合系数;
S24.小波重构得到融合图像LRF和HRF。
具体来讲,如图2所示,先对多幅相似的图像进行小波分解,再对两两图像计算对比度,对图像先进行两两融合,直到融合一组内所有图像,得到多幅图像的融合图像LRF和HRF。
S3.基于高斯马尔科夫随机场模型对融合图像提取纹理特征;
S31.灰度共生矩阵(GLCM)提取空间中超声图像的灰度相关特征。GLCM是对图像上保持某距离的两像素分别具有某灰度的状况进行统计得到的。GLCM纹理特征是基于GLCM统计信息获得的。GLCM中常用的纹理特征统计数据有14种类型。由于各种特征统计数据之间的相关性,因此无需计算所有特征。在超声图像的超分辨率重建中,使用了四个不相关的特征统计信息:能量、熵、对比度和相关性。
S32.利用高斯马尔科夫随机场(GMRF)建立相邻像素之间的统计相关性特征。在GMRF中,图像的任何像素a的强度值G(a)与所有周围的相邻像素有关,其可以用条件概率的形式表示为p(G(a)|G(a+t),t∈n)。
具体来讲,如图2所示,对融合图像LRF和HRF先利用GLCM提取灰度特征,再利用GMRF建立统计相关性特征,得到融合图像的纹理特征β(LRF)和β(HRF)
S4.基于离散余弦变换系数的图像清晰度自动评价方法选择出低分辨率图像和高分辨率图像对用于监督学习;
S41.同一组织部位的多张超声图像的清晰度存在差异,所以需要选择出同组中清晰度最高的图像作为超分辨率重建任务中的参考图像。首先对HR0…HRN-1进行离散余弦变换,提取特征向量Sfeature0…SfeatureN-1;
S42.用支持向量机模型对特征向量训练得到图像质量预测模型;
S43.根据图像质量预测模型预测HR0…HRN-1的图像质量分值,选择HR0…HRN-1中分值最高的HRi(0≤i≤N-1)作为参考图像,与HRi(0≤i≤N-1)对应的LRi(0≤i≤N-1)作为模型的输入。
具体来讲,如图3所示,通过支持向量机对特征向量训练得到图像质量预测模型,用模型自动评价图像的质量,在各个病例的多张超声图像中选择质量分数最高的图像作为参考图像,与之对应的为模型输入,即得到LR-HR图像对。
S5.构建基于卷积神经网络模型CNN的生成对抗网络(GAN)架构对训练数据集进行训练,训练好的模型用于医学超声图像的超分辨率重建。
S51.基于生成对抗网络的图像超分辨率重建模型分为一个生成器和两个判别器,生成器部分包括两个分支,分别为图像超分辨率重建的主分支和纹理特征提取的辅助分支,判别器分别对图像域和纹理特征提取进行监督;
S52.主分支由23个残差密集块(RRDBS)组成,分支的输入为S4中选取到的LRi(0≤i≤N-1),在分支的末端采用最邻近插值执行上采样,最后通过卷积—ReLU激活函数—卷积将特征映射到图像域;
S53.辅助分支的输入是S3中提取到的纹理特征图,恢复融合图像的纹理特征。辅助分支的最终目的是明确学习融合图像的纹理特征,并将纹理特征反馈到主分支。辅助分支由4个RRDB块组成,第1、2、3和4个RRDB块的输入分别和主分支的第5、10、15和20个RRDB块的输出相连;
S54.在生成器网络的末端采用注意力机制将辅助分支的输出乘回到主分支;
S55.监督学习中的损失函数包括了图像域的损失函数和纹理域的损失函数。图像域的损失函数包括像素损失、感知损失和对抗损失,纹理域的损失函数为像素损失和感知损失。
具体来讲,如图4所示,基本架构采用ESRGAN模型中的基本单元残差密集块(RRDB),GT(·)作为辅助分支用来学习图像的纹理特征,经过一个3×3的卷积神经网络Conv,通过4个RRDB块,上采样得到图像的纹理特征映射β(LRF);生成器GI(·)为主分支,Conv依旧是3×3,接下来是23个RRDB块,分支的末端利用最邻近插值上采样,最后通过Conv-ReLU-Conv得到超分辨率输出G(LR),完成医学超声图像超分辨率重建。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (6)
1.一种基于多图像融合的医学超声图像超分辨率重建方法,其特征在于,包括以下步骤:
S1.对收集到的医学超声图像数据进行预处理;
S2.采用基于对比度的小波图像融合算法对同一病例的多张相似的医学超声图像进行融合;
S3.基于高斯马尔科夫随机场模型对融合图像提取纹理特征;
S4.基于离散余弦变换稀疏的图像清晰度自动评价方法选择出低分辨率图像和高分辨率图像对用于监督学习;
S5.构建基于卷积神经网络模型CNN的生成对抗网络GAN架构对训练数据集进行训练,训练好的模型用于医学超声图像的超分辨率重建。
2.根据权利要求1所述的基于多图像融合的医学超声图像超分辨率重建方法,其特征在于,所述步骤S1具体为:
S11.原始超声图像数据集为496*348像素,将其裁剪成492*372像素的图片;
S12.用双三次插值对图片进行下采样获得对应的缩小2倍、3倍、4倍、6倍的低分辨率的图片;
S13.将图片进行分类,各个病例的低分辨率的N张图片归为一组,每组的图片记为LR0…LRN-1,各个病例的高分辨率的N张图片归为一组,每组的图片记为HR0…HRN-1。
3.根据权利要求1所述的基于多图像融合的医学超声图像超分辨率重建方法,其特征在于,所述步骤S2具体为:
S21.离散小波对同一病例的N幅低分辨率图像LR0…LRN-1和N幅高分辨率图像HR0...HRN-1进行小波分解,得到低频子带系数和一系列高频子带系数,低频子图像代表了图像的近似分量,高频分量代表了图像的细节分量,细节信息越多,清晰度越高;
S22.对高频和低频子带系数遍历计算像素的对比度,对比度高的像素是希望得到的像素;
S23.对高频和低频子带系数按照相应的融合规则,选取对比度高的系数作为融合系数;
S24.小波重构得到低分辨率融合图像LRF和高分辨率融合图像HRF。
4.根据权利要求1所述的基于多图像融合的医学超声图像超分辨率重建方法,其特征在于,所述步骤S3具体为:
S31.灰度共生矩阵GLCM提取空间中超声图像的灰度相关特征,GLCM是对图像上保持某距离的两像素分别具有某灰度的状况进行统计得到的,GLCM纹理特征是基于GLCM统计信息获得的,GLCM中常用的纹理特征统计数据有14种类型,由于各种特征统计数据之间的相关性,因此无需计算所有特征,在超声图像的超分辨率重建中,使用了四个不相关的特征统计信息:能量、熵、对比度和相关性;
S32.利用高斯马尔科夫随机场GMRF建立相邻像素之间的统计相关性特征,在GMRF中,图像的任何像素a的强度值G(a)与周围的相邻像素有关,其用条件概率的形式表示为p(G(a)|G(a+t),t∈n),其中:n为像素a的GMRF邻域,a+t表示像素a邻域内的某一像素点,G(a)表示图像像素a的强度值,G(a+t)表示图像像素a+t的强度值,p(G(a)|G(a+t),t∈n)表示在强度值G(a+t)条件下强度值G(a)的概率;
S33.得到低分辨率融合图像的纹理特征β(LRF)和高分辨率融合图像的纹理特征β(HRF)。
5.根据权利要求1所述的基于多图像融合的图像超分辨率重建方法,其特征在于,所述步骤S4具体为:
S41.同一病例的多张相似的超声图像的清晰度存在差异,所以需要选择出同组中清晰度最高的图像作为超分辨率重建任务中的参考图像;首先对HR0…HRN-1进行离散余弦变换,提取特征向量Sfeature0…SfeatureN-1;
S42.用支持向量机模型对特征向量训练得到图像质量预测模型;
S43.根据图像质量预测模型预测HR0…HRN-1的图像质量分值,选择HR0…HRN-1中分值最高的HRi(0≤i≤N-1)作为参考图像,与HRi(0≤i≤N-1)对应的LRi(0≤i≤N-1)作为模型的输入,HRi(0≤i≤N-1)、LRi(0≤i≤N-1)中下标i指的是第i张高分辨率图像或者第i张低分辨率图像,且第i张高分辨率图像和第i张低分辨率图像是对应的。
6.根据权利要求1所述的基于多图像融合的医学超声图像超分辨率重建方法,其特征在于,所述步骤S5具体为:
S51.基于生成对抗网络的图像超分辨率重建模型分为一个生成器和两个判别器,基本架构采用ESRGAN模型中的基本单元残差密集块RRDB;生成器部分包括两个分支,分别为图像超分辨率重建的主分支和纹理特征提取的辅助分支,判别器分别对图像域和纹理域进行监督;
S52.主分支包括23个残差密集块RRDB,分支的输入为S4中选取到的LRi(0≤i≤N-1),在分支的末端采用最邻近插值执行上采样,最后通过卷积—ReLU激活函数—卷积将特征映射到图像域;
S53.辅助分支的输入是S3中提取到的纹理特征图β(LRF),恢复融合图像的纹理特征;辅助分支的最终目的是明确学习融合图像的纹理特征,并将纹理特征反馈到主分支;辅助分支包括4个RRDB块,为了更好地恢复图像地纹理特征,主分支的第5、10、15和20个RRDB块的输出分别与辅助分支的第1、2、3和4个RRDB块的输入相连;
S54.在生成器网络的末端采用注意力机制将辅助分支的输出乘回到主分支;
S55.监督学习中的损失函数包括了图像域的损失函数和纹理域的损失函数;图像域的损失函数包括像素损失、感知损失和对抗损失,纹理域的损失函数为像素损失和对抗损失。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210298235.8A CN114792287A (zh) | 2022-03-25 | 2022-03-25 | 一种基于多图像融合的医学超声图像超分辨率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210298235.8A CN114792287A (zh) | 2022-03-25 | 2022-03-25 | 一种基于多图像融合的医学超声图像超分辨率重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114792287A true CN114792287A (zh) | 2022-07-26 |
Family
ID=82461087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210298235.8A Pending CN114792287A (zh) | 2022-03-25 | 2022-03-25 | 一种基于多图像融合的医学超声图像超分辨率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114792287A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115358927A (zh) * | 2022-08-22 | 2022-11-18 | 重庆理工大学 | 一种结合空间自适应和纹理转换的图像超分辨重建方法 |
CN115880157A (zh) * | 2023-01-06 | 2023-03-31 | 中国海洋大学 | 一种k空间金字塔特征融合的立体图像超分辨率重建方法 |
CN115880440A (zh) * | 2023-01-31 | 2023-03-31 | 中国科学院自动化研究所 | 一种基于生成对抗网络的磁粒子三维重建成像方法 |
-
2022
- 2022-03-25 CN CN202210298235.8A patent/CN114792287A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115358927A (zh) * | 2022-08-22 | 2022-11-18 | 重庆理工大学 | 一种结合空间自适应和纹理转换的图像超分辨重建方法 |
CN115358927B (zh) * | 2022-08-22 | 2023-12-26 | 重庆理工大学 | 一种结合空间自适应和纹理转换的图像超分辨重建方法 |
CN115880157A (zh) * | 2023-01-06 | 2023-03-31 | 中国海洋大学 | 一种k空间金字塔特征融合的立体图像超分辨率重建方法 |
CN115880440A (zh) * | 2023-01-31 | 2023-03-31 | 中国科学院自动化研究所 | 一种基于生成对抗网络的磁粒子三维重建成像方法 |
CN115880440B (zh) * | 2023-01-31 | 2023-04-28 | 中国科学院自动化研究所 | 一种基于生成对抗网络的磁粒子三维重建成像方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | SACNN: Self-attention convolutional neural network for low-dose CT denoising with self-supervised perceptual loss network | |
Gholizadeh-Ansari et al. | Deep learning for low-dose CT denoising using perceptual loss and edge detection layer | |
CN114792287A (zh) | 一种基于多图像融合的医学超声图像超分辨率重建方法 | |
CN110827216A (zh) | 图像去噪的多生成器生成对抗网络学习方法 | |
CN108898642A (zh) | 一种基于卷积神经网络的稀疏角度ct成像方法 | |
CN107464216A (zh) | 一种基于多层卷积神经网络的医学图像超分辨率重构方法 | |
CN110796622B (zh) | 一种基于串联神经网络多层特征的图像比特增强方法 | |
Bai et al. | Probabilistic self‐learning framework for low‐dose CT denoising | |
CN112837244B (zh) | 一种基于渐进式生成对抗网络的低剂量ct图像降噪及去伪影方法 | |
CN114241077B (zh) | 一种ct图像分辨率优化方法及装置 | |
CN107845079A (zh) | 基于紧支撑的3D‑shearlet医学CT视频去噪方法 | |
Pandey et al. | Segmentation of liver lesions with reduced complexity deep models | |
Li et al. | A novel medical image denoising method based on conditional generative adversarial network | |
CN114066729A (zh) | 一种可恢复身份信息的人脸超分辨率重建方法 | |
CN116645283A (zh) | 基于自监督感知损失多尺度卷积神经网络的低剂量ct图像去噪方法 | |
Lee et al. | Speckle reduction via deep content-aware image prior for precise breast tumor segmentation in an ultrasound image | |
Chan et al. | An attention-based deep convolutional neural network for ultra-sparse-view CT reconstruction | |
Ma et al. | Edge-guided cnn for denoising images from portable ultrasound devices | |
CN112967295B (zh) | 一种基于残差网络和注意力机制的图像处理方法及系统 | |
Al-Azzawi et al. | An efficient medical image fusion method using contourlet transform based on PCM | |
Paul et al. | Preprocessing techniques with medical ultrasound common carotid artery images | |
Sharif et al. | Two-Stage Deep Denoising With Self-guided Noise Attention for Multimodal Medical Images | |
Bera et al. | Axial consistent memory GAN with interslice consistency loss for low dose computed tomography image denoising | |
Li et al. | Dual-domain fusion deep convolutional neural network for low-dose CT denoising | |
Wang et al. | A comparison study of deep learning designs for improving low-dose CT denoising |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |