CN111696168A - 基于残差自注意力图像增强的高倍速采mri重建方法 - Google Patents

基于残差自注意力图像增强的高倍速采mri重建方法 Download PDF

Info

Publication number
CN111696168A
CN111696168A CN202010538650.7A CN202010538650A CN111696168A CN 111696168 A CN111696168 A CN 111696168A CN 202010538650 A CN202010538650 A CN 202010538650A CN 111696168 A CN111696168 A CN 111696168A
Authority
CN
China
Prior art keywords
image
attention
enhancement
path
net
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010538650.7A
Other languages
English (en)
Other versions
CN111696168B (zh
Inventor
蔺素珍
马凤飞
王丽芳
李大威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
North University of China
Original Assignee
North University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by North University of China filed Critical North University of China
Priority to CN202010538650.7A priority Critical patent/CN111696168B/zh
Publication of CN111696168A publication Critical patent/CN111696168A/zh
Application granted granted Critical
Publication of CN111696168B publication Critical patent/CN111696168B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明涉及MRI加速采集方法,具体为基于残差自注意力图像增强的高倍速采MRI重建方法。本方法采用生成对抗网络构建本发明的网络结构,将基于残差自注意力的特征增强模块内嵌至U‑NET收缩路径底部;将高倍欠采样图像输入生成器,经U‑NET收缩路径提取高级特征图后输入特征增强模块得到特征增强图,再经U‑NET扩展路径解码,并与收缩路径对应的特征图合并,融合扩展时对应级别收缩层的特征,补充缺失的边界信息,准确预测边缘信息,得到重建图像。本方法可以捕获图像更抽象、更丰富的纹理细节特征,融合局部信息和非局部信息以增强全局信息量,整个过程由网络自动选择有效特征,能实现关键区域纹理细节的自适应提取与重构,可以很好地重建高倍速采MR图像。

Description

基于残差自注意力图像增强的高倍速采MRI重建方法
技术领域
本发明涉及MRI加速采集方法,尤其涉及高倍速采MRI重建方法,具体为基于残差自注意力图像增强的高倍速采MRI重建方法。
背景技术
作为一种可重复、非侵入和定量的组织测量方式,磁共振成像(MagneticResonance Imaging,MRI)因其良好的软组织分辨力已经成为重大疾病诊疗的重要手段。不过,其固有的信号采集时间过长问题,也给应用造成了一些困难。一方面,数据采集时间过长不仅会给患者带来不适,而且不可避免的患者身体移动也增加了图像中存在较重伪影的可能性——当患者运动(例如心脏搏动和肠胃蠕动等)时,图像中常有的伪影往往会造成误诊或漏诊;另一方面,低的检查效率又会带来昂贵的检查费用,从而限制了其进一步推广和使用。
近二十年来,探索MRI加速采集和提高图像保真度一直是这一领域的研究重点。现有的加速方法主要有两大类:(1)并行成像,该类方法利用多个独立接收器通道且每个独立通道对离该线圈最近的组织最敏感的特性,获取原始数据之后使用灵敏度编码(SENSE)技术或泛化自校正部分并行获取(GRAPPA)技术进行重建。然而,并行成像的加速因子受到接收器线圈数量和位置的限制,会引入成像假象并增加MRI扫描仪的制造成本已逐渐趋冷。(2)另一类是在K空间对信号欠采样,该方法经济实惠但需要进行图像重建。其中,压缩感知(Compressed Sensing,CS)理论能突破Nyquist-Shannon采样标准快速采集。传统的CS方法利用变换域中MR图像的稀疏性,基于小波变换、离散余弦变换或有限差分(TotalVariation,TV)模型来重建图像,虽取得一定的效果,但受低水平稀疏性制约,不能有效去除伪影并恢复图像细节。
新近,深度学习在计算机视觉方面取得了一系列突破,使用深度神经网络(Convolutional Neural Networks,CNN)和生成对抗网络(Generative AdversarialNetwork,GAN)已成功解决图像分类和超分辨率等视觉问题。已有文献“DAGAN:deep de-aliasing generative adversarial networks for fast compressed sensing MRIreconstruction”利用生成对抗网络和U-NET成功重建MR图像,证明该方法能有效去除因加速采集导致频谱混叠造成的图像伪影,但随着数据采集倍数(加速因子达5倍以上)的增加,大量高频信息丢失,伪影严重。该方法不能较好恢复图像的纹理细节信息,而纹理细节对于疾病诊断的重要性不言而喻。因此,非常有必要探索高倍(加速因子达5倍以上)速采下MR图像的重建方法,以促进下一代MRI机研发。
为此,需要有一种方法来专门解决高倍速采MR图像重建时纹理细节缺失严重的问题。
发明内容
本发明为了解决高倍速采MR图像重建时纹理细节缺失严重的问题,提供了一种基于残差自注意力图像增强的高倍速采MRI重建方法。
本发明是采用如下的技术方案实现的:基于残差自注意力图像增强的高倍速采MRI重建方法,包括以下步骤:
(1)采用笛卡尔随机高倍欠采样策略对全采样图像Yμ进行欠采样,零填充后得到高倍欠采样图像Xμ
(2)采用生成对抗网络构建本发明的网络结构,生成对抗网络包括生成器和鉴别器,其中生成器由U-NET实现,鉴别器由卷积层实现;
(3)将基于残差自注意力的特征增强模块内嵌至U-NET收缩路径底部,捕获跨图像区域的长距离依赖关系,提取和增强图像的关键特征即图像的纹理细节信息;
(4)将高倍欠采样图像Xμ输入生成器,经U-NET收缩路径提取高级特征图后输入特征增强模块得到特征增强图,再经U-NET扩展路径解码,并与收缩路径对应的特征图合并,融合扩展时对应级别收缩层的特征,补充缺失的边界信息,准确预测边缘信息,得到重建图像
Figure BDA0002538023240000021
(5)采用端到端的方式训练生成对抗网络。
本发明用到的基本方法是U-NET和残差自注意力机制,其中,U-NET是一种深度卷积神经网络,其架构包含一个用于捕捉语义的收缩路径和一个用于精准定位的对称扩展路径,二者相互联系,U-NET具有局部感知能力,训练时间相对较短、结构简单、参数较少、对训练数据的要求较低等优点,在本发明中用于从零填充的高倍欠采样图像中提取图像结构特征和纹理细节信息,并去除混叠伪影;而注意力机制是通过快速扫描整幅图像,获得需要重点关注的特定区域,即注意力焦点,而抑制其他无用信息,同时对这一区域投入更多注意力资源,以获取更多有关目标的细节信息,然后逐渐调整焦点,进而推断整幅图像的信息,在本发明中用于捕获跨图像区域的长期依赖关系,即一个位置的特征是同一图像所有位置特征的加权和,而不仅仅是该位置的邻域。使用端对端方式训练提高网络的精度、稳定性和收敛性。本发明的整个过程由网络自动选择有效特征,实现了关键区域纹理细节的自适应提取与重构,相比于其他方法算法简单,重建结果的质量好,运行速度快。
上述的基于残差自注意力图像增强的高倍速采MRI重建方法,步骤(4)中获得特征增强图的过程如下:
(1)将高倍欠采样图像Xμ输入生成器,经收缩路径提取特征后得到高级特征图
Figure BDA0002538023240000031
高级特征图
Figure BDA0002538023240000032
作为残差自注意力图像增强模块的输入,进入全局平均池化层,获得图像高级特征的平均信息量,并将其重置为1×1×C的张量,得到平均特征值Qμ
Figure BDA0002538023240000033
其中C表示高级特征图的数量,H、W表示图像的高和宽,fen表示收缩路径的卷积操作,i、j表示像素索引;
(2)将高级特征图
Figure BDA0002538023240000034
与其对应的平均特征值Qμ相减,得到注意力权重图Iμ
Figure BDA0002538023240000035
表示图像的关键特征即边缘纹理细节;
(3)将注意力权重图Iμ经sigmod归一化后与高级特征图
Figure BDA0002538023240000036
相乘计算相似性权重Kμ
Figure BDA0002538023240000037
再与卷积后的高级特征图
Figure BDA0002538023240000038
相乘,得到纹理细节的注意力图Vμ
Figure BDA0002538023240000039
其中σ表示sigmod激活函数,f1×1表示1×1的卷积操作;
(4)将注意力图Vμ与高级特征图
Figure BDA00025380232400000310
相加,融合局部信息和非局部信息,增强了全局信息量,获得特征增强图
Figure BDA00025380232400000311
整个过程由网络自动选择有效特征,实现了关键区域的自适应。
上述的基于残差自注意力图像增强的高倍速采MRI重建方法,步骤(5)采用端到端的方式训练生成对抗网络的具体过程为:鉴别器损失函数为
Figure BDA0002538023240000041
生成器损失函数LG=εLadv+βLimg+δLfreq,其中
Figure BDA0002538023240000042
为对抗损失,由重建图像和完全采样图像在空域和频域的像素级均方误差
Figure BDA0002538023240000043
Figure BDA0002538023240000044
联合实现数据一致性损失,其中,ε、β、δ、γ分别是超参数,ffft表示傅里叶变换,最大化鉴别器损失,使其最大程度的识别重建图像和全采样图像;同时,最小化生成器损失,使其尽量生成更加逼真的重建图像,从而愚弄鉴别器,最终的训练目标是让鉴别器无法区分重建图像和完全采样图像。
上述的基于残差自注意力图像增强的高倍速采MRI重建方法,生成器里U-NET网络收缩路径的第一层卷积核用ω~G[0,0.02]初始化。
上述的基于残差自注意力图像增强的高倍速采MRI重建方法,生成器里U-NET网络收缩路径和扩展路径卷积核个数越多,习得的特征越多,但占用内存越大,因此U-NET压缩路径的卷积核个数依次为1、64、128、256、512,扩展路径卷积核个数依次为512、256、128、64、1。
上述的基于残差自注意力图像增强的高倍速采MRI重建方法,生成器里U-NET网络收缩路径和扩展路径卷积层的激活函数选
Figure BDA0002538023240000045
上述的基于残差自注意力图像增强的高倍速采MRI重建方法,生成对抗网络mini-batch大小决定误差收敛的稳定性,其值越大越稳定,但占用的内存更多,故取值在22-32之间,学习率决定误差收敛的速度,其值越大收敛速度越快,但越不稳定,取值在0.0001-0.01之间。
附图4-6为全采样/欠采样MR图像的实例,其中,图4为全采样MR图像,图5为高倍欠采样MR图像,图6为本发明MR重建图像。
本方法可以捕获图像更抽象、更丰富的纹理细节特征,融合局部信息和非局部信息以增强全局信息量,整个过程由网络自动选择有效特征,能实现关键区域纹理细节的自适应提取与重构,可以很好地重建高倍速采MR图像。
附图说明
图1为本发明的流程图。
图2为本发明网络总体架构图。
图3为本发明特征增强模块图。
图4为全采样MR图像。
图5为高倍欠采样MR图像。
图6为本发明的MR重建图像。
具体实施方式
基于残差自注意力图像增强的高倍速采MRI重建方法,包括以下步骤:
(1)采用笛卡尔随机高倍欠采样对全采样MR图像Yμ实施7倍欠采样策略,首先将全采样MR图像经傅里叶变换转换至频域,且只保留全采样图像14%的信息得到7倍欠采样图像Xμ:Xμ=F-1(Z(M·(F(Yμ)))),F和F-1分别表示傅里叶正变换和傅里叶逆变换,M表示欠采样算子,Z表示零填充操作,·表示点乘;
(2)采用生成对抗网络构建本发明的网络结构,其中生成器由U-NET实现,鉴别器由卷积层实现,将基于残差自注意力的特征增强模块内嵌至U-NET收缩路径底部;
(3)将7倍欠采样图像Xμ输入生成器,经收缩路径提取特征后得到高级特征图
Figure BDA0002538023240000051
高级特征图
Figure BDA0002538023240000052
作为残差自注意力图像增强模块的输入,进入全局平均池化层,获得图像高级特征的平均信息量,并将其重置为1×1×C的张量,得到平均特征值Qμ
Figure BDA0002538023240000053
其中C=512,表示特征图的数量,H、W表示图像的高和宽,fen表示收缩路径的卷积操作,i、j表示像素索引;
(4)将高级特征图
Figure BDA0002538023240000054
与其对应的平均特征值Qμ相减,得到注意力权重图Iμ
Figure BDA0002538023240000055
表示图像的关键特征即边缘纹理细节;
(5)将注意力权重图Iμ经sigmod归一化后与高级特征图
Figure BDA0002538023240000061
相乘计算相似性权重Kμ
Figure BDA0002538023240000062
再与卷积后的高级特征图
Figure BDA0002538023240000063
相乘,得到纹理细节的注意力图Vμ
Figure BDA0002538023240000064
其中σ表示sigmod激活函数,f1×1表示1×1的卷积操作;
(6)将注意力图Vμ与高级特征图
Figure BDA0002538023240000065
相加,融合局部信息和非局部信息,增强了全局信息量,获得特征增强图
Figure BDA0002538023240000066
整个过程由网络自动选择有效特征,实现了关键区域的自适应;
(7)最后将特征增强图
Figure BDA0002538023240000067
经U-NET扩展路径解码,并与收缩路径对应的特征图合并,融合扩展时对应级别收缩层的特征,补充了缺失的边界信息,准确预测边缘信息,得到重建图像
Figure BDA0002538023240000068
fde表示扩展路径的卷积操作;
(8)通过最大化鉴别器损失以及最小化生成器损失来训练网络,目标函数为
Figure BDA0002538023240000069
LG=εLadv+βLimg+δLfreq,其中
Figure BDA00025380232400000610
为对抗损失,由重建图像和完全采样图像在空域和频域的像素级均方误差
Figure BDA00025380232400000611
Figure BDA00025380232400000612
联合实现数据一致性损失,然后通过反向传播算法对网络进行训练,其中,ε、β、δ、γ分别是超参数,ffft表示傅里叶变换。
上述的基于残差自注意力图像增强的高倍速采MRI重建方法,U-NET收缩路径第一层卷积核用ω~G[0,0.02]初始化。
上述的基于残差自注意力图像增强的高倍速采MRI重建方法,U-NET收缩路径和扩展路径卷积核个数越多,习得的特征越多,但占用内存越大,因此U-NET压缩路径的卷积核个数依次为1、64、128、256、512,扩展路径卷积核依次为512、256、128、64、1。
上述的基于残差自注意力图像增强的高倍速采MRI重建方法,U-NET收缩路径和扩展路径卷积层的激活函数选
Figure BDA0002538023240000071
上述的基于残差自注意力图像增强的高倍速采MRI重建方法中,重建网络的训练集和测试集采用Facebook人工智能研究中心(FAIR)和纽约大学医学院高级成像创新与研究中心(CAI2R)分享的新的开源工具和fastMRI数据集。所述图像分辨率为256×256。mini-batch大小决定误差收敛的稳定性,其值越大越稳定,但占用的内存更多,故取值在22-32之间,学习率决定误差收敛的速度,其值越大收敛速度越快,但越不稳定,取值在0.0001-0.01之间。
反向传播算法是本领域技术人员公知的算法,具体流程可在相应的教科书或者技术文献中查阅到。

Claims (7)

1.基于残差自注意力图像增强的高倍速采MRI重建方法,其特征在于:包括以下步骤:
(1)采用笛卡尔随机高倍欠采样策略对全采样图像Yμ进行欠采样,零填充后得到高倍欠采样图像Xμ
(2)采用生成对抗网络构建本发明的网络结构,生成对抗网络包括生成器和鉴别器,其中生成器由U-NET实现,鉴别器由卷积层实现;
(3)将基于残差自注意力的特征增强模块内嵌至U-NET收缩路径底部,捕获跨图像区域的长距离依赖关系,提取和增强图像的关键特征即图像的纹理细节信息;
(4)将高倍欠采样图像Xμ输入生成器,经U-NET收缩路径提取高级特征图后输入特征增强模块得到特征增强图,再经U-NET扩展路径解码,并与收缩路径对应的特征图合并,融合扩展时对应级别收缩层的特征,补充缺失的边界信息,准确预测边缘信息,得到重建图像
Figure FDA0002538023230000011
(5)采用端到端的方式训练生成对抗网络。
2.根据权利要求1所述的基于残差自注意力图像增强的高倍速采MRI重建方法,其特征在于:步骤(4)中获得特征增强图的过程如下:
(1)将高倍欠采样图像Xμ输入生成器,经压缩路径提取特征后得到高级特征图
Figure FDA0002538023230000012
高级特征图
Figure FDA0002538023230000013
作为残差自注意力图像增强模块的输入,进入全局平均池化层,获得图像高级特征的平均信息量,并将其重置为1×1×C的张量,得到平均特征值Qμ
Figure FDA0002538023230000014
其中C表示高级特征图的数量,H、W表示图像的高和宽,fen表示收缩路径的卷积操作,i、j表示像素索引;
(2)将高级特征图
Figure FDA0002538023230000015
与其对应的平均特征值Qμ相减,得到注意力权重图Iμ
Figure FDA0002538023230000016
表示图像的关键特征即边缘纹理细节;
(3)将注意力权重图Iμ经sigmod归一化后与高级特征图
Figure FDA0002538023230000017
相乘计算相似性权重Kμ
Figure FDA0002538023230000021
再与卷积后的高级特征图
Figure FDA0002538023230000022
相乘,得到纹理细节的注意力图Vμ
Figure FDA0002538023230000023
其中σ表示sigmod激活函数,f1×1表示1×1的卷积操作;
(4)将注意力图Vμ与高级特征图
Figure FDA0002538023230000024
相加,融合局部信息和非局部信息,增强了全局信息量,获得特征增强图
Figure FDA0002538023230000025
整个过程由网络自动选择有效特征,实现了关键区域的自适应。
3.根据权利要求2所述的基于残差自注意力图像增强的高倍速采MRI重建方法,其特征在于:步骤(5)采用端到端的方式训练生成对抗网络的具体过程为:鉴别器损失函数为
Figure FDA0002538023230000026
生成器损失函数LG=εLadv+βLimg+δLfreq,其中
Figure FDA0002538023230000027
为对抗损失,由重建图像和完全采样图像在空域和频域的像素级均方误差
Figure FDA0002538023230000028
Figure FDA0002538023230000029
联合实现数据一致性损失,其中,ε、β、δ、γ分别是超参数,ffft表示傅里叶变换,最大化鉴别器损失,使其最大程度的识别重建图像和全采样图像;同时,最小化生成器损失,使其尽量生成更加逼真的重建图像,从而愚弄鉴别器,最终的训练目标是让鉴别器无法区分重建图像和完全采样图像。
4.根据权利要求1-3所述的基于残差自注意力图像增强的高倍速采MRI重建方法,其特征在于:生成器里U-NET网络收缩路径的第一层卷积核用ω~G[0,0.02]初始化。
5.根据权利要求1-3所述的基于残差自注意力图像增强的高倍速采MRI重建方法,其特征在于:生成器里U-NET网络收缩路径和扩展路径卷积核个数越多,习得的特征越多,但占用内存越大,因此U-NET压缩路径的卷积核个数依次为1、64、128、256、512,扩展路径卷积核个数依次为512、256、128、64、1。
6.根据权利要求1-3所述的基于残差自注意力图像增强的高倍速采MRI重建方法,其特征在于:生成器里U-NET网络收缩路径和扩展路径卷积层的激活函数选
Figure FDA0002538023230000031
7.根据权利要求1-3所述的基于残差自注意力图像增强的高倍速采MRI重建方法,其特征在于:生成对抗网络mini-batch大小决定误差收敛的稳定性,其值越大越稳定,但占用的内存更多,故取值在22-32之间,学习率决定误差收敛的速度,其值越大收敛速度越快,但越不稳定,取值在0.0001-0.01之间。
CN202010538650.7A 2020-06-13 2020-06-13 基于残差自注意力图像增强的高倍速采mri重建方法 Active CN111696168B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010538650.7A CN111696168B (zh) 2020-06-13 2020-06-13 基于残差自注意力图像增强的高倍速采mri重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010538650.7A CN111696168B (zh) 2020-06-13 2020-06-13 基于残差自注意力图像增强的高倍速采mri重建方法

Publications (2)

Publication Number Publication Date
CN111696168A true CN111696168A (zh) 2020-09-22
CN111696168B CN111696168B (zh) 2022-08-23

Family

ID=72480829

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010538650.7A Active CN111696168B (zh) 2020-06-13 2020-06-13 基于残差自注意力图像增强的高倍速采mri重建方法

Country Status (1)

Country Link
CN (1) CN111696168B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112164122A (zh) * 2020-10-30 2021-01-01 哈尔滨理工大学 一种基于深度残差生成对抗网络的快速cs-mri重建方法
CN112529080A (zh) * 2020-12-11 2021-03-19 深圳龙岗智能视听研究院 一种基于频谱特征判别的图像生成方法
CN112561838A (zh) * 2020-12-02 2021-03-26 西安电子科技大学 基于残差自注意力和生成对抗网络的图像增强方法
CN112614077A (zh) * 2020-12-30 2021-04-06 北京航空航天大学杭州创新研究院 一种基于生成对抗网络的非监督低照度图像增强方法
CN112614056A (zh) * 2020-12-31 2021-04-06 中国科学院生物物理研究所 图像超分辨率处理方法
CN112799128A (zh) * 2021-02-03 2021-05-14 北京航空航天大学 一种地震信号检测和震相提取的方法
CN113192151A (zh) * 2021-04-08 2021-07-30 广东工业大学 一种基于结构相似性的mri图像重建方法
CN113747063A (zh) * 2021-08-27 2021-12-03 深圳市芯中芯科技有限公司 一种视频传输的方法、装置、电子设备及可读存储介质
CN114114116A (zh) * 2022-01-27 2022-03-01 南昌大学 磁共振成像生成方法、系统、存储介质及计算机设备
CN114693823A (zh) * 2022-03-09 2022-07-01 天津大学 一种基于空频双域并行重建的磁共振图像重建方法
CN116363536A (zh) * 2023-05-31 2023-06-30 国网湖北省电力有限公司经济技术研究院 一种基于无人机巡查数据的电网基建设备缺陷归档方法
CN116993852A (zh) * 2023-09-26 2023-11-03 阿尔玻科技有限公司 图像重建模型的训练方法、主控设备及图像重建方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325931A (zh) * 2018-08-22 2019-02-12 中北大学 基于生成对抗网络和超分辨率网络的多模态图像融合方法
CN110047138A (zh) * 2019-04-24 2019-07-23 复旦大学 一种磁共振薄层图像重建方法
CN110151181A (zh) * 2019-04-16 2019-08-23 杭州电子科技大学 基于递归残差u型网络的快速磁共振成像方法
CN110555458A (zh) * 2019-07-24 2019-12-10 中北大学 基于注意力机制生成对抗网络的多波段图像特征级融合方法
CN110634101A (zh) * 2019-09-06 2019-12-31 温州大学 一种基于随机重构的无监督图像到图像的转换方法
US20200034948A1 (en) * 2018-07-27 2020-01-30 Washington University Ml-based methods for pseudo-ct and hr mr image estimation
CN111127346A (zh) * 2019-12-08 2020-05-08 复旦大学 基于部分到整体注意力机制的多层次图像修复方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200034948A1 (en) * 2018-07-27 2020-01-30 Washington University Ml-based methods for pseudo-ct and hr mr image estimation
CN109325931A (zh) * 2018-08-22 2019-02-12 中北大学 基于生成对抗网络和超分辨率网络的多模态图像融合方法
CN110151181A (zh) * 2019-04-16 2019-08-23 杭州电子科技大学 基于递归残差u型网络的快速磁共振成像方法
CN110047138A (zh) * 2019-04-24 2019-07-23 复旦大学 一种磁共振薄层图像重建方法
CN110555458A (zh) * 2019-07-24 2019-12-10 中北大学 基于注意力机制生成对抗网络的多波段图像特征级融合方法
CN110634101A (zh) * 2019-09-06 2019-12-31 温州大学 一种基于随机重构的无监督图像到图像的转换方法
CN111127346A (zh) * 2019-12-08 2020-05-08 复旦大学 基于部分到整体注意力机制的多层次图像修复方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
GU YUJUAN, ET AL.: "MedSRGAN: medical images super-resolution using generative adversarial networks", 《MULTIMEDIA TOOLS AND APPLICATIONS》 *
丁明航,等: "基于注意力生成对抗网络的图像超分辨率重建方法", 《计算机系统应用》 *
吕维帅,等: "基于深度神经网络的黑白图像着色算法研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *
杨晓莉,等: "基于生成对抗网络的多模态图像融合", 《激光与光电子学进展》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112164122A (zh) * 2020-10-30 2021-01-01 哈尔滨理工大学 一种基于深度残差生成对抗网络的快速cs-mri重建方法
CN112561838A (zh) * 2020-12-02 2021-03-26 西安电子科技大学 基于残差自注意力和生成对抗网络的图像增强方法
CN112561838B (zh) * 2020-12-02 2024-01-30 西安电子科技大学 基于残差自注意力和生成对抗网络的图像增强方法
CN112529080B (zh) * 2020-12-11 2023-07-25 深圳龙岗智能视听研究院 一种基于频谱特征判别的图像生成方法
CN112529080A (zh) * 2020-12-11 2021-03-19 深圳龙岗智能视听研究院 一种基于频谱特征判别的图像生成方法
CN112614077A (zh) * 2020-12-30 2021-04-06 北京航空航天大学杭州创新研究院 一种基于生成对抗网络的非监督低照度图像增强方法
CN112614077B (zh) * 2020-12-30 2022-08-19 北京航空航天大学杭州创新研究院 一种基于生成对抗网络的非监督低照度图像增强方法
CN112614056A (zh) * 2020-12-31 2021-04-06 中国科学院生物物理研究所 图像超分辨率处理方法
CN112614056B (zh) * 2020-12-31 2023-09-05 北京纳析光电科技有限公司 图像超分辨率处理方法
CN112799128A (zh) * 2021-02-03 2021-05-14 北京航空航天大学 一种地震信号检测和震相提取的方法
CN112799128B (zh) * 2021-02-03 2021-10-22 北京航空航天大学 一种地震信号检测和震相提取的方法
CN113192151A (zh) * 2021-04-08 2021-07-30 广东工业大学 一种基于结构相似性的mri图像重建方法
CN113747063B (zh) * 2021-08-27 2023-08-04 深圳市芯中芯科技有限公司 一种视频传输的方法、装置、电子设备及可读存储介质
CN113747063A (zh) * 2021-08-27 2021-12-03 深圳市芯中芯科技有限公司 一种视频传输的方法、装置、电子设备及可读存储介质
CN114114116B (zh) * 2022-01-27 2022-08-23 南昌大学 磁共振成像生成方法、系统、存储介质及计算机设备
CN114114116A (zh) * 2022-01-27 2022-03-01 南昌大学 磁共振成像生成方法、系统、存储介质及计算机设备
CN114693823A (zh) * 2022-03-09 2022-07-01 天津大学 一种基于空频双域并行重建的磁共振图像重建方法
CN116363536A (zh) * 2023-05-31 2023-06-30 国网湖北省电力有限公司经济技术研究院 一种基于无人机巡查数据的电网基建设备缺陷归档方法
CN116363536B (zh) * 2023-05-31 2023-08-11 国网湖北省电力有限公司经济技术研究院 一种基于无人机巡查数据的电网基建设备缺陷归档方法
CN116993852A (zh) * 2023-09-26 2023-11-03 阿尔玻科技有限公司 图像重建模型的训练方法、主控设备及图像重建方法
CN116993852B (zh) * 2023-09-26 2024-01-30 阿尔玻科技有限公司 图像重建模型的训练方法、主控设备及图像重建方法

Also Published As

Publication number Publication date
CN111696168B (zh) 2022-08-23

Similar Documents

Publication Publication Date Title
CN111696168B (zh) 基于残差自注意力图像增强的高倍速采mri重建方法
CN108460726B (zh) 一种基于增强递归残差网络的磁共振图像超分辨重建方法
CN109325985B (zh) 磁共振图像重建方法、装置和计算机可读存储介质
Liu et al. Perception consistency ultrasound image super-resolution via self-supervised CycleGAN
US10996306B2 (en) MRI system and method using neural network for detection of patient motion
CN111598964B (zh) 一种基于空间自适应网络的定量磁化率图像重建方法
CN110689509B (zh) 基于循环多列3d卷积网络的视频超分辨率重建方法
CN113538616B (zh) 一种联合PUGAN与改进U-net的磁共振图像重构方法
CN115375711A (zh) 基于多尺度融合的全局上下文关注网络的图像分割方法
Yan et al. SMIR: A Transformer-Based Model for MRI super-resolution reconstruction
Klug et al. Scaling laws for deep learning based image reconstruction
Lv et al. Parallel imaging with a combination of sensitivity encoding and generative adversarial networks
CN111681297B (zh) 图像重建方法、计算机设备和存储介质
Chaman et al. Truly shift-equivariant convolutional neural networks with adaptive polyphase upsampling
Sander et al. Autoencoding low-resolution MRI for semantically smooth interpolation of anisotropic MRI
CN112669209A (zh) 一种三维医学图像超分辨率重建方法和系统
CN116778016A (zh) 一种mri图像重建方法、系统及介质
CN112669400B (zh) 基于深度学习预测和残差架构的动态mr重建方法
Ke et al. CRDN: cascaded residual dense networks for dynamic MR imaging with edge-enhanced loss constraint
Ke et al. Cascaded residual dense networks for dynamic MR imaging with edge-enhanced loss constraint
CN114529564A (zh) 一种基于上下文信息的轻量级婴儿脑组织图像分割方法
CN110146835B (zh) 一种基于并行成像的自导航磁共振图像重建方法及装置
US11967004B2 (en) Deep learning based image reconstruction
CN117670703A (zh) 一种基于多任务联合训练的磁共振图像恢复方法
CN108346167A (zh) 一种基于正交字典下同时稀疏编码的mri图像重构方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant