CN114359092A - 图像处理方法、图像处理装置和存储介质 - Google Patents

图像处理方法、图像处理装置和存储介质 Download PDF

Info

Publication number
CN114359092A
CN114359092A CN202111653638.1A CN202111653638A CN114359092A CN 114359092 A CN114359092 A CN 114359092A CN 202111653638 A CN202111653638 A CN 202111653638A CN 114359092 A CN114359092 A CN 114359092A
Authority
CN
China
Prior art keywords
output
block
input
layer
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111653638.1A
Other languages
English (en)
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Biren Intelligent Technology Co Ltd
Original Assignee
Shanghai Biren Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Biren Intelligent Technology Co Ltd filed Critical Shanghai Biren Intelligent Technology Co Ltd
Priority to CN202111653638.1A priority Critical patent/CN114359092A/zh
Publication of CN114359092A publication Critical patent/CN114359092A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

一种图像处理方法、图像处理装置和计算机可读存储介质。图像处理方法包括:获取输入图像;利用图像重建网络对输入图像进行N次重建操作,以得到输入图像对应的重建图像。图像重建网络包括编码子网络、解码子网络和连接子网络,编码子网络包括至少一个编码块,每个编码块包括多个自注意力算子,解码子网络包括至少一个解码块,每个解码块包括多个自注意力算子,连接子网络包括连接层,一个编码块与一个解码块通过连接层映射连接。每次重建操作包括:通过编码子网络对编码子网络的输入进行特征提取处理,以得到第一特征图和至少一个编码块的输出;利用解码子网络和连接子网络对第一特征图和至少一个编码块的输出进行处理,以得到解码子网络的输出。

Description

图像处理方法、图像处理装置和存储介质
技术领域
本公开的实施例涉及一种图像处理方法、图像处理装置和计算机可读存储介质。
背景技术
图像重建在视频、遥感、医学及信号处理等领域均有十分重要的应用。例如,在不改变卫星图像探测系统的条件下,采集清晰度高的气象遥感图像更利于观测;磁共振成像能提供相比于计算机断层扫描更好的软组织对比度和安全性(例如,避免患者被核辐射等),然而,缓慢的磁共振成像速度将降低患者的舒适性并导致高昂的成本;在银行、交通等监控系统中,往往需要获取高分辨率的图像,以提取重要的线索。
发明内容
本公开至少一个实施例提供一种图像处理方法,包括:获取输入图像;利用图像重建网络对所述输入图像进行N次重建操作,以得到所述输入图像对应的重建图像,其中,N为大于等于1的正整数,所述图像重建网络包括编码子网络、解码子网络和连接子网络,所述编码子网络包括至少一个编码块,每个编码块包括多个自注意力算子,所述解码子网络包括至少一个解码块,每个解码块包括多个自注意力算子,所述连接子网络包括连接层,所述至少一个编码块中的一个编码块与所述至少一个解码块中的一个解码块通过所述连接层映射连接,其中,每次重建操作包括:通过所述编码子网络对所述编码子网络的输入进行特征提取处理,以得到第一特征图和所述至少一个编码块的输出;利用所述解码子网络和所述连接子网络对所述第一特征图和所述至少一个编码块的输出进行处理,以得到所述解码子网络的输出。
例如,在本公开至少一个实施例提供的图像处理方法中,所述图像重建网络还包括瓶颈层,其中,在所述图像重建网络包括所述瓶颈层的情况下,每次重建操作包括:通过所述编码子网络对所述编码子网络的输入进行特征提取处理,以得到所述第一特征图和所述至少一个编码块的输出;利用所述瓶颈层对所述第一特征图进行处理,以得到第二特征图;利用所述解码子网络和所述连接子网络对所述第二特征图和所述至少一个编码块的输出进行处理,以得到所述解码子网络的输出。
例如,在本公开至少一个实施例提供的图像处理方法中,所述瓶颈层包括多个自注意力算子,利用所述瓶颈层对所述第一特征图进行处理,以得到第二特征图,包括:利用所述瓶颈层的多个自注意力算子对所述第一特征图进行表示学习,以得到所述第二特征图。
例如,在本公开至少一个实施例提供的图像处理方法中,所述瓶颈层的多个自注意力算子包括依次交替连接的基于窗口的自注意力算子和基于移动窗口的自注意力算子,所述瓶颈层中的基于窗口的自注意力算子的数量比基于移动窗口的自注意力算子的数量多1。
例如,在本公开至少一个实施例提供的图像处理方法中,当N为1,对于所述N次重建操作,所述编码子网络的输入为所述输入图像,所述解码子网络的输出为所述重建图像,当N大于1,对所述N次重建操作中的第i次重建操作中所述解码子网络的输出进行数据拟合处理和数据修正处理,以得到所述N次重建操作中的第i+1次重建操作中所述编码子网络的输入,i为正整数且小于N,i为1时,所述第i次重建操作中所述编码子网络的输入为所述输入图像,i为N-1时,所述第i+1次重建操作中所述解码子网络的输出为所述重建图像。
例如,在本公开至少一个实施例提供的图像处理方法中,所述连接子网络包括至少一个连接层,所述至少一个编码块与所述至少一个解码块通过所述至少一个连接层一一对应映射连接,每个所述连接层用于将具有相同尺寸特征的编码块和解码块进行映射连接。
例如,在本公开至少一个实施例提供的图像处理方法中,所述解码子网络还包括线性投影层,所述至少一个编码块包括依次连接的多个编码块,所述至少一个解码块包括依次连接的多个解码块,所述连接子网络包括多个连接层,所述多个编码块与所述多个解码块通过所述多个连接层一一对应映射连接,每个所述连接层用于将所述连接层对应的编码块的输出和所述连接层对应的解码块的输出进行连接处理,所述连接层的输出作为所述连接层对应的解码块所连接的下一个解码块的输入或者所述连接层的输出作为所述线性投影层的输入。
例如,在本公开至少一个实施例提供的图像处理方法中,所述编码子网络还包括输出编码块,所述至少一个编码块包括输入编码块,通过所述编码子网络对所述编码子网络的输入进行特征提取处理,以得到第一特征图和所述至少一个编码块的输出,包括:通过所述输入编码块对所述编码子网络的输入进行处理,以得到所述输入编码块的输出;利用所述输出编码块对所述输入编码块的输出进行处理,以得到所述第一特征图。
例如,在本公开至少一个实施例提供的图像处理方法中,所述输出编码块包括多个自注意力算子和补丁合并层,利用所述输出编码块对所述输入编码块的输出进行处理,以得到所述第一特征图,包括:通过所述输出编码块中的补丁合并层对所述输入编码块的输出进行下采样操作和第一通道数调整操作,以得到第一编码特征图;通过所述输出编码块中的多个自注意力算子对所述第一编码特征图进行表示学习,以得到所述第一特征图。
例如,在本公开至少一个实施例提供的图像处理方法中,所述补丁合并层包括下采样层和第一线性层,所述下采样层用于执行所述下采样操作,所述第一线性层用于执行所述第一通道数调整操作;通过所述输出编码块中的补丁合并层对所述输入编码块的输出进行下采样操作和第一通道数调整操作,以得到第一编码特征图,包括:通过所述下采样层对所述输入编码块的输出进行所述下采样操作,以得到所述下采样层的输出;通过所述第一线性层对所述下采样层的输出进行所述第一通道数调整操作,以得到所述第一编码特征图。
例如,在本公开至少一个实施例提供的图像处理方法中,所述第一编码特征图的维度和所述第一特征图的维度相同,所述第一编码特征图的尺寸和所述第一特征图的尺寸相同。
例如,在本公开至少一个实施例提供的图像处理方法中,所述至少一个编码块包括依次连接的输入编码块和至少一个中间编码块,每个中间编码块还包括补丁合并层,每个中间编码块用于利用所述中间编码块的补丁合并层对所述中间编码块的输入进行下采样操作和第一通道数调整操作,以得到所述中间编码块的补丁合并层的输出;利用所述中间编码块中的多个自注意力算子对所述中间编码块的补丁合并层的输出进行表示学习,以得到所述中间编码块的输出。
例如,在本公开至少一个实施例提供的图像处理方法中,所述编码子网络还包括输出编码块,所述至少一个中间编码块包括第一中间编码块和第二中间编码块,通过所述编码子网络对所述编码子网络的输入进行特征提取处理,以得到第一特征图和所述至少一个编码块的输出,包括:通过所述输入编码块对所述编码子网络的输入进行处理,以得到所述输入编码块的输出;利用所述第一中间编码块对所述输入编码块的输出进行处理,以得到所述第一中间编码块的输出;利用所述第二中间编码块对所述第一中间编码块的输出进行处理,以得到所述第二中间编码块的输出;利用所述输出编码块对所述第二中间编码块的输出进行处理,以得到所述第一特征图。
例如,在本公开至少一个实施例提供的图像处理方法中,所述输入编码块还包括线性嵌入层,通过所述输入编码块对所述编码子网络的输入进行处理,以得到所述输入编码块的输出,包括:通过所述输入编码块中的线性嵌入层对所述编码子网络的输入进行处理,以得到第二编码特征图;通过所述输入编码块中的多个自注意力算子对所述第二编码特征图进行表示学习,以得到所述输入编码块的输出。
例如,在本公开至少一个实施例提供的图像处理方法中,所述第二编码特征图的维度和所述输入编码块的输出的维度相同,所述第二编码特征图的尺寸和所述输入编码块的输出的尺寸相同。
例如,在本公开至少一个实施例提供的图像处理方法中,每个解码块还包括补丁扩展层,每个解码块用于利用所述解码块的补丁扩展层对所述解码块的输入进行上采样操作和第二通道数调整操作,以得到所述解码块的补丁合并层的输出;利用所述解码块中的多个自注意力算子对所述解码块的补丁合并层的输出进行表示学习,以得到所述解码块的输出。
例如,在本公开至少一个实施例提供的图像处理方法中,所述补丁扩展层包括上采样层和第二线性层,所述上采样层用于执行所述上采样操作,所述第二线性层用于执行所述第二通道数调整操作。
例如,在本公开至少一个实施例提供的图像处理方法中,所述解码子网络还包括线性投影层,所述至少一个解码块包括输入解码块,所述至少一个连接层包括第一连接层,利用所述解码子网络和所述连接子网络对所述第二特征图和所述至少一个编码块的输出进行处理,以得到所述解码子网络的输出,包括:通过所述输入解码块对所述第二特征图进行处理,以得到所述输入解码块的输出;通过所述第一连接层将与所述第一连接层对应的编码块的输出和所述输入解码块的输出进行连接处理,以得到所述第一连接层的输出,通过所述线性投影层对所述第一连接层的输出进行投影映射操作,以得到所述解码子网络的输出。
例如,在本公开至少一个实施例提供的图像处理方法中,所述解码子网络还包括线性投影层,所述至少一个解码块包括依次连接的输入解码块和至少一个中间解码块,所述至少一个中间解码块包括依次连接的第一中间解码块和第二中间解码块,所述至少一个连接层包括第一连接层、第二连接层和第三连接层,利用所述解码子网络和所述连接子网络对所述第二特征图和所述至少一个编码块的输出进行处理,以得到所述解码子网络的输出,包括:通过所述输入解码块对所述第二特征图进行处理,以得到所述输入解码块的输出;通过所述第一连接层将与所述第一连接层对应的编码块的输出和所述输入解码块的输出进行连接处理,以得到所述第一连接层的输出;通过所述第一中间解码块对所述第一连接层的输出进行处理,以得到所述第一中间解码块的输出;通过所述第二连接层将与所述第二连接层对应的编码块的输出和所述第一中间解码块的输出进行连接处理,以得到所述第二连接层的输出;通过所述第二中间解码块对所述第二连接层的输出进行处理,以得到所述第二中间解码块的输出;通过所述第三连接层将与所述第三连接层对应的编码块的输出和所述第二中间解码块的输出进行连接处理,以得到所述第三连接层的输出;通过所述线性投影层对所述第三连接层的输出进行投影映射操作,以得到所述解码子网络的输出。
例如,在本公开至少一个实施例提供的图像处理方法中,所述至少一个编码块和所述至少一个解码块的每一个中的多个自注意力算子包括至少一个对称窗口的自注意力算子块,每个对称窗口的自注意力算子块包括基于窗口的自注意力算子和基于移动窗口的自注意力算子,所述基于窗口的自注意力算子的输出作为所述基于移动窗口的自注意力算子的输入。
例如,在本公开至少一个实施例提供的图像处理方法中,获取输入图像包括:确定采样数据,其中,所述采样数据为进行欠采样得到的数据;对所述采样数据进行初始化处理以将所述采样数据从频域转到对应的空间域,以得到中间输入图像;对所述中间输入图像进行处理,以得到所述输入图像。
例如,在本公开至少一个实施例提供的图像处理方法中,对所述中间输入图像进行处理,以得到所述输入图像,包括:对所述中间输入图像进行数据拟合处理和数据修正处理,以得到所述输入图像。
例如,在本公开至少一个实施例提供的图像处理方法中,所述输入图像的尺寸和所述重建图像的尺寸相同,所述输入图像的通道数和所述重建图像的通道数相同。
例如,在本公开至少一个实施例提供的图像处理方法中,在获取所述输入图像前,所述图像处理方法还包括:在训练阶段,利用样本图像和所述样本图像对应的样本重建图像训练所述图像重建网络,其中,在所述训练阶段,所述图像重建网络对应的损失函数包括平均绝对误差损失函数和结构相似性损失函数。
例如,在本公开至少一个实施例提供的图像处理方法中,所述图像重建网络对应的损失函数表示为:
LMix=λ*LSSIM+(1-λ)*LMAE
其中,LMix表示所述图像重建网络对应的损失函数,LSSIM表示所述结构相似性损失函数,LMAE表示所述平均绝对误差损失函数,λ为常数。
本公开至少一个实施例还提供一种图像处理装置,包括存储器和处理器。存储器存储有适于由所述处理器运行的计算机可执行指令,所述计算机可执行指令被所述处理器运行时执行根据本公开任一实施例所述的图像处理方法中的一个或多个步骤。
本公开至少一个实施例还提供一种计算机可读存储介质,非瞬时性地存储计算机可执行指令,所述计算机可执行指令被计算机运行时执行根据本公开任一实施例所述的图像处理方法中的一个或多个步骤。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例的附图作简单地介绍,显而易见地,下面描述中的附图仅仅涉及本公开的一些实施例,而非对本公开的限制。
图1为本公开至少一个实施例提供的一种图像处理方法的示意性流程图;
图2为本公开至少一个实施例提供的一种欠采样的过程示意图;
图3为本公开至少一个实施例提供的一种图像处理方法的整体流程示意图;
图4A为本公开至少一个实施例提供的编码块或解码块中的多个自注意力算子的一种结构示意图;
图4B为本公开至少一个实施例提供的瓶颈层中的多个自注意力算子的一种结构示意图;
图5为本公开至少一个实施例提供的一种图像重建网络的示意性结构图;
图6为本公开至少一个实施例提供的另一种图像重建网络的示意性结构图;
图7为本公开至少一个实施例提供的一种补丁合并层的操作示意图;
图8为本公开至少一个实施例提供的另一种图像重建网络的结构示意图;
图9为本公开至少一个实施例提供的一种图像处理装置的示意性框图;
图10为本公开至少一个实施例提供的一种计算机可读存储介质的示意图。
具体实施方式
为了使得本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例的附图,对本公开实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。基于所描述的本公开的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
除非另外定义,本公开使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
为了保持本公开实施例的以下说明清楚且简明,本公开省略了部分已知功能和已知部件的详细说明。
磁共振成像(MRI,Magnetic Resonance Imaging)的模型如下面的公式(1)所示,
f=Am+ε (1)
在公式(1)中,A:CN→CM是带有欠采样的离散傅里叶变换(即前向成像模型),f∈CM是欠采样的k空间(k空间是寻常空间在傅里叶转换下的对偶空间)观测数据,m∈CN是待重建的磁共振图像,ε是加性噪声,ε是由成像过程造成的系统噪声(高斯噪声)。从欠采样的观测数据反演出高质量重建图像本质上是解决一个欠定的反演问题,所以要适当选用有关磁共振图像的先验信息作为解决方案。然而,基于使用先验信息的正则化和压缩感知(compressed sensing)的传统方法并不适合医学图像,原因是:该方法生成的图像的细节模糊,但磁共振图像中的细节特征比整体特征更重要。目前,基于深度学习的反演方法在解决欠定问题方面表现地十分出色,可以克服现有基于数学模型方法的局限性,这是由于训练数据和先验知识可以随着训练时间的增长进行推移和积累。基于迭代展开深度学习方法大多源于具有收敛性或渐近收敛保证的数学模型算法(例如,近端梯度算子、梯度下降等)来提供更多关于网络拓扑和性能之间关系的信息。基于展开的重建方法已经从仅学习正则化参数逐渐演变为学习压缩感知重建公式中的可学习算子和函数。基于非迭代展开的深度学习方法起初依赖标准网络学习欠采样的k空间数据或零填充图像与重建图像之间的特征映射。
目前,基于深度学习的图像重建方法大多依赖于卷积神经网络(CNN)。基于CNN的迭代展开深度学习方法在捕获远程依赖关系方面受到固有局部性的限制,并且容易对图像中的细节进行平滑处理,保持细节能力较差;基于CNN的非迭代展开的深度学习方法采用端到端的网络学习低分辨率图像与重建图像之间的特征映射,但是这此类网络犹如黑匣子,具有可解释性低的缺点。
本公开涉及图像处理(即图像重建)、基于深度学习的图像反演的技术领域,本公开至少一个实施例提供一种图像处理方法,该图像处理方法包括:获取输入图像;利用图像重建网络对输入图像进行N次重建操作,以得到输入图像对应的重建图像。N为大于等于1的正整数。图像重建网络包括编码子网络、解码子网络和连接子网络,编码子网络包括至少一个编码块,每个编码块包括多个自注意力算子,解码子网络包括至少一个解码块,每个解码块包括多个自注意力算子,连接子网络包括连接层,至少一个编码块中的一个编码块与至少一个解码块中的一个解码块通过连接层映射连接。每次重建操作包括:通过编码子网络对编码子网络的输入进行特征提取处理,以得到第一特征图和至少一个编码块的输出;利用解码子网络和连接子网络对第一特征图和至少一个编码块的输出进行处理,以得到解码子网络的输出。
本公开的实施例提供的图像处理方法是一种基于可学习迭代注意力网络的图像重建方法,可以从欠采样的观测数据反演出高质量的重建图像。基于本公开的实施例提供的图像处理方法,重建图像的质量和清晰度可以被提高,使得重建图像中的细节特征得以保留,在减少网络训练时间的条件下,获得更高质量的重建图像,并且可以加速重建图像的生成,提高处理速度,降低运算时间,具有更好、更广泛的应用前景。
本公开至少一个实施例还提供一种图像处理装置和计算机可读存储介质。
本公开实施例提供的图像处理方法可应用于本公开实施例提供的图像处理装置,该图像处理装置可被配置于电子设备上。例如,在一些实施例中,电子设备可以为医疗类型的电子设备。
下面对本公开的实施例进行详细说明,但是本公开并不限于这些具体的实施例。
图1为本公开至少一个实施例提供的一种图像处理方法的示意性流程图。
例如,在本公开实施例提供的图像处理方法中,图像重建网络可以为神经网络,图像重建网络可以包括编码子网络、解码子网络和连接子网络。编码子网络用于提取特征图(feature map),解码子网络用于重建并生成重建图像(例如,MRI图像等)。
例如,连接子网络用于将编码子网络和解码子网络进行连接,即连接浅层特征和深层特征以进行补偿,从而减少压缩和下采样导致的空间信息丢失。此处,所称的连接,例如可以是skip connection(即合并concatenate操作),即通过内存映射的方式将编码子网络和解码子网络相连接的层中具有相同大小的特征映射连接(使得特征对应的向量合并,特征所在层的通道数加倍)。连接子网络包括连接层,连接层用于融合来自编码子网络的下采样特征和解码子网络的上采样特征的多尺度特征。
例如,编码子网络包括至少一个编码块,每个编码块包括多个自注意力算子,解码子网络包括至少一个解码块,每个解码块包括多个自注意力算子。至少一个编码块中的一个编码块与至少一个解码块中的一个解码块通过连接层映射连接,例如,在一些实施例中,连接子网络包括至少一个连接层,至少一个编码块与至少一个解码块通过至少一个连接层一一对应映射连接,也就是说,每个编码块通过一个连接层与相应的解码块进行映射连接。连接层所连接的编码块的输出的尺寸和该连接层所连接的解码块的输出的尺寸相同,连接层所连接的编码块的输出的维度和该连接层所连接的解码块的输出的维度也相同。也就是说,每个连接层用于将具有相同尺寸和维度的特征图的编码块和解码块进行映射连接。
如图1所示,本公开实施例提供的图像处理方法可以包括,但不限于,以下步骤:
步骤S10:获取输入图像;
步骤S20:利用图像重建网络对输入图像进行N次重建操作,以得到输入图像对应的重建图像。
例如,在步骤10中,输入图像可以为灰度图像,也可以为彩色图像。
例如,输入图像的尺寸可以为256(像素)*256(像素)。但不限于此,输入图像的尺寸还可以为512*512等,本公开实施例对此不作限制。在本公开下面的描述中,以输入图像的尺寸为256*256为例进行详细说明。
例如,在一些实施例中,步骤S10可以包括:确定采样数据;对采样数据进行初始化处理以将采样数据从频域转到对应的空间域,以得到中间输入图像;对中间输入图像进行处理,以得到输入图像。
例如,采样数据为进行欠采样得到的数据。在本公开的实施例中,可以直接采用欠采样的数据,从而可以减少采样过程的时间,提高了数据采集的速度。在采样数据为磁共振数据时,可以加速磁共振成像的速度,提升患者的舒适性,降低成本。
例如,在步骤S10中,采样数据可以为各种类型的数据,从而输入图像可以为各种类型的图像。例如,采样数据可以为医学类型的数据,此时,输入图像为医学图像。按照获取医学类型的数据的设备划分,医学类型的数据可以包括超声数据、X射线计算机断层摄影(Computed Tomography,CT)数据、磁共振数据(即核磁共振数据)、数字血管剪影(DigitalSubtraction Angiography,DSA)数据和正电子断层摄影(Positron Emission ComputedTomography PET)数据等。按照医学类型的数据的内容划分,医学类型的数据以包括脑组织核磁共振数据、脊髓核磁共振数据、眼底数据、血管数据、胰腺CT数据和肺部CT数据等。例如,采样数据也可以为监控数据,此时,输入图像为监控图像,例如,道路的监控图像、银行的监控图像等;例如,采样数据也可以为气象遥感数据,此时,输入图像也可以为气象遥感图像等。需要说明的是,输入图像也可以为人物图像、动植物图像或风景图像等,本公开的实施例对输入图像的具体类型不作限制。
例如,采样数据可以通过采集装置获取。当采样数据为医学类型的数据时,采集装置例如可以包括超声设备、X线设备、核磁共振设备、核医学设备、医用光学设备以及热成像设备等,本公开在此不作限定。
例如,采样数据可以是采集装置直接采集到的原始采样数据,也可以是对原始采样数据进行预处理之后获得的数据。例如,为了避免原始采样数据的数据质量、数据不均衡等对于图像重建精度的影响,在步骤S10中,本公开实施例提供的图像处理方法还可以包括对原始采样数据进行预处理以得到采样数据。预处理可以消除原始采样数据中的无关信息或噪声信息,以得到采样数据,从而便于更好地对输入图像进行重建操作。预处理例如可以包括对原始采样数据进行扩充(Data Augment)和缩放。扩充包括通过随机裁剪、旋转、翻转、偏斜、调整亮度、对比度等方式扩充原始采样数据的数据。缩放包括对原始采样数据进行等比例缩放并剪裁为预设尺寸(例如256*256),以便于后续进行图像重建操作。需要说明的是,预处理还可以包括伽玛(Gamma)校正、增强或降噪滤波等处理。
例如,在一些实施例中,在步骤S10中,确定采样数据,包括:获取测量数据,其中,测量数据为全采样数据;对测量数据进行欠采样,以得到采样数据。例如,也可以进行全采样以得到测量数据,然后对全采样的测量数据进行欠采样,以得到采样数据,此时可以将基于采样数据重建得到的重建图像与基于测量数据确定的图像进行比对,从而可以确定重建得到的重建图像的质量。例如,测量数据可以为预先已经采样得到的数据。
例如,采样数据可以为频域数据,从而,上述欠采样表示频域欠采样。图2示出了欠采样的过程示意图。如图2所示,测量数据101为K空间数据,测量数据101为进行全采样得到的数据,例如,测量数据101的尺寸为256*256,然后,将随机掩码应用于测量数据101以对测量数据101进行频域欠采样,以得到采样数据102,采样数据102的尺寸也为256*256。随机掩码可以采用random X*零填充的方式,random X*零填充的方式表示对列进行欠采样,并对欠采样之后剩余的部分进行零填充(像素值为0),若X为4,即对测量数据101中的25%的列进行随机采样,并对测量数据101中剩余的75%的列(即除了采样得到的25%的列之外的列)进行零填充(像素值为0,黑色)。由于本公开的实施例只需要对采样数据进行处理,从而可以进行欠采样,即仅仅采样获取采样数据,若X为4,则在采样速度上可以加速4倍。需要说明的是,X的具体值可以根据实际情况设置,X也可以为2、6、8等。
例如,在一些实施例中,在步骤S10中,初始化处理可以包括逆傅里叶变换,从而将采样数据从频域转到对应的空间域,以得到中间输入图像。如图2所示,对采样数据102(频域)进行逆傅里叶变换以得到中间输入图像103(空间域)。
图3为本公开一些实施例提供的一种图像处理方法的整体流程示意图。
图3示出了四个采样数据,分别为采样数据SD1、采样数据SD2、采样数据SD3和采样数据SD4,对采样数据SD1进行初始化处理(即逆傅里叶变换A*)以得到中间输入图像MP1,对采样数据SD2进行初始化处理以得到中间输入图像MP2,对采样数据SD3进行初始化处理以得到中间输入图像MP3,对采样数据SD4进行初始化处理以得到中间输入图像MP4。
例如,在一些实施例中,在步骤S10中,对中间输入图像进行处理,以得到输入图像,包括:对中间输入图像进行数据拟合处理和数据修正处理,以得到输入图像。
例如,在一些实施例中,在步骤S20中,输入图像的尺寸和重建图像的尺寸相同,输入图像的通道数和重建图像的通道数相同。
例如,在步骤S20中,每次重建操作包括:通过编码子网络对编码子网络的输入进行特征提取处理,以得到第一特征图和至少一个编码块的输出;利用解码子网络和连接子网络对第一特征图和至少一个编码块的输出进行处理,以得到解码子网络的输出。
例如,在步骤S20中,N为大于等于1的正整数。例如,当N为1,表示仅对输入图像进行一次重建操作,以得到重建图像,此时,对于N次重建操作(即第一次重建操作),编码子网络的输入为输入图像,解码子网络的输出为重建图像。例如,当N大于1时,表示对输入图像迭代进行多次重建操作,以得到重建图像,此时,对N次重建操作中的第i次重建操作中解码子网络的输出进行数据拟合处理和数据修正处理,以得到N次重建操作中的第i+1次重建操作中编码子网络的输入,i为正整数且小于N,i为1时,第i次重建操作(即第一次重建操作)中编码子网络的输入为输入图像,i为N-1时,第i+1次重建操作(即第N次重建操作)中解码子网络的输出为重建图像。
例如,如图3所示,当N大于1时,在第一次重建操作中,将中间输入图像MP1~MP4中的任一中间输入图像作为当前中间输入图像m0,当前中间输入图像m0进行数据拟合处理(I-ηA*A)和数据修正处理(ηA*f),然后将数据拟合处理的结果和数据修正处理的结果进行求和处理,即将数据拟合处理的结果和数据修正处理的结果相加,从而得到输入图像,该输入图像可以为在第一次重建操作中该图像重建网络的输入;然后,利用图像重建网络对该输入图像进行重建操作,以得到重建图像m1,该重建图像m1为在第一次重建操作中该图像重建网络的输出。当需要进行多次迭代处理,则对该重建图像m1进行第二次重建操作,在该第二次重建操作中,首先,对该重建图像m1分别进行数据拟合处理(I-ηA*A)和数据修正处理(ηA*f),以得到该重建图像m1的拟合处理结果和该重建图像m1的修正处理结果,将该重建图像m1的拟合处理结果和该重建图像m1的修正处理结果进行求和处理,以得到在第二次重建操作中该图像重建网络的输入,然后,利用图像重建网络对该图像重建网络的输入(即该重建图像m1的拟合处理结果和该重建图像m1的修正处理结果进行求和处理得到的结果)进行重建操作,以得到第二次重建操作对应的重建图像。依次类推,最终迭代N次,将第N次重建操作对应的重建图像mN作为最终的重建结果。例如,如图3所示,对中间输入图像MP1进行N次迭代重建操作,得到中间输入图像MP1对应的重建图像RP1;对中间输入图像MP2进行N次迭代重建操作,得到中间输入图像MP2对应的重建图像RP2;对中间输入图像MP3进行N次迭代重建操作,得到中间输入图像MP3对应的重建图像RP3;对中间输入图像MP4进行N次迭代重建操作,得到中间输入图像MP4对应的重建图像RP4。
例如,在一些实施例中,在图像重建网络中,每个编码块(包括输出编码块,后续描述)中的多个自注意力算子包括至少一个对称窗口的自注意力算子块,每个对称窗口的自注意力算子块包括基于窗口的自注意力算子和基于移动窗口的自注意力算子,基于窗口的自注意力算子的输出作为基于移动窗口的自注意力算子的输入。类似地,每个解码块中的多个自注意力算子包括至少一个对称窗口的自注意力算子块,每个对称窗口的自注意力算子块包括基于窗口的自注意力算子和基于移动窗口的自注意力算子,基于窗口的自注意力算子的输出作为基于移动窗口的自注意力算子的输入。需要说明的是,在本公开的描述中,以每个编码块中的多个自注意力算子包括一个对称窗口的自注意力算子块,每个解码块中的多个自注意力算子包括一个对称窗口的自注意力算子块为例,但本公开不限于此。
例如,不同编码块中的基于窗口的自注意力算子的参数可以相同,也可以不相同,不同编码块中的基于移动窗口的自注意力算子的参数可以相同,也可以不相同;不同解码块中的基于窗口的自注意力算子的参数可以相同,也可以不相同,不同解码块中的基于移动窗口的自注意力算子的参数可以相同,也可以不相同。
图4A为本公开一些实施例提供的编码块或解码块中的多个自注意力算子的一种结构示意图。以编码块中的多个自注意力算子为例。
例如,在一些实施例中,每个编码块中的多个自注意力算子为对称窗口的自注意力算子块(W-MSA和SW-MSA成对出现),如图4A所示,编码块中的多个自注意力算子包括基于窗口的自注意力算子W0和基于移动窗口的自注意力算子SW0,基于窗口的自注意力算子W0的输出作为基于移动窗口的自注意力算子SW0的输入。基于窗口的自注意力算子W0包括多层感知机器MLP(Multilayer Perceptron)、两个层归一化层LN(Layernorm)、SWIN非移位窗口自注意力算子W-MSA(window based Multi-head self-attention)。基于移动窗口的自注意力算子SW0包括多层感知机器MLP、两个层归一化层LN、SWIN移位窗口自注意力算子SW-MSA(shifted window based Multi-head self-attention)。
需要说明的是,解码块中的多个自注意力算子的结构与编码块中的多个自注意力算子的结构相同,重复之处不再赘述。
图4B为本公开一些实施例提供的瓶颈层中的多个自注意力算子的一种结构示意图。
例如,在一些实施例中,图像重建网络还包括瓶颈层,瓶颈层用于降低网络的深度并最小化模型参数的数量,利用瓶颈层,可以在高级语义上提取特征,以便于后续解码子网络进行图像重建。在瓶颈层中,特征维度(即通道数)和分辨率(即图像尺寸)保持不变。
在图像重建网络包括瓶颈层的情况下,每次重建操作包括:通过编码子网络对编码子网络的输入进行特征提取处理,以得到第一特征图和至少一个编码块的输出;利用瓶颈层对第一特征图进行处理,以得到第二特征图;利用解码子网络和连接子网络对第二特征图和至少一个编码块的输出进行处理,以得到解码子网络的输出。需要说明的是,在本公开的描述中,除非特别说明,否则以图像重建网络包括瓶颈层的情况为例进行说明。
例如,在一些实施例中,瓶颈层包括多个自注意力算子。瓶颈层中的多个自注意力算子的参数可以相同,也可以不相同。
例如,在一些实施例中,瓶颈层中的多个自注意力算子为非对称窗口的自注意力算子块(W-MSA和SW-MSA非成对出现),例如,瓶颈层的多个自注意力算子包括依次交替连接的基于窗口的自注意力算子和基于移动窗口的自注意力算子,瓶颈层中的基于窗口的自注意力算子的数量比基于移动窗口的自注意力算子的数量多1,瓶颈层的多个自注意力算子包括依次交替连接的多个基于窗口的自注意力算子和至少一个基于移动窗口的自注意力算子。在瓶颈层中,除了最后一个基于窗口的自注意力算子,每个基于窗口的自注意力算子的输出作为一个基于移动窗口的自注意力算子的输入,每个基于移动窗口的自注意力算子的输出作为一个基于窗口的自注意力算子的输入。最后一个基于窗口的自注意力算子的输出作为瓶颈层的输出。
需要说明的是,在本公开的实施例中,非对称窗口的自注意力算子块可以包括一个基于窗口的自注意力算子和至少一个对称窗口的自注意力算子块,从而在该非对称窗口的自注意力算子块中,基于窗口的自注意力算子和基于移动窗口的自注意力算子不是成对出现的,且基于窗口的自注意力算子的数量比基于移动窗口的自注意力算子的数量多1。
例如,如图4B所示,在一些实施例中,瓶颈层中的多个自注意力算子包括两个基于窗口的自注意力算子(即基于窗口的自注意力算子W1和基于窗口的自注意力算子W2)和一个基于移动窗口的自注意力算子SW1,第一特征图作为基于窗口的自注意力算子W1的输入,基于窗口的自注意力算子W1的输出作为基于移动窗口的自注意力算子SW1的输入,基于移动窗口的自注意力算子SW1的输出作为基于窗口的自注意力算子W2的输入,基于窗口的自注意力算子W2的输出作为第二特征图。
需要说明的是,本公开的瓶颈层不限于此,在另一些实施例中,瓶颈层中的多个自注意力算子包括三个基于窗口的自注意力算子和两个基于移动窗口的自注意力算子,第一特征图作为三个基于窗口的自注意力算子中的第一个基于窗口的自注意力算子的输入,第一个基于窗口的自注意力算子的输出作为两个基于移动窗口的自注意力算子中的第一个基于移动窗口的自注意力算子的输入,第一个基于移动窗口的自注意力算子的输出作为三个基于窗口的自注意力算子中的第二个基于窗口的自注意力算子的输入,第二个基于窗口的自注意力算子的输出作为两个基于移动窗口的自注意力算子中的第二个基于移动窗口的自注意力算子的输入,第二个基于移动窗口的自注意力算子的输出作为三个基于窗口的自注意力算子中的第三个基于窗口的自注意力算子的输入,第三个基于窗口的自注意力算子的输出作为第二特征图。
如图4B所示,基于窗口的自注意力算子W1和基于窗口的自注意力算子W2结构相同,以基于窗口的自注意力算子W1为例,基于窗口的自注意力算子W1包括多层感知机器MLP、两个层归一化层LN、SWIN非移位窗口自注意力算子W-MSA。基于移动窗口的自注意力算子SW1包括多层感知机器MLP、两个层归一化层LN、SWIN移位窗口自注意力算子SW-MSA。
需要说明的是,在图4A和图4B中,符号
Figure BDA0003447241870000161
表示残差连接。
图5为本公开的一些实施例提供的一种图像重建网络的示意性结构图,图6为本公开的一些实施例提供的另一种图像重建网络的示意性结构图。
例如,如图5和图6所示,在一些实施例中,输入图像100a的尺寸为H*W,重建图像200a的尺寸也为H*W。例如,输入图像100a的通道数和重建图像200a的通道数均相同,例如,当输入图像100a和重建图像200a为灰度图像时,输入图像100a的通道数和重建图像200a的通道数均为1;当输入图像100a和重建图像200a为彩色图像时,输入图像100a的通道数(即维度)和重建图像200a的通道数均为3(即R、G、B三个颜色通道)。
例如,在一些实施例中,如图5和图6所示,图像重建网络可以包括编码子网络10a、解码子网络20a和连接子网络30a。编码子网络10a用于提取输入图像100a的特征信息,解码子网络20a用于根据编码子网络10a的输出进行图像重建。在通过图像重建网络进行N次重建操作之后,解码子网络20a输出对应的重建图像200a。
例如,如图5和图6所示,编码子网络10a可以包括至少一个编码块和输出编码块102a,编码子网络10a中的至少一个编码块包括输入编码块101a。输入编码块101a包括多个自注意力算子Ma和线性嵌入层(linear embedding)Ea,输出编码块102a包括多个自注意力算子Ma和补丁合并层Da。
例如,线性嵌入层Ea用于将编码子网络10a的输入的维度(即通道数)映射到隐藏空间的任意维度C11,此过程中,线性嵌入层Ea将编码子网络10a的输入的维度扩大,具体扩大的倍数可以根据实际情况进行设置。
例如,输出编码块102a中的补丁合并层Da包括下采样层和第一线性层,下采样层用于执行下采样操作,第一线性层用于执行第一通道数调整操作。例如,下采样操作中的下采样因子可以为2*2,即将图像的宽和高均缩小2倍,即下采样得到的图像的宽变为原始的图像的宽的1/2,下采样得到的图像的高变为原始的图像的高的1/2。
图7为本公开一些实施例提供的一种补丁合并层的操作示意图。图7中的每个矩形格表示一个像素P。
例如,在一些实施例中,如图7所示,通过补丁合并层中的下采样层对某个图像(B,H,W,C)进行下采样操作,B为1,H为8,W为8,C(即通道数)为1,即该图像(B,H,W,C)的尺寸为8*8,该图像(B,H,W,C)的通道数为1。在该下采样操作中,下采样的尺寸可以为2,则在该图像(B,H,W,C)的行方向X和列方向Y上,以间隔为2个像素来选取像素,从而可以得到四个下采样图像,该四个下采样图像分别为下采样图像X0、下采样图像X1、下采样图像X2、下采样图像X3。每个下采样图像的通道数均为1,然后将四个下采样图像X0~X3按照维度方向进行拼接,那么,拼接后的图像的通道数则变为图像(B,H,W,C)的4倍,即拼接后的图像的通道数为4。最后,再通过补丁合并层中的第一线性层(全连接层)将拼接后的图像的通道数调整为图像(B,H,W,C)的2倍,最终得到补丁合并层的输出,该补丁合并层的输出的通道数为2,补丁合并层的输出的尺寸为4*4。此时,第一通道数调整操作表示将降低通道数。
需要说明的是,本公开对于补丁合并层的具体结构不作限制,只要其能够实现相应的功能即可。在补丁合并层中,下采样操作也可以用重排(rearrange)的方式实现,此时,首先,可以采用一个线性层将图像的特征维度(通道数C)扩大8倍,再经过rearrange层将通道数调整为原始图像的2倍,从而实现补丁合并层的功能,此时,第一通道数调整操作表示将增加通道数。下采样操作也可以用池化(Pooling)实现。本公开的实施例不对下采样操作和第一通道数调整操作的具体实现方式进行限制。
例如,在一些实施例中,在每次重建操作中,通过编码子网络对编码子网络的输入进行特征提取处理,以得到第一特征图和至少一个编码块的输出,包括:通过输入编码块对编码子网络的输入进行处理,以得到输入编码块的输出;利用输出编码块对输入编码块的输出进行处理,以得到第一特征图。例如,至少一个编码块的输出包括输入编码块的输出。
例如,在每次重建操作中,利用输出编码块对输入编码块的输出进行处理,以得到第一特征图,包括:通过输出编码块中的补丁合并层对输入编码块的输出进行下采样操作和第一通道数调整操作,以得到第一编码特征图;通过输出编码块中的多个自注意力算子对第一编码特征图进行表示学习,以得到第一特征图。
例如,在一些实施例中,通过输出编码块中的补丁合并层对输入编码块的输出进行下采样操作和第一通道数调整操作,以得到第一编码特征图,包括:通过输出编码块中的补丁合并层中的下采样层对输入编码块的输出进行下采样操作,以得到输出编码块中的补丁合并层中的下采样层的输出;通过输出编码块中的补丁合并层中的第一线性层对输出编码块中的补丁合并层中的下采样层的输出进行第一通道数调整操作,以得到第一编码特征图。
例如,如图5和图6所示,输出编码块102a中的补丁合并层Da对输入编码块101a的输出F13进行下采样操作和第一通道数调整操作,以得到第一编码特征图F13,该第一编码特征图F13为补丁合并层Da的输出,输出编码块102a中的多个自注意力算子Ma对第一编码特征图F13进行表示学习,以得到第一特征图F14,该第一特征图F14为编码子网络10a的输出。
例如,第一编码特征图F13的尺寸和第一特征图F14的尺寸相同,例如,均为H/8*W/8。第一编码特征图F13的维度和第一特征图F14的维度相同,例如,均为C12。
例如,在每次重建操作中,通过输入编码块对编码子网络的输入进行处理,以得到输入编码块的输出,包括:通过输入编码块中的线性嵌入层对编码子网络的输入进行处理,以得到第二编码特征图;通过输入编码块中的多个自注意力算子对第二编码特征图进行表示学习,以得到输入编码块的输出。
例如,如图5和图6所示,输入编码块101a中的线性嵌入层Ea对编码子网络10a的输入(例如,输入图像100a)进行处理(例如,增加输入图像100a的通道数),以得到第二编码特征图F11,该第二编码特征图F11即为线性嵌入层Ea的输出,输入编码块101a中的多个自注意力算子Ma对第二编码特征图F11进行表示学习,以得到输入编码块101a的输出F12,输入编码块101a的输出F12为特征图。
例如,第二编码特征图F11的尺寸和输入编码块101a的输出F12的尺寸相同,例如,均为H/4*W/4。第二编码特征图F11的维度和输入编码块的输出F12的维度相同,例如,均为C11。
例如,输入编码块101a的输出F12的尺寸大于第一编码特征图F13的尺寸相同。输入编码块101a的输出F12的维度小于第一编码特征图F13的维度,也就是说,C11小于C12。
例如,每个解码块还包括补丁扩展层,每个解码块用于利用解码块的补丁扩展层对解码块的输入进行上采样操作和第二通道数调整操作,以得到解码块的补丁合并层的输出;利用解码块中的多个自注意力算子对解码块的补丁合并层的输出进行表示学习,以得到解码块的输出。
例如,在一些实施例中,补丁扩展层包括上采样层和第二线性层,上采样层用于执行上采样操作,第二线性层用于执行第二通道数调整操作。
例如,在一些实施中,补丁扩展层中的上采样层可以采用双线性插值、三次插值或PixelShuffle的方式实现上采样操作。当采用双线性插值/三次插值的方式时,补丁扩展层中的上采样层可以将当前特征图重塑为更高分辨率的采样后特征图(2倍上采样),相应地,补丁扩展层中的第二线性层将采样后特征图的通道数减少为当前特征图的通道数的一半。当采用PixelShuffle的方式时,补丁扩展层中的上采样层可以将当前特征图重塑为更高分辨率的采样后特征图(2倍上采样),同时采样后特征图的通道数减少为当前特征图的通道数四分之一,相应地,补丁扩展层中的第二线性层相应地将采样后特征图的通道数扩充到当前特征图的通道数二分之一。
例如,上采样操作中的上采样因子可以为2*2,即将图像的宽和高均扩大2倍,即上采样得到的图像的高变为原始的图像的宽的2倍,上采样得到的图像的高变为原始的图像的高的2倍。
需要说明的是,本公开对于补丁扩展层的具体结构不作限制,只要其能够实现相应的功能即可。本公开的实施例也不对上采样操作和第二通道数调整操作的具体实现方式进行限制。
例如,如图5所示,解码子网络20a和连接子网络30a对第一特征图F14和输入编码块101a的输出F12进行处理,以得到解码子网络20a的输出。
例如,如图5和图6所示,解码子网络20a中的至少一个解码块包括输入解码块103a,输入解码块103a包括补丁扩展层Ua和多个自注意力算子Mb。连接子网络30a包括一个连接层,即第一连接层301a。解码子网络20a还包括线性投影层LP,线性投影层LP用于将第一连接层301a的输出进行投影映射操作,以得到解码子网络20a的输出。
例如,在图5所示的示例中,在每次重建操作中,利用解码子网络和连接子网络对第一特征图和至少一个编码块的输出进行处理,以得到解码子网络的输出,包括:通过输入解码块对第一特征图进行处理,以得到输入解码块的输出;通过第一连接层将与第一连接层对应的编码块的输出和输入解码块的输出进行连接处理,以得到第一连接层的输出,通过线性投影层对第一连接层的输出进行投影映射操作,以得到解码子网络的输出。
例如,在一些实施例中,通过输入解码块对第一特征图进行处理,以得到输入解码块的输出包括:通过输入解码块中的补丁扩展层对第一特征图进行上采样操作和第二通道数调整操作,以得到补丁扩展层的输出;通过输入解码块中的多个自注意力算子对补丁扩展层的输出进行表示学习,以得到输入解码块的输出。
例如,如图5所示,输入解码块103a中的补丁扩展层Ua对第一特征图F14进行上采样操作和第二通道数调整操作,以得到补丁扩展层Ua的输出FD11(特征图),输入解码块103a中的多个自注意力算子Mb对补丁扩展层的输出FD11进行表示学习,以得到输入解码块103a的输出FD12(特征图);第一连接层301a将输入编码块101a的输出F12和输入解码块103a的输出FD12进行映射连接处理,以得到第一连接层301a的输出(未示出),最后,线性投影层LP对第一连接层301a的输出进行投影映射操作,以得到解码子网络20a的输出。当N为1,解码子网络20a的输出为重建图像200a;当N大于1时,对解码子网络20a的输出进行数据拟合处理和数据修正处理,以得到下一次重建操作中编码子网络10a的输入,然后再次进行重建操作,最终迭代N次重建操作之后,得到重建图像200a。
例如,在图像重建网络包括瓶颈层的情况下,即在图6所示的示例中,在每次重建操作中,利用瓶颈层对第一特征图进行处理,以得到第二特征图,包括:利用瓶颈层中的多个自注意力算子对第一特征图进行表示学习,以得到第二特征图。
例如,如图6所示,瓶颈层40a的多个自注意力算子对第一特征图F14进行表示学习,以得到第二特征图F15。第二特征图F15为瓶颈层40a的输出。需要说明的是,图6所示的图像重建网络除了包括瓶颈层40a之外,其余结构与图5所示的图像重建网络相同。
例如,如图6所示,解码子网络20a和连接子网络30a对第二特征图F15和输入编码块101a的输出F12进行处理,以得到解码子网络20a的输出。
例如,如图6所示,第二特征图F15的尺寸与第一特征图F14的尺寸相同,例如,均为H/8*W/8。第二特征图F15的维度与第一特征图F14的维度也相同,例如,均为C12。
需要说明的是,在图6中,瓶颈层40a具有图4B所示的结构,即瓶颈层40a仅包括三个自注意力算子,但本公开的实施例不限于此,根据实际应用需求,瓶颈层40a可以包括更多的自注意力算子。
例如,在图6所示的示例中,在每次重建操作中,利用解码子网络和连接子网络对第二特征图和至少一个编码块的输出进行处理,以得到解码子网络的输出,包括:通过输入解码块对第二特征图进行处理,以得到输入解码块的输出;通过第一连接层将与第一连接层对应的编码块的输出和输入解码块的输出进行连接处理,以得到第一连接层的输出;通过线性投影层对第一连接层的输出进行投影映射操作,以得到解码子网络的输出。
例如,通过输入解码块对第二特征图进行处理,以得到输入解码块的输出,包括:通过输入解码块中的补丁扩展层对第二特征图进行上采样操作和第二通道数调整操作,以得到输入解码块中的补丁扩展层的输出;通过输入解码块中的多个自注意力算子对输入解码块中的补丁扩展层的输出进行表示学习,以得到输入解码块的输出。
例如,如图6所示,输入解码块103a中的补丁扩展层Ua对第二特征图F15进行上采样操作和第二通道数调整操作,以得到输入解码块103a中的补丁扩展层Ua的输出FD11(特征图),输入解码块103a中的多个自注意力算子Mb对输入解码块103a中的补丁扩展层Ua的输出FD11进行表示学习,以得到输入解码块103a的输出FD12(特征图);第一连接层301a将输入编码块101a的输出F12和输入解码块103a的输出FD12进行连接处理,以得到第一连接层301a的输出(未示出),最后,线性投影层LP对第一连接层301a的输出进行投影映射操作,以得到解码子网络20a的输出。当N为1,解码子网络20a的输出为重建图像200a;当N大于1时,对解码子网络20a的输出进行数据拟合处理和数据修正处理,以得到下一次重建操作中编码子网络10a的输入,然后再次进行重建操作,最终迭代N次重建操作之后,得到重建图像200a。
例如,输入解码块103a中的补丁扩展层Ua的输出FD11的尺寸和输入解码块103a的输出FD12的尺寸相同,例如,均为H/4*W/4;输入解码块103a中的补丁扩展层Ua的输出FD11的维度和输入解码块103a的输出FD12的维度相同,例如,均为D11。
例如,输入编码块101a的输出F12的尺寸和输入解码块103a的输出FD12的尺寸可以相同,例如,均为H/4*W/4;输入编码块101a的输出F12的通道数和输入解码块103a的输出FD12的通道数可以相同,即C11=D11。
例如,第二特征图F15的尺寸小于补丁扩展层Ua的输出FD11的尺寸相同;第二特征图F15的维度大于补丁扩展层Ua的输出FD11的维度,即C12大于D11。
图8为本公开一些实施例提供的另一种图像重建网络的结构示意图。
例如,如图8所示,在一些实施例中,图像重建网络包括编码子网络10b、解码子网络20b、连接子网络30b和瓶颈层40b。图像重建网络用于对输入图像100b进行重建操作,以得到输入图像100b对应的重建图像200b。例如,输入图像100b可以为MRI图像。输入图像100b的尺寸和重建图像200b的尺寸相同,例如,均为H*W,输入图像100b的通道数(即维度)和重建图像200b的通道数相同,例如,均为1。
例如,解码子网络还包括线性投影层,至少一个编码块包括依次连接的多个编码块,至少一个解码块包括依次连接的多个解码块,连接子网络包括多个连接层,多个编码块与多个解码块通过多个连接层一一对应映射连接。每个连接层用于将连接层对应的编码块的输出和连接层对应的解码块的输出进行连接处理,连接层的输出作为连接层对应的解码块所连接的下一个解码块的输入或者连接层的输出作为线性投影层的输入。
例如,在一些实施例中,如图8所示,解码子网络20b还包括线性投影层LP,至少一个编码块包括依次连接的输入编码块101b和至少一个中间编码块,至少一个中间编码块包括依次连接的第一中间编码块102b和第二中间编码块103b。至少一个解码块包括依次连接的输入解码块201b和至少一个中间解码块,至少一个中间解码块包括依次连接的第一中间解码块202b和第二中间解码块203b。连接子网络30b包括多个连接层,多个连接层分别为第一连接层301b、第一连接层302b和第一连接层303b。
需要说明的是,虽然图8中仅示出了两个中间编码块和两个中间解码块,但是本公开的实施例不限于此,中间编码块的数量和中间解码块的数量可以根据实际情况设置,相应地,连接层的数量也可以根据实际情况设置,只要为每一组中间编码块和中间解码块设置一个连接层即可,本公开的实施例对此不作具体限定。
例如,如图8所示,第二中间编码块103b通过第一连接层301b与输入解码块201b映射连接,也就是说,第一连接层301b用于将第二中间编码块103b的输出和输入解码块201b的输出进行连接处理,类似地,第一中间编码块102b通过第二连接层302b与第一中间解码块202b映射连接,输入编码块101b通过第三连接层303b与第二中间解码块203b映射连接。例如,第一连接层301b的输出作为第一中间解码块202b的输入,第二连接层302b的输出作为第二中间解码块203b的输入,第三连接层303b的输出作为线性投影层LP的输入。
例如,在一些实施例中,每个中间编码块还包括补丁合并层,每个中间编码块用于利用中间编码块的补丁合并层对中间编码块的输入进行下采样操作和第一通道数调整操作,以得到中间编码块的补丁合并层的输出;利用中间编码块中的多个自注意力算子对中间编码块的补丁合并层的输出进行表示学习,以得到中间编码块的输出。
例如,每个中间编码块中的补丁合并层也可以包括下采样层和第一线性层,以分别实现下采样操作和第一通道数调整操作。需要说明的是,对于补丁合并层的详细描述可以参考上面结合图7的描述。
例如,编码子网络还包括输出编码块,至少一个中间编码块包括第一中间编码块和第二中间编码块。在每次重建操作中,通过编码子网络对编码子网络的输入进行特征提取处理,以得到第一特征图和至少一个编码块的输出,包括:通过输入编码块对编码子网络的输入进行处理,以得到输入编码块的输出;利用第一中间编码块对输入编码块的输出进行处理,以得到第一中间编码块的输出;利用第二中间编码块对第一中间编码块的输出进行处理,以得到第二中间编码块的输出;利用输出编码块对第二中间编码块的输出进行处理,以得到第一特征图。
例如,至少一个编码块的输出包括输入编码块的输出、第一中间编码块的输出和第二中间编码块的输出。
例如,如图8所示,在编码子网络10b中,输入编码块101b包括多个自注意力算子Ma和线性嵌入层Ea,第一中间编码块102b包括多个自注意力算子Ma和补丁合并层Da,第二中间编码块103b包括多个自注意力算子Ma和补丁合并层Da,输出编码块104b包括多个自注意力算子Ma和补丁合并层Da。
例如,通过输入编码块对编码子网络的输入进行处理,以得到输入编码块的输出,包括:通过输入编码块的线性嵌入层对编码子网络的输入进行处理,以得到输入编码块的线性嵌入层的输出;然后通过输入编码块中的多个自注意力算子对线性嵌入层的输出进行表示学习,以得到输入编码块的输出。
例如,如图8所示,输入编码块101b的线性嵌入层Ea用于将编码子网络10b的输入的维度(即通道数)映射到隐藏空间的任意维度C21,以得到线性嵌入层Ea的输出F21(特征图)。此过程中,线性嵌入层Ea将编码子网络10b的输入的维度扩大,具体扩大的倍数可以根据实际情况进行设置。然后,输入编码块101b中的多个自注意力算子Ma对线性嵌入层Ea的输出F21进行表示学习,以得到输入编码块101b的输出F22(特征图)。
例如,如图8所示,线性嵌入层Ea的输出F21的维度和输入编码块101b的输出F22的维度均相同,例如,均为C21,在一些示例中,C21可以为48。线性嵌入层Ea的输出F21的尺寸和输入编码块101b的输出F22的尺寸均相同,例如,均为H/4*W/4。
例如,输入编码块101b的输出F22被传输至第一中间编码块102b,以作为第一中间编码块102b的输入。
例如,利用第一中间编码块对输入编码块的输出进行处理,以得到第一中间编码块的输出,包括:利用第一中间编码块的补丁合并层对输入编码块的输出进行下采样操作和第一通道数调整操作,以得到第一中间编码块的补丁合并层的输出;然后利用第一中间编码块中的多个自注意力算子对第一中间编码块的补丁合并层的输出进行表示学习,以得到第一中间编码块的输出。
例如,如图8所示,第一中间编码块102b的补丁合并层Da对输入编码块101b的输出F22进行下采样操作和第一通道数调整操作,以得到第一中间编码块102b的补丁合并层Da的输出F23(特征图);第一中间编码块102b中的多个自注意力算子Ma对第一中间编码块102b的补丁合并层Da的输出F23进行表示学习,以得到第一中间编码块102b的输出F24(特征图)。
例如,如图8所示,第一中间编码块102b的补丁合并层Da的输出F23的维度和第一中间编码块102b的输出F24的维度均相同,例如,均为C22,在一些示例中,C22可以为96。第一中间编码块102b的补丁合并层Da的输出F23的尺寸和第一中间编码块102b的输出F24的尺寸均相同,例如,若第一中间编码块102b的补丁合并层Da所执行的下采样操作的下采样因子2*2,则第一中间编码块102b的补丁合并层Da的输出F23的尺寸和第一中间编码块102b的输出F24的尺寸均为H/8*W/8。
例如,第一中间编码块102b的输出F24被传输至第二中间编码块103b,以作为第二中间编码块103b的输入。
例如,利用第二中间编码块对第一中间编码块的输出进行处理,以得到第二中间编码块的输出,包括:利用第二中间编码块的补丁合并层对第一中间编码块的输出进行下采样操作和第一通道数调整操作,以得到第二中间编码块的补丁合并层的输出;然后利用第二中间编码块中的多个自注意力算子对第二中间编码块的补丁合并层的输出进行表示学习,以得到第二中间编码块的输出。
例如,如图8所示,第二中间编码块103b的补丁合并层Da对第一中间编码块102b的输出F24进行下采样操作和第一通道数调整操作,以得到第二中间编码块103b的补丁合并层Da的输出F25(特征图);第二中间编码块103b中的多个自注意力算子Ma对第二中间编码块103b的补丁合并层Da的输出F25进行表示学习,以得到第二中间编码块103b的输出F26(特征图)。
例如,如图8所示,第二中间编码块103b的补丁合并层Da的输出F25的维度和第二中间编码块103b的输出F26的维度均相同,例如,均为C23,在一些示例中,C23可以为192。第二中间编码块103b的补丁合并层Da的输出F25的尺寸和第二中间编码块103b的输出F26的尺寸均相同,例如,若第二中间编码块103b的补丁合并层Da所执行的下采样操作的下采样因子2*2,则第二中间编码块103b的补丁合并层Da的输出F25的尺寸和第二中间编码块103b的输出F26的尺寸均为H/16*W/16。
例如,第二中间编码块103b的输出F26被传输至输出编码块104b,以作为输出编码块104b的输入。
例如,利用输出编码块对第二中间编码块的输出进行处理,以得到第一特征图,包括:利用输出编码块的补丁合并层对第二中间编码块的输出进行下采样操作和第一通道数调整操作,以得到输出编码块的补丁合并层的输出;然后利用输出编码块中的多个自注意力算子对输出编码块的补丁合并层的输出进行表示学习,以得到输出编码块的输出。该输出编码块的输出即为第一特征图。
例如,如图8所示,输出编码块104b的补丁合并层Da对第二中间编码块103b的输出F26进行下采样操作和第一通道数调整操作,以得到输出编码块104b的补丁合并层Da的输出F27(特征图);输出编码块104b的编码块中的多个自注意力算子Ma对输出编码块104b的补丁合并层Da的输出F27进行表示学习,以得到输出编码块104b的输出F28(特征图)。输出编码块104b的输出F28为编码子网络10b的输出,即输出编码块104b的输出F28为第一特征图。
例如,如图8所示,输出编码块104b的补丁合并层Da的输出F27的维度和第一特征图F28的维度均相同,例如,均为C24,在一些示例中,C24可以为384。输出编码块104b的补丁合并层Da的输出F27的尺寸和第一特征图F28的尺寸均相同,例如,若输出编码块104b的补丁合并层Da所执行的下采样操作的下采样因子2*2,则输出编码块104b的补丁合并层Da的输出F27的尺寸和第一特征图F28的尺寸均为H/32*W/32。
例如,第一特征图F28(即输出编码块104b的输出)被传输至瓶颈层40b,以作为瓶颈层40b的输入。
例如,如图8所示,瓶颈层40b中的多个自注意力算子Mc用于对第一特征图F28进行表示学习,以得到第二特征图F29。
例如,第二特征图F29的尺寸与第一特征图F28的尺寸相同,例如,均为H/32*W/32;第二特征图F29的维度与第一特征图F28的维度也相同,例如,均为C24。
例如,第二特征图F29被传输至解码子网络20b,以作为解码子网络20b的输入。
例如,每个解码块还包括补丁扩展层。补丁扩展层包括上采样层和第二线性层,上采样层用于执行上采样操作,第二线性层用于执行第二通道数调整操作。需要说明的是,关于补丁扩展层的详细说明可以参考上面对于补丁扩展层的描述,重复之处不再赘述。
例如,解码子网络还包括线性投影层,至少一个解码块包括依次连接的输入解码块和至少一个中间解码块,至少一个中间解码块包括依次连接的第一中间解码块和第二中间解码块,连接子网络包括至少一个连接层,至少一个连接层包括第一连接层、第二连接层和第三连接层。
例如,在一些实施例中,在每次重建操作中,利用解码子网络和连接子网络对第二特征图和至少一个编码块的输出进行处理,以得到解码子网络的输出,包括:通过输入解码块对第二特征图进行处理,以得到输入解码块的输出;通过第一连接层将与第一连接层对应的编码块的输出和输入解码块的输出进行连接处理,以得到第一连接层的输出;通过第一中间解码块对第一连接层的输出进行处理,以得到第一中间解码块的输出;通过第二连接层将与第二连接层对应的编码块的输出和第一中间解码块的输出进行连接处理,以得到第二连接层的输出;通过第二中间解码块对第二连接层的输出进行处理,以得到第二中间解码块的输出;通过第三连接层将与第三连接层对应的编码块的输出和第二中间解码块的输出进行连接处理,以得到第三连接层的输出;通过线性投影层对第三连接层的输出进行投影映射操作,以得到解码子网络的输出。
例如,如图8所示,在一些实施例中,在解码子网络20b中,输入解码块201b包括补丁扩展层Ua和多个自注意力算子Mb,第一中间解码块202b包括补丁扩展层Ua和多个自注意力算子Mb,第二中间解码块203b包括补丁扩展层Ua和多个自注意力算子Mb。
例如,在一些实施例中,通过输入解码块对第二特征图进行处理,以得到输入解码块的输出,包括:通过输入解码块中的补丁扩展层对第二特征图进行上采样操作和第二通道数调整操作,以得到输入解码块中的补丁扩展层的输出;通过输入解码块中的多个自注意力算子对输入解码块中的补丁扩展层的输出进行表示学习,以得到输入解码块的输出。
例如,如图8所示,在一些实施例中,输入解码块201b中的补丁扩展层Ua对第二特征图F29进行上采样操作和第二通道数调整操作,以得到输入解码块201b中的补丁扩展层Ua的输出FD21(特征图),输入解码块201b的多个自注意力算子Mb对输入解码块201b中的补丁扩展层Ua的输出FD21进行表示学习,以得到输入解码块201b的输出FD22(特征图)。
例如,如图8所示,输入解码块201b中的补丁扩展层Ua的输出FD21的维度和输入解码块201b的输出FD22的维度均相同,例如,均为D21,在一些示例中,D21可以为192。输入解码块201b中的补丁扩展层Ua的输出FD21的尺寸和输入解码块201b的输出FD22的尺寸均相同,例如,若输入解码块201b中的补丁扩展层Ua所执行的上采样操作的上采样因子2*2,则输入解码块201b中的补丁扩展层Ua的输出FD21的尺寸和输入解码块201b的输出FD22的尺寸均为H/16*W/16。
例如,第一连接层301b将第二中间编码块103b的输出F26和输入解码块201b的输出FD22进行连接处理,以得到第一连接层301b的输出FC11。例如,将第二中间编码块103b的输出F26和输入解码块201b的输出FD22按照维度方向进行连接,然后将连接后的特征图的维度进行调整,以得到第一连接层301b的输出FC11。
例如,第二中间编码块103b的输出F26的尺寸和输入解码块201b的输出FD22的尺寸相同,第二中间编码块103b的输出F26的维度和输入解码块201b的输出FD22的维度也相同。
例如,第一连接层301b的输出FC11的尺寸与输入解码块201b的输出FD22的尺寸相同,第一连接层301b的输出FC11的维度与输入解码块201b的输出FD22的维度也相同。
例如,第一连接层301b的输出FC11被传输至第一中间解码块202b,以作为第一中间解码块202b的输入。
例如,在一些实施例中,通过第一中间解码块对第一连接层的输出进行处理,以得到第一中间解码块的输出,包括:通过第一中间解码块中的补丁扩展层对第一连接层的输出进行上采样操作和第二通道数调整操作,以得到第一中间解码块中的补丁扩展层的输出;通过第一中间解码块中的多个自注意力算子对第一中间解码块中的补丁扩展层的输出进行表示学习,以得到第一中间解码块的输出。
例如,如图8所示,在一些实施例中,第一中间解码块202b中的补丁扩展层Ua对第一连接层301b的输出FC11进行上采样操作和第二通道数调整操作,以得到第一中间解码块202b中的补丁扩展层Ua的输出FD23(特征图),第一中间解码块202b的多个自注意力算子Mb对第一中间解码块202b中的补丁扩展层Ua的输出FD23进行表示学习,以得到第一中间解码块202b的输出FD24(特征图)。
例如,如图8所示,第一中间解码块202b中的补丁扩展层Ua的输出FD23的维度和第一中间解码块202b的输出FD24的维度均相同,例如,均为D22,在一些示例中,D22可以为96。第一中间解码块202b中的补丁扩展层Ua的输出FD23的尺寸和第一中间解码块202b的输出FD24的尺寸均相同,例如,若第一中间解码块202b中的补丁扩展层Ua所执行的上采样操作的上采样因子2*2,则第一中间解码块202b中的补丁扩展层Ua的输出FD23的尺寸和第一中间解码块202b的输出FD23的尺寸均为H/8*W/8。
例如,第二连接层302b将第一中间编码块102b的输出F24和第一中间解码块202b的输出FD24进行连接处理,以得到第二连接层302b的输出FC12。例如,将第一中间编码块102b的输出F24和第一中间解码块202b的输出FD24按照维度方向进行连接,然后将连接后的特征图的维度进行调整,以得到第二连接层302b的输出FC12。
例如,第一中间编码块102b的输出F24的尺寸和第一中间解码块202b的输出FD24的尺寸相同,第一中间编码块102b的输出F24的维度和第一中间解码块202b的输出FD24的维度也相同。
例如,第二连接层302b的输出FC12的尺寸与第一中间解码块202b的输出FD24的尺寸相同,第二连接层302b的输出FC12的维度与第一中间解码块202b的输出FD24的维度也相同。
例如,第二连接层302b的输出FC12被传输至第二中间解码块203b,以作为第二中间解码块203b的输入。
例如,在一些实施例中,通过第二中间解码块对第二连接层的输出进行处理,以得到第二中间解码块的输出,包括:通过第二中间解码块中的补丁扩展层对第二连接层的输出进行上采样操作和第二通道数调整操作,以得到第二中间解码块中的补丁扩展层的输出;通过第二中间解码块中的多个自注意力算子对第二中间解码块中的补丁扩展层的输出进行表示学习,以得到第二中间解码块的输出。
例如,如图8所示,在一些实施例中,第二中间解码块203b中的补丁扩展层Ua对第二连接层302b的输出FC12进行上采样操作和第二通道数调整操作,以得到第二中间解码块203b中的补丁扩展层Ua的输出FD25(特征图),第二中间解码块203b的多个自注意力算子Mb对第二中间解码块203b中的补丁扩展层Ua的输出FD25进行表示学习,以得到第二中间解码块203b的输出FD26(特征图)。
例如,如图8所示,第二中间解码块203b中的补丁扩展层Ua的输出FD25的维度和第二中间解码块203b的输出FD26的维度均相同,例如,均为D23,在一些示例中,D23可以为48。第二中间解码块203b中的补丁扩展层Ua的输出FD25的尺寸和第二中间解码块203b的输出FD26的尺寸均相同,例如,若第二中间解码块203b中的补丁扩展层Ua所执行的上采样操作的上采样因子2*2,则第二中间解码块203b中的补丁扩展层Ua的输出FD25的尺寸和第二中间解码块203b的输出FD26的尺寸均为H/4*W/4。
例如,第三连接层303b将输入编码块101b的输出F22和第二中间解码块203b的输出FD26进行连接处理,以得到第三连接层303b的输出FC13。例如,将输入编码块101b的输出F22和第二中间解码块203b的输出FD26按照维度方向进行连接,然后将连接后的特征图的通道数进行调整,以得到第三连接层303b的输出FC13。
例如,输入编码块101b的输出F22的尺寸和第二中间解码块203b的输出FD26的尺寸相同,输入编码块101b的输出F22的维度和第二中间解码块203b的输出FD26的维度也相同。
例如,第三连接层303b的输出FC13的尺寸与第二中间解码块203b的输出FD26的尺寸相同,第三连接层303b的输出FC13的维度与第二中间解码块203b的输出FD26的维度也相同。
例如,第三连接层303b的输出FC13被传输至线性投影层LP,以作为线性投影层LP的输入。
例如,线性投影层LP对第三连接层303b的输出FC13进行投影映射操作,以得到解码子网络20b的输出。线性投影层LP用于保持将第三连接层303b的输出FC13映射为与编码子网络10b的输入具有相同尺寸和维度的图像。
例如,当N为1,解码子网络20b的输出为重建图像200b;当N大于1时,对解码子网络20b的输出进行数据拟合处理和数据修正处理,以得到下一次重建操作中编码子网络10b的输入,然后再次进行重建操作,最终迭代N次重建操作之后,得到重建图像200b。
需要说明的是,在本公开的实施例中,每个编码块的输出均为特征图,每个解码块的输出也为特征图,瓶颈层的输出也为特征图,连接层的输出也为特征图。特征图的维度(即特征维度)表示特征图的通道数。
下面以磁共振成像为例对本公开的实施例提供的图像处理方法进行详细阐述。本公开下面的描述中块尺寸、特征参数等的具体取值可根据实际应用调整,不限于下文(用于说明举例的)所列出具体数值。
例如,在MRI图像的重建过程中,前向模型和噪声是已知的。
在本公开的实施例中,首先通过经过展开迭代网络的初始化层对采样数据f进行初始化。下面的公式(2)实现了将采样数据f从(频域)转化为对应的中间输入图像m(0)(空间域)的操作。
m(0)=A*f (2)
其中,A*表示欠采样的傅里叶变换(MRI前向算子)的伪逆。
然后,通过数据拟合层和数据修正层对经过初始化得到的中间输入图像m(0)分别进行数据拟合处理和数据修正处理,以得到输入图像。
然后,利用图像重建网络对输入图像进行N次重建操作,以得到输入图像对应的重建图像。图像重建网络的具体结构可以参考上面图5、6和8所示的结构,重复之处不再赘述。下面结合图8所示的图像重建网络对本公开的实施例进行说明。
在第一次重建操作中,首先,将输入图像100b通过块尺寸为4*4的取块模块进行取块以得到不重叠的多个块图像中,每个块图像的尺寸为4*4。例如,输入图像的维度为1,如果输入图像的尺寸为256*256,则对该输入图像进行取块之后,可以得到64*64个块图像。每个块图像作为一个“token”,每个块图像的特征维度被设置为该块图像中的像素的灰度值的串联,所以每个块图像的特征维度变成4*4*1=16。多个块图像进行组合以得到组合块图像,组合块图像的尺寸为H/4*W/4,维度为16,组合块图像作为线性嵌入层Ea的输入,此时,线性嵌入层Ea的输入的维度16,尺寸为H/4*W/4。如图8所示,输入编码块101b中的线性嵌入层Ea将线性嵌入层Ea的输入的维度映射到隐藏空间的任意维度C21,以得到特征图F21,例如,C21为48。特征图F21的通道数为C21,尺寸为H/4*W/4。然后,特征图F21被送入输入编码块101b中的多个自注意力算子Ma,输入编码块101b中的多个自注意力算子Ma用于对线性嵌入层Ea的输出(即特征图F21)以进行表示学习,以得到特征图F22。输入编码块101b中的多个自注意力算子Ma保持特征维度和分辨率不变。
特征图F22被送入第一中间编码块102b的补丁合并层Da,第一中间编码块102b的补丁合并层Da用于对特征图F22进行下采样操作和第一通道数调整操作,以得到特征图F23;然后第一中间编码块102b中的多个自注意力算子Ma对特征图F23进行表示学习,以得到特征图F24。特征图F23的维度和特征图F24的维度均为C22,C22可以为96,特征图F23的尺寸和特征图F24的尺寸均为H/8*W/8。
与第一中间编码块102b的处理过程类似,第二中间编码块103b中的补丁合并层Da对特征图F24进行下采样操作和第一通道数调整操作,以得到特征图F25,第二中间编码块103b中的多个自注意力算子Ma对特征图F25进行表示学习,以得到特征图F26。特征图F25的维度和特征图F26的维度均为C23,C23可以为192,特征图F25的尺寸和特征图F26的尺寸均为H/16*W/16。
最后,与第一中间编码块102b的处理过程类似,输出编码块104b中的补丁合并层Da对特征图F26进行下采样操作和第一通道数调整操作,以得到特征图F27,输出编码块104b中的多个自注意力算子Ma对特征图F27进行表示学习,以得到特征图F28。特征图F27的通道数和特征图F28的通道数均为C24,C24可以为384,特征图F27的尺寸和特征图F28的尺寸均为H/32*W/32。
为了降低网络的深度并最小化模型参数的数量,如图8所示,使用如图4B所示的两个基于窗口的自注意力算子(即基于窗口的自注意力算子W1和基于窗口的自注意力算子W2)和基于移动窗口的自注意力算子SW1来构建瓶颈层40b以学习深度特征表示。在瓶颈层40b中,特征维度和分辨率保持不变。
例如,瓶颈层40b对特征图F28进行表示学习,以得到特征图F29。特征图F29被传输至解码子网络20b。特征图F29的尺寸为H/32*W/32,维度为C24。
解码子网络20b的结构与编码子网络10b的结构相似,并与之形成双边对称结构。在解码子网络20b中,使用补丁扩展层Ua来扩展提取的特征。首先,通过输入解码块201b中的补丁扩展层Ua对特征图F29进行上采样操作和第二通道数调整操作,以得到特征图FD21。然后,将特征图FD21送入到输入解码块201b中的多个自注意力算子以进行表示学习,以得到特征图FD22。特征图FD21的尺寸和特征图FD22的尺寸均为H/16*W/16,特征图FD21的维度和特征图FD22的维度均为D21,D21可以为192。输入解码块201b中的多个自注意力算子保持特征维度和分辨率不变。
然后,第一连接层301b将特征图F26和特征图FD22进行映射连接处理,以得到特征图FC11。特征图FC11的通道数为D21,尺寸为H/16*W/16。特征图FC11被传输至第一中间解码块202b。
类似地,第一中间解码块202b对特征图FC11进行处理,以得到特征图FD24;第二连接层302b将特征图F24和特征图FD24进行映射连接处理,以得到特征图FC12。特征图FC12的维度为D22,D22可以为96,尺寸为H/8*W/8。特征图FC12被传输至第二中间解码块203b。第二中间解码块203b对特征图FC12进行处理,以得到特征图FD26;第三连接层303b将特征图F22和特征图FD26进行映射连接处理,以得到特征图FC13。特征图FC13的维度为D23,D23可以为48,尺寸为H/4*W/4。
最后,线性投影层LP应用于特征图FC13,以得到解码子网络20b的输出。当图像重建网络的输入的是灰度图像时,解码子网络20b的输出的维度为1;当图像重建网络的输入的是RGB图像时,解码子网络20b的输出的维度为3;解码子网络20b的输出的尺寸为H*W。解码子网络20b的输出为第一次重建操作的重建结果。
然后,对第一次重建操作的重建结果进行数据拟合处理和数据修正处理,以得到第二次重建操作中的编码子网络的输入。
对输入图像100b迭代进行N次重建操作之后,得到重建图像m(n),计算过程见下式:
Figure BDA0003447241870000341
理和图像重建网络执行的重建操作,η表示步长,是基于展开的网络学习的自由参数。图像重建网络对输入图像进行迭代重建操作,以得到重建图像m(n),重建图像m(n)为该图像重建网络的第n次重建操作的重建结果。
需要说明的是,在本公开上面的描述中,以磁共振成像为例进行的示意性说明,然而本公开不限于此,本领域技术人员应该知道,本公开的实施例提供的图像处理方法不限于重建磁共振图像,还可以重建气象遥感图像、监控图像等,本公开的实施例提供的图像处理方法可以重建各种类型的图像,在此不对所重建的图像的类型进行限定。
例如,在一些实施例中,在获取输入图像前,图像处理方法还包括:在训练阶段,利用样本图像和样本图像对应的样本重建图像训练图像重建网络。
例如,训练阶段可以包括:利用待训练的图像重建网络对样本图像进行N次重建操作,以得到样本图像对应的训练重建图像;根据训练重建图像和样本重建图像,通过图像重建网络对应的损失函数计算待训练的图像重建网络对应的参数的损失值;根据损失值对待训练的图像重建网络对应的参数进行修正,在损失函数满足预定条件时,得到训练好的图像重建网络,在损失函数不满足预定条件时,继续输入样本图像和样本图像对应的样本重建图像以重复执行上述训练过程;
例如,在训练阶段中,待训练的图像重建网络的初始参数可以设置为随机数。
例如,在一个示例中,样本图像可以为医学图像库中的各种类型的医学图像,从而可以训练得到与不同类型的医学图像对应的图像重建网络的参数。根据实际需求,样本图像可以包括核磁共振图像、X射线计算机断层摄影(Computed Tomography,CT)图像等不同类型的医学图像。例如,样本图像可以包括对不同年龄段、不同地方的人进行采样得到的医学图像,从而提高图像重建网络重建图像的准确性和清晰度。
例如,在一个示例中,预定条件可以对应于在一定样本图像输入下图像重建网络的损失函数的最小。在另一个示例中,预定条件可以为图像重建网络的训练次数或训练周期达到预定数目。
例如,损失函数可以表示训练重建图像和样本重建图像的差异。在训练阶段,图像重建网络对应的损失函数可以包括平均绝对误差损失函数(mean absolute error,MAE)和结构相似性损失函数(structural similarity index,SSIM)。
例如,图像重建网络对应的损失函数表示为:
LMix=λ*LSSIM+(1-λ)*LMAE
其中,LMix表示图像重建网络对应的损失函数,LSSIM表示结构相似性损失函数,LMAE表示平均绝对误差损失函数,λ为常数。例如,在一些示例中,λ为0.8。
例如,LMix的值越大(即趋近于1),则表示训练重建图像和样本重建图像之间的差异越大,也就是说,待训练的图像重建网络的参数的调整值越大。LMix的值越小,则表示训练重建图像和样本重建图像之间的差异越小。
例如,在一些实施例中,图像处理方法还包括:获取样本图像。获取样本图像可以包括:获取训练测量数据;对训练测量数据进行欠采样,以得到训练采样数据;对训练采样数据进行初始化处理以将训练采样数据从频域转到对应的空间域,以得到中间样本图像;对中间样本图像进行数据拟合处理和数据修正处理,以得到样本图像。例如,训练测量数据为已经全采样得到的全采样数据,也就是说,在训练过程中,可以通过对现有的全采样数据进行欠采样的方式来得到样本图像,从而简化样本图像的获取方式,灵活简单地获取样本图像,此时,样本图像对应的样本重建图像可以为对训练测量数据进行处理得到。
在本公开的实施例中,图像重建网络在图像重建上具有有效的重建效果。以加速核磁共振成像任务为例,图像重建网络有助于学习欠采样核磁共振成像的细节信息。图像重建网络可以在减少网络训练时间的条件下,获得更高质量的重建图像。在随机掩码(random 4*零填充)欠采样模式下对fastMRI数据集(knee-singlecoil)进行了大量实验,实验结果表明,该图像处理方法在加速核磁共振图像的重建方面优于其他图像重建方法,基于该图像处理方法得到的重建图像的峰值信噪比(PSNR)可到将近30分贝(dB),结构相似度(SSIM)可达将近0.625。
本公开至少一个实施例还提供一种图像处理装置。图9为本公开至少一个实施例提供的一种图像处理装置的示意性框图。
例如,如图9所示,图像处理装置90可以包括存储器905和处理器910。存储器905用于非暂时性地存储计算机可执行指令;处理器910用于运行计算机可执行指令,计算机可执行指令被处理器910运行时可以执行根据本公开任一实施例所述的图像处理方法中的一个或多个步骤。关于该图像处理方法的各个步骤的具体实现以及相关解释内容可以参见上述图像处理方法的实施例,在此不做赘述。
应当注意,图9所示的图像处理装置90的组件只是示例性的,而非限制性的,根据实际应用需要,该图像处理装置90还可以具有其他组件。
例如,处理器910和存储器905之间可以直接或间接地互相通信。
例如,处理器910和存储器905可以通过网络连接进行通信。网络可以包括无线网络、有线网络、和/或无线网络和有线网络的任意组合,本公开对网络的类型和功能在此不作限制。又例如,处理器910和存储器905也可以通过总线连接进行通信。总线可以是外设部件互连标准(PCI)总线或扩展工业标准结构(EISA)总线等。
例如,处理器910和存储器905可以设置在服务器端(或云端),也可以设置在客户端(例如,手机等移动设备)。
例如,处理器910可以是中央处理单元(CPU)、张量处理器(TPU)或者图形处理器GPU等具有数据处理能力和/或指令执行能力的器件,并且可以控制图像处理装置90中的其它组件以执行期望的功能。中央处理元(CPU)可以为X86或ARM架构等。
例如,存储器905可以包括一个或多个计算机程序产品的任意组合,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器、闪存等。在计算机可读存储介质上可以存储一个或多个计算机可执行指令,处理器910可以运行计算机可执行指令,以实现图像处理装置90的各种功能。在存储器905中还可以存储各种应用程序和各种数据,以及应用程序使用和/或产生的各种数据等。
需要说明的是,图像处理装置90可以实现与前述图像处理方法相似的技术效果,重复之处不再赘述。
本公开至少一个实施例还提供一种计算机可读存储介质。图10为本公开至少一个实施例提供的一种计算机可读存储介质的示意图。
例如,如图10所示,在计算机可读存储介质1000上可以非瞬时性地存储一个或多个计算机可执行指令1001。例如,当计算机可执行指令1001由计算机执行时可以执行根据本公开任一实施例所述的图像处理方法中的一个或多个步骤。
又例如,当计算机可执行指令1001由计算机执行时还可以执行根据本公开任一实施例所述的图像处理方法中的训练阶段中的一个或多个步骤。
例如,该计算机可读存储介质1000可以应用于上述图像处理装置中,例如,其可以为图像处理装置90中的存储器905。
例如,关于计算机可读存储介质1000的说明可以参考图像处理装置的实施例中对于存储器905的描述,重复之处不再赘述。
对于本公开,还有以下几点需要说明:
(1)本公开实施例附图只涉及到与本公开实施例涉及到的结构,其他结构可参考通常设计。
(2)为了清晰起见,在用于描述本发明的实施例的附图中,层或结构的厚度和尺寸被放大。可以理解,当诸如层、膜、区域或基板之类的元件被称作位于另一元件“上”或“下”时,该元件可以“直接”位于另一元件“上”或“下”,或者可以存在中间元件。
(3)在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合以得到新的实施例。
以上所述仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,本公开的保护范围应以所述权利要求的保护范围为准。

Claims (27)

1.一种图像处理方法,包括:
获取输入图像;
利用图像重建网络对所述输入图像进行N次重建操作,以得到所述输入图像对应的重建图像,
其中,N为大于等于1的正整数,
所述图像重建网络包括编码子网络、解码子网络和连接子网络,
所述编码子网络包括至少一个编码块,每个编码块包括多个自注意力算子,
所述解码子网络包括至少一个解码块,每个解码块包括多个自注意力算子,
所述连接子网络包括连接层,
所述至少一个编码块中的一个编码块与所述至少一个解码块中的一个解码块通过所述连接层映射连接,
其中,每次重建操作包括:
通过所述编码子网络对所述编码子网络的输入进行特征提取处理,以得到第一特征图和所述至少一个编码块的输出;
利用所述解码子网络和所述连接子网络对所述第一特征图和所述至少一个编码块的输出进行处理,以得到所述解码子网络的输出。
2.根据权利要求1所述的图像处理方法,其中,所述图像重建网络还包括瓶颈层,
其中,在所述图像重建网络包括所述瓶颈层的情况下,每次重建操作包括:
通过所述编码子网络对所述编码子网络的输入进行特征提取处理,以得到所述第一特征图和所述至少一个编码块的输出;
利用所述瓶颈层对所述第一特征图进行处理,以得到第二特征图;
利用所述解码子网络和所述连接子网络对所述第二特征图和所述至少一个编码块的输出进行处理,以得到所述解码子网络的输出。
3.根据权利要求2所述的图像处理方法,其中,所述瓶颈层包括多个自注意力算子,
利用所述瓶颈层对所述第一特征图进行处理,以得到第二特征图,包括:
利用所述瓶颈层的多个自注意力算子对所述第一特征图进行表示学习,以得到所述第二特征图。
4.根据权利要求3所述的图像处理方法,其中,所述瓶颈层的多个自注意力算子包括依次交替连接的基于窗口的自注意力算子和基于移动窗口的自注意力算子,
所述瓶颈层中的基于窗口的自注意力算子的数量比基于移动窗口的自注意力算子的数量多1。
5.根据权利要求1-4中任一项所述的图像处理方法,其中,
当N为1,对于所述N次重建操作,所述编码子网络的输入为所述输入图像,所述解码子网络的输出为所述重建图像,
当N大于1,对所述N次重建操作中的第i次重建操作中所述解码子网络的输出进行数据拟合处理和数据修正处理,以得到所述N次重建操作中的第i+1次重建操作中所述编码子网络的输入,i为正整数且小于N,
i为1时,所述第i次重建操作中所述编码子网络的输入为所述输入图像,i为N-1时,所述第i+1次重建操作中所述解码子网络的输出为所述重建图像。
6.根据权利要求2-4中任一项所述的图像处理方法,其中,所述连接子网络包括至少一个连接层,所述至少一个编码块与所述至少一个解码块通过所述至少一个连接层一一对应映射连接,
每个所述连接层用于将具有相同尺寸特征的编码块和解码块进行映射连接。
7.根据权利要求1-4中任一项所述的图像处理方法,其中,所述解码子网络还包括线性投影层,所述至少一个编码块包括依次连接的多个编码块,所述至少一个解码块包括依次连接的多个解码块,所述连接子网络包括多个连接层,
所述多个编码块与所述多个解码块通过所述多个连接层一一对应映射连接,
每个所述连接层用于将所述连接层对应的编码块的输出和所述连接层对应的解码块的输出进行连接处理,
所述连接层的输出作为所述连接层对应的解码块所连接的下一个解码块的输入或者所述连接层的输出作为所述线性投影层的输入。
8.根据权利要求1-4中任一项所述的图像处理方法,其中,所述编码子网络还包括输出编码块,所述至少一个编码块包括输入编码块,
通过所述编码子网络对所述编码子网络的输入进行特征提取处理,以得到第一特征图和所述至少一个编码块的输出,包括:
通过所述输入编码块对所述编码子网络的输入进行处理,以得到所述输入编码块的输出;
利用所述输出编码块对所述输入编码块的输出进行处理,以得到所述第一特征图。
9.根据权利要求8所述的图像处理方法,其中,所述输出编码块包括多个自注意力算子和补丁合并层,
利用所述输出编码块对所述输入编码块的输出进行处理,以得到所述第一特征图,包括:
通过所述输出编码块中的补丁合并层对所述输入编码块的输出进行下采样操作和第一通道数调整操作,以得到第一编码特征图;
通过所述输出编码块中的多个自注意力算子对所述第一编码特征图进行表示学习,以得到所述第一特征图。
10.根据权利要求9所述的图像处理方法,其中,所述补丁合并层包括下采样层和第一线性层,所述下采样层用于执行所述下采样操作,所述第一线性层用于执行所述第一通道数调整操作;
通过所述输出编码块中的补丁合并层对所述输入编码块的输出进行下采样操作和第一通道数调整操作,以得到第一编码特征图,包括:
通过所述下采样层对所述输入编码块的输出进行所述下采样操作,以得到所述下采样层的输出;
通过所述第一线性层对所述下采样层的输出进行所述第一通道数调整操作,以得到所述第一编码特征图。
11.根据权利要求9所述的图像处理方法,其中,所述第一编码特征图的维度和所述第一特征图的维度相同,所述第一编码特征图的尺寸和所述第一特征图的尺寸相同。
12.根据权利要求1-4中任一项所述的图像处理方法,其中,所述至少一个编码块包括依次连接的输入编码块和至少一个中间编码块,
每个中间编码块还包括补丁合并层,每个中间编码块用于利用所述中间编码块的补丁合并层对所述中间编码块的输入进行下采样操作和第一通道数调整操作,以得到所述中间编码块的补丁合并层的输出;利用所述中间编码块中的多个自注意力算子对所述中间编码块的补丁合并层的输出进行表示学习,以得到所述中间编码块的输出。
13.根据权利要求12所述的图像处理方法,其中,所述编码子网络还包括输出编码块,所述至少一个中间编码块包括第一中间编码块和第二中间编码块,
通过所述编码子网络对所述编码子网络的输入进行特征提取处理,以得到第一特征图和所述至少一个编码块的输出,包括:
通过所述输入编码块对所述编码子网络的输入进行处理,以得到所述输入编码块的输出;
利用所述第一中间编码块对所述输入编码块的输出进行处理,以得到所述第一中间编码块的输出;
利用所述第二中间编码块对所述第一中间编码块的输出进行处理,以得到所述第二中间编码块的输出;
利用所述输出编码块对所述第二中间编码块的输出进行处理,以得到所述第一特征图。
14.根据权利要求13所述的图像处理方法,其中,所述输入编码块还包括线性嵌入层,
通过所述输入编码块对所述编码子网络的输入进行处理,以得到所述输入编码块的输出,包括:
通过所述输入编码块中的线性嵌入层对所述编码子网络的输入进行处理,以得到第二编码特征图;
通过所述输入编码块中的多个自注意力算子对所述第二编码特征图进行表示学习,以得到所述输入编码块的输出。
15.根据权利要求14所述的图像处理方法,其中,所述第二编码特征图的维度和所述输入编码块的输出的维度相同,所述第二编码特征图的尺寸和所述输入编码块的输出的尺寸相同。
16.根据权利要求6所述的图像处理方法,其中,每个解码块还包括补丁扩展层,每个解码块用于利用所述解码块的补丁扩展层对所述解码块的输入进行上采样操作和第二通道数调整操作,以得到所述解码块的补丁合并层的输出;利用所述解码块中的多个自注意力算子对所述解码块的补丁合并层的输出进行表示学习,以得到所述解码块的输出。
17.根据权利要求16所述的图像处理方法,其中,所述补丁扩展层包括上采样层和第二线性层,所述上采样层用于执行所述上采样操作,所述第二线性层用于执行所述第二通道数调整操作。
18.根据权利要求16所述的图像处理方法,其中,所述解码子网络还包括线性投影层,所述至少一个解码块包括输入解码块,所述至少一个连接层包括第一连接层,
利用所述解码子网络和所述连接子网络对所述第二特征图和所述至少一个编码块的输出进行处理,以得到所述解码子网络的输出,包括:
通过所述输入解码块对所述第二特征图进行处理,以得到所述输入解码块的输出;
通过所述第一连接层将与所述第一连接层对应的编码块的输出和所述输入解码块的输出进行连接处理,以得到所述第一连接层的输出,
通过所述线性投影层对所述第一连接层的输出进行投影映射操作,以得到所述解码子网络的输出。
19.根据权利要求16所述的图像处理方法,其中,所述解码子网络还包括线性投影层,所述至少一个解码块包括依次连接的输入解码块和至少一个中间解码块,所述至少一个中间解码块包括依次连接的第一中间解码块和第二中间解码块,
所述至少一个连接层包括第一连接层、第二连接层和第三连接层,
利用所述解码子网络和所述连接子网络对所述第二特征图和所述至少一个编码块的输出进行处理,以得到所述解码子网络的输出,包括:
通过所述输入解码块对所述第二特征图进行处理,以得到所述输入解码块的输出;
通过所述第一连接层将与所述第一连接层对应的编码块的输出和所述输入解码块的输出进行连接处理,以得到所述第一连接层的输出;
通过所述第一中间解码块对所述第一连接层的输出进行处理,以得到所述第一中间解码块的输出;
通过所述第二连接层将与所述第二连接层对应的编码块的输出和所述第一中间解码块的输出进行连接处理,以得到所述第二连接层的输出;
通过所述第二中间解码块对所述第二连接层的输出进行处理,以得到所述第二中间解码块的输出;
通过所述第三连接层将与所述第三连接层对应的编码块的输出和所述第二中间解码块的输出进行连接处理,以得到所述第三连接层的输出;
通过所述线性投影层对所述第三连接层的输出进行投影映射操作,以得到所述解码子网络的输出。
20.根据权利要求1-4中任一项所述的图像处理方法,其中,所述至少一个编码块和所述至少一个解码块的每一个中的多个自注意力算子包括至少一个对称窗口的自注意力算子块,每个对称窗口的自注意力算子块包括基于窗口的自注意力算子和基于移动窗口的自注意力算子,所述基于窗口的自注意力算子的输出作为所述基于移动窗口的自注意力算子的输入。
21.根据权利要求1-4中任一项所述的图像处理方法,其中,获取输入图像包括:
确定采样数据,其中,所述采样数据为进行欠采样得到的数据;
对所述采样数据进行初始化处理以将所述采样数据从频域转到对应的空间域,以得到中间输入图像;
对所述中间输入图像进行处理,以得到所述输入图像。
22.根据权利要求21所述的图像处理方法,其中,对所述中间输入图像进行处理,以得到所述输入图像,包括:
对所述中间输入图像进行数据拟合处理和数据修正处理,以得到所述输入图像。
23.根据权利要求1-4中任一项所述的图像处理方法,其中,所述输入图像的尺寸和所述重建图像的尺寸相同,所述输入图像的通道数和所述重建图像的通道数相同。
24.根据权利要求1-4中任一项所述的图像处理方法,其中,在获取所述输入图像前,所述图像处理方法还包括:
在训练阶段,利用样本图像和所述样本图像对应的样本重建图像训练所述图像重建网络,
其中,在所述训练阶段,所述图像重建网络对应的损失函数包括平均绝对误差损失函数和结构相似性损失函数。
25.根据权利要求24所述的图像处理方法,其中,所述图像重建网络对应的损失函数表示为:
LMix=λ*LSSIM+(1-λ)*LMAE
其中,LMix表示所述图像重建网络对应的损失函数,LSSIM表示所述结构相似性损失函数,LMAE表示所述平均绝对误差损失函数,λ为常数。
26.一种图像处理装置,包括存储器和处理器,
其中,所述存储器存储有适于由所述处理器运行的计算机可执行指令,所述计算机可执行指令被所述处理器运行时执行根据权利要求1-25中任一项所述的图像处理方法中的一个或多个步骤。
27.一种计算机可读存储介质,非瞬时性地存储计算机可执行指令,
其中,所述计算机可执行指令被计算机运行时执行根据权利要求1-25中任一项所述的图像处理方法中的一个或多个步骤。
CN202111653638.1A 2021-12-30 2021-12-30 图像处理方法、图像处理装置和存储介质 Pending CN114359092A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111653638.1A CN114359092A (zh) 2021-12-30 2021-12-30 图像处理方法、图像处理装置和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111653638.1A CN114359092A (zh) 2021-12-30 2021-12-30 图像处理方法、图像处理装置和存储介质

Publications (1)

Publication Number Publication Date
CN114359092A true CN114359092A (zh) 2022-04-15

Family

ID=81103257

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111653638.1A Pending CN114359092A (zh) 2021-12-30 2021-12-30 图像处理方法、图像处理装置和存储介质

Country Status (1)

Country Link
CN (1) CN114359092A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114708973A (zh) * 2022-06-06 2022-07-05 首都医科大学附属北京友谊医院 一种用于对人体健康进行评估的方法和相关产品
CN115376211A (zh) * 2022-10-25 2022-11-22 北京百度网讯科技有限公司 唇形驱动方法、唇形驱动模型的训练方法、装置及设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114708973A (zh) * 2022-06-06 2022-07-05 首都医科大学附属北京友谊医院 一种用于对人体健康进行评估的方法和相关产品
CN114708973B (zh) * 2022-06-06 2022-09-13 首都医科大学附属北京友谊医院 一种用于对人体健康进行评估的设备和存储介质
CN115376211A (zh) * 2022-10-25 2022-11-22 北京百度网讯科技有限公司 唇形驱动方法、唇形驱动模型的训练方法、装置及设备

Similar Documents

Publication Publication Date Title
Liu et al. Video super-resolution based on deep learning: a comprehensive survey
Huang et al. Unfolding the alternating optimization for blind super resolution
Zhang et al. Image super-resolution based on structure-modulated sparse representation
Wang et al. Laplacian pyramid adversarial network for face completion
CN114359092A (zh) 图像处理方法、图像处理装置和存储介质
CN109214989A (zh) 基于多方向特征预测先验的单幅图像超分辨率重建方法
CN112529776B (zh) 图像处理模型的训练方法、图像处理方法及装置
CN113706388B (zh) 图像超分辨率重建方法及装置
Cao et al. New architecture of deep recursive convolution networks for super-resolution
Zhang et al. MR image super-resolution reconstruction using sparse representation, nonlocal similarity and sparse derivative prior
Cheng et al. Image super-resolution based on half quadratic splitting
Feng et al. Guided filter‐based multi‐scale super‐resolution reconstruction
CN106981046B (zh) 基于多层梯度约束回归的单幅图像超分辨率重建方法
Alvarez-Ramos et al. Image super-resolution via two coupled dictionaries and sparse representation
Lepcha et al. An efficient medical image super resolution based on piecewise linear regression strategy using domain transform filtering
Kasiri et al. Single MR-image super-resolution based on convolutional sparse representation
Jin et al. Low-dose CT image restoration based on noise prior regression network
CN115239836A (zh) 一种基于端到端神经网络的极端稀疏视角ct重建方法
CN114219738A (zh) 单幅图像多尺度超分辨重建网络结构及方法
CN113628114A (zh) 一种双通道稀疏编码的图像超分辨率重建方法
Umer et al. Real Image Super-Resolution using GAN through modeling of LR and HR process
Li et al. Medical Image Enhancement Using Deep Learning
KR102514804B1 (ko) 비지도 학습 기반 자기 공명 영상 처리 방법 및 그 장치
Prasad et al. Digital Image Enhancement using Conventional Neural Network
Gulzar et al. Optical Flow Video Frame Interpolation Based MRI Super-Resolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Country or region after: China

Address after: 201100 room 1302, 13 / F, building 16, No. 2388, Chenhang highway, Minhang District, Shanghai

Applicant after: Shanghai Bi Ren Technology Co.,Ltd.

Address before: 201100 room 1302, 13 / F, building 16, No. 2388, Chenhang highway, Minhang District, Shanghai

Applicant before: Shanghai Bilin Intelligent Technology Co.,Ltd.

Country or region before: China