CN111667444B - 一种基于多通道残差网络的图像压缩感知重建方法 - Google Patents

一种基于多通道残差网络的图像压缩感知重建方法 Download PDF

Info

Publication number
CN111667444B
CN111667444B CN202010478064.8A CN202010478064A CN111667444B CN 111667444 B CN111667444 B CN 111667444B CN 202010478064 A CN202010478064 A CN 202010478064A CN 111667444 B CN111667444 B CN 111667444B
Authority
CN
China
Prior art keywords
image
convolution
network
reconstruction
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010478064.8A
Other languages
English (en)
Other versions
CN111667444A (zh
Inventor
曾春艳
王正辉
武明虎
王娟
严康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Original Assignee
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology filed Critical Hubei University of Technology
Priority to CN202010478064.8A priority Critical patent/CN111667444B/zh
Publication of CN111667444A publication Critical patent/CN111667444A/zh
Application granted granted Critical
Publication of CN111667444B publication Critical patent/CN111667444B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

本发明涉及图像处理领域,主要涉及一种基于多通道残差网络的图像压缩感知重建方法。本发明首先利用全卷积网络对输入数据进行测量,随后使用反卷积网络对测量信号进行初始重建,最后利用空洞卷积组成的多通道网络完成图像的深度重建。本发明能有效提高测量效率,输入为完整图像,不需要分块处理,且高精度重建原始图像重建,避免了分块效应。

Description

一种基于多通道残差网络的图像压缩感知重建方法
技术领域
本发明涉及图像处理领域,主要涉及一种采用全卷积和空洞卷积的,多通道残差网络构建的图像压缩感知重建算法。
背景技术
压缩感知(CS)理论是近几年提出的一种新型信号处理方法,通过线性投影同时采样和压缩信号,且在信号是稀疏或者是可压缩的前提下,从远少于奈奎斯特采样的测量信号中精确地恢复原始信号。其数学模型如下表示:
y=Φx (1)
其中
Figure BDA0002516422870000011
是一个稀疏或者可压缩的信号,
Figure BDA0002516422870000012
是测量信号,
Figure BDA0002516422870000013
是一个测量矩阵。高斯矩阵由于其理论上的可解释性被广泛用作为测量矩阵。但对于高维数据,其测量矩阵需要高昂的存储空间,并且计算复杂度很高。为减少计算复杂度,通常在采样前先对数据进行分块处理,再针对每个分块后的数据设计较小的测量矩阵。分块有效降低了测量的维度,大大的减少了计算所需的内存,但在重建时会产生分块效应。最近,由于深度学习技术在图像处理等领域发展迅猛,有研究利用神经网络代替传统的测量矩阵,使用卷积神经网络自适应测量信号,避免复杂的人工设计。
对信号测量后,准确地重建出原始信号是CS面临的另一个重大挑战。大多数传统的重建方法都是基于先验信息的方法,如凸松弛算法、贪婪匹配追踪算法和贝叶斯类算法。凸松弛算法虽然具有理论保证但是计算十分复杂;贪婪匹配追踪算法相对于凸松弛算法实现简单速度较快,但没有理论保证;贝叶斯类重建方法的重建精度和时间复杂度介于凸松弛方法和贪婪匹配追踪方法之间,重建精度比贪婪匹配追踪方法高,比凸松弛方法具有更低的计算复杂度,利用了参数的先验信息且具有鲁棒性。然而几乎所有的传统方法在解决图像重建这个问题时,计算仍然十分复杂且消耗大量时间。深度学习方法的出现,提高了图像重建在重建精度和计算复杂度等方面性能。
目前,基于深度学习的CS图像重建,大部分在采样时还是采用分块的方式进行预处理,重建时使用单一的神经网络进行重建。虽然与传统算法相比,已经获得较好的重建效果,但在低采样率下重建图像存在严重的分块效应,重建性能仍然有较大提升的提升空间。本发明提出基于多通道残差网络的图像压缩感知重建算法,首先采用全卷积神经网络对输入图像进行采样,避免对图像分块;然后利用反卷积对测量信号进行初始重建;最后,通过多通道残差网络重建原始图像,且各通道采用感受野不同的空洞卷积多尺度重建图像,以提高重建性能。通过对全卷积采样和多通道重建网络的联合训练,使测量与重建网络达到最优,获得快速采样及高精度重建图像方案。
发明内容
本发明的上述技术问题主要是通过下述技术方案得以解决的:
一种基于多通道残差网络的图像压缩感知重建方法,其特征在于,包括
步骤1、采集图像数据并将其基于神经网络测量后输出测量信号;
步骤2、采用反卷积神经网络对测量信号进行初始重建后输出初始重建图像;
步骤3、利用双通道网络对步骤2的重建图像进行深度重建后输出重建后的图像数据。
本发明首先利用全卷积网络对输入数据进行测量,随后使用反卷积网络对测量信号进行初始重建,最后利用空洞卷积组成的多通道网络完成图像的深度重建。本发明能有效提高测量效率,输入为完整图像,不需要分块处理,且高精度重建原始图像重建,避免了分块效应。
在上述的一种基于多通道残差网络的图像压缩感知重建方法,步骤1具体包括:
步骤2.1、输入一张大小为n×n的图像,将图像转化为灰度图。
步骤2.2、利用全卷积神经网络进行测量。采用m个B×B×1的卷积核对输入信号测量,其中
Figure BDA0002516422870000031
Figure BDA0002516422870000032
为测量率,B为测量层卷积核大小。不设偏置阈值,且没有Pad补零,卷积步长为B。
步骤2.3、经过卷积层测量后,得到
Figure BDA0002516422870000033
的测量信号。
在上述的一种基于多通道残差网络的图像压缩感知重建方法,步骤2具体包括:
步骤3.1、利用反卷积神经网络对测量信号进行初始重建。在反卷积层,卷积核的大小设置为32×32,并且步长也是32。
步骤3.2、经过步骤3.1的反卷积操作后,得到n×n的初始重建图像。
在上述的一种基于多通道残差网络的图像压缩感知重建方法,步骤3具体包括:
步骤4.1、采用扩张速率分别为1和2的空洞卷积组成的双通道网络,由双通道残差网来完成图像的深度重建,
步骤4.2、中的初始重建图像块作为输入,输出大小为n×n的深度重建图像。
在上述的一种基于多通道残差网络的图像压缩感知重建方法,步骤4.1中,
双通道网络中的第一个通道包含4个相同卷积层,卷积核为扩张速率为1的空洞卷积核,卷积的步长为1,卷积核的个数为32,每层都用ReLU作为激活函数,为了使输出的维度与输入维度相同采用Pad进行补零;
双通道网络中的第二个通道也包含4个卷积层,卷积核为扩张速率为2的空洞卷积核,卷积的步长为1,卷积核的个数为32,每层都用ReLU作为激活函数;使用Pad补零操作使输入与输出维度相同,具体包括:
该通道4个卷积层的每一层的卷积核都是在3×3的卷积核上进行扩张,并且扩张速率为2,这样得到5×5的扩张卷积核。其实就是在3×3卷积核中的每个数周边进行0填充,该卷积核有九个位置不为零,其余位置都为零。该卷积核与普通5×5的卷积核感受野相同,但是参数远少与普通5×5的卷积核,大大减少计算复杂度。
双通道网络的每个通道提取不同的特征信息后,通过Concat将两个通道提取的特征信息进行融合。每个通道输出的32个特征信息融合得到64个特征信息。最后一个卷积层使用1个3×3×64的卷积核输出最终的重建图像。另外,在初始重建的输出与深度重建网络的输出之间加了一个长的跳连接,使双通道深度重建网络构成了残差网,可以加快网络训练过程和提高网络的性能。
在上述的一种基于多通道残差网络的图像压缩感知重建方法,步骤2.2采用全卷积神经网络进行测量的具体方法是:
利用卷积神经网络测量是模仿传统的测量方式:yi=ΦB×xi,可以将测量矩阵ΦB的每一行都视为一个卷积核。我们将卷积核的大小设置成B×B,步长也设置成B,相当于不重叠采样;因此每一个卷积核输出一个测量值。这里测量矩阵ΦB中存在
Figure BDA0002516422870000041
行,以获得m个测量点。这里
Figure BDA0002516422870000042
为测量率,当我们设置B=32测量率
Figure BDA0002516422870000043
时,采样层卷积核的个数为102。
在上述的一种基于多通道残差网络的图像压缩感知重建方法,步骤3.1利用反卷积神经网络对测量信号进行初始重建的具体方法是:
对于反卷积过程,采用卷积过程转置后的卷积核,相当于是卷积的逆过程。经过卷积测量后,图像的分辨率会变低,反卷积就是为了尽可能恢复图像,重要的是得到与原图像的大小一致。由于反卷积的输出张量(图像)大小为:O=(N-1)×S+K-2P,其中N是输入图像大小,O是输出图像大小,S是步长,K是卷积核的大小,P是边缘填充。在经过全卷积测量后,
Figure BDA0002516422870000044
没有Pad操作。为了得到与原图相同大小,因此在这里S=32,K=32,没有Pad操作,因此P=0。这样经过反卷积后就会得到与原图像大小相同的初始重建图像。
因此,本发明具有如下优点:本发明提供的基于多通道残差网络的图像压缩感知重建算法,较之前的压缩感知重建算法相比,在采样阶段,用卷积神经网络进行采样,输入的数据是完整数据,不需要分块处理,大大提高了采样效率;在重建端,首先利用反卷积网络对测量信号进行初始重建,进而利用空洞卷积组成的多通道残差网络完成图像的深度重建。较传统方法能减少重建时间,较其他基于深度学习的方法,多通道网络采用感受野不同的空洞卷积多尺度重建图像,提高重建质量。在初始重建的输出与深度重建网络的输出之间加了一个长的跳连接,使双通道深度重建网络构成了残差网,可以加快网络训练过程和进一步提高网络的性能。由于此算法较之前的算法数据输入前不需要分块处理,输入为一个完整的图像,即使在很低的测量率下重建图像中没有分块效应。
附图说明
附图1是本发明的方法流程示意图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例:
基于多通道残差网络的图像压缩感知重建算法如图1所示,分为三个步骤,第一个步骤为图像的测量阶段,先利用全卷积对输入图像进行测量;第二个步骤为初始重建阶段,采用反卷积对测量信号进行初始重建,获取与原始图像维度相同的初始重建图像;第三个步骤为深度重建阶段,利用不同扩张速率的空洞卷积组成多通道并行网络,多尺度重建原始信号,通过多通道的残差网对图像进行深度重建,其具体步骤如下:
步骤1:图像的测量阶段。
1-1)输入一张大小为n×n的图像,将图像转化为灰度图。
1-2)利用全卷积神经网络进行测量。利用卷积神经网络测量是模仿传统的测量方式:yi=ΦB×xi,可以将测量矩阵ΦB的每一行都视为一个卷积核。我们将卷积核的大小设置成B×B,步长也设置成B,相当于不重叠采样;因此每一个卷积核输出一个测量值。这里测量矩阵ΦB中存在
Figure BDA0002516422870000051
行,以获得m个测量点。这里
Figure BDA0002516422870000052
为测量率,当我们设置B=32测量率
Figure BDA0002516422870000053
时,测量层卷积核的个数为102。需要指出的是,此步骤的卷积操作中,没有偏置,且没有Pad补零。
1-3)经过卷积层测量后,得到
Figure BDA0002516422870000061
的测量信号。
步骤2:初始重建阶段。
2-1)利用反卷积神经网络对测量信号进行初始重建。对于反卷积过程,采用卷积过程转置后的卷积核,相当于是卷积的逆过程。经过卷积测量后,图像的分辨率会变低,反卷积就是为了尽可能恢复图像,重要的是得到与原图像的大小一致。我们将反卷积的卷积核大小也设置为B,步长也是B,卷积核个数为m,这样就会得到与原图像大小相同的初始重建。
2-2)经过2-1)的反卷积操作后,得到n×n的初始重建图像。
步骤3:深度重建阶段,采用扩张速率分别为1和2的空洞卷积组成的双通道网络,由双通道残差网来完成图像的深度重建,2-2)中的初始重建图像块作为输入,输出大小为n×n的深度重建图像。
双通道网络中的第一个通道包含4个相同卷积层,卷积核为扩张速率为1的空洞卷积核,卷积的步长为1,卷积核的个数为32,每层都用ReLU作为激活函数,为了使输出的维度与输入维度相同我们采用Pad进行补零;双通道网络中的第二个通道也包含4个卷积层,卷积核为扩张速率为2的空洞卷积核,卷积的步长为1,卷积核的个数为32,每层都用ReLU作为激活函数;使用Pad补零操作使输入与输出维度相同。该通道4个卷积层的每一层的卷积核都是在3×3的卷积核上进行扩张,并且扩张速率为2,这样得到5×5的扩张卷积核。其实就是在3×3卷积核中的每个数周边进行0填充,该卷积核有九个位置不为零,其余位置都为零。该卷积核与普通5×5的卷积核感受野相同,但是参数远少与普通5×5的卷积核,大大减少计算复杂度。
双通道网络的每个通道提取不同的特征信息后,通过Concat将两个通道提取的特征信息进行融合。每个通道输出的32个特征信息融合得到64个特征信息。最后一个卷积层使用1个3×3×64的卷积核输出最终的重建图像。另外,在初始重建的输出与深度重建网络的输出之间加了一个长的跳连接,使双通道深度重建网络构成了残差网,可以加快网络训练过程和提高网络的性能。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (5)

1.一种基于多通道残差网络的图像压缩感知重建方法,其特征在于,包括
步骤1、采集图像数据并将其基于神经网络测量后输出测量信号;
步骤2、采用反卷积神经网络对测量信号进行初始重建后输出n×n的初始重建图像;
步骤3、利用双通道网络对步骤2的初始重建图像进行深度重建后输出重建后的图像数据;
步骤3具体包括:
步骤4.1、采用扩张速率分别为1和2的空洞卷积组成的双通道残差网络,由双通道残差网络来完成图像的深度重建;
步骤4.2、将得到的n×n的初始重建图像作为输入,输出大小为n×n的深度重建图像;
步骤4.1中,
双通道网络中的第一个通道包含4个相同卷积层,卷积核为扩张速率为1的空洞卷积核,卷积的步长为1,卷积核的个数为32,每层都用ReLU作为激活函数,为了使输出的维度与输入维度相同采用Pad进行补零;
双通道网络中的第二个通道也包含4个卷积层,卷积核为扩张速率为2的空洞卷积核,卷积的步长为1,卷积核的个数为32,每层都用ReLU作为激活函数;使用Pad补零操作使输入与输出维度相同,具体包括:
该通道4个卷积层的每一层的卷积核都是在3×3的卷积核上进行扩张,并且扩张速率为2,这样得到5×5的扩张卷积核;其实就是在3×3卷积核中的每个数周边进行0填充,该卷积核有九个位置不为零,其余位置都为零;该卷积核与普通5×5的卷积核感受野相同,但是参数远少与普通5×5的卷积核,大大减少计算复杂度;
双通道网络的每个通道提取不同的特征信息后,通过Concat将两个通道提取的特征信息进行融合;每个通道输出的32个特征信息融合得到64个特征信息;最后一个卷积层使用1个3×3×64的卷积核输出最终的重建图像;另外,在初始重建的输出与深度重建网络的输出之间加了一个长的跳连接,使双通道深度重建网络构成了残差网络,可以加快网络训练过程和提高网络的性能。
2.根据权利要求1所述的一种基于多通道残差网络的图像压缩感知重建方法,其特征在于,步骤1具体包括:
步骤2.1、输入一张大小为n×n的图像,将图像转化为灰度图;
步骤2.2、利用全卷积神经网络进行测量;采用m个B×B×1的卷积核对输入信号测量,其中
Figure FDA0003304119900000021
Figure FDA0003304119900000022
为测量率,B为测量层卷积核大小;不设偏置阈值,且不设Pad补零,卷积步长为B;
步骤2.3、经过卷积层测量后,得到
Figure FDA0003304119900000023
的测量信号。
3.根据权利要求2所述的一种基于多通道残差网络的图像压缩感知重建方法,其特征在于,步骤2具体包括:
步骤3.1、利用反卷积神经网络对测量信号进行初始重建;在反卷积层,卷积核的大小设置为32×32,并且步长也是32;
步骤3.2、经过步骤3.1的反卷积操作后,得到n×n的初始重建图像。
4.根据权利要求3所述的一种基于多通道残差网络的图像压缩感知重建方法,其特征在于,步骤2.2采用全卷积神经网络进行测量的具体方法是:
利用卷积神经网络测量是模仿传统的测量方式:yi=ΦB×xi,可以将测量矩阵ΦB的每一行都视为一个卷积核;将卷积核的大小设置成B×B,步长也设置成B,相当于不重叠采样;因此每一个卷积核输出一个测量值;这里测量矩阵ΦB中存在
Figure FDA0003304119900000031
行,以获得m个测量点;这里
Figure FDA0003304119900000032
为测量率,当设置B=32、测量率
Figure FDA0003304119900000033
时,采样层卷积核的个数为102。
5.根据权利要求4所述的一种基于多通道残差网络的图像压缩感知重建方法,其特征在于,步骤3.1利用反卷积神经网络对测量信号进行初始重建的具体方法是:对于反卷积过程,采用卷积过程转置后的卷积核,相当于是卷积的逆过程;经过卷积测量后,图像的分辨率会变低,反卷积就是为了恢复图像,重要的是得到与原图像的大小一致;由于反卷积的输出张量大小为:O=(N-1)×S+K-2P,其中N是输入图像大小,O是输出图像大小,S是步长,K是卷积核的大小,P是边缘填充;在经过全卷积测量后,
Figure FDA0003304119900000034
没有Pad操作;为了得到与原图相同大小,因此在这里S=32,K=32,没有Pad操作,因此P=0;这样经过反卷积后就会得到与原图像大小相同的初始重建图像。
CN202010478064.8A 2020-05-29 2020-05-29 一种基于多通道残差网络的图像压缩感知重建方法 Active CN111667444B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010478064.8A CN111667444B (zh) 2020-05-29 2020-05-29 一种基于多通道残差网络的图像压缩感知重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010478064.8A CN111667444B (zh) 2020-05-29 2020-05-29 一种基于多通道残差网络的图像压缩感知重建方法

Publications (2)

Publication Number Publication Date
CN111667444A CN111667444A (zh) 2020-09-15
CN111667444B true CN111667444B (zh) 2021-12-03

Family

ID=72385295

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010478064.8A Active CN111667444B (zh) 2020-05-29 2020-05-29 一种基于多通道残差网络的图像压缩感知重建方法

Country Status (1)

Country Link
CN (1) CN111667444B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634391B (zh) * 2020-12-29 2023-12-29 华中科技大学 一种基于压缩感知的灰度图像深度重建及故障诊断系统
CN113111886B (zh) * 2021-04-19 2023-03-24 太原科技大学 一种基于双层残差网络的交通场景图像语义分割方法
CN113139999B (zh) * 2021-05-14 2023-04-07 广东工业大学 一种透明物体单视图多尺度深度估计方法和系统
CN113516601B (zh) * 2021-06-17 2022-10-14 西南大学 基于深度卷积神经网络与压缩感知的图像恢复方法
CN114782830B (zh) * 2022-06-22 2022-09-06 天津大学 一种图像深度学习特征增强方法、系统及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921786A (zh) * 2018-06-14 2018-11-30 天津大学 基于残差卷积神经网络的图像超分辨率重构方法
JP2018206274A (ja) * 2017-06-09 2018-12-27 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
CN110084862A (zh) * 2019-04-04 2019-08-02 湖北工业大学 基于多尺度小波变换与深度学习的图像压缩感知算法
CN110276721A (zh) * 2019-04-28 2019-09-24 天津大学 基于级联残差卷积神经网络的图像超分辨率重建方法
CN110717856A (zh) * 2019-09-03 2020-01-21 天津大学 一种用于医学成像的超分辨率重建算法
CN111047515A (zh) * 2019-12-29 2020-04-21 兰州理工大学 一种基于注意力机制的空洞卷积神经网络图像超分辨率重建方法
CN111161146A (zh) * 2019-12-25 2020-05-15 大连理工大学 一种由粗糙到精细的单张图像超分辨率重建方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102215702B1 (ko) * 2018-06-04 2021-02-16 한국과학기술원 뉴럴 네트워크를 이용한 자기공명영상 처리 방법 및 그 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018206274A (ja) * 2017-06-09 2018-12-27 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
CN108921786A (zh) * 2018-06-14 2018-11-30 天津大学 基于残差卷积神经网络的图像超分辨率重构方法
CN110084862A (zh) * 2019-04-04 2019-08-02 湖北工业大学 基于多尺度小波变换与深度学习的图像压缩感知算法
CN110276721A (zh) * 2019-04-28 2019-09-24 天津大学 基于级联残差卷积神经网络的图像超分辨率重建方法
CN110717856A (zh) * 2019-09-03 2020-01-21 天津大学 一种用于医学成像的超分辨率重建算法
CN111161146A (zh) * 2019-12-25 2020-05-15 大连理工大学 一种由粗糙到精细的单张图像超分辨率重建方法
CN111047515A (zh) * 2019-12-29 2020-04-21 兰州理工大学 一种基于注意力机制的空洞卷积神经网络图像超分辨率重建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Research on a handwritten character recognition algorithm based on an extended nonlinear kernel residual network;Zheheng Rao.et.;《KSII TRANSACTIONS ON INTERNET AND INFORMATION SYSTEMS》;20180131;第12卷(第1期);第413-435页 *
多尺度密集残差网络的单幅图像超分辨率重建;应自炉等;《中国图象图形学报》;20190331(第3期);第410-419页 *

Also Published As

Publication number Publication date
CN111667444A (zh) 2020-09-15

Similar Documents

Publication Publication Date Title
CN111667444B (zh) 一种基于多通道残差网络的图像压缩感知重建方法
Zheng et al. Cascaded dilated dense network with two-step data consistency for MRI reconstruction
CN110992270A (zh) 基于注意力的多尺度残差注意网络图像超分辨率重建方法
CN105513026A (zh) 一种基于图像非局部相似的压缩感知重构方法
CN109410114B (zh) 基于深度学习的压缩感知图像重建算法
CN111870245B (zh) 一种跨对比度引导的超快速核磁共振成像深度学习方法
CN111667445B (zh) 一种基于Attention多特征融合的图像压缩感知重建方法
CN112213771A (zh) 地震波阻抗反演方法及装置
CN113269818A (zh) 一种基于深度学习的地震数据纹理特征重建方法
CN114283088A (zh) 低剂量ct图像降噪方法及装置
CN103413351B (zh) 基于压缩感知理论的三维人脸快速重建方法
CN113176607B (zh) 基于融入物理规律的稀疏自编码器地震反演方法及系统
CN114581550A (zh) 基于跨域网络的磁共振成像降采样和重建方法
CN114708496A (zh) 一种基于改进空间池化金字塔的遥感变化检测方法
CN110211037B (zh) 一种基于多级稀疏字典学习的图像超分辨率方法
CN116979970A (zh) 一种漏磁数据的压缩和重构方法、系统、电子设备及介质
Su et al. High-Similarity-Pass Attention for Single Image Super-Resolution
CN113298827B (zh) 一种基于DP-Net网络的图像分割方法
CN115984949A (zh) 一种带有注意力机制的低质量人脸图像识别方法及设备
CN113556131B (zh) 一种复数域多任务贝叶斯压缩感知方法
CN112308215B (zh) 基于神经网络中数据稀疏特性的智能训练加速方法及系统
Wu et al. A novel framework called HDU for segmentation of brain tumor
Meng et al. Manifold constrained low-rank and joint sparse learning for dynamic cardiac MRI
Zhang et al. Distributed compressive sensing via LSTM-aided sparse bayesian learning
CN114022363A (zh) 图像超分辨率重建方法、装置以及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant