CN113129214A - 一种基于生成对抗网络的超分辨率重建方法 - Google Patents

一种基于生成对抗网络的超分辨率重建方法 Download PDF

Info

Publication number
CN113129214A
CN113129214A CN202110431936.XA CN202110431936A CN113129214A CN 113129214 A CN113129214 A CN 113129214A CN 202110431936 A CN202110431936 A CN 202110431936A CN 113129214 A CN113129214 A CN 113129214A
Authority
CN
China
Prior art keywords
image
countermeasure network
map
super
maps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110431936.XA
Other languages
English (en)
Inventor
姬国庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202110431936.XA priority Critical patent/CN113129214A/zh
Publication of CN113129214A publication Critical patent/CN113129214A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Abstract

本发明公开了一种基于生成对抗网络的超分辨率重建方法,包括以下步骤;第一步,输入图像,将原有的低分辨率的图像输入到生成对抗网络中生成高分辨率的图像;第二步,多尺度特征提取,提取高分辨率图像的亮度、颜色、方向三个特征,作为计算显著度的底层特征,并对特征图进行两个尺度的采样,得到三个尺度的特征图,得到三个亮度特征图、九个颜色特征图和十二个方向特征图。本发明结合了分块对比的思想,同时考虑了图像的局部和全局特性,对显著区域进行提取,可以在图像转换为高分辨率图像时能对显著区域进行检测,该方法与传统方法比较,查准率和查全率都有所提高,能够得到与人类视觉机制相符合的检测结果,并且能够有效地抑制噪声的干扰。

Description

一种基于生成对抗网络的超分辨率重建方法
技术领域
本发明涉及图像超分辨率技术领域,尤其涉及一种基于生成对抗网络的超分辨率重建方法。
背景技术
图像超分辨率重建将低分辨率图像转换为高分辨率图像,以获得尽可能接近真实图像的图像。在实际环境中,受采集设备与环境、网络传输介质与带宽、图像退化模型本身等诸多因素的约束,图像数据采集质量有限,超分辨率重建算法在视频图像压缩传输、医学成像、遥感成像、视频感知与监控等任务中具有广泛应用前景。
近年来,基于深度学习的通用图像超分辨率算法已经越来越成功,但是每种算法产生的结果与真实性之间仍然存在很大差距。即使对于某些专门用于图像感知的算法,这些算法也会产生原始图像中不存在的更多纹理,并且这些伪影也会影响图像的视觉感知质量。
图像显著区域检测是根据人类视觉注意机制,快速而准确地定位并提取图像中最吸引人类关注的区域,在图像分析领域,将计算资源优先分配给容易引起观察者注意的区域,能极大提高现有图像分析方法的效率,然而实际上,基于生成对抗网络的超分辨率重建算法中,图像转换为高分辨率图像时不能对显著区域进行检测,因此,提升重建图像的显著区域质量是十分有必要的。
发明内容
本发明提供了一种基于生成对抗网络的超分辨率重建方法,解决了现有技术中图像显著区域检测是根据人类视觉注意机制,快速而准确地定位并提取图像中最吸引人类关注的区域,在图像分析领域,将计算资源优先分配给容易引起观察者注意的区域,能极大提高现有图像分析方法的效率,然而实际上,基于生成对抗网络的超分辨率重建算法中,图像转换为高分辨率图像时不能对显著区域进行检测,因此,提升重建图像的显著区域质量是十分有必要的技术问题。
为了实现上述目的,本发明采用了如下技术方案:
一种基于生成对抗网络的超分辨率重建方法,包括以下步骤;
第一步,输入图像,将原有的低分辨率的图像输入到生成对抗网络中生成高分辨率的图像;
第二步,多尺度特征提取,提取高分辨率图像的亮度、颜色、方向三个特征,作为计算显著度的底层特征,并对特征图进行两个尺度的采样,得到三个尺度的特征图,得到三个亮度特征图、九个颜色特征图和十二个方向特征图;
第三步,分块对比计算,将同一尺度下的特征图分解为一系列7x7的图像块,以图像块为单位,分别计算出亮度对比图,颜色对比图和方向对比图;
第四步,生成多尺度显著图,计算图像块的权值,得到每个尺度下的特征显著图,即为颜色显著图、亮度显著图和方向显著图;
第五步,多尺度融合,将三个尺度的显著图每个都进行最近邻差值放大到原始图像大小,融合成最终的三个特征显著图,然后将三幅特征显著图线性相加得到最后的显著图;
第六步,提取显著区域,提取出显著性最大的区域,即显著区域。
作为本技术方案的进一步改进方案:所述第一步中,生成对抗网络包括生成器和判决器,生成对抗网络中的生成器生成与训练样本相似的新样本,生成器其作用是抓取数据分布特征,生成对抗网络中的判决器作为分类器,其作用是对输入数据的真实性进行判断,估计图片来自训练数据还是来自于生成器生成的图片,通过利用生成器生成对应数据,然后将真实样本数据和生成的样本数据送入到判决器中进行真假判断,进而将分辨率低的图像转化为高分辨率图像。
作为本技术方案的进一步改进方案:所述第二步中,对于颜色特征,采用RGB颜色空间,得到R、G、B三个颜色通道的三幅特征图。
作为本技术方案的进一步改进方案:所述第二步中,对于方向特征,采用Gabor滤波器对灰度图像进行0°、45°、90°、135°的空间滤波,得到四幅方向特征图,然后对每-一个特征图表示为三层高斯金字塔,再对特征图进行滤波,滤波后的图像进行隔行隔列的采样,第一层是特征图,对特征图进行两次的高斯金字塔分解,得到大小分别为特征图的1/2和1/4的不同分辨率的图像。
作为本技术方案的进一步改进方案:所述第二步中,采用3x3的高斯滤波器对特征图进行滤波。
作为本技术方案的进一步改进方案:所述第三步中,以图像块为单位,计算得到的对比图共九幅,分别为亮度对比图三幅、颜色对比图三幅和方向对比图三幅。
作为本技术方案的进一步改进方案:所述第四步中,由于计算得到三个特征的对比图后,根据人类的视觉注意机制,处于中心位置的图像块较处于边缘位置的图像块更容易引起观察者的注意,计算各图像块与图像中心位置的距离,作为计算图像块显著值的权值。
作为本技术方案的进一步改进方案:所述第五步中,得到的不同分辨率下三个特征的显著图共三幅,分别为亮度显著图一幅、颜色显著图一幅和方向显著图一幅。
作为本技术方案的进一步改进方案:所述第六步中,提取出显著性最大的区域采用对显著图将显著图进行自适应阈值分割方法
作为本技术方案的进一步改进方案:所述第一步中,生成对抗网络的软件运行环境为64位Ubuntu 16.04.4操作系统平台上,基于TensorFlow-GPU 1.4.0深度学习框架并使用Python 3.5.2脚本语言构建文本图像超分辨率重建模型,使用一块NVIDIAGTX 1070TiGPU完成模型的训练。
与现有技术相比,本发明的有益效果是:
生成对抗网络不需要反复地进行马尔科夫链采样,也没有传统生成模型训练过程中的概率计算,它主要包括生成器和判决器,在原始生成对抗网络模型中,生成器通过输入噪声生成输出,判决器接收输入并判别该输入是生成数据还是真实样本,生成器尽可能提高生成数据的可信度,判决器尽可能判别数据的真实性,二者相互对抗,不断调整网络参数,最终目的是使判别模型无法判断生成模型输出的结果是否真实,所以首先将低分辨率图像作为生成对抗网络的输入,输出超分辨率图像,判别网络将超分辨率图像和原始高分辨率图像作为输入,输出判别结果,生成网络和判别网络相互对抗,当判别网络无法区分高分辨率图像和超分辨率图像时,生成对抗网络就完成了重建超分辨率图像的任务,之后提取高分辨率图像的亮度、颜色、方向三个特征,作为计算显著度的底层特征,并对特征图进行两个尺度的采样,得到三个尺度的特征图,得到三个亮度特征图、九个颜色特征图和十二个方向特征图,通过分块对比计算得到特征对比图,再将三个尺度的对比图进行线性插值得到三幅特征显著图,然后将各特征显著图线性融合成为最终的显著图,最后通过自适应阈值法从显著图中提取显著区域,本发明方法结合了分块对比的思想,同时考虑了图像的局部和全局特性,对显著区域进行提取,可以在图像转换为高分辨率图像时能对显著区域进行检测,该方法与传统方法比较,查准率和查全率都有所提高,能够得到与人类视觉机制相符合的检测结果,并且能够有效地抑制噪声的干扰。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,并可依照说明书的内容予以实施,以下以本发明的较佳实施例并配合附图详细说明如后。本发明的具体实施方式由以下实施例及其附图详细给出。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明提出的一种基于生成对抗网络的超分辨率重建方法的流程结构示意图;
图2为本发明提出的一种基于生成对抗网络的超分辨率重建方法的方法示意图;
图3为本发明提出的一种基于生成对抗网络的超分辨率重建方法中生成网络的流程结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。在下列段落中参照附图以举例方式更具体地描述本发明。根据下面说明和权利要求书,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。
需要说明的是,当组件被称为“固定于”另一个组件,它可以直接在另一个组件上或者也可以存在居中的组件。当一个组件被认为是“连接”另一个组件,它可以是直接连接到另一个组件或者可能同时存在居中组件。当一个组件被认为是“设置于”另一个组件,它可以是直接设置在另一个组件上或者可能同时存在居中组件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
请参阅图1~3,本发明实施例中,一种基于生成对抗网络的超分辨率重建方法,包括以下步骤;
第一步,输入图像,将原有的低分辨率的图像输入到生成对抗网络中生成高分辨率的图像,生成对抗网络不需要反复地进行马尔科夫链采样,也没有传统生成模型训练过程中的概率计算,它主要包括生成器和判决器,在原始生成对抗网络模型中,生成器通过输入噪声生成输出,判决器接收输入并判别该输入是生成数据还是真实样本,生成器尽可能提高生成数据的可信度,判决器尽可能判别数据的真实性,二者相互对抗,不断调整网络参数,最终目的是使判别模型无法判断生成模型输出的结果是否真实,之后即可将低分辨率图像作为生成对抗网络的输入,输出超分辨率图像,判别网络将超分辨率图像和原始高分辨率图像作为输入,输出判别结果,生成网络和判别网络相互对抗,当判别网络无法区分高分辨率图像和超分辨率图像时,生成对抗网络就完成了重建超分辨率图像的任务;
第二步,多尺度特征提取,多尺度下提取图像特征的依据是尺度空间思想,其基本内容是在图像处理模型中引入描述图像尺度的参数,通过图像尺度参数的变化,提取不同尺度下图像的信息,因为就观察者而言,不同尺度下图像表达的信息是不同的,图像的尺度对于图像显著区域的检测是有影响的,当尺度较小时,较大的显著物体容易被检测出来,而当尺度较大时,较小的显著物体容易被检测出来,为了更全面地表现不同大小的显著物体,显著性特征的提取将在多个尺度下进行,所以提取高分辨率图像的亮度、颜色、方向三个特征,作为计算显著度的底层特征,并对特征图进行两个尺度的采样,得到三个尺度的特征图,得到三个亮度特征图、九个颜色特征图和十二个方向特征图;
第三步,分块对比计算,通过单个像素为单位计算得到的显著区域,容易受噪声和纹理等因素的影响,并且对每一个像素都进行操作,计算量会比较大,针对这--问题,本发明将像素块作为单位,提出了基于分块对比的显著度计算方法,将同一尺度下的特征图分解为一系列7x7的图像块,以图像块为单位,分别计算出亮度对比图,颜色对比图和方向对比图;
第四步,生成多尺度显著图,计算图像块的权值,得到每个尺度下的特征显著图,即为颜色显著图、亮度显著图和方向显著图;
第五步,多尺度融合,将三个尺度的显著图每个都进行最近邻差值放大到原始图像大小,融合成最终的三个特征显著图,然后将三幅特征显著图线性相加得到最后的显著图;
第六步,提取显著区域,提取出显著性最大的区域,即显著区域。
优选的,第一步中,生成对抗网络包括生成器和判决器,生成对抗网络中的生成器生成与训练样本相似的新样本,生成器其作用是抓取数据分布特征,生成对抗网络中的判决器作为分类器,其作用是对输入数据的真实性进行判断,估计图片来自训练数据还是来自于生成器生成的图片,通过利用生成器生成对应数据,然后将真实样本数据和生成的样本数据送入到判决器中进行真假判断,进而将分辨率低的图像转化为高分辨率图像
优选的,第二步中,对于颜色特征,采用RGB颜色空间,得到R、G、B三个颜色通道的三幅特征图
优选的,第二步中,对于方向特征,采用Gabor滤波器对灰度图像进行0°、45°、90°、135°的空间滤波,得到四幅方向特征图,然后对每-一个特征图表示为三层高斯金字塔,再对特征图进行滤波,滤波后的图像进行隔行隔列的采样,第一层是特征图,对特征图进行两次的高斯金字塔分解,得到大小分别为特征图的1/2和1/4的不同分辨率的图像
优选的,第二步中,采用3x3的高斯滤波器对特征图进行滤波,取将在多个尺度下进行,选择了符合人眼视觉特性的高斯滤波器,其原因是高斯滤波器依据了视网膜成像原理将图像分解到不同分辨力和不同空间频率的一系列分解层上,在空域和频域上均具有良好的局部化特征。
优选的,第三步中,以图像块为单位,计算得到的对比图共九幅,分别为亮度对比图三幅、颜色对比图三幅和方向对比图三幅
优选的,第四步中,由于计算得到三个特征的对比图后,根据人类的视觉注意机制,处于中心位置的图像块较处于边缘位置的图像块更容易引起观察者的注意,计算各图像块与图像中心位置的距离,作为计算图像块显著值的权值
优选的,第五步中,得到的不同分辨率下三个特征的显著图共三幅,分别为亮度显著图一幅、颜色显著图一幅和方向显著图一幅
优选的,第六步中,提取出显著性最大的区域采用对显著图将显著图进行自适应阈值分割方法。
优选的,第一步中,生成对抗网络的软件运行环境为64位Ubuntu 16.04.4操作系统平台上,基于TensorFlow-GPU 1.4.0深度学习框架并使用Python 3.5.2脚本语言构建文本图像超分辨率重建模型,使用一块NVIDIAGTX 1070Ti GPU完成模型的训练
本发明的工作原理是:
生成对抗网络不需要反复地进行马尔科夫链采样,也没有传统生成模型训练过程中的概率计算,它主要包括生成器和判决器,在原始生成对抗网络模型中,生成器通过输入噪声生成输出,判决器接收输入并判别该输入是生成数据还是真实样本,生成器尽可能提高生成数据的可信度,判决器尽可能判别数据的真实性,二者相互对抗,不断调整网络参数,最终目的是使判别模型无法判断生成模型输出的结果是否真实,所以首先将低分辨率图像作为生成对抗网络的输入,输出超分辨率图像,判别网络将超分辨率图像和原始高分辨率图像作为输入,输出判别结果,生成网络和判别网络相互对抗,当判别网络无法区分高分辨率图像和超分辨率图像时,生成对抗网络就完成了重建超分辨率图像的任务,之后提取高分辨率图像的亮度、颜色、方向三个特征,作为计算显著度的底层特征,并对特征图进行两个尺度的采样,得到三个尺度的特征图,得到三个亮度特征图、九个颜色特征图和十二个方向特征图,通过分块对比计算得到特征对比图,再将三个尺度的对比图进行线性插值得到三幅特征显著图,然后将各特征显著图线性融合成为最终的显著图,最后通过自适应阈值法从显著图中提取显著区域,本发明方法结合了分块对比的思想,同时考虑了图像的局部和全局特性,对显著区域进行提取,可以在图像转换为高分辨率图像时能对显著区域进行检测,该方法与传统方法比较,查准率和查全率都有所提高,能够得到与人类视觉机制相符合的检测结果,并且能够有效地抑制噪声的干扰。
以上所述,仅为本发明的较佳实施例而已,并非对本发明作任何形式上的限制;凡本行业的普通技术人员均可按说明书附图所示和以上所述而顺畅地实施本发明;但是,凡熟悉本专业的技术人员在不脱离本发明技术方案范围内,利用以上所揭示的技术内容而做出的些许更动、修饰与演变的等同变化,均为本发明的等效实施例;同时,凡依据本发明的实质技术对以上实施例所作的任何等同变化的更动、修饰与演变等,均仍属于本发明的技术方案的保护范围之内。

Claims (10)

1.一种基于生成对抗网络的超分辨率重建方法,其特征在于,包括以下步骤;
第一步,输入图像,将原有的低分辨率的图像输入到生成对抗网络中生成高分辨率的图像;
第二步,多尺度特征提取,提取高分辨率图像的亮度、颜色、方向三个特征,作为计算显著度的底层特征,并对特征图进行两个尺度的采样,得到三个尺度的特征图,得到三个亮度特征图、九个颜色特征图和十二个方向特征图;
第三步,分块对比计算,将同一尺度下的特征图分解为一系列7x7的图像块,以图像块为单位,分别计算出亮度对比图,颜色对比图和方向对比图;
第四步,生成多尺度显著图,计算图像块的权值,得到每个尺度下的特征显著图,即为颜色显著图、亮度显著图和方向显著图;
第五步,多尺度融合,将三个尺度的显著图每个都进行最近邻差值放大到原始图像大小,融合成最终的三个特征显著图,然后将三幅特征显著图线性相加得到最后的显著图;
第六步,提取显著区域,提取出显著性最大的区域,即显著区域。
2.根据权利要求1所述的一种基于生成对抗网络的超分辨率重建方法,其特征在于,所述第一步中,生成对抗网络包括生成器和判决器,生成对抗网络中的生成器生成与训练样本相似的新样本,生成器其作用是抓取数据分布特征,生成对抗网络中的判决器作为分类器,其作用是对输入数据的真实性进行判断,估计图片来自训练数据还是来自于生成器生成的图片,通过利用生成器生成对应数据,然后将真实样本数据和生成的样本数据送入到判决器中进行真假判断,进而将分辨率低的图像转化为高分辨率图像。
3.根据权利要求1所述的一种基于生成对抗网络的超分辨率重建方法,其特征在于,所述第二步中,对于颜色特征,采用RGB颜色空间,得到R、G、B三个颜色通道的三幅特征图。
4.根据权利要求1所述的一种基于生成对抗网络的超分辨率重建方法,其特征在于,所述第二步中,对于方向特征,采用Gabor滤波器对灰度图像进行0°、45°、90°、135°的空间滤波,得到四幅方向特征图,然后对每-一个特征图表示为三层高斯金字塔,再对特征图进行滤波,滤波后的图像进行隔行隔列的采样,第一层是特征图,对特征图进行两次的高斯金字塔分解,得到大小分别为特征图的1/2和1/4的不同分辨率的图像。
5.根据权利要求根据权利要求4所述的一种基于生成对抗网络的超分辨率重建方法,其特征在于,所述第二步中,采用3x3的高斯滤波器对特征图进行滤波。
6.根据权利要求1所述的一种基于生成对抗网络的超分辨率重建方法,其特征在于,所述第三步中,以图像块为单位,计算得到的对比图共九幅,分别为亮度对比图三幅、颜色对比图三幅和方向对比图三幅。
7.根据权利要求1所述的一种基于生成对抗网络的超分辨率重建方法,其特征在于,所述第四步中,由于计算得到三个特征的对比图后,根据人类的视觉注意机制,处于中心位置的图像块较处于边缘位置的图像块更容易引起观察者的注意,计算各图像块与图像中心位置的距离,作为计算图像块显著值的权值。
8.根据权利要求1所述的一种基于生成对抗网络的超分辨率重建方法,其特征在于,所述第五步中,得到的不同分辨率下三个特征的显著图共三幅,分别为亮度显著图一幅、颜色显著图一幅和方向显著图一幅。
9.根据权利要求1所述的一种基于生成对抗网络的超分辨率重建方法,其特征在于,所述第六步中,提取出显著性最大的区域采用对显著图将显著图进行自适应阈值分割方法。
10.根据权利要求1所述的一种基于生成对抗网络的超分辨率重建方法,其特征在于,所述第一步中,生成对抗网络的软件运行环境为64位Ubuntu 16.04.4操作系统平台上,基于TensorFlow-GPU 1.4.0深度学习框架并使用Python 3.5.2脚本语言构建文本图像超分辨率重建模型,使用一块NVIDIAGTX 1070Ti GPU完成模型的训练。
CN202110431936.XA 2021-04-21 2021-04-21 一种基于生成对抗网络的超分辨率重建方法 Pending CN113129214A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110431936.XA CN113129214A (zh) 2021-04-21 2021-04-21 一种基于生成对抗网络的超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110431936.XA CN113129214A (zh) 2021-04-21 2021-04-21 一种基于生成对抗网络的超分辨率重建方法

Publications (1)

Publication Number Publication Date
CN113129214A true CN113129214A (zh) 2021-07-16

Family

ID=76778866

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110431936.XA Pending CN113129214A (zh) 2021-04-21 2021-04-21 一种基于生成对抗网络的超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN113129214A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100044A (zh) * 2022-08-26 2022-09-23 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 基于三生成器生成对抗网络的内窥镜超分辨方法、系统
CN115829837A (zh) * 2022-11-15 2023-03-21 深圳市新良田科技股份有限公司 一种文本图像超分重建的方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410239A (zh) * 2018-11-07 2019-03-01 南京大学 一种基于条件生成对抗网络的文本图像超分辨率重建方法
CN111340696A (zh) * 2020-02-10 2020-06-26 南京理工大学 融合仿生视觉机制的卷积神经网络图像超分辨率重建方法
CN111932460A (zh) * 2020-08-10 2020-11-13 北京大学深圳医院 Mr图像超分辨率重建方法、装置、计算机设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410239A (zh) * 2018-11-07 2019-03-01 南京大学 一种基于条件生成对抗网络的文本图像超分辨率重建方法
CN111340696A (zh) * 2020-02-10 2020-06-26 南京理工大学 融合仿生视觉机制的卷积神经网络图像超分辨率重建方法
CN111932460A (zh) * 2020-08-10 2020-11-13 北京大学深圳医院 Mr图像超分辨率重建方法、装置、计算机设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100044A (zh) * 2022-08-26 2022-09-23 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 基于三生成器生成对抗网络的内窥镜超分辨方法、系统
CN115100044B (zh) * 2022-08-26 2022-12-27 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 基于三生成器生成对抗网络的内窥镜超分辨方法、系统
CN115829837A (zh) * 2022-11-15 2023-03-21 深圳市新良田科技股份有限公司 一种文本图像超分重建的方法及系统

Similar Documents

Publication Publication Date Title
Hashemi et al. An image contrast enhancement method based on genetic algorithm
WO2021159767A1 (zh) 一种医学图像处理的方法、图像处理的方法及装置
CN110033471B (zh) 一种基于连通域分析和形态学操作的框线检测方法
US20170365046A1 (en) Algorithm and device for image processing
CN107358258B (zh) 基于nsct双cnn通道和选择性注意机制的sar图像目标分类
CN110473142B (zh) 基于深度学习的单幅图像超分辨率重建方法
US8548247B2 (en) Image processing apparatus and method, and program
Jia et al. A two-step approach to see-through bad weather for surveillance video quality enhancement
CN113129214A (zh) 一种基于生成对抗网络的超分辨率重建方法
CN112419150B (zh) 一种基于双边上采样网络的任意倍数图像超分辨率重建方法
CN109636766A (zh) 基于边缘信息增强的偏振差分与光强图像多尺度融合方法
CN111784624A (zh) 目标检测方法、装置、设备及计算机可读存储介质
CN112001429A (zh) 一种基于纹理特征的深度伪造视频检测方法
CN108010065A (zh) 低空目标快速检测方法及装置、存储介质及电子终端
CN110348442A (zh) 一种基于支持向量机的船载雷达图像海上油膜识别方法
Maragatham et al. Contrast enhancement by object based histogram equalization
CN115829909A (zh) 一种基于特征增强和频谱分析的伪造检测方法
CN115358922A (zh) 一种基于生成对抗网络的太赫兹图像超分辨率重建方法
CN111539434B (zh) 基于相似度的红外弱小目标检测方法
CN113705358B (zh) 一种基于特征映射的多角度侧脸正面化方法
CN114972335A (zh) 一种用于工业检测的图像分类方法、装置及计算机设备
Falahatnejad et al. PTSRGAN: Power transmission lines single image super-resolution using a generative adversarial network
CN114463379A (zh) 一种视频关键点的动态捕捉方法及装置
CN113554671A (zh) 基于轮廓增强的sar图像到可见光图像的转换方法及装置
Liu et al. A Lightweight Denoising Method Based on Noise2Void for X-ray Pseudo-Color Images in X-ray Security Inspection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination