CN112069853A - 基于深度学习的二维条码图像超分辨方法 - Google Patents

基于深度学习的二维条码图像超分辨方法 Download PDF

Info

Publication number
CN112069853A
CN112069853A CN202010972706.XA CN202010972706A CN112069853A CN 112069853 A CN112069853 A CN 112069853A CN 202010972706 A CN202010972706 A CN 202010972706A CN 112069853 A CN112069853 A CN 112069853A
Authority
CN
China
Prior art keywords
bar code
resolution
model
dimensional bar
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010972706.XA
Other languages
English (en)
Inventor
何炳蔚
张清何
胡自添
张立伟
林立雄
陈彦杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202010972706.XA priority Critical patent/CN112069853A/zh
Publication of CN112069853A publication Critical patent/CN112069853A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/146Methods for optical code recognition the method including quality enhancement steps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Electromagnetism (AREA)
  • Toxicology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于深度学习的二维条码图像超分辨重建方法,采用生成模型G和判别模型D组成的网络作为二维条码图像重建的模型。对于生成模型G设计了残差密度块,并且去除了块内的批规范化操作BN。判别模型D采用深度卷积网络。本发明还引入了损失和EM距离对损失函数进行了优化。在建立的训练样本集下训练网络,训练完成后将需要进行超分辨重建的低分辨率二维条码图像输入到训练好的生成模型G中,生成模型G会输出相对应的超分辨率二维条码图像。本发明通过对网络模型的搭建和损失函数的优化,得到更优的网络结构,从而提高了低分辨率二维条码图像的超分辨重建的质量。

Description

基于深度学习的二维条码图像超分辨方法
技术领域
本发明涉及人工智能和图像处理领域,具体涉及一种基于深度学习的二维条码图像超分辨方法。
背景技术
二维条码是用按一定规律分布的黑白相间的几何图形间的组合来记录数据符号和信息的,而且在编码上巧妙的与计算机内部的逻辑基础0和1的比特流概念结合,使用与二进制相对应的几何形体组合表示文字数值信息,然后在通过条码识别技术识别条码信息,从而达到信息的识读。同时二维条码具有信息容量大、可靠性高保密防伪性强、易于制作、陈本低廉等优点。在科学技术快速发展的形势下,二维条码技术作为数据自动采集的手段被广泛的应用于物流仓储、工业盘点、服装行业、移动支付类、通道闸机、小区门禁和智能家居设备等地方。但是也存在着一些问题,比如,在采集二维条码图像进行识别的时候,因为采集的图像分辨率不足,导致难以识别。
发明内容
有鉴于此,本发明的目的在于提供一种基于深度学习的二维条码图像超分辨方法,搭建的网络模型有利于网络结构学习到更多的二维条码图像细节特征,能够更好的将低分辨的二维条码图像重建成清晰的二维条码超分辨图像。
为实现上述目的,本发明采用如下技术方案:
一种基于深度学习的二维条码图像超分辨方法,包括以下步骤:
步骤S1:采集具有高分辨率的二维条码图像,并进行预处理,得到训练集和测试集;
步骤S2:构建用于二维条码图像超分辨重建的卷积神经网络模型,并优化损失函数;
步骤S3:根据训练集训练优化后的卷积神经网络模型;
步骤S4:将待超分辨重建的低分辨率二维条码图像输入到训练好的卷积神经网络模型,得到重建后的超分辨率二维条码图像。
进一步的,所述步骤S1具体为:
步骤S11:采集二维条码图像,并筛选掉模糊的二维条码图像,整理出具有高分辨率的二维条码图像;
步骤S12:根据得到的具有高分辨率的二维条码图像,将预设比例的图像作为真实二维条码图像
Figure BDA0002684671280000021
即训练集;将剩余的图像通过下采样得到对应的低分辨率的二维条码图像
Figure BDA0002684671280000022
即为测试集;
步骤S13:将训练集中的图像做若干角度的翻转,得到扩大N倍的训练集。
进一步的,所述用于二维条码图像超分辨重建的卷积神经网络模型由生成模型G和判别模型D两部分组成。
进一步的,所述生成模型G包括五个模块的内层卷积、16个残差密度块、PRelu激活函数;且残差密度块之间我们运用了密度连接方法指导信息传递,块与块之间用残差学习的方法,且剔除了批规范化操作BN。
进一步的,所述生成模型G的损失函数构建,具体为:在引入l1损失的情况下构造的生成模型损失函数LG的内容损失函数lx,内容损失函数的计算式为:
Figure BDA0002684671280000031
lx=l1
其中:l1为基于像素级的损失函数,lx为内容损失,r为缩放因子,W为二维条码图像的宽度,H为二维条码图像的高度,x=1,2,3……W,y=1,2,3……H,
Figure BDA0002684671280000032
为训练好的生成模型,θG为生成模型G的权值参数,
Figure BDA0002684671280000033
为高分辨二维条码图像中的某一点的像素值,
Figure BDA0002684671280000034
为经过生成网络G生成的超分辨二维条码图像中某一点的像素值;
在引入EM距离的情况下构造的生成模型损失函数LG的对抗损失lgen,对抗损失函数的计算式为:
Figure BDA0002684671280000035
其中:D(x)为判别模型,Pz为噪声z生成的样本分布。
进一步的,所述判别模型D由11个内卷积层、12个Leaky Relu激活函数、一个全连接层组成,并重新引入批规范化操作BN。
进一步的,所述判别模型的损失函数构建具体如下:在引入EM距离的前提条件下构造的判别模型的损失函数LD,其计算式为:
Figure BDA0002684671280000036
其中:Pdata为真实数据样本分布。
进一步的,所述步骤S3具体为:根据训练集对优化后的卷积神经网络模型进行训练,使用反向传播算法进行迭代不断的减小损失函数的损失值进行参数学习,使预测的图像逼近原始图像,以获得网络的最佳权重参数模型。
本发明与现有技术相比具有以下有益效果:
本发明搭建的网络模型有利于网络结构学习到更多的的二维条码图像细节特征,能够更好的实现生成更逼近于真实的二维条码超分辨图像。
附图说明
图1是本发明方法流程图;
图2是本发明一实施例中整体网络结构图;
图3是本发明一实施例中网络结构生成模型图;
图4是本发明一实施例中生成模型的残差密度块示意图;
图5是本发明一实施例中网络结构的判别模型图
图6是本发明一实施例中本发明和Bicubic算法的二维条码图像超分辨后的效果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于深度学习的二维条码图像超分辨方法,包括以下步骤:
1).数据集采集、整理再进行数据集的预处理,生成二维条码图像的训练集样本,和测试集,主要步骤如下:
1-1)对采集的数据集进行筛选,筛选掉模糊的二维条码图像,整理出具有高分辨率的二维条码图像,本实施例中一共整理出了1081张高分辨的二维条码图像
Figure BDA0002684671280000051
这1081张高分辨二维条码图像根据条码密度的不同我们又把数据集分成了两种,其中条码密度低的数据集我们称为2DS-DataSet(202张)、条码密度高的数据集我们称为2DD-DataSet(879张),然后在这两个数据集中各取三分之二的图像作为真实二维条码图像
Figure BDA0002684671280000052
就得到了训练集TrainSet(721张),剩下的高分辨率的二维条码图像运用MATLAB进行下采样得到对应的低分辨率的二维条码图像
Figure BDA0002684671280000053
从而得到测试集TestSet(360张),这里需要指出下采样我们用的是双三次插值,下采样因子为4。
1-2)为了扩大1-1)中的训练集图片的数量我们把1-1中的训练集图片做了45°、90°、135°、180°翻转这样我们把原有训练集数据扩大了4倍,变为了2884张。这样做的目的是为了丰富训练集的图片,可以让网络在训练后提取到二维条码图像更多的特征,提高后期低分辨二维条码图像的超分效果。
1-3)本实施例中建立了测试集TestSet,测试集当中的低分辨率二维条码图像要与对应的高分辨二维条码图像一一对应,这样做的目的是将来网络训练完成后测试网络性能时有比对目标,验证低分辨二维条码的超分效果。
2)构建用于二维条码图像超分辨重建的卷积神经网络模型,并优化损失函数;
在本实施例中,模型整体结构如图2所示,模型由生成模型G和判别模型D两部分组成,其中生成模型G由去除批规范化操作的残差密度块(Residual density block)和子像素卷积层(Subpixel convolution layer)组成。判别模型D由卷积层(Convolution layer)和全连接层(Fully connected layer)组成。图2中,Input表示输入低分辨率的二维条码图像
Figure BDA0002684671280000061
Real image表示的是真实高分辨率的二维条码图像
Figure BDA0002684671280000062
Generate image表示的是超分辨率的二维条码图像
Figure BDA0002684671280000063
优选的,在本实施例中,生成模型的详细模型如图3所示,它由Conv_G1、Conv_G2、Conv_G3、Conv_G4、Conv_G5五部分的内层卷积组成,其中Conv_G1-Conv_G5的卷积核大小为3×3,特征维度Conv_G1-Conv_G3为64,Conv_G4和Conv_G5的特征维度分别为256和3,步幅默认为1。中间由16个残差密度块组成,图4是残差密度块的示意图,残差密度块之间运用了密度连接方法指导信息传递。且去除了批规范化操作BN。
优选的,在本实施例中,判别模型D的详细模型如图5所示,判别模型由Conv_D1-Conv_D11这11个内卷积层、12个LeakyReLU激活函数、一个全连接层组成。这里Conv_D1-Conv_D7卷积核大小为4×4、步幅为2。Conv_D8-Conv_D9卷积核大小为1×1、步幅为1.Conv_D10-Conv_D11卷积核大小为3×3、步幅为1。需要强调的是Conv_D2-Conv_D11之间重新引入了批规范化操作BN。
3)构造卷积神经网络生成模型的损失函数,生成模型损失函数LG由内容损失lx和对抗损失lgen两部分组成,计算式为:
LG=lx+10-3lgen
Figure BDA0002684671280000071
其中:l1为基于像素级的损失函数lx为内容损失,r为缩放因子,W为二维条码图像的宽度,H为二维条码图像的高度,x=1,2,3……W,y=1,2,3……H,x和y的值都表示像素值,
Figure BDA0002684671280000072
为训练好的生成模型,θG为生成模型G的权值参数
Figure BDA0002684671280000073
为高分辨二维条码图像中的某一点的像素值,
Figure BDA0002684671280000074
为经过生成网络G生成的超分辨二维条码图像中某一点的像素值。
Figure BDA0002684671280000075
其中:D(x)为判别模型,Pz为噪声z生成的样本分布。
4)构造卷积神经网络判别模型D的损失函数LD
Figure BDA0002684671280000076
其中:Pdata为真实数据样本分布
5)采用步骤1-2)得到的训练样本集对网络结构进行训练,使用反向传播算法进行迭代不断的减小损失函数的损失值进行参数学习,使预测的二维条码图像逼近原始的二维条码图像,以获得网络的最佳权重参数模型。
6)将需要进行重建的低分辨率二维条码图像
Figure BDA0002684671280000077
输入到步骤5)训练好的网络模型中生成对应的超分辨率二维条码图像
Figure BDA0002684671280000078
在本实施例中,为了更好地说明低分辨二维条码的超分辨效果由以下实验进一步说明:
本实施例中,实验选用的数据集为我们自己创建的测试集TestSet(360张),实验环境中操作系统为Ubuntu16.04,显卡为NVIDIA TeslaM40,使用PyTorch框架和Python3.5程序语言。
评价指标为图像超分辨领域常用的评价指标峰值性噪比(PSNR)和机构相似性(SSIM)
所述峰值信噪比(PSNR),单位dB,
Figure BDA0002684671280000081
Figure BDA0002684671280000082
其中:MMSE为均方差,XMAX为图像的最大像素值、W和H分别为图像的宽和高
结构相似性(SSIM)是测量两幅数字图像之间相似度的指标。
Figure BDA0002684671280000083
Figure BDA0002684671280000084
Figure BDA0002684671280000085
SSSIM(x,y)=[L(x,y)]α[Cx,y]β[Sx,y]γ
其中::ux、uy、σx和σy分别为x、y的平均值和标准差,σxy为x和y的共异数,
C1、C2、C3皆为常数本发明取C1=α=β=γ=1及C3=C2/2。
本实施例中由PSNR和SSIM作为低分辨率二维条码图像经过超分辨后的评价指标。由表1可知,本发明的方法优于双三次插值(Bicubic)的方法,由图6我可以更直观的感受到这个结果。
表1
PSNR SSIM
Bicubic 25.48 0.813
本发明 29.12 0.916
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (8)

1.一种基于深度学习的二维条码图像超分辨方法,其特征在于,包括以下步骤:
步骤S1:采集具有高分辨率的二维条码图像,并进行预处理,得到训练集和测试集;
步骤S2:构建用于二维条码图像超分辨重建的卷积神经网络模型,并优化损失函数;
步骤S3:根据训练集训练优化后的卷积神经网络模型;
步骤S4:将待超分辨重建的低分辨率二维条码图像输入到训练好的卷积神经网络模型,得到重建后的超分辨率二维条码图像。
2.根据权利要求1所述的基于深度学习的二维条码图像超分辨方法,其特征在于,所述步骤S1具体为:
步骤S11:采集二维条码图像,并筛选掉模糊的二维条码图像,整理出具有高分辨率的二维条码图像;
步骤S12:根据得到的具有高分辨率的二维条码图像,将预设比例的图像作为真实二维条码图像
Figure FDA0002684671270000011
即训练集;将剩余的图像通过下采样得到对应的低分辨率的二维条码图像
Figure FDA0002684671270000012
即为测试集;
步骤S13:将训练集中的图像做若干角度的翻转,得到扩大N倍的训练集。
3.根据权利要求1所述的基于深度学习的二维条码图像超分辨方法,其特征在于,所述用于二维条码图像超分辨重建的卷积神经网络模型由生成模型G和判别模型D两部分组成。
4.根据权利要求3所述的基于深度学习的二维条码图像超分辨方法,其特征在于,所述生成模型G包括五个模块的内层卷积、16个残差密度块、PRelu激活函数;且残差密度块之间运用了密度连接方法指导信息传递,块与块之间用残差学习的方法,并去除了块内的批规范化操作BN。
5.根据权利要求3所述的基于深度学习的二维条码图像超分辨方法,其特征在于:所述生成模型G的损失函数构建,具体为:在引入l1损失的情况下构造的生成模型损失函数LG的内容损失函数lx,内容损失函数的计算式为:
Figure FDA0002684671270000021
lx=l1
其中:l1为基于像素级的损失函数,lx为内容损失,r为缩放因子,W为二维条码图像的宽度,H为二维条码图像的高度,x=1,2,3......W,y=1,2,3......H,
Figure FDA0002684671270000022
为训练好的生成模型,θG为生成模型G的权值参数,
Figure FDA0002684671270000023
为高分辨二维条码图像中的某一点的像素值,
Figure FDA0002684671270000024
为经过生成网络G生成的超分辨二维条码图像中某一点的像素值;
在引入EM距离的情况下构造的生成模型损失函数LG的对抗损失lgen,对抗损失函数的计算式为:
Figure FDA0002684671270000025
其中:D(x)为判别模型,Pz为噪声z生成的样本分布。
6.根据权利要求3所述的基于深度学习的二维条码图像超分辨方法,其特征在于,所述判别模型D由11个内卷积层、12个Leaky Relu激活函数、一个全连接层组成,并重新引入批规范化操作BN。
7.根据权利要求3所述的基于深度学习的二维条码图像超分辨方法,其特征在于,所述判别模型的损失函数构建具体如下:在引入EM距离的前提条件下构造的判别模型的损失函数LD,其计算式为:
Figure FDA0002684671270000031
其中:Pdata为真实数据样本分布。
8.根据权利要求1所述的基于深度学习的二维条码图像超分辨方法,其特征在于,所述步骤S3具体为:根据训练集对优化后的卷积神经网络模型进行训练,使用反向传播算法进行迭代不断的减小损失函数的损失值进行参数学习,使预测的图像逼近原始图像,以获得网络的最佳权重参数模型。
CN202010972706.XA 2020-09-16 2020-09-16 基于深度学习的二维条码图像超分辨方法 Pending CN112069853A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010972706.XA CN112069853A (zh) 2020-09-16 2020-09-16 基于深度学习的二维条码图像超分辨方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010972706.XA CN112069853A (zh) 2020-09-16 2020-09-16 基于深度学习的二维条码图像超分辨方法

Publications (1)

Publication Number Publication Date
CN112069853A true CN112069853A (zh) 2020-12-11

Family

ID=73696069

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010972706.XA Pending CN112069853A (zh) 2020-09-16 2020-09-16 基于深度学习的二维条码图像超分辨方法

Country Status (1)

Country Link
CN (1) CN112069853A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580381A (zh) * 2020-12-23 2021-03-30 成都数之联科技有限公司 一种基于深度学习的二维码超辨率重构增强方法及系统
CN116757231A (zh) * 2023-08-22 2023-09-15 北京紫光青藤微系统有限公司 用于条码图像的超分辨率训练图集的生成方法及装置
CN117151984A (zh) * 2023-09-26 2023-12-01 天津大学 基于频域约束和参考图引导的二维条码超分辨率方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157244A (zh) * 2016-06-08 2016-11-23 南京航空航天大学 一种基于稀疏表示的QR Code图像超分辨重建方法
CN109325491A (zh) * 2018-08-16 2019-02-12 腾讯科技(深圳)有限公司 识别码识别方法、装置、计算机设备和存储介质
CN110147864A (zh) * 2018-11-14 2019-08-20 腾讯科技(深圳)有限公司 编码图案的处理方法和装置、存储介质、电子装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157244A (zh) * 2016-06-08 2016-11-23 南京航空航天大学 一种基于稀疏表示的QR Code图像超分辨重建方法
CN109325491A (zh) * 2018-08-16 2019-02-12 腾讯科技(深圳)有限公司 识别码识别方法、装置、计算机设备和存储介质
CN110147864A (zh) * 2018-11-14 2019-08-20 腾讯科技(深圳)有限公司 编码图案的处理方法和装置、存储介质、电子装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张杨忆等: ""改进残差块和对抗损失的GAN图像超分辨率重建"", 《哈尔滨工业大学学报》 *
陆继翔等: ""基于迁移学习的小样本输电线路巡检图像处理方法"", 《全球能源互联网》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580381A (zh) * 2020-12-23 2021-03-30 成都数之联科技有限公司 一种基于深度学习的二维码超辨率重构增强方法及系统
CN116757231A (zh) * 2023-08-22 2023-09-15 北京紫光青藤微系统有限公司 用于条码图像的超分辨率训练图集的生成方法及装置
CN117151984A (zh) * 2023-09-26 2023-12-01 天津大学 基于频域约束和参考图引导的二维条码超分辨率方法
CN117151984B (zh) * 2023-09-26 2024-06-04 天津大学 基于频域约束和参考图引导的二维条码超分辨率方法

Similar Documents

Publication Publication Date Title
Anwar et al. A deep journey into super-resolution: A survey
CN111768342B (zh) 基于注意力机制和多级反馈监督的人脸超分辨方法
CN112258526B (zh) 一种基于对偶注意力机制的ct肾脏区域级联分割方法
CN112069853A (zh) 基于深度学习的二维条码图像超分辨方法
CN110136062B (zh) 一种联合语义分割的超分辨率重建方法
Luo et al. Lattice network for lightweight image restoration
CN113538246B (zh) 基于无监督多阶段融合网络的遥感图像超分辨率重建方法
CN115100720A (zh) 一种低分辨率人脸识别方法
CN112950480A (zh) 一种融合多感受野和密集残差注意的超分辨率重建方法
CN115965789A (zh) 一种基于场景感知类注意力的遥感图像语义分割方法
CN116188272B (zh) 适用于多模糊核的两阶段深度网络图像超分辨率重建方法
Dai et al. CFGN: A lightweight context feature guided network for image super-resolution
CN113379606A (zh) 一种基于预训练生成模型的人脸超分辨方法
Lai et al. Generative focused feedback residual networks for image steganalysis and hidden information reconstruction
CN116385265B (zh) 一种图像超分辨率网络的训练方法及装置
CN112102388A (zh) 基于巡检机器人单目图像获取深度图像的方法及装置
CN116385454A (zh) 一种基于多阶段聚合的医学图像分割方法
CN116681592A (zh) 基于多尺度自适应非局部注意力网络的图像超分辨率方法
CN116934613A (zh) 一种用于文字修复的分支卷积通道注意力模块
Liu et al. Frequency separation-based multi-scale cascading residual block network for image super resolution
CN113344110B (zh) 一种基于超分辨率重建的模糊图像分类方法
CN113191947B (zh) 一种图像超分辨率的方法及系统
CN115908130A (zh) 一种基于混合注意力机制的超分辨率重建方法
CN115688234A (zh) 一种基于条件卷积的建筑布局生成方法、装置及介质
Shen et al. Itsrn++: Stronger and better implicit transformer network for continuous screen content image super-resolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201211