CN112950464A - 一种不包含正则化层的二值超分辨率重建方法 - Google Patents

一种不包含正则化层的二值超分辨率重建方法 Download PDF

Info

Publication number
CN112950464A
CN112950464A CN202110099913.3A CN202110099913A CN112950464A CN 112950464 A CN112950464 A CN 112950464A CN 202110099913 A CN202110099913 A CN 202110099913A CN 112950464 A CN112950464 A CN 112950464A
Authority
CN
China
Prior art keywords
binary
image
weight
neural network
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110099913.3A
Other languages
English (en)
Other versions
CN112950464B (zh
Inventor
王楠楠
姜馨蕊
杨曦
辛经纬
李柯宇
朱明瑞
李洁
高新波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202110099913.3A priority Critical patent/CN112950464B/zh
Publication of CN112950464A publication Critical patent/CN112950464A/zh
Application granted granted Critical
Publication of CN112950464B publication Critical patent/CN112950464B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种不包含正则化层的二值超分辨率重建方法,包括:对低分辨率图像进行数据分布处理,获得处理后图像;将所述处理后图像输入二值深度神经网络模型进行特征提取,获得重构后的图像;对所述重构后的图像进行数据分布处理,获得最终重建后的超分图像;利用梯度下降算法迭代更新所述二值深度神经网络模型的参数,直至达到收敛。本发明的方法,通过一种有效的二值化训练机制,允许神经网络在不包含正则化层时取得较优异的网络性能,从而使网络以较低的计算复杂度获得更加优异的超分辨率图像重建效果。

Description

一种不包含正则化层的二值超分辨率重建方法
技术领域
本发明属于图像处理技术领域,具体涉及一种不包含正则化层(BN)的二值超分辨率重建方法,可用于数字媒体领域和社会公共安全领域如图像视频清晰化处理、人脸图像超分等。
背景技术
图像超分辨率重建旨在通过一张低分辨率图像重建一张高分辨率图像,享有非常广阔的应用空间,如数字媒体领域中的图像清晰化处理、视频监控中人脸图像的增强等。近年来,基于卷积神经网络的图像超分辨率重建算法取得了优异的成果。然而,网络性能的提升依赖于增大模型的容量和复杂程度,导致超分辨率重建网络面临着难以部署于资源有限的移动设备的问题,限制了超分辨率重建算法在实际生活中的应用。因此,二值图像超分辨率算法应运而生,通过对网络中参数的二值化处理,可使得模型享有高的网络压缩比和速度增益比。二值超分网络占用存储空间小、计算效率高,可满足手机等便携式移动设备对于超分过程的计算需求。因此,二值图像超分辨率算法的研究具有重要的意义。
Ma等人在文献“Y.Ma,H.Xiong,Z.Hu,and L.Ma,“Efficient Super ResolutionUsing Binarized Neural Network,”in Computer Vision and Pattern RecognitionWorkshop,2019”中提出一种二值化权值的图像超分辨率重建算法,该方法采用sign函数作为权值二值化函数并引入可学习的尺度因子减少量化过程造成的损失,同时采用clip函数将反向梯度保留在(-5,5)区间内指导网络训练。Xin等人在文献“J.Xin,N.Wang,X.Jiang,J.Li,H.Huang and X.Gao,“Binarized Neural Network for Single Image SuperResolution,”in European Conference on Computer Vision,2020”中提出一个权值与激活完全二值化的图像超分辨率重建网络,该方法提出了一个基于比特累加机制的二值化算法,利用多个1-bit数值累加估计多bit数值,可在前向信息传递过程中有效减少量化过程产生的信息损失。
上述方法中Ma等人的方法仅实现了网络权值的二值化,虽然可以减少模型的内存耗用,但模型运算需要的乘法操作无法被替换为简单的位运算,从而无法加快模型的推理速度。Xin等人的方法实现了超分网络中权值与激活的完全二值化,但比特累加机制会引入过多的全精度浮点型运算,消耗过多的计算资源。此外,现有二值网络多依赖于BN层缓解量化过程造成的信息损失,然而BN的引入会带来全精度浮点型运算,降低了模型硬件实施的有效性。因此,二值超分率重建网络在性能与效率上均存在较大的提升空间。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种不包含正则化层的二值超分辨率重建方法。本发明要解决的技术问题通过以下技术方案实现:
本发明提供了一种不包含正则化层的二值超分辨率重建方法,包括:
S1:对低分辨率图像进行数据分布处理,获得处理后图像;
S2:将所述处理后图像输入二值深度神经网络模型进行特征提取,获得重构后的图像;
S3:对所述重构后的图像进行数据分布处理,获得最终重建后的超分图像;
S4:利用梯度下降算法迭代更新所述二值深度神经网络模型的参数,直至网络模型达到收敛。
在本发明的一个实施例中,所述S1包括:
对所述低分辨率图像进行去均值操作,并采用双线性插值法放大图像的尺寸。
在本发明的一个实施例中,所述S2包括:
S21:建立二值深度神经网络模型,包括一个浅层特征提取模块、九个二值残差模块和一个恢复模块;
S22:将所述处理后图像输入所述浅层特征提取模块,获取浅层特征图;
S23:将所述浅层特征图输入所述二值残差模块,获得非线性映射后的特征图;
S24:将所述非线性映射后的特征图输入所述恢复模块中进行图像重构,获得重构后的图像。
在本发明的一个实施例中,所述浅层特征提取模块包括一个全精度3×3卷积层和一个PReLU激活层,其中,所述PReLU激活层的表达式为:
Figure BDA0002915405880000031
其中,x表示上一层卷积后的参数,β表示负方向上的斜率。
在本发明的一个实施例中,每个二值残差模块包括连接的两个卷积单元,每个卷积单元具体用于:
采用sign函数二值化所述二值深度神经网络模型的激活值:
Figure BDA0002915405880000032
其中,A表示全精度激活值,Ab表示二值化后的激活值。
采用sign函数二值化所述二值深度神经网络模型的权值并引入权值尺度因子与二值化后的权值相乘:
Figure BDA0002915405880000041
Figure BDA0002915405880000042
Wb*=Wb⊙α*
其中,W表示全精度权值,Wb为二值化后的权值,α*表示权值尺度因子,Wb*表示经尺度因子增益后的权值,n表示权值的通道数目,||·||l1表示L1正则;
进行二值卷积操作:
Figure BDA0002915405880000043
其中,Z表示二值卷积后的特征值,*表示卷积操作,
Figure BDA0002915405880000044
表示XNOR操作,⊙表示相乘操作。
在本发明的一个实施例中,所述恢复模块包括一个全精度3×3卷积层。
在本发明的一个实施例中,所述S3包括:
将所述重构后的图像进行分布调整,添加图像均值,获得超分辨重建后的图像。
在本发明的一个实施例中,所述S4包括:
S41:对所述二值深度神经网络模型的权值进行初始化赋值:
Figure BDA0002915405880000045
其中,w表示全精度权值,nj和nj+1表示第j层卷积输入的维度和输出的维度;
S42:引入高阶二值化函数的导数近似sign函数,获得所述二值深度神经网络模型激活值的梯度计算公式:
Figure BDA0002915405880000051
其中,L表示L1损失函数,x表示全精度激活值,xb表示二值激活值,
Figure BDA0002915405880000052
S43:引入高阶二值化函数的导数近似sign函数,获得所述二值深度神经网络模型的权值的梯度计算公式:
Figure BDA0002915405880000053
其中,L表示L1损失函数,w表示全精度权值,wb表示二值权值,
Figure BDA0002915405880000054
S44:重复步骤S1-S3,利用梯度下降算法迭代更新所述二值深度神经网络模型的权值,直至达到收敛。
与现有技术相比,本发明的有益效果在于:
本发明提出了一种不包含正则化层的二值超分辨率重建方法,通过一种有效的二值化训练机制,允许神经网络在不包含BN层时取得较优异的网络性能,从而使网络以较低的计算复杂度获得更加优异的超分辨率图像重建效果。
以下将结合附图及实施例对本发明做进一步详细说明。
附图说明
图1是本发明实施例提供的一种不包含正则化层的二值超分辨率重建方法的流程图;
图2是本发明实施例提供的一种二值深度神经网络模型的结构示意图;
图3是本发明实施例提供的一种PReLU激活层的激活函数的曲线图;
图4是利用本发明实施例的方法以及两种现有技术方法获得的重建图像的对比图。
具体实施方式
为了进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及具体实施方式,对依据本发明提出的一种不包含正则化层的二值超分辨率重建方法进行详细说明。
有关本发明的前述及其他技术内容、特点及功效,在以下配合附图的具体实施方式详细说明中即可清楚地呈现。通过具体实施方式的说明,可对本发明为达成预定目的所采取的技术手段及功效进行更加深入且具体地了解,然而所附附图仅是提供参考与说明之用,并非用来对本发明的技术方案加以限制。
应当说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的物品或者设备中还存在另外的相同要素。
实施例一
请参见图1,图1是本发明实施例提供的一种不包含正则化层的二值超分辨率重建方法的流程图。
本实施例的二值超分辨率重建方法包括:
S1:对低分辨率图像进行数据分布处理,获得处理后图像;
具体地,为实现二值深度神经网络模型的稳定优化,首先对待输入网络模型的低分辨率图像进行去均值操作,减去图像的均值,同时,采用双线性插值法放大输入图像的尺寸。
S2:将所述处理后图像输入二值深度神经网络模型进行特征提取,获得重构后的图像;
进一步地,所述S2包括:
S21:建立二值深度神经网络模型,包括一个浅层特征提取模块、九个二值残差模块和一个恢复模块。请参见图2,图2是本发明实施例提供的一种二值深度神经网络模型的结构示意图。
S22:将所述处理后图像输入所述浅层特征提取模块,获取浅层特征图;
具体地,所述浅层特征提取模块包括一个全精度3×3卷积层和一个PReLU激活层,其中,所述PReLU激活层的表达式为:
Figure BDA0002915405880000071
其中,x表示上一层卷积后的参数,β表示负方向上的斜率,如图3所示。
S23:将所述浅层特征图输入所述二值残差模块,获得非线性映射后的特征图;
具体地,每个二值残差模块包括连接的两个卷积单元,每个卷积单元包括依次连接的二值化激活层、二值卷积层和全精度激活层。所述卷积单元具体用于:
采用sign函数二值化所述二值深度神经网络模型的激活值:
Figure BDA0002915405880000072
其中,A表示全精度激活值,Ab表示二值化后的激活值。
采用sign函数二值化所述二值深度神经网络模型的权值并引入权值尺度因子与二值化后的权值相乘:
Figure BDA0002915405880000081
Figure BDA0002915405880000082
Wb*=Wb⊙α*
其中,W表示全精度权值,Wb为二值化后的权值,α*表示权值尺度因子,Wb*表示经尺度因子增益后的权值,n表示权值的通道数目,||·||l1表示L1正则;
进行二值卷积操作:
Figure BDA0002915405880000083
其中,Z表示二值卷积后的特征值,*表示卷积操作,
Figure BDA0002915405880000084
表示XNOR操作,⊙表示相乘操作,此时卷积操作被XNOR操作和简单的相乘操作替代。
需要说明的是,每个二值残差模块执行两次二值卷积操作。
S24:将所述非线性映射后的特征图输入所述恢复模块中进行图像重构,获得重构后的图像。
具体地,所述恢复模块包括一个全精度3×3卷积层。
S3:对所述重构后的图像进行数据分布处理,获得重建后的超分辨图像;
具体地,将所述重构后的图像进行分布调整,添加图像均值,获得超分辨重建后的图像。
S4:利用梯度下降算法迭代更新所述二值深度神经网络模型的参数,直至网络模型达到收敛。
进一步地,所述S4包括:
S41:对所述二值深度神经网络模型的权值进行初始化赋值:
Figure BDA0002915405880000091
其中,w表示全精度权值,nj和nj+1表示第j层卷积输入的维度和输出的维度;
S42:引入高阶二值化函数的导数近似sign函数,获得所述二值深度神经网络模型的激活值的梯度计算公式:
Figure BDA0002915405880000092
其中,L表示L1损失函数,x表示全精度激活值,xb表示二值激活值,
Figure BDA0002915405880000093
S43:引入高阶二值化函数的导数近似sign函数,获得所述二值深度神经网络模型的权值的梯度计算公式:
Figure BDA0002915405880000094
其中,L表示L1损失函数,w表示全精度权值,wb表示二值权值,
Figure BDA0002915405880000095
S44:重复步骤S1-S3,利用梯度下降算法迭代更新所述二值深度神经网络模型的权值,直至达到收敛。
接着,通过以下仿真实验进一步说明本发明实施例提出的不包含正则化层的二值超分辨率重建方法的效果。
(1)仿真条件
本发明实施例的实验是在中央处理器为Inter(R)Core(TM)i7-47903.60GHz CPU、NVIDIA Titan XP GPU、Ubuntu 16.04操作系统上。
数据库采用超分领域广泛使用的数据集DIV2K。实验中所对比的方法如下:
一是朴素二值神经网络,实验中记为BNN,在网络前向量化过程中,BNN采用sign函数二值化网络的权值和激活。在网络反向量化过程中,BNN采用直通估计器指导网络权值更新。参考文献为“I.Hubara,M.Courbariaux,D.Soudry,R.EI-Yaniv,and Y.Bengio“Binarized neural networks”in Conference and Workshop on Neural InformationProcessing Systems,2016.”
二是基于比特累加机制的二值图像超分辨率重建算法,实验中记为BAM,BAM提出一个bit累加机制,多个1-bit数值的累加估计多bit数值,沿模型推理方向逐步提高量化网络的性能。参考文献为“J.Xin,N.Wang,X.Jiang,J.Li,H.Huang and X.Gao,“BinarizedNeural Network for Single Image Super Resolution,”in European Conference onComputer Vision,2020”
(2)仿真内容
实验:重建图像质量评价
根据本发明实施例的方法和上述现有技术的两种方法,在NTIRE2017公布的公开高清图像数据集DIV2K上训练图像超分辨率重建网络。测试选用标准的测试数据集Set5、Set14、Urban100和BSD100,数据集参考文献分别为“M.Bevilacqua,A.Roumy,C.Guillemotand ML.AlberiMorel.“Low-complexity single-image super-resolution based onnonnegative neighbor embedding”,2012”、“R.Zeyde,M.Elad and M.Protter.“Onsingle image scale-up using sparse-representations”,In Proceedings of theInternational Conference on Curves and Surfaces,2012”、“Y.Mei,Y.Zhou,Y.Huang,TS.Huang and H.Shi.“A database of human segmented natural images and itsapplication to evaluating segmentation algorithms and measuring ecologicalstatistics”,In Proceedings of the International Conference on ComputerVision,2001”、“J.B.Huang,A.Singh and N.Ahuja.“Single Image Super-resolutionfrom Transformed Self-Exemplars”,in Proceedings of IEEE Conference onComputer Vision and Pattern Recognition,2015”。实验选用标准的评价指标:图像峰值信噪比PSNR(peak signal-to-noise ratio,PSNR)和结构相似度SSIM(StructuralSimilarity Image Metric,SSIM)。PSNR和SSIM的值越大,表示重建的图像质量越好。
实验结果如表1所述,Bicubic表示图像由双三次插值放大的结果,scale表示不同的放大倍数,分别为2倍、3倍和4倍,ours表示本发明实施例提出的方法。从表1中可以看出,本发明实施例提出的方法可以允许网络在不包含BN层时取得一个良好的性能,本发明实施例提出的方法在PSNR和SSIM上均明显优越于现有技术的两种方法,说明本发明实施例的方法重建的图像分辨率更高,合成图像更为清晰,进一步验证了本发明方法的先进性。
表1不同二值超分辨率重建方法性能对比
Figure BDA0002915405880000111
Figure BDA0002915405880000121
表2包含/不包含BN层的二值超分辨率重建方法性能对比
Figure BDA0002915405880000122
请参见表2,表2是包含/不包含BN层的二值超分辨率重建方法性能对比,其中,BNN(BN)表示包含BN层的BNN网络,BNN(woBN)表示不包含BN层的BNN网络。从表2中可以看出,现有BNN方法在去除BN层时会导致严重的性能下降。而本发明实施例的方法允许网络在不包含BN层时取得一个良好的性能,对比其他方法,基于本方法实现的二值图像超分辨率重建网络享有更好的硬件实施有效性,同时本方法可以优于目前现有的二值图像超分辨率重建算法。
请参见图4,图4是利用本发明实施例的方法以及两种现有技术方法获得的重建图像的对比图,其中,Bicubic表示原始低分辨率图像直接插值放大的结果。从图4可以看出,利用本发明实施例的方法重建的图像视觉质量更好。
本发明实施例的二值超分辨率重建方法,通过一种有效的二值化训练机制,允许神经网络在不包含BN层时取得较优异的网络性能,从而使网络以较低的计算复杂度获得更加优异的超分辨率图像重建效果。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (8)

1.一种不包含正则化层的二值超分辨率重建方法,其特征在于,包括:
S1:对低分辨率图像进行数据分布处理,获得处理后图像;
S2:将所述处理后图像输入二值深度神经网络模型进行特征提取,获得重构后的图像;
S3:对所述重构后的图像进行数据分布处理,获得最终重建后的超分图像;
S4:利用梯度下降算法迭代更新所述二值深度神经网络模型的参数,直至网络模型达到收敛。
2.根据权利要求1所述的不包含正则化层的二值超分辨率重建方法,其特征在于,所述S1包括:
对所述低分辨率图像进行去均值操作,并采用双线性插值法放大图像的尺寸。
3.根据权利要求1所述的不包含正则化层的二值超分辨率重建方法,其特征在于,所述S2包括:
S21:建立二值深度神经网络模型,包括一个浅层特征提取模块、九个二值残差模块和一个恢复模块;
S22:将所述处理后图像输入所述浅层特征提取模块,获取浅层特征图;
S23:将所述浅层特征图输入所述二值残差模块,获得非线性映射后的特征图;
S24:将所述非线性映射后的特征图输入所述恢复模块中进行图像重构,获得重构后的图像。
4.根据权利要求3所述的不包含正则化层的二值超分辨率重建方法,其特征在于,所述浅层特征提取模块包括一个全精度3×3卷积层和一个PReLU激活层,其中,所述PReLU激活层的表达式为:
Figure FDA0002915405870000021
其中,x表示上一层卷积后的参数,β表示负方向上的斜率。
5.根据权利要求3所述的不包含正则化层的二值超分辨率重建方法,其特征在于,每个二值残差模块包括连接的两个卷积单元,每个卷积单元具体用于:
采用sign函数二值化所述二值深度神经网络模型的激活值:
Figure FDA0002915405870000022
其中,A表示全精度激活值,Ab表示二值化后的激活值。
采用sign函数二值化所述二值深度神经网络模型的权值并引入权值尺度因子与二值化后的权值相乘:
Figure FDA0002915405870000023
Figure FDA0002915405870000024
Wb*=Wb⊙α*
其中,W表示全精度权值,Wb为二值化后的权值,α*表示权值尺度因子,Wb*表示经尺度因子增益后的权值,n表示权值的通道数目,||·||l1表示L1正则;
进行二值卷积操作:
Figure FDA0002915405870000025
其中,Z表示二值卷积后的特征值,*表示卷积操作,
Figure FDA0002915405870000026
表示XNOR操作,⊙表示相乘操作。
6.根据权利要求3所述的不包含正则化层的二值超分辨率重建方法,其特征在于,所述恢复模块包括一个全精度3×3卷积层。
7.根据权利要求1所述的不包含正则化层的二值超分辨率重建方法,其特征在于,所述S3包括:
将所述重构后的图像进行分布调整,添加图像均值,获得超分辨重建后的图像。
8.根据权利要求1所述的不包含正则化层的二值超分辨率重建方法,其特征在于,所述S4包括:
S41:对所述二值深度神经网络模型的权值进行初始化赋值:
Figure FDA0002915405870000031
其中,w表示全精度权值,nj和nj+1表示第j层卷积输入的维度和输出的维度;
S42:引入高阶二值化函数的导数近似sign函数,获得所述二值深度神经网络模型激活值的梯度计算公式:
Figure FDA0002915405870000032
其中,L表示L1损失函数,x表示全精度激活值,xb表示二值激活值,
Figure FDA0002915405870000033
S43:引入高阶二值化函数的导数近似sign函数,获得所述二值深度神经网络模型的权值的梯度计算公式:
Figure FDA0002915405870000034
其中,L表示L1损失函数,w表示全精度权值,wb表示二值权值,
Figure FDA0002915405870000035
S44:重复步骤S1-S3,利用梯度下降算法迭代更新所述二值深度神经网络模型的权值,直至达到收敛。
CN202110099913.3A 2021-01-25 2021-01-25 一种不包含正则化层的二值超分辨率重建方法 Active CN112950464B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110099913.3A CN112950464B (zh) 2021-01-25 2021-01-25 一种不包含正则化层的二值超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110099913.3A CN112950464B (zh) 2021-01-25 2021-01-25 一种不包含正则化层的二值超分辨率重建方法

Publications (2)

Publication Number Publication Date
CN112950464A true CN112950464A (zh) 2021-06-11
CN112950464B CN112950464B (zh) 2023-09-01

Family

ID=76236635

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110099913.3A Active CN112950464B (zh) 2021-01-25 2021-01-25 一种不包含正则化层的二值超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN112950464B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060291751A1 (en) * 2004-12-16 2006-12-28 Peyman Milanfar Robust reconstruction of high resolution grayscale images from a sequence of low-resolution frames (robust gray super-resolution)
CN103136727A (zh) * 2012-12-14 2013-06-05 西安电子科技大学 基于梯度一致性与各向异性正则化的超分辨图像重建方法
LU92731B1 (en) * 2015-06-05 2016-12-06 Université Du Luxembourg Real-time temporal filtering and super-resolution of depth image sequences
CN109410239A (zh) * 2018-11-07 2019-03-01 南京大学 一种基于条件生成对抗网络的文本图像超分辨率重建方法
CN110379506A (zh) * 2019-06-14 2019-10-25 杭州电子科技大学 针对心电图数据使用二值化神经网络的心律不齐检测方法
CN110400316A (zh) * 2019-04-19 2019-11-01 杭州健培科技有限公司 一种基于深度学习的骨科影像测量方法及装置
CN110837887A (zh) * 2019-11-12 2020-02-25 西安微电子技术研究所 一种深度卷积神经网络的压缩及加速方法、神经网络模型及其应用
CN111192200A (zh) * 2020-01-02 2020-05-22 南京邮电大学 基于融合注意力机制残差网络的图像超分辨率重建方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060291751A1 (en) * 2004-12-16 2006-12-28 Peyman Milanfar Robust reconstruction of high resolution grayscale images from a sequence of low-resolution frames (robust gray super-resolution)
CN103136727A (zh) * 2012-12-14 2013-06-05 西安电子科技大学 基于梯度一致性与各向异性正则化的超分辨图像重建方法
LU92731B1 (en) * 2015-06-05 2016-12-06 Université Du Luxembourg Real-time temporal filtering and super-resolution of depth image sequences
CN109410239A (zh) * 2018-11-07 2019-03-01 南京大学 一种基于条件生成对抗网络的文本图像超分辨率重建方法
CN110400316A (zh) * 2019-04-19 2019-11-01 杭州健培科技有限公司 一种基于深度学习的骨科影像测量方法及装置
CN110379506A (zh) * 2019-06-14 2019-10-25 杭州电子科技大学 针对心电图数据使用二值化神经网络的心律不齐检测方法
CN110837887A (zh) * 2019-11-12 2020-02-25 西安微电子技术研究所 一种深度卷积神经网络的压缩及加速方法、神经网络模型及其应用
CN111192200A (zh) * 2020-01-02 2020-05-22 南京邮电大学 基于融合注意力机制残差网络的图像超分辨率重建方法

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
HARUYOSHI YONEKAWA等: "On-chip Memory Based Binarized Convolutional Deep Neural Network Applying Batch Normalization Free Technique on an FPGA", 《2017 IEEE INTERNATIONAL PARALLEL AND DISTRIBUTED PROCESSING SYMPOSIUM WORKSHOPS》 *
HARUYOSHI YONEKAWA等: "On-chip Memory Based Binarized Convolutional Deep Neural Network Applying Batch Normalization Free Technique on an FPGA", 《2017 IEEE INTERNATIONAL PARALLEL AND DISTRIBUTED PROCESSING SYMPOSIUM WORKSHOPS》, vol. 2017, 3 July 2017 (2017-07-03), pages 1 *
JINGWEI XIN 等: "Binarized Neural Network for Single Image Super Resolution", 《ECCV 2020》 *
JINGWEI XIN 等: "Binarized Neural Network for Single Image Super Resolution", 《ECCV 2020》, vol. 2020, 29 October 2020 (2020-10-29), pages 1 *
ZECHUN LIU等: "Bi-Real Net: Enhancing the Performance of 1-Bit CNNs with Improved Representational Capability and Advanced Training Algorithm", 《ECCV 2018》 *
ZECHUN LIU等: "Bi-Real Net: Enhancing the Performance of 1-Bit CNNs with Improved Representational Capability and Advanced Training Algorithm", 《ECCV 2018》, vol. 2018, 7 October 2018 (2018-10-07), pages 3 *
ZHE XU等: "Accurate and Compact Convolutional Neural Networks with Trained Binarization", 《ARXIV》 *
ZHE XU等: "Accurate and Compact Convolutional Neural Networks with Trained Binarization", 《ARXIV》, 25 September 2019 (2019-09-25), pages 3 *
袁其平等: "用支持向量回归法实现单帧图像超分辨率重建", 光学精密工程, vol. 24, no. 09, pages 2302 - 2309 *

Also Published As

Publication number Publication date
CN112950464B (zh) 2023-09-01

Similar Documents

Publication Publication Date Title
CN110599401A (zh) 遥感图像超分辨率重建方法、处理装置及可读存储介质
CN111192200A (zh) 基于融合注意力机制残差网络的图像超分辨率重建方法
CN107341765B (zh) 一种基于卡通纹理分解的图像超分辨率重建方法
Xie et al. Deep coordinate attention network for single image super‐resolution
CN112102163B (zh) 基于多尺度运动补偿框架和递归学习的连续多帧图像超分辨率重建方法
CN108898542B (zh) 一种可逆水印的嵌入方法
CN111402138A (zh) 一种基于多尺度特征提取融合的监督卷积神经网络的图像超分辨率重建方法
Liu et al. An efficient group skip-connecting network for image super-resolution
Zheng et al. Design of vector quantization codebooks using a genetic algorithm
Yang et al. MRDN: A lightweight multi-stage residual distillation network for image super-resolution
Ma et al. A reversible data hiding algorithm for audio files based on code division multiplexing
Boo et al. Quantized neural networks: Characterization and holistic optimization
CN114786018A (zh) 基于贪婪随机稀疏Kaczmarz的图像重建方法
Xu et al. Hybrid post-training quantization for super-resolution neural network compression
CN111126169A (zh) 基于正交化的图正则非负矩阵分解的人脸识别方法及系统
CN112950464A (zh) 一种不包含正则化层的二值超分辨率重建方法
Zhang et al. Feature compensation network based on non-uniform quantization of channels for digital image global manipulation forensics
CN115311137A (zh) 一种基于网络二值化推理加速的图像超分辨率重建方法
CN110020986B (zh) 基于欧氏子空间群两重映射的单帧图像超分辨率重建方法
CN111080516A (zh) 基于自样例增强的超分辨率图像重建方法
CN116071441A (zh) 一种基于端到端卷积神经网络的遥感图像压缩方法
Peng et al. Auto-encoders for compressed sensing
CN113793267B (zh) 基于跨维度注意力机制的自监督单遥感图像超分辨率方法
Ronggui et al. Self-similarity enhancement network for image super-resolution
Zhou et al. Mixed Attention Densely Residual Network for Single Image Super-Resolution.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant