CN115147283A - 一种图像重建方法、装置、设备及介质 - Google Patents
一种图像重建方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN115147283A CN115147283A CN202210924691.9A CN202210924691A CN115147283A CN 115147283 A CN115147283 A CN 115147283A CN 202210924691 A CN202210924691 A CN 202210924691A CN 115147283 A CN115147283 A CN 115147283A
- Authority
- CN
- China
- Prior art keywords
- resolution
- representing
- super
- data
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000013139 quantization Methods 0.000 claims abstract description 91
- 230000006870 function Effects 0.000 claims abstract description 65
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 63
- 238000010606 normalization Methods 0.000 claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000005070 sampling Methods 0.000 claims abstract description 10
- 238000012821 model calculation Methods 0.000 claims abstract description 9
- 238000003062 neural network model Methods 0.000 claims abstract description 8
- 238000007667 floating Methods 0.000 claims description 29
- 239000000126 substance Substances 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 abstract description 19
- 238000004422 calculation algorithm Methods 0.000 description 36
- 238000013135 deep learning Methods 0.000 description 17
- 230000006835 compression Effects 0.000 description 13
- 238000007906 compression Methods 0.000 description 13
- 238000013507 mapping Methods 0.000 description 12
- 238000000605 extraction Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002969 morbid Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种图像重建方法、装置、设备及介质,涉及计算机视觉领域,该方法包括:将第一分辨率的图像输入至训练好的超分辨率卷积神经网络模型中,得到超分辨率卷积神经网络模型输出的第二分辨率的图像;超分辨率卷积神经网络模型中所有卷积层、批归一化层、点加层和上采样层均通过量化处理进行模型计算位宽的压缩;超分辨率卷积神经网络模型在训练过程中通过自监督损失函数使得量化前后的数据的误差在预设范围内。本发明极大地降低了模型的计算复杂度,能带来超分辨率卷积神经网络模型在实际应用时运行速度、功耗、访存带宽等方面的优势;通过自监督损失函数约束量化系数,稳定训练过程,有效地提高了超分辨率卷积神经网络模型的量化精度。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种图像重建方法、装置、设备及介质。
背景技术
图像的超分辨率(Super-Resolution,SR)算法是计算机视觉领域中的一个重要的研究领域,超分辨率算法旨在将第一个低分辨率(Low Resolution,LR)的图像转化或者说重建成一张高分辨率(High Resolution,HR)的图像,超分辨率算法在监控设备、卫星图像和医学影像等领域都有重要的应用价值。
随着深度神经网络特别是深度卷积神经网络(Deep Convolution NeuralNetwork,DCNN)被广泛地应用到计算机视觉中的各个领域。经研究表明深度学习算法在超分辨领域能取得比传统算法更好的效果。然而,深度学习算法的高计算量阻碍了该类算法在超分辨领域的部署,特别是超分辨网络中每个特征图的分辨率一般都比较大,对系统的计算能力、存储和数据传输带宽都有着较高的要求。因此,需要使用到模型量化等技术对基于深度学习算法的超分辨网络结构进行压缩,使得这些算法能够在实际平台上更加高效低完成部署。
综上,能够对大幅度降低面向超分辨任务的基于深度学习算法计算复杂度的模型是目前亟待解决的重要课题。
发明内容
有鉴于此,本发明实施例提供了一种图像重建方法、装置、设备及介质,以解决基于深度学习算法的超分辨网络模型实际部署时对系统资源要求较高的问题。
根据第一方面,本发明实施例提供了一种图像重建方法,所述方法包括:
将第一分辨率的图像输入至训练好的超分辨率卷积神经网络模型中,得到超分辨率卷积神经网络模型输出的第二分辨率的图像;第二分辨率高于第一分辨率;
超分辨率卷积神经网络模型中所有卷积层、批归一化层、点加层和上采样层均通过量化处理进行模型计算位宽的压缩;超分辨率卷积神经网络模型在训练过程中通过自监督损失函数使得量化前后的数据的误差在预设范围内,且,超分辨率卷积神经网络模型最终的损失函数是基于自监督损失函数对初始的损失函数进行更新后得到的。
结合第一方面,在第一方面第一实施方式中,所述卷积层的输入数据通过公式(2)进行量化处理:
其中,表示数据的量化值;表示量化系数;表示卷积层的输入数据,为
特征值或者权重;表示量化位宽,表示量化的最小范围,表示量化的最大
范围;表示进行四舍五入的整取函数;,表示数据经过量化后的整数部分;,表示数据经过量
化后的浮点部分。
结合第一方面第一实施方式,输入数据经过量化后,所述卷积层通过公式(3)进行卷积运算:
其中,表示所述卷积层经过量化后的特征值;表示所述卷积层经过量化后
的权重;表示所述卷积层的输出数据;表示数据的整数部分;表示数据的浮
点部分;表示数据的整数部分;表示数据的浮点部分;,表示数据的整数部分;,表示
数据的浮点部分。
结合第一方面第一实施方式,在第一方面第三实施方式中,所述批归一化层的输入数据通过公式(5)进行量化处理:
其中,;;表示批归一化层经过量化后的输
出数据;表示距离该批归一化层最近的前置的卷积层经过量化后的输出数据的浮
点部分;表示距离该批归一化层最近的前置的卷积层经过量化后的输出数据的整
数部分;表示批归一化层的均值;表示批归一化层的方差;表示批归一化层用来避
免造成的除法溢出错误的常数;表示批归一化层的归一化系数;表示批归一化层
的偏置;表示数据经过量化后的浮点部分;表示数据经过量化后的整数部分;表示进行四舍五入的取整函数。
结合第一方面第三实施方式,在第一方面第四实施方式中,所述点加层的输入数据通过公式(6)进行量化处理:
其中,表示点加层的其中一个经过量化后的输入数据;表示点加层的另一个
经过量化后的输入数据;表示点加层经过量化后的输出数据;表示数据经过量化
后的浮点部分;表示数据经过量化后的整数部分;表示数据经过量化后的浮
点部分;表示数据经过量化后的整数部分;表示数据经过量化的浮点部分;
表示数据经过量化后的整数部分;。
第二方面, 本发明实施例还提供一种图像重建装置,所述装置包括:
图像重建模块,用于将第一分辨率的图像输入至训练好的超分辨率卷积神经网络模型中,得到超分辨率卷积神经网络模型输出的第二分辨率的图像;第二分辨率高于第一分辨率;
超分辨率卷积神经网络模型中所有卷积层、批归一化层、点加层和上采样层均通过量化处理进行网络结构的压缩;超分辨率卷积神经网络模型在训练过程中通过自监督损失函数使得量化前后的数据的差值在预设范围内,且,超分辨率卷积神经网络模型的损失函数是基于自监督损失函数得到的。
第三方面, 本发明实施例还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述图像重建方法的步骤。
第四方面, 本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述图像重建方法的步骤。
第五方面, 本发明实施例还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述图像重建方法的步骤。
本发明提供的图像重建方法、装置、设备及介质,区别于其他对超分辨算法的压缩方案,本申请中将基于深度学习的超分辨率卷积神经网络模型中所有层全部进行量化处理,既尽可能低实现了对模型计算位宽的压缩,还端到端地实现了低分辨图像到高分辨图像的映射,极大地降低了模型的计算复杂度,能带来超分辨率卷积神经网络模型在实际应用时运行速度、功耗、访存带宽等方面的优势;另外本申请还通过自监督损失函数约束量化过程中的量化系数,使得量化的过程更加平稳,既稳定了模型的训练过程,还有效地提高了超分辨率卷积神经网络模型的量化精度。
附图说明
通过参考附图会更加清楚的理解本发明的特征和优点,附图是示意性的而不应理解为对本发明进行任何限制,在附图中:
图1示出了本发明提供的图像重建方法的流程示意图;
图2示出了本发明提供的图像重建装置的结构示意图;
图3示出了本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
SR算法是计算机视觉领域中的一个重要的研究领域,SR算法旨在将低分辨率的图像转化或者重建成高分辨率的图像。由于信息损失,图片分辨率转换的问题属于一种病态问题,对SR算法的设计提出有巨大的挑战。深度神经网络(Convolution Neural Network,DNN)特别是DCNN被广泛地应用到计算机视觉中的各个领域,当然深度神经网络也可以应用于超分辨算法领域。
深度学习算法的高计算量阻碍了该类算法在超分辨算法领域的部署,由于超分辨算法是像素级别的重建算法,相应的深度学习网络中没有类似图像分类、物体检测等算法通过池化层用来降低中间特征图的分辨率。面向超分辨的深度学习模型所需要的中间特征图为原始输入大小或者网络输出大小,也就是超分辨网络中每个特征图的分辨率一般都比较大,这样意味着超分辨的深度学习模型对系统计算能力、存储能力和数据传输带宽都有着较高的要求。在实际部署时,有必要对模型进行压缩,来降低对系统的资源需求。因此,需要使用模型量化等技术对基于深度学习的SR模型的计算位宽进行压缩,对该类算法在实际平台的部署有着关键的意义。
目前针对深度学习的SR网络模型的压缩方案一般有两个方向,其一是进行结构化剪枝,缩小网络的宽度和深度,另外在网络的大部分层使用低分辨率的特征图,在网络输出层才提升特征图的分辨率;其二是对深度学习超分辨算法进行模型量化,将原来32位位宽的浮点计算转化为8位或者更低位宽。在一些方案中,这两个方向可以叠加使用,互不影响。
然而,第二个方向或者第一、第二方向相结合的方案只量化了超分辨算法中的部分层,仍有一些算子没有量化,特别是网络结构的首尾层,留作全精度的计算量仍非常庞大繁杂,给网络结构的实际部署造成了很大的困难。
下面结合图1描述本发明的图像重建方法,该方法包括以下步骤:
S10、将第一分辨率的图像输入至训练好的超分辨率卷积神经网络模型中,得到超分辨率卷积神经网络模型输出的第二分辨率的图像,在本实施例中,第二分辨率高于第一分辨率,第一分辨率为低分辨率,第二分辨率为高分辨率。
超分辨率卷积神经网络模型中所有卷积层(conv)、批归一化层(BatchNormalization)、点加层(Element-wise Add)以及上采样层(Upsample或者Pixelshuffle)均通过量化处理进行网络结构的压缩。
超分辨率卷积神经网络模型在训练过程中通过自监督损失函数使得量化前后的数据的误差在预设范围内,且,超分辨率卷积神经网络模型最终的损失函数是基于自监督损失函数对初始的损失函数进行更新后得到的。
本发明提供的图像重建方法,区别于其他对超分辨算法的压缩方案,本申请中将基于深度学习的超分辨率卷积神经网络模型中所有层全部进行量化处理,既尽可能低实现了对模型计算位宽的压缩,还端到端地实现了低分辨图像到高分辨图像的映射,极大地降低了模型的计算复杂度,能带来超分辨率卷积神经网络模型在实际应用时运行速度、功耗、访存带宽等方面的优势;另外本申请还通过自监督损失函数约束量化过程中的量化系数,使得量化的过程更加平稳,既稳定了模型的训练过程,还有效地提高了超分辨率卷积神经网络模型的量化精度。
应用于计算机视觉领域的超分辨网络模型,其主要工作为:接收一张低分辨率的输入图像,由网络模型预测并输出一张高分辨率的输出图像。当超高分辨网络模型使用深度学习处理超分辨任务时,其网络结构一般包含三个层(模块):特征提取层(FeatureExtraction)、非线性映射层(Non-linear Mapping)和超分辨重建层(SR ImageReconstruction),特征提取层用于进行图像块的提取和特征表示,非线性映射层用于进行特征非线性映射,超分辨重建层用于进行最终的图像重建。
在最简单的超分辨网络模型中,这三层分别为一个卷积层,并且这三个卷积层的卷积核尺寸有所区别,更复杂的,这三层每一层都可以为复合结构,即具有多个子网络层,另外,网络结构中也可以存在很多跨层链接。
例如,超分辨率卷积神经网络(Super-Resolution Convolutional NeuralNetwork,SRCNN)首先使用双三次(bicubic)插值将输入的低分辨率图像放大成目标尺寸,接着通过三层的卷积层(特征提取层、非线性映射层以及超分辨重建层)拟合非线性映射,最后输出得到高分辨率图像。
现有采用量化对超分辨网络模型进行压缩时只量化了非线性映射部层,而另外两个首尾层也就是则保留成全精度计算。这种压缩方式为超分辨网络模型在实际平台的部署中,需要硬件平台同时拥有全精度处理和量化位宽两种主要精度的计算。然而,特征提取模块和超分辨重建层的计算量占整个模型的计算量的比例在很多场景中都不可忽视,例如对于2倍放大任务,这两个模块在图像超分辨率残差网络结构(Super-Resolution Residualnetwork,SRResnet)和增强型深度超分辨率网络(Enhanced Deep Super-Resolutionnetwork,EDSR)中分别占用约15.6%和11.4%的计算量,在4倍放大任务中,这两个模块分别占用SRResnet和EDSR的约45.1%和38.7%的计算量。
因此,本申请中将模型中所有层(模块)均进行量化的方案会提升模型在硬件平台的部署效率。更具体的,基于深度神经网络的超分辨网络模型中,网络结构中通常包含有卷积层、批归一化层、点加层以及上采样层,本申请提供的全量化超分辨网络结构,即将所有类型的层都量化为整型计算。
具体的,卷积层的输入数据通过公式(2)进行量化处理:
其中,表示数据的量化值;表示量化系数;表示卷积层的输入数据,
为特征值或者权重;表示量化位宽,表示量化的最小范围,表示量化的最
大范围;表示进行四舍五入的整取函数;
,表示数据经过量化后的整数部分;,表示数据经过量
化后的浮点部分;
之后,卷积层的输入数据经过量化后,卷积层通过公式(3)进行卷积运算:
其中,表示所述卷积层经过量化后的特征值;表示所述卷积层经过量化后
的权重;表示所述卷积层的输出数据;表示数据的整数部分;表示数据的浮
点部分;表示数据的整数部分;表示数据的浮点部分;,表示数据的整数部分;,表示
数据的浮点部分。
在批归一化层中通过(4)计算得到BN层的准确值,公式(4)为:
在本申请中,批归一化层的输入数据通过公式(5)进行量化处理:
其中,;;表示批归一化层经过量化后的输
出数据;表示距离该批归一化层最近的前置的卷积层经过量化后的输出数据的浮
点部分;表示距离该批归一化层最近的前置的卷积层经过量化后的输出数据的整
数部分;表示批归一化层的均值;表示批归一化层的方差;表示批归一化层用来避
免造成的除法溢出错误的常数;表示批归一化层的归一化系数;表示批归一化层
的偏置;表示数据经过量化后的浮点部分;表示数据经过量化后的整数部分;表示进行四舍五入的取整函数。
即,对BN层量化时即只需要将BN层中的偏置(bias)项进行取整就可。
点加层的输入数据通过公式(6)进行量化处理:
其中,表示点加层的其中一个经过量化后的输入数据;表示点加层的另一个
经过量化后的输入数据;表示点加层经过量化后的输出数据;表示数据经过量化
后的浮点部分;表示数据经过量化后的整数部分;表示数据经过量化后的浮
点部分;表示数据经过量化后的整数部分;表示数据经过量化的浮点部分;
表示数据经过量化后的整数部分;。
由于上采样层只进行了数据的形状调整即只改变排列顺序,没有具体的数值计算,因此不需要量化。
在本实施例中,超分辨率卷积神经网络模型经过量化后的量化数据有两个组成部分,其中浮点部分是调整量化后数据范围时使用,只在训练过程中辅助计算,用于辅助神经网络的梯度优化;在实际部署中,计算只牵涉到取整的部分即整数部分,也就是只使用量化数据的整数部分,保证整个超分辨率卷积神经网络模型的计算为全整型计算。
由于现有技术中相关压缩工作只量化了超分辨算法中的一部分操作,经过量化后,仍有大量计算保持全精度的计算,给算法在实际环境部署带来的巨大的挑战。
为了降低基于深度学习的超分辨算法的计算复杂度,本申请提出一种全量化的量化策略,该策略对于超分辨率卷积神经网络模型,将模型中的所有层都做位宽量化,而不是其中的部分层,并且通过对所有牵涉数值计算的层都给出量化公式,整个超分辨算法能端到端地运行在低比特整型计算单元上,能呈数量级地降低算法的计算复杂度和存储复杂度,使得模型的计算复杂度有着数量级的降低,为超分辨网络在移动端平台上的部署带来的巨大的便利,使得整个超分辨算法能端到端地运行在整型计算部件上,有效地提升了执行效率。
其中,表示阶范数;表示数据的量化值,可以为卷积层、
批归一化层、点加层或者上采样层中任一层的输入数据经过量化后的量化值;自监督损
失函数通过约束一个数据量化前和量化后的数据误差,模型的量化训练中能够变得更加平
稳,最终训练得到的模型精度也会得到提高。优选的,的值为1。
为了提升超分辨率卷积神经网络模型的任务精度,本申请提出一种自监督的损失函数(SQCL),该自监督损失函数对一个数据量化前和量化后的数据进行约束,使得数据量化前和量化后的数据尽可能一致也就是差值在预设范围内,具体的,该自监督损失函数使用了p阶范数作为约束手段。理论上,本申请提出的自监督损失函数可以使用任何阶的范数,为了获取更好的约束效果,在本实施例中,在实际部署时采用p=1,即一阶范数效果最好。
由于现有技术中相关压缩工作还是使用原来的训练数据和超分辨自有的损失函数对量化参数进行训练。然而,对于低比特量化而言,特别是将网络中所有层都量化了之后,网络训练变得很不稳定,最终可能影响了网络量化得精度。
为了提升超分辨率卷积神经网络模型量化后精度有损失的问题,本本申请提出一种自监督损失函数,通过自监督损失函数的设置,超分辨率卷积神经网络模型在训练过程中的数据分布更加稳定,数据量化前和量化后的数据范围更加贴近,提升量化精度的效果,模型的量化精度有了大幅度的提升。
下面对本发明提供的图像重建装置进行描述,下文描述的图像重建装置与上文描述的图像重建方法可相互对应参照。
下面结合图1描述本发明的图像重建装置,该装置包括:
图像重建模块10,用于将第一分辨率的图像输入至训练好的超分辨率卷积神经网络模型中,得到超分辨率卷积神经网络模型输出的第二分辨率的图像,在本实施例中,第二分辨率高于第一分辨率,第一分辨率为低分辨率,第二分辨率为高分辨率。
超分辨率卷积神经网络模型中所有卷积层(conv)、批归一化层(BatchNormalization)、点加层(Element-wise Add)以及上采样层(Upsample或者Pixelshuffle)均通过量化处理进行网络结构的压缩。
超分辨率卷积神经网络模型在训练过程中通过自监督损失函数使得量化前后的数据的差值在预设范围内,且,超分辨率卷积神经网络模型的损失函数是基于自监督损失函数得到的。
本发明提供的图像重建装置,区别于其他对超分辨算法的压缩方案,本申请中将基于深度学习的超分辨率卷积神经网络模型中所有层全部进行量化处理,既尽可能低实现了对模型计算位宽的压缩,还端到端地实现了低分辨图像到高分辨图像的映射,极大地降低了模型的计算复杂度,能带来超分辨率卷积神经网络模型在实际应用时运行速度、功耗、访存带宽等方面的优势;另外本申请还通过自监督损失函数约束量化过程中的量化系数,使得量化的过程更加平稳,既稳定了模型的训练过程,还有效地提高了超分辨率卷积神经网络模型的量化精度。
由于现有技术中相关压缩工作只量化了超分辨算法中的一部分操作,经过量化后,仍有大量计算保持全精度的计算,给算法在实际环境部署带来的巨大的挑战。
为了降低基于深度学习的超分辨算法的计算复杂度,本申请提出一种全量化的量化策略,该策略对于超分辨率卷积神经网络模型,将模型中的所有层都做位宽量化,而不是其中的部分层,并且通过对所有牵涉数值计算的层都给出量化公式,整个超分辨算法能端到端地运行在低比特整型计算单元上,能呈数量级地降低算法的计算复杂度和存储复杂度,使得模型的计算复杂度有着数量级的降低,为超分辨网络在移动端平台上的部署带来的巨大的便利,使得整个超分辨算法能端到端地运行在整型计算部件上,有效地提升了执行效率。
由于现有技术中相关压缩工作还是使用原来的训练数据和超分辨自有的损失函数对量化参数进行训练。然而,对于低比特量化而言,特别是将网络中所有层都量化了之后,网络训练变得很不稳定,最终可能影响了网络量化得精度。
为了提升超分辨率卷积神经网络模型量化后精度有损失的问题,本本申请提出一种自监督损失函数,通过自监督损失函数的设置,超分辨率卷积神经网络模型在训练过程中的数据分布更加稳定,数据量化前和量化后的数据范围更加贴近,提升量化精度的效果,模型的量化精度有了大幅度的提升。
图3示例了一种电子设备的实体结构示意图,如图3所示,该电子设备可以包括:处理器(processor)210、通信接口(Communications Interface)220、存储器(memory)230和通信总线240,其中,处理器210,通信接口220,存储器230通过通信总线240完成相互间的通信。处理器210可以调用存储器230中的逻辑命令,以执行图像重建方法,该方法包括:
将第一分辨率的图像输入至训练好的超分辨率卷积神经网络模型中,得到超分辨率卷积神经网络模型输出的第二分辨率的图像;第二分辨率高于第一分辨率;
超分辨率卷积神经网络模型中所有卷积层、批归一化层、点加层和上采样层均通过量化处理进行模型计算位宽的压缩;超分辨率卷积神经网络模型在训练过程中通过自监督损失函数使得量化前后的数据的误差在预设范围内,且,超分辨率卷积神经网络模型最终的损失函数是基于自监督损失函数对初始的损失函数进行更新后得到的。
此外,上述的存储器230中的逻辑命令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的图像重建方法,该方法包括:
将第一分辨率的图像输入至训练好的超分辨率卷积神经网络模型中,得到超分辨率卷积神经网络模型输出的第二分辨率的图像;第二分辨率高于第一分辨率;
超分辨率卷积神经网络模型中所有卷积层、批归一化层、点加层和上采样层均通过量化处理进行模型计算位宽的压缩;超分辨率卷积神经网络模型在训练过程中通过自监督损失函数使得量化前后的数据的误差在预设范围内,且,超分辨率卷积神经网络模型最终的损失函数是基于自监督损失函数对初始的损失函数进行更新后得到的。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的图像重建方法,该方法包括:
将第一分辨率的图像输入至训练好的超分辨率卷积神经网络模型中,得到超分辨率卷积神经网络模型输出的第二分辨率的图像;第二分辨率高于第一分辨率;
超分辨率卷积神经网络模型中所有卷积层、批归一化层、点加层和上采样层均通过量化处理进行模型计算位宽的压缩;超分辨率卷积神经网络模型在训练过程中通过自监督损失函数使得量化前后的数据的误差在预设范围内,且,超分辨率卷积神经网络模型最终的损失函数是基于自监督损失函数对初始的损失函数进行更新后得到的。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干命令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种图像重建方法,其特征在于,所述方法包括:
将第一分辨率的图像输入至训练好的超分辨率卷积神经网络模型中,得到超分辨率卷积神经网络模型输出的第二分辨率的图像;第二分辨率高于第一分辨率;
超分辨率卷积神经网络模型中所有卷积层、批归一化层、点加层和上采样层均通过量化处理进行模型计算位宽的压缩;超分辨率卷积神经网络模型在训练过程中通过自监督损失函数使得量化前后的数据的误差在预设范围内,且,超分辨率卷积神经网络模型最终的损失函数是基于自监督损失函数对初始的损失函数进行更新后得到的。
8.一种图像重建装置,其特征在于,所述装置包括:
图像重建模块,用于将第一分辨率的图像输入至训练好的超分辨率卷积神经网络模型中,得到超分辨率卷积神经网络模型输出的第二分辨率的图像;第二分辨率高于第一分辨率;
超分辨率卷积神经网络模型中所有卷积层、批归一化层、点加层和上采样层均通过量化处理进行模型计算位宽的压缩;超分辨率卷积神经网络模型在训练过程中通过自监督损失函数使得量化前后的数据的误差在预设范围内,且,超分辨率卷积神经网络模型最终的损失函数是基于自监督损失函数对初始的损失函数进行更新后得到的。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述图像重建方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述图像重建方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210924691.9A CN115147283A (zh) | 2022-08-03 | 2022-08-03 | 一种图像重建方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210924691.9A CN115147283A (zh) | 2022-08-03 | 2022-08-03 | 一种图像重建方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115147283A true CN115147283A (zh) | 2022-10-04 |
Family
ID=83414236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210924691.9A Pending CN115147283A (zh) | 2022-08-03 | 2022-08-03 | 一种图像重建方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115147283A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115205122A (zh) * | 2022-09-06 | 2022-10-18 | 深圳大学 | 保持结构和纹理的超分图像生成方法、系统、装置和介质 |
-
2022
- 2022-08-03 CN CN202210924691.9A patent/CN115147283A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115205122A (zh) * | 2022-09-06 | 2022-10-18 | 深圳大学 | 保持结构和纹理的超分图像生成方法、系统、装置和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112508125A (zh) | 一种图像检测模型的高效全整数量化方法 | |
CN111488985B (zh) | 深度神经网络模型压缩训练方法、装置、设备、介质 | |
CN110929865B (zh) | 网络量化方法、业务处理方法及相关产品 | |
CN111105017B (zh) | 神经网络量化方法、装置及电子设备 | |
CN113298716B (zh) | 基于卷积神经网络的图像超分辨率重建方法 | |
CN115147283A (zh) | 一种图像重建方法、装置、设备及介质 | |
CN114936646A (zh) | 一种量子化数据处理方法和装置 | |
TW202013261A (zh) | 算數框架系統及操作浮點至定點算數框架的方法 | |
KR102368590B1 (ko) | 전자 장치 및 그 제어 방법 | |
CN112561050B (zh) | 一种神经网络模型训练方法及装置 | |
CN115953651B (zh) | 一种基于跨域设备的模型训练方法、装置、设备及介质 | |
CN112150362A (zh) | 一种图片前处理解决方法 | |
WO2011064073A1 (en) | Method, device and system for image compression and decompression using support vector regression | |
CN110782396A (zh) | 一种轻量化的图像超分辨率重建网络和重建方法 | |
CN113554719B (zh) | 一种图像编码方法、解码方法、存储介质及终端设备 | |
CN115022637A (zh) | 一种图像编码方法、图像解压方法以及装置 | |
CN115913245A (zh) | 数据编码方法、数据解码方法以及数据处理装置 | |
CN113313253A (zh) | 神经网络压缩方法、数据处理方法、装置及计算机设备 | |
CN115409150A (zh) | 一种数据压缩方法、数据解压方法及相关设备 | |
CN113902928A (zh) | 图像特征的提取方法、装置及电子设备 | |
CN113240589A (zh) | 一种多尺度特征融合的图像去雾方法及系统 | |
CN112541438A (zh) | 文本识别方法及装置 | |
CN112446461A (zh) | 一种神经网络模型训练方法及装置 | |
CN111783957A (zh) | 模型量化训练方法、装置、机器可读存储介质及电子设备 | |
CN111091495A (zh) | 基于残差网络的激光图像高分辨率压缩感知重构方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20221205 Address after: No. 405, Jiande Road, Zhangpu Town, Kunshan City, Suzhou City, Jiangsu Province Applicant after: Suzhou Moshi Intelligent Technology Co.,Ltd. Address before: 430058 Hubei cultural, creative and technological enterprise incubator (ji-wckj-c2101), 22mb plot, Wuhan Economic and Technological Development Zone, Wuhan City, Hubei Province Applicant before: Magic vision intelligent technology (Wuhan) Co.,Ltd. |
|
TA01 | Transfer of patent application right |