CN115115512A - 一种图像超分网络的训练方法及装置 - Google Patents

一种图像超分网络的训练方法及装置 Download PDF

Info

Publication number
CN115115512A
CN115115512A CN202210665245.0A CN202210665245A CN115115512A CN 115115512 A CN115115512 A CN 115115512A CN 202210665245 A CN202210665245 A CN 202210665245A CN 115115512 A CN115115512 A CN 115115512A
Authority
CN
China
Prior art keywords
image
network
low
definition image
definition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210665245.0A
Other languages
English (en)
Other versions
CN115115512B (zh
Inventor
熊雨珏
曹瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honor Device Co Ltd
Original Assignee
Honor Device Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honor Device Co Ltd filed Critical Honor Device Co Ltd
Priority to CN202210665245.0A priority Critical patent/CN115115512B/zh
Publication of CN115115512A publication Critical patent/CN115115512A/zh
Application granted granted Critical
Publication of CN115115512B publication Critical patent/CN115115512B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种图像超分网络的训练方法及装置,先获取包括成对的第一低清图像和高清图像的第一训练数据,然后利用训练好的自编码网络,获取第一低清图像对应的编码信息,最后,以第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以编码信息作为先验信息,训练所述图像超分网络。由于编码信息包括了第一低清图像中不同区域对应的编码,因此,以编码信息作为先验信息,引导图像超分网络对第一低清图像的不同区域采用不同的超分算法,这样训练得到的图像超分网络,可以实现针对低清图像的不同区域的不同退化模式的高清图像重建。

Description

一种图像超分网络的训练方法及装置
技术领域
本申请属于机器学习领域,尤其涉及一种图像超分网络的训练方法及装置。
背景技术
图像超分辨率重建,简称图像超分辨率(super resolution),也称图像超分(SR),是指利用图像处理方法将低清图像(low resolution,LR)重建为高清图像(highresolution,HR)的一种图像处理技术。
图像超分网络是一种用于实现图像超分的网络模型。一般来说,图像超分网络可以基于已知的图像退化模式训练得到,例如:采用经过下采样这种图像退化模式得到的低清图像,训练图像超分网络。另外,图像超分网络还可以基于构建的模拟图像数据训练得到,例如:通过传统学习多种图像退化模式(包括下采样、高斯噪声、运动模糊、失焦模糊等等),训练图像超分网络;又例如,通过深度学习多种图像退化模式,训练图像超分网络。
以上两种实现方式,都是假设图像全局都基于某种固定的退化模式进行训练的,然而真实数据中的不同区域的退化模式是多变的,因此,上述两种训练图像超分网络的实现方式都无法实现针对图像的不同区域的不同退化模式的高清图像重建。
发明内容
本申请提供一种图像超分网络的训练方法及装置,以解决现有训练图像超分网络的实现方式都无法实现针对图像的不同区域的不同退化模式的高清图像重建的问题。
第一方面,本申请提供一种图像超分网络的训练方法,包括:获取第一训练数据,所述第一训练数据包括成对的第一低清图像和高清图像;利用训练好的自编码网络,获取第一低清图像对应的编码信息,所述编码信息包括所述第一低清图像中不同区域对应的编码;以所述第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以所述编码信息作为先验信息,训练所述图像超分网络;其中,以所述编码信息作为先验信息,用于引导所述图像超分网络对所述第一低清图像的不同区域采用不同的超分算法。
这样,由于编码信息包括了第一低清图像中不同区域对应的编码,因此,以编码信息作为先验信息,引导图像超分网络对第一低清图像的不同区域采用不同的超分算法,这样训练得到的图像超分网络,可以实现针对低清图像的不同区域的不同退化模式的高清图像重建。
一种可实现方式中,所述以所述第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以所述编码信息作为所述图像超分网络的先验信息,训练所述图像超分网络,包括:利用第一卷积层,对所述第一低清图像进行特征提取,得到第一特征;以所述编码信息作为先验信息,利用残差网络对所述第一特征进行调制,得到第二特征;利用上采样模块,对所述第二特征进行上采样操作,得到第三特征;利用第二卷积层,对所述第三特征进行卷积计算,输出所述高清图像;当训练次数达到预设迭代次数,则训练结束,获得训练后的图像超分网络。
这样,由于低清图像和高清图像在很大程度上是相似的,也就是说,低清图像携带的低频信息与低清图像携带的低频信息相近,训练时带上这些低频信息会花费大量的时间。因此,本申请实施例中,利用残差网络,只学习低清图像和高清图像之间的高频部分残差,这样可以节省大量的训练时间。
一种可实现方式中,所述残差网络包括至少两个残差模块,所述以所述编码信息作为先验信息,利用残差网络对所述第一特征进行调制,包括:将所述编码信息映射为仿射变换参数;以所述第一特征作为所述残差网络的输入,利用所述仿射变换参数,对所述残差网络中的第一残差模块输出的第四特征进行空间特征变换,得到第五特征,以所述第五特征作为所述残差网络中的第二残差模块的输入;其中,所述第一残差模块为所述残差网络中的任意相邻两个残差模块中的前一个残差模块,所述第二残差模块为所述残差网络中的任意相邻两个残差模块中的后一个残差模块。
这样,可以利用空间特征变换的方式,将编码信息融合到图像超分网络中,以编码信息作为先验信息,引导图像超分网络对第一低清图像的不同区域不同类别进行不同程度的重构。
一种可实现方式中,所述将所述编码信息映射为仿射变换参数,包括:分别对所述编码信息进行两次卷积计算,得到第一仿射变换参数和第二仿射变换参数,其中,所述第一仿射变换参数用于对所述第四特征进行缩放变换,所述第二仿射变换参数用于对缩放变换后的所述第四特征进行平移变换。
这样,可以利用空间特征变换的方式,将编码信息融合到图像超分网络中,以编码信息作为先验信息,引导图像超分网络对第一低清图像的不同区域不同类别进行不同程度的重构。
一种可实现方式中,每个所述残差模块由多个卷积层组成;其中,每个所述残差模块的输出,包括所述多个卷积层中最后一个卷积层的输出以及所述多个卷积层中第一个卷积层的输出,所述多个卷积层中最后一个卷积层的输入,包括所述多个卷积层中倒数第二个卷积层的输出以及所述多个卷积层中第一个卷积层的输出。
这样,构建的残差模块能够学习到更深层次的特征。
一种可实现方式中,所述自编码网络包括编码器和解码器,所述自编码网络的训练方法,包括:获取第二训练数据,所述第二训练数据包括第二低清图像;利用所述编码器对所述第二低清图像进行编码,得到所述第二低清图像对应的预测均值向量和预测方差向量;根据所述预测均值向量和预测方差向量,得到所述第二低清图像对应的正态分布;对所述正态分布进行采样,得到所述第二低清图像对应的采样向量;利用所述解码器对所述采样向量进行解码,得到预测低清图像;基于所述正态分布和标准正太分布,确定第一损失;基于所述第二低清图像和所述预测低清图像,确定第二损失;基于所述第一损失和所述第二损失,对所述自编码网络进行训练。
这样,自编码网络的训练过程是图像映射为编码,再从编码映射为与输入图像相同的图像的过程。这样,利用训练好的自编码网络,对第二低清图像编码后,第二低清图像中所有元素都编码到了编码信息中,也就是说,获得的编码信息能够包括第二低清图像中不同区域对应的编码。
一种可实现方式中,所述第一低清图像与所述第二低清图像相同。
一种可实现方式中,所述利用训练好的自编码网络,获取与第一低清图像对应的编码信息,包括:将所述第一低清图像输入训练好的自编码网络,利用所述训练好的自编码网络得到所述第一低清图像对应的均值向量和方差向量;将所述第一低清图像对应的均值向量和方差向量作为所述编码信息。
这样,由于自编码网络的训练过程是图像映射为编码,再从编码映射为与输入图像相同的图像的过程。这样,利用训练好的自编码网络,对第一低清图像编码后,第一低清图像中所有元素都编码到了编码信息中,也就是说,获得的编码信息包括第一低清图像中不同区域对应的编码,进而编码信息能够准确表达第一低清图像中各区域的退化模式。
第二方面,本申请提供一种图像超分网络的训练装置,包括:第一获取模块,用于获取第一训练数据,所述第一训练数据包括成对的第一低清图像和高清图像;第二获取模块,用于利用训练好的变分自编码网络,获取第一低清图像对应的编码信息,所述编码信息包括所述第一低清图像中不同区域对应的编码;训练模块,用于以所述第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以所述编码信息作为先验信息,训练所述图像超分网络;其中,所述以所述编码信息作为先验信息,用于引导所述图像超分网络对所述第一低清图像的不同区域采用不同的超分算法。
这样,由于编码信息包括了第一低清图像中不同区域对应的编码,因此,以编码信息作为先验信息,引导图像超分网络对第一低清图像的不同区域采用不同的超分算法,这样训练得到的图像超分网络,可以实现针对低清图像的不同区域的不同退化模式的高清图像重建。
第三方面,本申请提供一种计算机存储介质,所述计算机存储介质中存储有计算机程序或指令,当所述计算机程序或指令被执行时,如第一方面中任一项所述的方法被执行。
综上,本申请提供的图像超分网络的训练方法及装置,先获取包括成对的第一低清图像和高清图像的第一训练数据,然后利用训练好的自编码网络,获取第一低清图像对应的编码信息,最后,以第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以编码信息作为先验信息,训练所述图像超分网络,其中,以编码信息作为先验信息,用于引导图像超分网络对第一低清图像的不同区域采用不同的超分算法。本申请中,由于编码信息包括了第一低清图像中不同区域对应的编码,因此,可以以编码信息作为先验信息,引导图像超分网络对第一低清图像的不同区域采用不同的超分算法,这样训练得到的图像超分网络,可以实现针对低清图像的不同区域的不同退化模式的高清图像重建。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种图像超分网络的训练方法的流程图;
图2A为本申请实施例提供的一种自编码网络的训练方法的流程图;
图2B本申请实施例提供的一种自编码网络的算法结构示意图;
图3为本申请实施例提供的一种获取第一低清图像的编码信息的算法结构示意图;
图4A为本申请实施例提供的一种图像超分网络的训练步骤S3的流程图;
图4B为本申请实施例提供的一种图像超分网络的算法结构示意图;
图5为本申请实施例提供的一种将编码信息映射为仿射变换参数的算法结构示意图;
图6为本申请实施例提供的一种图像超分网络的训练装置的结构示意图;
图7为本申请实施例提供的又一种图像超分网络的训练装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图像超分辨率重建,简称图像超分辨率(super resolution),也称图像超分(SR),是指利用图像处理方法将低清图像(low resolution,LR)重建为高清图像(highresolution,HR)的一种图像处理技术。
图像超分网络是一种用于实现图像超分的网络模型。目前,对图像超分网络的训练方法主要包括两种实现方式,第一种实现方式是基于已知的图像退化模式进行训练,第二种实现方式是基于构建的模拟图像数据进行训练。
对于第一种实现方式,以采用经过下采样这种图像退化模式得到的低清图像,训练图像超分网络为例,这样训练得到的图像超分网络对下采样得到的低清图像,能够实现理想的图像超分效果。但是,这样训练得到的图像超分网络,对真实图像进行图像超分的效果却不尽如人意。这是由于真实图像的图像退化方式多种多样,只通过简单的下采样无法覆盖更多的图像退化模式,进而使得训练得到的图像超分网络无法达到预期的效果。
对于第二种实现方式,假设不知道真实图像的退化模式,然后去构建模拟图像数据,再基于构建的模拟图像数据进行训练。这种实现方式,虽然能够学习多种图像退化模式,但是这种实现方式,是假设图像全局都基于某种固定的退化模式进行训练的,然而真实图像中的不同区域的退化模式也可能是多变的,因此,上述两种训练图像超分网络的实现方式都无法实现针对图像的不同区域的不同退化模式的高清图像重建。
为解决上述技术问题,本申请实施例提供了一种图像超分网络的训练方法,利用本申请实施例提供的训练方法训练后的图像超分网络,能够针对真实图像的不同区域的不同退化模式进行高清图像重建。
本申请实施例提供的图像超分网络的训练方法可以通过在硬件计算环境中部署软件形式的神经网络模型和计算机程序代码的方式实现,可用的硬件计算环境例如:个人计算机、服务器、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、可编程的消费电子设备、云服务器、服务器实例、超级计算机等。
下面结合附图对本申请实施例提供的图像超分网络的训练方法进行详细说明。
图1为本申请实施例提供的一种图像超分网络的训练方法的流程图。如图1所示,本申请实施例提供的图像超分网络的训练方法,包括以下步骤:
步骤S1,获取第一训练数据,第一训练数据包括成对的第一低清图像和高清图像。
本申请实施例中的第一低清图像是真实图像数据,并不是基于某种退化模式得到的低清图像数据,也不是构建的模拟低清图像数据。
其中,第一低清图像与高清图像可以是的尺寸不同的图像,并且第一低清图像的分辨率小于高清图像的分辨率,例如,第一低清图像对应的分辨率为1280×720,高清图像对应的分辨率为1920×1080。另外,第一低清图像与高清图像也可以是尺寸相同的图像,但第一低清图像的像素密度小于高清图像的像素密度。
步骤S2,利用训练好的自编码网络,获取第一低清图像对应的编码信息,编码信息包括第一低清图像中不同区域对应的编码。
训练好的自编码网络包括编码器和解码器,编码器用于对输入的第一低清图像进行编码,得到编码信息,解码器用于基于编码信息进行解码,由于编码信息包括了第一低清图像中不同区域对应的编码,这样就保证了编码信息是对第一低清图像的准确表达,因此,解码器能够基于编码信息解码,重新还原出第一低清图像。由此可知,训练好的自编码网络是一种能够将图像映射为编码,再将编码映射为与输入图像相同的图像的网络。
图2A为本申请实施例提供的一种自编码网络的训练方法的流程图,图2B本申请实施例提供的一种自编码网络的算法结构示意图。如图2A和图2B所示,本申请实施例提供的自编码网络的训练方法,包括以下步骤:
步骤S21,获取第二训练数据,第二训练数据包括第二低清图像。
需要说明的是,本申请实施例中第一低清图像和第二低清图像均为真实图像数据,并不是基于某种退化模式得到的低清图像数据,也不是构建的模拟低清图像数据。
还需要说明的是,本申请实施例中第二低清图像可以与第一低清图像相同,也可以不同,本申请对此不进行限定。
步骤S22,利用编码器对第二低清图像进行编码,得到第二低清图像对应的预测均值向量和预测方差向量。
编码器可以对输入的第二低清图像进行特征提取,并将其映射到高斯分布P(z)上,并输出该高斯分布P(z)的均值向量和方差向量。其中,本申请实施例中将自编码网络在训练过程输出的均值向量和方差向量称为预测均值向量和预测方差向量。
本申请实施例中预测均值向量和预测方差向量均为多维度向量,预测均值向量的维度与预测方差向量的维度相同,其中,预测均值向量和预测方差向量中的每个维度可以表示一个类别。本申请实施例对预测均值向量和预测方差向量的维度不进行限定,预测均值向量和预测方差向量的维度可以根据实际应用需求自行设定,例如,设定预测均值向量和预测方差向量的维度均为3、4、5或更多。
示例性的,编码器输出的预测均值向量为[0.2,0.4,0.5],预测方差向量为[0.01,0.015,0.02],其中,预测均值向量中的0.2和预测方差向量中的0.01均对应表示植物类别,预测均值向量中的0.4和预测方差向量中的0.015均对应表示动物类别,预测均值向量中的0.5和预测方差向量中的0.02均对应表示背景类别。
步骤S23,根据预测均值向量和预测方差向量,得到第二低清图像对应的正态分布。
根据步骤S22获得的两组参数,预测均值向量和预测方差向量,可以生成对应的正态分布N(μ,δ2),其中,μ表示预测均值向量,δ2表示预测方差向量。
图像的正太分布可以表征图像的特征,不同类别、内容的图像对应的正太分布是不同的,本申请实施例得到的正太分布为多维正态分布,通过多维正态分布可以表征第二低清图像不同区域对应的特征。
步骤S24,对正态分布进行采样,得到第二低清图像对应的采样向量。
其中,对正态分布进行采样可以是从由正太分布N(μ,δ2)的每个维度上随机取一个变量,然后,由各个维度对应的变量组成采样向量。
在采样时,可以令z=μ+δ2·ε,从正太分布N(μ,δ2)中采样,得到采样向量z,其中,ε为满足标准正态分布的随机向量,这样相当于从N(0,1)中采样一个ε,然后,让z=μ+δ2·ε,从而使z仍然是服从正太分布N(μ,δ2)的采样,且
Figure BDA0003691387370000051
都是可导的,这样可以保证梯度传播,进而保证自编码网络可训练。
步骤S25,利用解码器对采样向量进行解码,得到预测低清图像。
以采样向量作为解码器的输入,解码器对输入的采样向量进行解码后,输出预测低清图像。解码器的解码过程是利用采样向量还原出输入的第二低清图像的过程。
需要说明的是,本申请实施例对编码器和解码器的网络架构不进行限定,例如,编码器和解码器均可以采用多层感知器(Multilayer Perceptron,MLP)实现。其中,MLP可以由输入层、隐藏层和输出层组成,并且MLP中各网络层之间可以通过全连接层连接。
步骤S26,基于正态分布和标准正太分布,确定第一损失。
步骤S27,基于第二低清图像和预测低清图像,确定第二损失。
步骤S28,基于第一损失和第二损失,对自编码网络进行训练。
训练过程中,希望第二损失最小化,但是,由于采样向量是从正态分布上重新采样得到的,而不是直接由编码器算出来的,因此,第二损失可能会受到噪声的影响,其中,预测方差向量表征噪声强度。也就是说,为了使第二损失最小化,要尽量使预测方差向量为0,然而,如果预测方差向量为0,则训练的自编码网络便不能生成正态分布。
基于此,本申请实施例在第二损失的基础上加入第一损失,加入第一损失后,可以防止噪声为零(即方式预测方差向量为0),从而增加自编码网络对噪声的鲁棒性。
进一步的,为了避免面临第一损失和第二损失的权重分配问题,在一种实现方式中,可以通过正态分布和标准正太分布的KL散度表示第一损失,这样,第一损失和第二损失可以训练过程中自行对抗,共同进化,而不需要对第一损失和第二损失进行权重分配。
其中,正态分布和标准正太分布的KL散度满足如下第一关系式(1)。
Figure BDA0003691387370000061
在第一关系式(1)中,d表示正态分布的维度的数量,μ(i)表示预测均值向量的第i个分量,
Figure BDA0003691387370000062
表示预测方差向量的第i个分量,i小于等于d,i和d均为正整数。
第二损失用于表征对输入的第二低清图像的重构误差,在一种实现方式中,第二损失可以通过第二低清图像和预测低清图像的像素差绝对值表示。
这样,可以基于第一损失和第二损失,监督自编码网络进行训练。对自编码网络进行训练的过程是一个迭代的过程,通过多次迭代,不断优化和更新编码器和解码器内部的网络参数,使网络损失不断收敛。其中,当网络损失收敛至预设条件,例如第一损失和第二损失的和小于预设阈值时,结束训练,得到训练好的自编码网络。
图3为本申请实施例提供的获取第一低清图像的编码信息的算法结构示意图。
如图3所示,利用训练好的自编码网络,获取第一低清图像对应的编码信息,可以按照下述方式实现:现将第一低清图像输入训练好的自编码网络,利用训练好的自编码网络得到第一低清图像对应的均值向量和方差向量;然后,将第一低清图像对应的均值向量和方差向量作为编码信息。
由上述对自编码网络的训练方法的介绍可知,自编码网络的训练过程是图像映射为编码,再从编码映射为与输入图像相同的图像的过程。这样,利用训练好的自编码网络,对第一低清图像编码后,第一低清图像中所有元素都编码到了编码信息中,也就是说,获得的编码信息包括第一低清图像中不同区域对应的编码。由此可知,本申请实施例中的编码信息能够准确表达第一低清图像中各区域的退化模式。
步骤S3,以第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以编码信息作为先验信息,训练图像超分网络。
本申请实施例中,以编码信息作为先验信息,来引导图像超分网络对第一低清图像的不同区域采用不同的超分算法。
由于第一低清图像的不同区域可能表现不同的退化模式,因此,本申请以包括第一低清图像中不同区域对应的编码的编码信息作为先验信息,引导图像超分网络对第一低清图像的不同区域的不同退化模式采用不同的超分算法,这样训练得到的图像超分网络,可以实现针对低清图像的不同区域的不同退化模式的高清图像重建。其中,超分算法是指用于将低清图像重建为高清图像的算法。
另外,与语义引导的超分算法相比,由于本申请中编码信息包括输入的低清图像中所有元素的编码信息,因此,本申请实施例提供图像超分网络的应用场景不受分割类别的限定,可以覆盖全场景。而语义引导的超分算法,取决于语义模型的分割类别的多少,因此,语义引导的超分算法的应用场景会受到限制。
图4A为本申请实施例提供的一种图像超分网络的训练步骤S3的流程图,图4B为本申请实施例提供的一种图像超分网络的算法结构示意图。如图4A和图4B所示,在一种可实现方式中,步骤S3可以包括以下步骤:
步骤S31,利用第一卷积层,对第一低清图像进行特征提取,得到第一特征。
第一卷积层的作用是提取第一低清图像的特征。训练时,将第一低清图像输入第一卷积层,第一卷积层通过卷积计算,对第一低清图像进行特征提取,然后输出第一特征。
本申请实施例中对第一卷积层的参数不进行限定,例如,第一卷积层的卷积核的尺寸为3*3。
步骤S32,以编码信息作为先验信息,利用残差网络对第一特征进行调制,得到第二特征。
由于低清图像和高清图像在很大程度上是相似的,也就是说,低清图像携带的低频信息与低清图像携带的低频信息相近,训练时带上这些低频信息会花费大量的时间。因此,本申请实施例中,利用残差网络,只学习低清图像和高清图像之间的高频部分残差,这样可以节省大量的训练时间。
在一种可实现方式中,以编码信息作为先验信息,利用残差网络对第一特征进行调制,可以按照下述方式实现:先将编码信息映射为仿射变换参数;然后,以第一特征作为残差网络的输入,利用所仿射变换参数,对残差网络中的第一残差模块输出的第四特征进行空间特征变换,得到第五特征,以第五特征作为残差网络中的第二残差模块的输入。
其中,残差网络包括至少两个残差模块。为便于描述,本申请实施例中将残差网络中的任意相邻两个残差模块中的前一个残差模块称为第一残差模块,将残差网络中的任意相邻两个残差模块中的后一个残差模块称为第二残差模块。
本申请实施例中映射得到的仿射变换参数,可以被引入到任意相邻两个残差模块之间进行特征调制。具体的,以第一特征作为残差网络的输入,经过第一残差模块后,输出第四特征;然后,利用预先映射得到的仿射变换参数,对第四特征进行空间特征变换,得到第五特征;再以调制后的第五特征作为第二残差模块的输入。
这样,本申请实施例利用空间特征变换的方式,将编码信息融合到图像超分网络中,以编码信息作为先验信息,引导图像超分网络对第一低清图像的不同区域不同类别进行不同程度的重构。
在一种可实现方式中,将编码信息映射为仿射变换参数,可以按照下述方式实现:如图5所示,可以采用一个独立的映射模块,该映射模块用于将编码信息映射为仿射变换参数。该映射模块可以包括四个卷积层,其中两个卷积层用于对编码信息进行卷积计算,得到第一仿射变换参数γ,另外两个卷积层用于对编码信息进行卷积计算,第二仿射变换参数β。这样,分别对编码信息进行两次卷积计算后,得到第一仿射变换参数γ和第二仿射变换参数β,然后,利用第一仿射变换参数γ,对第四特征进行缩放变换,再利用第二仿射变换参数β对缩放变换后的第四特征进行平移变换。
本申请实施例对每个残差模块的结构不进行限定,例如,残差模块可以由多个卷积层组成。
示例性的,残差模块包括四个顺次连接的卷积层,其中,每个所述残差模块的输出,包括多个卷积层中最后一个卷积层的输出以及多个卷积层中第一个卷积层的输出。其中,多个卷积层中最后一个卷积层的输入,包括多个卷积层中倒数第二个卷积层的输出以及多个卷积层中第一个卷积层的输出。这样构建的残差模块能够学习到更深层次的特征。
步骤S33,利用上采样模块,对第二特征进行上采样操作,得到第三特征。
通过上采样操作,可以增大输入的图像的分辨率。具体的,可以采用PixelShuffle算法进行上采样。
步骤S34,利用第二卷积层,对第三特征进行卷积计算,输出高清图像。
对上采样得到的第三特征进行卷积计算后,得到重建的高清图像。
具体的,可以利用一个或多个第二卷积层,对第三特征进行卷积计算,本申请对此不进行限定。
步骤S35,当训练次数达到预设迭代次数,则训练结束,获得训练后的图像超分网络。
对图像超分网络进行训练的过程是一个迭代的过程,通过多次迭代,不断优化和更新图像超分网络内部的网络参数,使网络损失不断收敛。当图像超分网络的训练迭代达到预设次数时,结束训练,得到训练好的图像超分网络。
需要说明的是,上述实施例仅以练次数作为收敛条件进行示例性说明,并不表示对收敛条件的限定。例如,也可以以损失作为收敛条件进行训练,这样,当网络损失收敛至预设条件,例如图像超分网络损失的值小于预设阈值时,结束训练,得到训练好的图像超分网络。其中,图像超分网络损失的值,可以利用输出高清图像和第一训练数据中高清图像计算得到。
还需要说明的是,本申请实施例对图像超分网络的结构不进行限定,例如,图像超分网络包括顺次连接的第一卷积层、残差网络、上采样模块和第二卷积层,其中,残差网络包括至少两个残差模块,第二卷积层的数量可以是一个或多个。
示例性的,本申请实施例中的图像超分网络包括顺次连接的第一卷积层、第一残差模块、第一上采样模块、第二残差模块、第二上采样模块,以及三个顺次连接的第二卷积层。
综上,本申请实施例提供的一种图像超分网络的训练方法,先获取包括成对的第一低清图像和高清图像的第一训练数据,然后利用训练好的自编码网络,获取第一低清图像对应的编码信息,最后,以第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以编码信息作为先验信息,训练所述图像超分网络,其中,以编码信息作为先验信息,用于引导图像超分网络对第一低清图像的不同区域采用不同的超分算法。本申请中,由于编码信息包括了第一低清图像中不同区域对应的编码,因此,可以以编码信息作为先验信息,引导图像超分网络对第一低清图像的不同区域采用不同的超分算法,这样训练得到的图像超分网络,可以实现针对低清图像的不同区域的不同退化模式的高清图像重建。
本文中描述的各个方法实施例可以为独立的方案,也可以根据内在逻辑进行组合,这些方案都落入本申请的保护范围中。
上述实施例对本申请提供的图像超分网络的训练方法进行了介绍。可以理解的是,训练装置为了实现上述功能,其包含了执行每一个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对训练装置进行功能模块的划分,例如,可以对应每一个功能划分每一个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
以上,结合图1至图5详细说明了本申请实施例提供的方法。以下,结合图6和图7详细说明本申请实施例提供的装置。应理解,装置实施例的描述与方法实施例的描述相互对应,因此,未详细描述的内容可以参见上文方法实施例,为了简洁,这里不再赘述。
图6为本申请实施例提供的一种图像超分网络的训练装置的结构示意图,如图6所示,该装置1000包括第一获取模块1001、第二获取模块1002和训练模块1003。
其中,第一获取模块1001,用于获取第一训练数据,所述第一训练数据包括成对的第一低清图像和高清图像。第二获取模块1002,用于利用训练好的变分自编码网络,获取第一低清图像对应的编码信息,所述编码信息包括所述第一低清图像中不同区域对应的编码。训练模块1003,用于以所述第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以所述编码信息作为先验信息,训练所述图像超分网络;其中,所述以所述编码信息作为先验信息,用于引导所述图像超分网络对所述第一低清图像的不同区域采用不同的超分算法。
图7为本申请实施例提供的又一种图像超分网络的训练装置的结构示意图,如图7所示,该装置1000包括收发器1004和处理器1005。该装置1000可以执行上述方法实施例的操作。
例如,在本申请一种可选的实施例中,收发器1004用于获取第一训练数据,所述第一训练数据包括成对的第一低清图像和高清图像,以及,利用训练好的变分自编码网络,获取第一低清图像对应的编码信息,所述编码信息包括所述第一低清图像中不同区域对应的编码。处理器1005用于以所述第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以所述编码信息作为先验信息,训练所述图像超分网络;其中,所述以所述编码信息作为先验信息,用于引导所述图像超分网络对所述第一低清图像的不同区域采用不同的超分算法。
一种可能的实现方式中,处理器1005用于利用第一卷积层,对所述第一低清图像进行特征提取,得到第一特征;以所述编码信息作为先验信息,利用残差网络对所述第一特征进行调制,得到第二特征;利用上采样模块,对所述第二特征进行上采样操作,得到第三特征;利用第二卷积层,对所述第三特征进行卷积计算,输出所述高清图像;当训练次数达到预设迭代次数,则训练结束,获得训练后的图像超分网络。
一种可能的实现方式中,处理器1005用于将所述编码信息映射为仿射变换参数;以所述第一特征作为所述残差网络的输入,利用所述仿射变换参数,对所述残差网络中的第一残差模块输出的第四特征进行空间特征变换,得到第五特征,以所述第五特征作为所述残差网络中的第二残差模块的输入;其中,所述第一残差模块为所述残差网络中的任意相邻两个残差模块中的前一个残差模块,所述第二残差模块为所述残差网络中的任意相邻两个残差模块中的后一个残差模块。
一种可能的实现方式中,处理器1005用于分别对所述编码信息进行两次卷积计算,得到第一仿射变换参数和第二仿射变换参数,其中,所述第一仿射变换参数用于对所述第四特征进行缩放变换,所述第二仿射变换参数用于对缩放变换后的所述第四特征进行平移变换。
一种可能的实现方式中,收发器1004用于获取第二训练数据,所述第二训练数据包括第二低清图像。处理器1005用于利用所述编码器对所述第二低清图像进行编码,得到所述第二低清图像对应的预测均值向量和预测方差向量;根据所述预测均值向量和预测方差向量,得到所述第二低清图像对应的正态分布;对所述正态分布进行采样,得到所述第二低清图像对应的采样向量;利用所述解码器对所述采样向量进行解码,得到预测低清图像;基于所述正态分布和标准正太分布,确定第一损失;基于所述第二低清图像和所述预测低清图像,确定第二损失;基于所述第一损失和所述第二损失,对所述自编码网络进行训练。
一种可能的实现方式中,处理器1005,用于将所述第一低清图像输入训练好的自编码网络,利用所述训练好的自编码网络得到所述第一低清图像对应的均值向量和方差向量;将所述第一低清图像对应的均值向量和方差向量作为所述编码信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
应注意,本申请实施例中的处理器可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
可以理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic RAM,DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rateSDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(directrambus RAM,DR RAM)。应注意,本文描述的系统和方法的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
根据本申请实施例提供的方法,本申请实施例还提供一种计算机程序产品,该计算机程序产品包括:计算机程序或指令,当该计算机程序或指令在计算机上运行时,使得该计算机执行方法实施例中任意一个实施例的方法。
根据本申请实施例提供的方法,本申请实施例还提供一种计算机存储介质,该计算机存储介质存储有计算机程序或指令,当该计算机程序或指令在计算机上运行时,使得该计算机执行方法实施例中任意一个实施例的方法。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各种说明性逻辑块(illustrative logical block)和步骤(step),能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
上述本申请实施例提供的装置、计算机存储介质、计算机程序产品均用于执行上文所提供的方法,因此,其所能达到的有益效果可参考上文所提供的方法对应的有益效果,在此不再赘述。
应理解,在本申请的各个实施例中,各步骤的执行顺序应以其功能和内在逻辑确定,各步骤序号的大小并不意味着执行顺序的先后,不对实施例的实施过程构成限定。
本说明书的各个部分均采用递进的方式进行描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点介绍的都是与其他实施例不同之处。尤其,对于装置、计算机存储介质、计算机程序产品的实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例中的说明即可。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
以上所述的本申请实施方式并不构成对本申请保护范围的限定。

Claims (10)

1.一种图像超分网络的训练方法,其特征在于,包括:
获取第一训练数据,所述第一训练数据包括成对的第一低清图像和高清图像;
利用训练好的自编码网络,获取第一低清图像对应的编码信息,所述编码信息包括所述第一低清图像中不同区域对应的编码;
以所述第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以所述编码信息作为先验信息,训练所述图像超分网络;
其中,以所述编码信息作为先验信息,用于引导所述图像超分网络对所述第一低清图像的不同区域采用不同的超分算法。
2.根据权利要求1所述的方法,其特征在于,所述以所述第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以所述编码信息作为所述图像超分网络的先验信息,训练所述图像超分网络,包括:
利用第一卷积层,对所述第一低清图像进行特征提取,得到第一特征;
以所述编码信息作为先验信息,利用残差网络对所述第一特征进行调制,得到第二特征;
利用上采样模块,对所述第二特征进行上采样操作,得到第三特征;
利用第二卷积层,对所述第三特征进行卷积计算,输出所述高清图像;
当训练次数达到预设迭代次数,则训练结束,获得训练后的图像超分网络。
3.根据权利要求2所述的方法,其特征在于,所述残差网络包括至少两个残差模块,所述以所述编码信息作为先验信息,利用残差网络对所述第一特征进行调制,包括:
将所述编码信息映射为仿射变换参数;
以所述第一特征作为所述残差网络的输入,利用所述仿射变换参数,对所述残差网络中的第一残差模块输出的第四特征进行空间特征变换,得到第五特征,以所述第五特征作为所述残差网络中的第二残差模块的输入;
其中,所述第一残差模块为所述残差网络中的任意相邻两个残差模块中的前一个残差模块,所述第二残差模块为所述残差网络中的任意相邻两个残差模块中的后一个残差模块。
4.根据权利要求3所述的方法,其特征在于,所述将所述编码信息映射为仿射变换参数,包括:
分别对所述编码信息进行两次卷积计算,得到第一仿射变换参数和第二仿射变换参数,其中,所述第一仿射变换参数用于对所述第四特征进行缩放变换,所述第二仿射变换参数用于对缩放变换后的所述第四特征进行平移变换。
5.根据权利要求4所述的方法,其特征在于,每个所述残差模块由多个卷积层组成;
其中,每个所述残差模块的输出,包括所述多个卷积层中最后一个卷积层的输出以及所述多个卷积层中第一个卷积层的输出,所述多个卷积层中最后一个卷积层的输入,包括所述多个卷积层中倒数第二个卷积层的输出以及所述多个卷积层中第一个卷积层的输出。
6.根据权利要求1所述的方法,其特征在于,所述自编码网络包括编码器和解码器,所述自编码网络的训练方法,包括:
获取第二训练数据,所述第二训练数据包括第二低清图像;
利用所述编码器对所述第二低清图像进行编码,得到所述第二低清图像对应的预测均值向量和预测方差向量;
根据所述预测均值向量和预测方差向量,得到所述第二低清图像对应的正态分布;
对所述正态分布进行采样,得到所述第二低清图像对应的采样向量;
利用所述解码器对所述采样向量进行解码,得到预测低清图像;
基于所述正态分布和标准正太分布,确定第一损失;
基于所述第二低清图像和所述预测低清图像,确定第二损失;
基于所述第一损失和所述第二损失,对所述自编码网络进行训练。
7.根据权利要求6所述的方法,其特征在于,所述第一低清图像与所述第二低清图像相同。
8.根据权利要求6所述的方法,其特征在于,所述利用训练好的自编码网络,获取与第一低清图像对应的编码信息,包括:
将所述第一低清图像输入训练好的自编码网络,利用所述训练好的自编码网络得到所述第一低清图像对应的均值向量和方差向量;
将所述第一低清图像对应的均值向量和方差向量作为所述编码信息。
9.一种图像超分网络的训练装置,其特征在于,包括:
第一获取模块,用于获取第一训练数据,所述第一训练数据包括成对的第一低清图像和高清图像;
第二获取模块,用于利用训练好的变分自编码网络,获取第一低清图像对应的编码信息,所述编码信息包括所述第一低清图像中不同区域对应的编码;
训练模块,用于以所述第一低清图像作为图像超分网络的输入,以高清图像作为图像超分网络的输出,以所述编码信息作为先验信息,训练所述图像超分网络;其中,所述以所述编码信息作为先验信息,用于引导所述图像超分网络对所述第一低清图像的不同区域采用不同的超分算法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有计算机程序或指令,当所述计算机程序或指令被执行时,如权利要求1-8中任一项所述的方法被执行。
CN202210665245.0A 2022-06-13 2022-06-13 一种图像超分网络的训练方法及装置 Active CN115115512B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210665245.0A CN115115512B (zh) 2022-06-13 2022-06-13 一种图像超分网络的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210665245.0A CN115115512B (zh) 2022-06-13 2022-06-13 一种图像超分网络的训练方法及装置

Publications (2)

Publication Number Publication Date
CN115115512A true CN115115512A (zh) 2022-09-27
CN115115512B CN115115512B (zh) 2023-10-03

Family

ID=83327460

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210665245.0A Active CN115115512B (zh) 2022-06-13 2022-06-13 一种图像超分网络的训练方法及装置

Country Status (1)

Country Link
CN (1) CN115115512B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116152054A (zh) * 2022-11-01 2023-05-23 海飞科(南京)信息技术有限公司 利用时间迭代方式来提高存储量和回忆精度的图像超分辨率方法
CN117593611A (zh) * 2024-01-19 2024-02-23 荣耀终端有限公司 模型训练方法、图像重建方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348743A (zh) * 2020-11-06 2021-02-09 天津大学 一种融合判别式网络和生成式网络的图像超分辨率方法
CN113222855A (zh) * 2021-05-28 2021-08-06 北京有竹居网络技术有限公司 一种图像恢复方法、装置和设备
CN113379601A (zh) * 2021-06-08 2021-09-10 中国科学技术大学 基于降质变分自编码器的真实世界图像超分辨方法及系统
CN113393377A (zh) * 2021-05-18 2021-09-14 电子科技大学 一种基于视频编码的单帧图像超分辨率方法
CN113850367A (zh) * 2021-08-31 2021-12-28 荣耀终端有限公司 网络模型的训练方法、图像处理方法及其相关设备
CN114004817A (zh) * 2021-11-03 2022-02-01 深圳大学 一种分割网络半监督训练方法、系统、设备及存储介质
CN114494006A (zh) * 2020-10-26 2022-05-13 中国移动通信有限公司研究院 图像重建模型的训练方法、装置、电子设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114494006A (zh) * 2020-10-26 2022-05-13 中国移动通信有限公司研究院 图像重建模型的训练方法、装置、电子设备及存储介质
CN112348743A (zh) * 2020-11-06 2021-02-09 天津大学 一种融合判别式网络和生成式网络的图像超分辨率方法
CN113393377A (zh) * 2021-05-18 2021-09-14 电子科技大学 一种基于视频编码的单帧图像超分辨率方法
CN113222855A (zh) * 2021-05-28 2021-08-06 北京有竹居网络技术有限公司 一种图像恢复方法、装置和设备
CN113379601A (zh) * 2021-06-08 2021-09-10 中国科学技术大学 基于降质变分自编码器的真实世界图像超分辨方法及系统
CN113850367A (zh) * 2021-08-31 2021-12-28 荣耀终端有限公司 网络模型的训练方法、图像处理方法及其相关设备
CN114004817A (zh) * 2021-11-03 2022-02-01 深圳大学 一种分割网络半监督训练方法、系统、设备及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116152054A (zh) * 2022-11-01 2023-05-23 海飞科(南京)信息技术有限公司 利用时间迭代方式来提高存储量和回忆精度的图像超分辨率方法
CN116152054B (zh) * 2022-11-01 2024-03-01 海飞科(南京)信息技术有限公司 利用时间迭代方式来提高存储量和回忆精度的图像超分辨率方法
CN117593611A (zh) * 2024-01-19 2024-02-23 荣耀终端有限公司 模型训练方法、图像重建方法、装置、设备及存储介质
CN117593611B (zh) * 2024-01-19 2024-05-17 荣耀终端有限公司 模型训练方法、图像重建方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN115115512B (zh) 2023-10-03

Similar Documents

Publication Publication Date Title
CN113014927B (zh) 图像压缩方法和图像压缩装置
US10599935B2 (en) Processing artificial neural network weights
CN115115512B (zh) 一种图像超分网络的训练方法及装置
CN112598579B (zh) 面向监控场景的图像超分辨率方法、装置及存储介质
CN111263161B (zh) 视频压缩处理方法、装置、存储介质和电子设备
CN113674172B (zh) 一种图像处理方法、系统、装置及存储介质
CN116681584A (zh) 一种多级扩散图像超分辨算法
KR20210017185A (ko) 심층 신경망을 기반으로 영상의 압축 포아송 잡음을 제거하는 방법 및 장치
CN116309148A (zh) 图像修复模型训练方法、图像修复方法、装置和电子设备
CN113298931A (zh) 一种物体模型的重建方法、装置、终端设备和存储介质
CN116309890A (zh) 模型生成方法、风格化图像生成方法、装置及电子设备
Zhao et al. Image super‐resolution via adaptive sparse representation and self‐learning
US10958906B2 (en) Encoding data arrays
CN104969258A (zh) 插值方法和对应设备
CN116486009A (zh) 单目三维人体重建方法、装置以及电子设备
CN116523733A (zh) 图像跨域迁移方法、计算机设备、可读存储介质和程序产品
CN110944212A (zh) 一种视频帧重构方法、装置及终端设备
CN113382244B (zh) 编解码网络结构、图像压缩方法、装置及存储介质
CN113411615B (zh) 一种面向虚拟现实的纬度自适应的全景图像编码方法
Cetinkaya et al. Image denoising using deep convolutional autoencoder with feature pyramids
Weiss et al. Deep learning-based upscaling for in situ volume visualization
CN111083500A (zh) 一种视频帧重构方法、装置及终端设备
CN114897732B (zh) 基于物理模型与特征稠密关联的图像去雾方法及装置
CN116310660B (zh) 一种增强样本的生成方法及装置
Sepehri (Geometry Aware) Deep Learning-based Omnidirectional Image Compression

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant