CN113362229B - 图像处理模型的训练方法、图像处理方法、装置及设备 - Google Patents
图像处理模型的训练方法、图像处理方法、装置及设备 Download PDFInfo
- Publication number
- CN113362229B CN113362229B CN202110765276.9A CN202110765276A CN113362229B CN 113362229 B CN113362229 B CN 113362229B CN 202110765276 A CN202110765276 A CN 202110765276A CN 113362229 B CN113362229 B CN 113362229B
- Authority
- CN
- China
- Prior art keywords
- image
- level
- image data
- sampling unit
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 116
- 238000012545 processing Methods 0.000 title claims abstract description 85
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000003672 processing method Methods 0.000 title claims abstract description 18
- 238000005070 sampling Methods 0.000 claims abstract description 195
- 238000010586 diagram Methods 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000013135 deep learning Methods 0.000 abstract description 9
- 238000004891 communication Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 101100134058 Caenorhabditis elegans nth-1 gene Proteins 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
Abstract
本公开提供了一种图像处理模型的训练方法,涉及深度学习领域,尤其涉及基于深度学习的超分辨率图像处理技术领域。具体实现方案为:将第一图像的图像数据输入N级升采样单元中的第1级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据;将第i级第二图像的图像数据输入N级降采样单元中的第N‑i级降采样单元,得到第N‑i级训练图像的图像数据;以及根据N级训练图像的图像数据和N级第二图像的图像数据,调整多个第一卷积层的卷积核参数和多个第二卷积层的卷积核参数。本公开还提供一种图像处理方法、一种图像处理模型的训练装置、一种图像处理装置、一种电子设备、一种非瞬时性计算机可读存储介质。
Description
技术领域
本公开涉及深度学习技术领域,尤其涉及基于深度学习的超分辨率图像处理技术领域。具体涉及一种图像处理模型的训练方法、图像处理方法、装置及设备。
背景技术
图像超分辨率处理以低分辨率的图像为输入,以有效的高质量的高分辨率图像为期望输出。图像超分辨率处理目前可以采用基于插值的实现方式、基于传统机器学习的实现方式、基于深度学习的实现方式。
发明内容
本公开提供了一种用于图像处理模型的训练方法、图像处理方法、装置及设备。
根据本公开的一方面,提供了一种图像处理模型的训练方法,上述方法包括:将第一图像的图像数据输入N级升采样单元中的第1级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据,i=2,......,N-1,其中N为大于1的整数,其中每级升采样单元包括多个第一卷积层;将上述第i级第二图像的图像数据输入N级降采样单元中的第N-i级降采样单元,得到第N-i级训练图像的图像数据,其中每级降采样单元包括多个第二卷积层;以及根据上述N级训练图像的图像数据和上述N级第二图像的图像数据,调整上述多个第一卷积层的卷积核参数和上述多个第二卷积层的卷积核参数。
根据本公开的另一方面,提供了一种图像处理方法,包括:获取待处理图像的图像数据;以及利用图像处理模型处理上述待处理图像的图像数据,得到超分辨图像的图像数据,其中,待处理图像的分辨率低于超分辨图像的分辨率;上述图像处理模型是利用本公开实施例提供的方法训练的。
根据本公开的另一方面,提供了一种图像处理模型的训练装置,上述装置包括:第一输入模块,用于将第一图像的图像数据输入N级升采样单元中的第1级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据,i=2,......,N-1,其中N为大于1的整数,其中每级升采样单元包括多个第一卷积层;第二输入模块,用于将上述第i级第二图像的图像数据输入上述N级降采样单元中的第N-i级降采样单元,得到第N-i级训练图像的图像数据,其中每级降采样单元包括多个第二卷积层;以及调整模块,用于根据上述N级训练图像的图像数据和上述N级第二图像的图像数据,调整上述多个第一卷积层的卷积核参数和上述多个第二卷积层的卷积核参数。
根据本公开的另一方面,提供了一种图像处理装置,包括:获取模块,用于获取待处理图像的图像数据;以及处理模块,用于利用图像处理模型处理上述待处理图像的图像数据,得到超分辨图像的图像数据,其中,待处理图像的分辨率低于超分辨图像的分辨率;其中,上述图像处理模型是利用本公开实施例提供的方法训练的。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与上述至少一个处理器通信连接的存储器;其中,上述存储器存储有可被上述至少一个处理器执行的指令,上述指令被上述至少一个处理器执行,以使上述至少一个处理器能够执行本公开实施例提供的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,上述计算机指令用于使上述计算机执行本公开实施例提供的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,上述计算机程序在被处理器执行时实现本公开实施例提供的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开一个实施例的可以应用图像处理模型的训练方法或图像处理方法的示例性系统架构示意图;
图2是根据本公开一个实施例的图像处理模型的训练方法的流程图;
图3是根据本公开一个实施例的图像处理模型的训练方法的流程图;
图4是根据本公开一个实施例的图像处理模型的训练方法的流程图;
图5A是根据本公开一个实施例的升采样单元的示意图;
图5B是本公开一个实施例的降采样单元的示意图;
图6是根据本公开一个实施例的图像处理方法的流程图;
图7是根据本公开一个实施例的图像处理模型的训练装置的框图;
图8是根据本公开一个实施例的图像处理装置的框图;
图9示出了可以用来实施本公开的实施例的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图像超分辨率处理目前可以采用基于插值的实现方式、基于传统机器学习的实现方式、基于深度学习的实现方式。一种基于插值的实现方式主要是指以低分辨率的图像为输入,使用非线性插值方式,如最近邻(Nearest Neighbor),双立方(bi-cubic)或bilinear(双线性)等,以低分辨率图像中的像素为基础,通过插值得到高分辨率图像中对应的像素值。但该实现方式往往会导致图像中不同物体间的边界产生平滑的效果,严重弱化了物体的边界,导致恢复出的图像效果很差
一种基于深度学习的实现方式包括利用额外的训练数据集,使用传统的机器学习方法,如马尔科夫随机场、稀疏编码等模型学习低分辨率图像与高分辨率图像之间的非线性映射关系,进而使用学习到的非线性映射关系将低分辨率图像恢复为高分辨的图像。然而,传统机器学习模型的非线性表达能力往往有限,由此获得的模型非线性表达能力也有限,并不能很好地将低分辨率图像恢复为高分辨率图像。
一种基于深度学习的实现方式是指利用额外的训练数据集,使用深度学习方法,学习低分辨率图像与高分辨率图像之间的非线性映射关系,进而使用学习到的非线性映射关系将低分辨率图像恢复为高分辨的图像。但是,该实现方式中的网络模型和方法并不能充分的描述低分辨率深度图像与高分辨率图像之间的映射模型。
图1是根据本公开一个实施例的可以应用图像处理模型的训练方法或图像处理方法的示例性系统架构示意图。
如图1所示,该系统架构100可以包括多个终端设备101、网络102和服务器103。网络102用以在各个计算设备101之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线和/或无线通信链路等等。
本公开实施例所提供的图像处理模型的训练方法或图像处理方法中的至少之一一般可以由服务器103执行。相应地,本公开实施例所提供的图像处理模型的训练装置或图像处理装置中的至少之一一般可以设置于服务器103中。本公开实施例所提供的图像处理模型的训练方法或图像处理方法也可以由不同于服务器103且能够与多个终端设备101和/或服务器103通信的服务器或服务器集群执行。相应地,本公开实施例所提供的图像处理模型的训练装置或图像处理装置也可以设置于不同于服务器103且能够与多个终端设备101和/或服务器103通信的服务器或服务器集群中。
在本公开实施例中,图像处理模型可以以低分辨率图像为输入,以高分辨率图像(也称为超分辨率图像)为输出。训练目标是得到分辨率高且图像质量高的图像。在训练过程中,图像处理模型不断更新和优化,可以依据用户实际需求设置训练停止条件,从而在满足训练停止条件的情况下,得到满足用户要求的图像处理模型。
图2是根据本公开一个实施例的图像处理模型的训练方法的流程图。
如图2所示,该图像处理模型的训练方法可以包括操作S210~操作S230。在一个示例中,上述图像处理模型可以包括N级升采样单元和N级降采样单元,每级升采样单元包括多个第一卷积层,每级降采样单元包括多个第二卷积层,N为大于1的整数。本领域技术人员可以理解,本公开所述的“升采样单元”和“降采样单元”仅表示利用多个卷积层实现对例如图像的数据进行升采样或降采样的功能模块,可以以例如软件模块、例程等任意形式实现。
在操作S210,将第一图像的图像数据输入上述N级升采样单元中的第1级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据,i=2,......,N-1。
根据本公开实施例,第i+1级升采样单元输出的第i+1级第二图像的分辨率为第i级升采样单元输出的第i级第二图像分辨率的m倍,m≥2。
例如,第一图像的分辨率为16×16,第1级升采样单元输出的第1级第二图像的分辨率可以为32×32,也可以为64×64。第1级第二图像的分辨率可以为32×32时,第2级第二图像的分辨率为64×64,......,第i级第二图像的分辨率(16×2i)×(16×2i),第i+1级第二图像的分辨率(16×2i+1)×(16×2i+1),......,第N级第二图像的分辨率为(16×2N)×(16×2N)。
本领域技术人员可以理解,上述图像分辨率的倍率仅为示例。第i级第二图像的分辨率也可以为(16×2×i)×(16×2×i),本公开不对此进行限制。
在操作S220,将上述第i级第二图像的图像数据输入上述N级降采样单元中的第N-i级降采样单元,得到第N-i级训练图像的图像数据。
根据本公开实施例,第N-i级降采样单元输出的第N-i级训练图像的分辨率是第N-i+1级降采样单元输出的第N-i+1级训练图像的分辨率的m’倍,m’≥2。
例如,第N级第二图像的分辨率为(16×2N)×(16×2N),第N-1级训练图像的分辨率为(16×2N-1)×(16×2N-1),......,第N-i+1级训练图像的分辨率(16×2i-1)×(16×2i-1),第N-i级训练图像的分辨率(16×2i)×(16×2i),......,第N-1级训练图像的分辨率为32×32,第N级训练图像的分辨率为16×16。
例如,m’可以与m相同,也可以不同。
在操作S230,根据上述N级训练图像的图像数据和上述N级第二图像的图像数据,调整上述多个第一卷积层的卷积核参数和上述多个第二卷积层的卷积核参数。
根据本公开实施例,可以根据上述N级训练图像中任意一级或多级图像数据,与上述N级第二图像中任意一级或多级的图像数据,调整上述多个第一卷积层的卷积核参数和上述多个第二卷积层的卷积核参数。
例如,在升采样操作中,仅需要针对第1级第二图像提供监督图像数据,在降采样操作中,仅需要针对最高分辩率的超分辩图像提供监督图像数据。可以根据第i级第二图像的图像数据与第N-i级训练图像的图像数据,调整上述多个第一卷积层的卷积核参数和上述多个第二卷积层的卷积核参数。例如,可以根据第i级第二图像的图像数据与第N-i级训练图像的图像数据、第i-1级第二图像的图像数据与第N-i+1级训练图像的图像数据两组数据调整上述多个第一卷积层的卷积核参数和上述多个第二卷积层的卷积核参数。例如,可以根据全部的N级训练图像的图像数据与全部的N级第二图像的图像数据执行调参。
通过本公开实施例,可以只需要低分辨率的第一图像为训练集,有效缓解了对于高分辨率真值数据的需求。
图3是根据本公开一个实施例的图像处理模型的训练方法的流程图。
如图3所示,该图像处理模型的训练方法300可以将第一图像的图像数据输入上述N级升采样单元中的第1级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据。下面将参考下述操作S311~操作S314进行详细说明。
在操作S311,将第一图像的图像数据输入上述N级升采样单元中的第1级升采样单元,得到第1级升采样单元输出的第1级第二图像的图像数据。
根据本公开实施例,第一图像例如可以是根据高分辨率图像经非线性方式降分辨率后构建的。
例如,高分辨率图像的分辨率是128×128,第一图像是该高分辨率图像经过三次降分辨率后得到的,该第一图像的分辨率为16×16。
例如,第一图像的分辨率是16×16,输入第1级升采样单元后,得到的第1级第二图像的分辨率可以为32×32。
在操作S312,计算上述第1级第二图像的图像数据与针对上述第1级第二图像的监督图像数据之间的第一相似度。
根据本公开实施例,第1级第二图像的监督图像是根据高分辨率图像经非线性方式降分辨率后构建的。
例如,高分辨率图像的分辨率是128×128,第1级第二图像的监督图像是该高分辨率图像经过两次降分辨率后得到的,第1级第二图像的监督图像的分辨率为32×32。
在操作S313,调整上述多个第一卷积层的卷积核参数,直至上述第一相似度大于等于预设第一阈值。本领域技术人员可以理解,可以使用各种方法来计算上述第1级第二图像的图像数据与针对上述第1级第二图像的监督图像数据之间的第一相似度,例如利用MSE(均方误差)或PSNR(峰值信噪比)等计算图像之间的相似度。本公开不局限于此。
根据本公开实施例,可以以彼此相同方式调整每级升采样单元中的多个第一卷积层的卷积核参数,由此能够简化调参操作。
例如,调整前,升采样单元中的第一卷积层的卷积核参数均为K,调整后,第一卷积层的卷积核参数均为K1。该操作可以认为是对第一卷积层的卷积核参数进行初始化。
在操作S314,将第i级第二图像的图像数据输入上述N级升采样单元中的第i+1级升采样单元,得到第i+1级升采样单元输出的第i+1级第二图像的图像数据。
根据本公开实施例,将N级升采样单元中上一级升采样单元生成的第二图像的图像数据,输入到上述N级升采样单元中的下一级升采样单元,直至得到第N级第二图像。
例如,N=3时,第一图像的分辨率为16×16,第1级第二图像的分辨率为32×32,第2级第二图像的分辨率为64×64,第3级第二图像的分辨率为128×128。
该图像处理模型的训练方法300可以将上述第i级第二图像的图像数据输入上述N级降采样单元中的第N-i级降采样单元,得到第N-i级训练图像的图像数据。下面将参考下述操作S321~操作S325进行详细说明。
在操作S321,计算第N级第二图像的图像数据与针对上述第N级第二图像的监督图像数据之间的第二相似度。
根据本公开实施例,第N级第二图像是基于一个第一图像经多个升采样单元处理得到的,该第一图像是由一个高分辨率图像经多次降分辨率构建的。生成该第一图像的高分辨率图像可以作为相应的第N级第二图像的监督图像。
例如,高分辨率图像的分辨率是128×128,基于该高分辨率图像经非线性多次降分辨率后得到第一图像,该第一图像的分辨率为16×16。该第一图像经3个升采样单元处理后,转变为第3级第二图像,该第3级第二图像的分辨率为128×128。
在操作S322,调整上述多个第一卷积层的卷积核参数和上述多个第二卷积层的卷积核参数,直至上述第二相似度大于等于预设第二阈值。
根据本公开实施例,可以以彼此相同方式调整每级升采样单元中的多个第一卷积层的卷积核参数。
例如,针对第二相似度进行调整前,第一卷积层的卷积核参数均为K1,K1为3×3的卷积核,针对第二相似度进行至少一次调整后,第一卷积层的卷积核参数均为K2,K2为3×3的卷积核。在本示例中,K1与K2可以矩阵大小相同,均为3×3的矩阵,但矩阵元素可以不同。本领域技术人员可以理解,在一个示例中,K1与K2矩阵大小也可以不同,例如K2为5×5的矩阵。本公开不对此进行限制。
根据本公开实施例,可以以彼此相同方式调整每级降采样单元中的多个第二卷积层的卷积核参数。
例如,针对第二相似度进行调整前,第二卷积层的卷积核参数均为Q,Q为3×3的卷积核。针对第二相似度进行至少一次调整后,第二卷积层的卷积核参数均为Q1。如上所述,Q与Q1可以矩阵大小相同,但矩阵元素可以不同。本领域技术人员可以理解,在一个示例中,Q与Q1矩阵大小也可以不同,例如Q1为5×5的卷积核。本公开不对此进行限制。Q和K可以相同,也可以不同。
例如,在另一示例中,针对第二相似度进行调整前,第一卷积层的卷积核参数均为K1,第二卷积层的卷积核参数均为Q。针对第二相似度进行至少一次调整后,第一卷积层的卷积核参数均为K2,第二卷积层的卷积核参数也均为K2。即,第二卷积层的卷积核参数可以与第一卷积层的卷积核参数相同或不同。
在操作S323,将第i级第二图像的图像数据输入上述N级降采样单元中的第N-i级降采样单元,得到第N-i级降采样单元输出的第N-i级训练图像的图像数据。
例如,N=3时,第一图像的分辨率为16×16,第1级第二图像的分辨率为32×32,第2级第二图像的分辨率为64×64,第3级第二图像的分辨率为128×128。第3级第二图像输入第1级降采样单元中,转变为第1级训练图像;第2级第二图像输入第2级降采样单元中,转变为第2级训练图像,第1级第二图像输入第3级降采样单元中,转变为第3级训练图像。第1级训练图像的分辨率为64×64,第2级训练图像的分辨率为32×32,第3级训练图像的分辨率为16×16。
在操作S324,计算上述第N-i级训练图像的图像数据与上述第i级第二图像的图像数据之间的第三相似度。
例如,N=3时,计算第1级训练图像与第2级第二图像的第三相似度,计算第2级训练图像与第1级第二图像的第三相似度。
在操作S325,调整上述多个第一卷积层的卷积核参数和上述多个第二卷积层的卷积核参数,直至上述第三相似度大于等于预设第三阈值。
根据本公开实施例,可以以彼此相同方式调整每级升采样单元中的多个第一卷积层的卷积核参数。
例如,针对第三相似度调整第一卷积层的卷积核参数前,第一卷积层的卷积核参数均为K2,针对第三相似度调整第一卷积层的卷积核参数后,第一卷积层的卷积核参数均为K3。
根据本公开实施例,可以以彼此相同方式调整每级降采样单元中的多个第二卷积层的卷积核参数。
例如,针对第三相似度调整第二卷积层的卷积核参数前,第二卷积层的卷积核参数均为Q1,针对第三相似度调整第二卷积层的卷积核参数后,第二卷积层的卷积核参数均为Q2。
例如,针对第三相似度调整第二卷积层的卷积核参数前,第一卷积层的卷积核参数均为K2,第二卷积层的卷积核参数均为K2,针对第三相似度调整第二卷积层的卷积核参数后,第一卷积层的卷积核参数均为K4,第二卷积层的卷积核参数均为K4。
通过本公开实施例,以高分辨率图像和基于高分辨率图像得到的低分辨率图像作为训练数据,进一步缓解对于高分辨率真值数据的需求,同时提高训练出的图像处理模型生成的高分辨图像的质量。
图4是根据本公开一个实施例的图像处理模型的训练方法的示意流程图。
如图4所示,该图像处理模型可以包括多级升采样单元和多级降采样单元。
第1级升采样单元411以第一图像为输入,以第1级第二图像为输出。第一图像的分辨率为R,而第1级第二图像的分辨率为2R。第一相似度计算单元417以第1级第二图像和第1监督信号为输入,以第一相似度为输出。可以根据第一相似度调整多级升采样单元的第一卷积层的卷积参数,至第一相似度大于等于预设的第一阈值。
第2级升采样单元412以第1级第二图像为输入,以第2级第二图像为输出。第2级第二图像的分辨率为4R。第i级升采样单元413以第i-1级第二图像为输入,以第i级第二图像为输出。第i级第二图像的分辨率为2iR。第i+1级升采样单元414以第i级第二图像为输入,以第i+1级第二图像为输出。第i+1级第二图像的分辨率为2(i+1)R。第N-1级升采样单元415以第N-2级第二图像为输入,以第N-1级第二图像为输出。第N-1级第二图像的分辨率为2(N-1)R。第N级升采样单元416以第N-1级第二图像为输入,以第N级第二图像为输出。第N级第二图像的分辨率为2NR。
第二相似度计算单元418以第N级第二图像和第2监督信号为输入,以第二相似度为输出。可以根据第二相似度调整多级升采样单元的第一卷积层的卷积参数和多级降采样单元的第二卷积层的卷积参数,至第二相似度大于等于预设的第二阈值。第2监督信号是高分辨率图像,在一次训练的过程中,第一图像是第2监督信号N次降分辨率后得到的,第1监督信号是第2监督信号N-1次降分辨率后得到的。
第1级降采样单元421以第N级第二图像为输入,以第1级训练图像为输出。第1级训练图像的分辨率为2(N-1)R。第三相似度计算单元427以第1级训练图像和第N-1级第二图像为输入,以一个第三相似度为输出。可以根据第三相似度调整多级升采样单元的第一卷积层的卷积参数和多级降采样单元的第二卷积层的卷积参数,至第三相似度大于等于预设的第三阈值。第2级降采样单元422以第N-1级第二图像为输入,以第2级训练图像为输出。第2级训练图像的分辨率为2(N-2)R。第三相似度计算单元427以第2级训练图像和第N-2级第二图像为输入,以一个第三相似度为输出。可以再根据此时得到的第三相似度再次调整多级升采样单元的第一卷积层的卷积参数和多级降采样单元的第二卷积层的卷积参数,至第三相似度大于等于预设的第三阈值。
本领域技术人员可以理解,可以根据实际情况设置第一阈值、第二阈值和第三阈值,例如0.90。此外,第一阈值、第二阈值和第三阈值可以彼此相同或不同,本公开不对此进行限制。
第N-i级降采样单元423以第i+1级第二图像为输入,以第N-i级训练图像为输出。第N-i级训练图像的分辨率为2iR。第三相似度计算单元427以第N-i级训练图像和第i级第二图像为输入,以一个第三相似度为输出。可以根据该第三相似度调整多级升采样单元的第一卷积层的卷积参数和多级降采样单元的第二卷积层的卷积参数,至第三相似度大于等于预设的第三阈值。第N-i+1级降采样单元424以第i级第二图像为输入,以第N-i+1级训练图像为输出。第1级训练图像的分辨率为2(i-1)R。第三相似度计算单元427以第N-i+1级训练图像和第i-1级第二图像为输入,以一个第三相似度为输出。可以根据第三相似度调整多级升采样单元的第一卷积层的卷积参数和多级降采样单元的第二卷积层的卷积参数,至第三相似度大于等于预设的第三阈值。
第N-1级降采样单元425以第2级第二图像为输入,以第N-1级训练图像为输出。第N-1级训练图像的分辨率为2R。第三相似度计算单元427以第N-1级训练图像和第1级第二图像为输入,以一个第三相似度为输出。可以根据该第三相似度调整多级升采样单元的第一卷积层的卷积参数和多级降采样单元的第二卷积层的卷积参数,至第三相似度大于等于预设的第三阈值。第N级降采样单元426以第1级第二图像为输入,以第N级训练图像为输出。第N级训练图像的分辨率为R。第三相似度计算单元427以第N级训练图像和第一图像为输入,以一个第三相似度为输出。可以根据第三相似度调整多级升采样单元的第一卷积层的卷积参数和多级降采样单元的第二卷积层的卷积参数,至第三相似度大于等于预设的第三阈值。
应该理解,生成第1级训练图像至生成第N-1级训练图像的过程中,每级训练图像生成后,均进行一次第三相似度计算,并根据第三相似度调整多级升采样单元的第一卷积层的卷积参数和多级降采样单元的第二卷积层的卷积参数,至第三相似度大于等于预设的第三阈值。
图5A是根据本公开一个实施例的升采样单元的框图。
如图5A所示,该升采样单元510包括多个第一卷积层和第一重建层。该升采样单元510是多个升采样单元中的一个,可以作为第i级升采样单元用来生成第i级第二图像。
根据本公开实施例,第i级升采样单元的上述多个第一卷积层以第i-1级升采样单元输出的第i-1级第二图像的图像数据为输入,得到具有相同尺寸的多个第一特征图。
例如,第一图像是一幅RGB图像,第i-1级第二图像也是一幅RGB图像,第i-1级第二图像的图像数据是一个彩色像素数组。在一个示例中,第i-1级第二图像的图像数据为一个128×128×3的彩色像素数组,多个第一卷积层对该128×128×3的彩色像素数组进行卷积操作后,得到3个128×128的第一特征图。在本示例中,为了便于描述,第一特征图的尺寸可以与第一图像(即,低分辨率图像)的尺寸相同。
根据本公开实施例,对上述多个第一特征图执行像素级加法,得到多尺度特征图。
例如,第一特征图可以以矩阵进行表示。在一个示例中,3个128×128的第一特征图对应的3个128×128的矩阵,对3个128×128的矩阵进行加法运算,得到的矩阵即多尺度特征图。在一个示例中,对3个128×128的矩阵进行加法运算前,可以将3个矩阵分别归一化。
根据本公开实施例,上述第一图像重建层以上述多尺度特征图为输入,输出上述第i级第二图像的图像数据。
例如,第一图像重建层对多尺度特征图进行反卷积,输出第i级第二图像的图像数据。例如,第一重建层对多尺度特征图进行至少一次反卷积,得到256×256×3的彩色像素数组为第i级第二图像的图像数据。本领域技术人员可以理解,可以使用各种图像重建方法利用特征图进行图像重建,本公开不对此进行限制。
图5B是本公开一个实施例的降采样单元的示意图。
如图5B所示,该降采样单元520包括多个第二卷积层521和第二重建层522。该降采样单元520是多个降采样单元中的一个,可以作为第N-i级降采样单元用来生成第N-i级训练图像。
根据本公开实施例,该降采样单元520的多个第二卷积层521以第i+1级第二图像的图像数据为输入,输出第二特征图。
例如,第一图像是一幅RGB图像,第i+1级第二图像也是一幅RGB图像。在一个示例中,第i+1级第二图像的图像数据为一个512×512×3的彩色像素数组,多个第二卷积层对该512×512×3的彩色像素数组进行卷积操作后,得到512×512×3的第二特征图。在本示例中,为了便于描述,第二特征图的尺寸可以与第i+1级第二图像(即,较高分辨率的图像)的尺寸相同。
根据本公开实施例,将第二特征图输入到上述第二图像重建层,得到上述第N-i级训练图像的图像数据。
例如,第二图像重建层对第二特征图进行反卷积,输出第i级训练图像的图像数据。在一个示例中,第二重建层可以对第二特征图进行至少一次反卷积,得到256×256×3的彩色像素数组为第N-i级训练图像的图像数据。
图6是根据本公开一个实施例的图像处理方法的流程图。
如图6所示,该图像处理方法600可以包括操作S610~操作S620。
在操作S610中,获取待处理图像的图像数据。
例如,待处理图像为RGB图像,该待处理图像的分辨率为64×64,其图像数据可以是64×64×3的彩色像素数组。
在操作S620中,利用图像处理模型处理上述待处理图像的图像数据,得到超分辨图像的图像数据,其中,待处理图像的分辨率低于超分辨图像的分辨率。
根据本公开实施例,上述图像处理模型是根据本公开实施例提供的方法训练的。上述图像处理模型可以包括N级升采样单元和N级降采样单元,每级升采样单元包括多个第一卷积层,每级降采样单元包括多个第二卷积层,N为大于1的整数。
例如,待处理图像经过第i级升采样单元的处理后,得到第i级预处理图像;第i+1级预处理图像经过第N-i级降采样单元的处理后,得到第i级参考图像,计算第i级参考图像与第i级预处理图像的相似度,调整多个第一卷积层和多个第二卷积层的参数值相似度达到预设阈值后,输入下一级降采样单元。重复上述过程,至N级降采样单元输出的每级参考图像与N级升采样单元输出的每级预处理图像的相似度均满足预设阈值。以此时的第N级预处理图像为超分辨图像。
图7是根据本公开一个实施例的图像处理模型的训练装置的框图。
如图7所示,该图像处理模型的训练装置700包括第一输入模块710、第二输入模块720、调整模块730。
第一输入模块710,用于将第一图像的图像数据输入N级升采样单元中的第1级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据,i=2,......,N-1。
第二输入模块720,用于将上述第i级第二图像的图像数据输入N级降采样单元中的第N-i级降采样单元,得到第N-i级训练图像的图像数据。
调整模块730,用于根据上述N级训练图像的图像数据和上述N级第二图像的图像数据,调整上述多个第一卷积层的卷积核参数和上述多个第二卷积层的卷积核参数。
作为本公开一可选实施例,上述第一输入模块包括:第一输入子模块,用于将第一图像的图像数据输入上述N级升采样单元中的第1级升采样单元,得到第1级升采样单元输出的第1级第二图像的图像数据;第一相似度计算子模块,用于计算上述第1级第二图像的图像数据与针对上述第1级第二图像的监督图像数据之间的第一相似度;第一调整子模块,用于调整上述多个第一卷积层的卷积核参数,直至上述第一相似度大于等于预设第一阈值。
作为本公开一可选实施例,上述第一输入模块还包括:第二输入子模块,用于将第i-1级第二图像的图像数据输入上述N级升采样单元中的第i级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据。
作为本公开一可选实施例,上述第二输入模块包括:第二相似度计算子模块,用于计算第N级第二图像的图像数据与针对上述第N级第二图像的监督图像数据之间的第二相似度;以及第二调整子模块,用于调整上述多个第一卷积层的卷积核参数和上述多个第二卷积层的卷积核参数,直至上述第二相似度大于等于预设第二阈值。
作为本公开一可选实施例,上述第二输入模块还包括:第三输入子模块,用于将第i+1级第二图像的图像数据输入上述N级降采样单元中的第N-i级降采样单元,得到第N-i级降采样单元输出的第N-i级训练图像的图像数据;第三相似度计算子模块,用于计算上述第N-i级训练图像的图像数据与上述第i级第二图像的图像数据之间的第三相似度;第三调整子模块,用于调整上述多个第一卷积层的卷积核参数和上述多个第二卷积层的卷积核参数,直至上述第三相似度大于等于预设第三阈值。
作为本公开一可选实施例,上述调整模块包括:第一卷积层调整模块,用于以彼此相同方式调整每级升采样单元中的上述多个第一卷积层的卷积核参数;以及第二卷积层调整模块,用于以彼此相同方式调整每级降采样单元中的上述多个第二卷积层的卷积核参数。
作为本公开一可选实施例,每级升采样单元还包括第一图像重建层;上述第一输入模块还包括:第四输入子模块,用于将第i-1级升采样单元输出的第i-1级第二图像的图像数据输入到上述多个第一卷积层,得到具有相同尺寸的多个第一特征图;加法运算模块,用于对上述多个第一特征图执行像素级加法,得到多尺度特征图;以及第一重建模块,用于将上述多尺度特征图输入到上述第一图像重建层,得到上述第i级第二图像的图像数据。
作为本公开一可选实施例,每级降采样单元还包括第二图像重建层;上述第二输入模块包括:第五输入子模块,用于将第i+1级第二图像的图像数据输入到上述第N-i级降采样单元的多个第二卷积层,得到第二特征图;以及第二重建模块,用于将第二特征图输入到上述第二图像重建层,得到上述第N-i级训练图像的图像数据。
图8是根据本公开一个实施例的图像处理装置的框图。
如图8所示,该图像处理装置800包括获取模块810、处理模块820。
获取模块810,用于获取待处理图像的图像数据。
处理模块820,用于利用图像处理模型处理上述待处理图像的图像数据,得到超分辨图像的图像数据,其中,待处理图像的分辨率低于超分辨图像的分辨率;其中,上述图像处理模型是利用本公开实施例提供的方法训练的。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如图像处理模型的训练方法或图像处理方法。例如,在一些实施例中,图像处理模型的训练方法或图像处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的图像处理模型的训练方法或图像处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行图像处理模型的训练方法或图像处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (20)
1.一种图像处理模型的训练方法,包括:
将第一图像的图像数据输入N级升采样单元中的第1级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据,i=2,......,N-1,其中N为大于1的整数,其中每级升采样单元包括多个第一卷积层;
将第i+1级第二图像的图像数据输入N级降采样单元中的第N-i级降采样单元,得到第N-i级训练图像的图像数据,其中每级降采样单元包括多个第二卷积层;以及
根据N级训练图像的图像数据和所述N级第二图像的图像数据,调整所述多个第一卷积层的卷积核参数和所述多个第二卷积层的卷积核参数。
2.根据权利要求1所述的方法,其中,所述将第一图像的图像数据输入所述N级升采样单元中的第1级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据包括:
将第一图像的图像数据输入所述N级升采样单元中的第1级升采样单元,得到第1级升采样单元输出的第1级第二图像的图像数据;
计算所述第1级第二图像的图像数据与针对所述第1级第二图像的监督图像数据之间的第一相似度;
调整所述多个第一卷积层的卷积核参数,直至所述第一相似度大于等于预设第一阈值。
3.根据权利要求1或2所述的方法,其中,所述将第一图像的图像数据输入所述N级升采样单元中的第1级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据还包括:
将第i级第二图像的图像数据输入所述N级升采样单元中的第i+1级升采样单元,得到第i+1级升采样单元输出的第i+1级第二图像的图像数据。
4.根据权利要求1所述的方法,其中,所述将第i+1级第二图像的图像数据输入所述N级降采样单元中的第N-i级降采样单元,得到第N-i级训练图像的图像数据包括:
计算第N级第二图像的图像数据与针对所述第N级第二图像的监督图像数据之间的第二相似度;以及
调整所述多个第一卷积层的卷积核参数和所述多个第二卷积层的卷积核参数,直至所述第二相似度大于等于预设第二阈值。
5.根据权利要求1或4所述的方法,其中,所述将第i+1级第二图像的图像数据输入所述N级降采样单元中的第N-i级降采样单元,得到第N-i级训练图像的图像数据还包括:
将第i+1级第二图像的图像数据输入所述N级降采样单元中的第N-i级降采样单元,得到第N-i级降采样单元输出的第N-i级训练图像的图像数据;
计算所述第N-i级训练图像的图像数据与所述第i级第二图像的图像数据之间的第三相似度;
调整所述多个第一卷积层的卷积核参数和所述多个第二卷积层的卷积核参数,直至所述第三相似度大于等于预设第三阈值。
6.根据权利要求1所述的方法,其中,所述根据N级训练图像的图像数据和所述N级第二图像的图像数据,调整所述多个第一卷积层的卷积核参数和所述多个第二卷积层的卷积核参数包括:
以彼此相同方式调整每级升采样单元中的多个第一卷积层的卷积核参数;以及
以彼此相同方式调整每级降采样单元中的多个第二卷积层的卷积核参数。
7.根据权利要求1所述的方法,其中,每级升采样单元还包括第一图像重建层;所述将第一图像的图像数据输入所述N级升采样单元中的第1级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据包括:
将第i-1级升采样单元输出的第i-1级第二图像的图像数据输入到所述多个第一卷积层,得到具有相同尺寸的多个第一特征图;
对所述多个第一特征图执行像素级加法,得到多尺度特征图;以及
将所述多尺度特征图输入到所述第一图像重建层,得到所述第i级第二图像的图像数据。
8.根据权利要求1所述的方法,其中,每级降采样单元还包括第二图像重建层;所述将第i+1级第二图像的图像数据输入所述N级降采样单元中的第N-i级降采样单元,得到第N-i级训练图像的图像数据包括:
将第i+1级第二图像的图像数据输入到所述第N-i级降采样单元的多个第二卷积层,得到第二特征图;以及
将第二特征图输入到所述第二图像重建层,得到所述第N-i级训练图像的图像数据。
9.一种图像处理方法,包括:
获取待处理图像的图像数据;以及
利用图像处理模型处理所述待处理图像的图像数据,得到超分辨图像的图像数据,其中,待处理图像的分辨率低于超分辨图像的分辨率;
其中,所述图像处理模型是利用权利要求1至8之一所述的方法训练的。
10.一种图像处理模块的训练装置,包括:
第一输入模块,用于将第一图像的图像数据输入N级升采样单元中的第1级升采样单元,得到第i级升采样单元输出的第i级第二图像的图像数据,i=2,......,N-1,N为大于1的整数,其中,每级升采样单元包括多个第一卷积层;
第二输入模块,用于将所述第i级第二图像的图像数据输入N级降采样单元中的第N-i级降采样单元,得到第N-i级训练图像的图像数据,每级降采样单元包括多个第二卷积层;
调整模块,用于根据N级训练图像的图像数据和所述N级第二图像的图像数据,调整多个第一卷积层的卷积核参数和多个第二卷积层的卷积核参数。
11.根据权利要求10所述的装置,其中,所述第一输入模块包括:
第一输入子模块,用于将第一图像的图像数据输入所述N级升采样单元中的第1级升采样单元,得到第1级升采样单元输出的第1级第二图像的图像数据;
第一相似度计算子模块,用于计算所述第1级第二图像的图像数据与针对所述第1级第二图像的监督图像数据之间的第一相似度;
第一调整子模块,用于调整所述多个第一卷积层的卷积核参数,直至所述第一相似度大于等于预设第一阈值。
12.根据权利要求10或11所述的装置,所述第一输入模块还包括:第二输入子模块,用于将第i级第二图像的图像数据输入所述N级升采样单元中的第i+1级升采样单元,得到第i+1级升采样单元输出的第i+1级第二图像的图像数据。
13.根据权利要求10所述的装置,其中,所述第二输入模块包括:
第二相似度计算子模块,用于计算第N级第二图像的图像数据与针对所述第N级第二图像的监督图像数据之间的第二相似度;以及
第二调整子模块,用于调整所述多个第一卷积层的卷积核参数和所述多个第二卷积层的卷积核参数,直至所述第二相似度大于等于预设第二阈值。
14.根据权利要求10或13所述的装置,其中,所述第二输入模块还包括:第三输入子模块,用于将第i级第二图像的图像数据输入所述N级降采样单元中的第N-i级降采样单元,得到第N-i级降采样单元输出的第N-i级训练图像的图像数据;
第三相似度计算子模块,用于计算所述第N-i级训练图像的图像数据与所述第i级第二图像的图像数据之间的第三相似度;以及
第三调整子模块,用于调整所述多个第一卷积层的卷积核参数和所述多个第二卷积层的卷积核参数,直至所述第三相似度大于等于预设第三阈值。
15.根据权利要求10所述的装置,其中,所述调整模块包括:
第一卷积层调整模块,用于以彼此相同方式调整每级升采样单元中的所述多个第一卷积层的卷积核参数;以及
第二卷积层调整模块,用于以彼此相同方式调整每级降采样单元中的所述多个第二卷积层的卷积核参数。
16.根据权利要求10所述的装置,其中,每级升采样单元还包括第一图像重建层;所述第一输入模块还包括:
第四输入子模块,用于将第i-1级升采样单元输出的第i-1级第二图像的图像数据输入到所述多个第一卷积层,得到具有相同尺寸的多个第一特征图;
加法运算模块,用于对所述多个第一特征图执行像素级加法,得到多尺度特征图;以及
第一重建模块,用于将所述多尺度特征图输入到所述第一图像重建层,得到所述第i级第二图像的图像数据。
17.根据权利要求10所述的装置,其中,每级降采样单元还包括第二图像重建层;所述第二输入模块包括:
第五输入子模块,用于将第i+1级第二图像的图像数据输入到所述第N-i级降采样单元的多个第二卷积层,得到第二特征图;以及
第二重建模块,用于将第二特征图输入到所述第二图像重建层,得到所述第N-i级训练图像的图像数据。
18.一种图像处理装置,包括:
获取模块,用于获取待处理图像的图像数据;
处理模块,用于利用图像处理模型处理所述待处理图像的图像数据,得到超分辨图像的图像数据,
其中,待处理图像的分辨率低于超分辨图像的分辨率;
其中,所述图像处理模型是利用权利要求1至8之一所述的方法训练的。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110765276.9A CN113362229B (zh) | 2021-07-06 | 2021-07-06 | 图像处理模型的训练方法、图像处理方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110765276.9A CN113362229B (zh) | 2021-07-06 | 2021-07-06 | 图像处理模型的训练方法、图像处理方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113362229A CN113362229A (zh) | 2021-09-07 |
CN113362229B true CN113362229B (zh) | 2022-07-22 |
Family
ID=77538421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110765276.9A Active CN113362229B (zh) | 2021-07-06 | 2021-07-06 | 图像处理模型的训练方法、图像处理方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113362229B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115147280B (zh) * | 2022-07-15 | 2023-06-02 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、图像处理方法、装置和设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111507914A (zh) * | 2020-04-10 | 2020-08-07 | 北京百度网讯科技有限公司 | 人脸修复模型的训练方法、修复方法、装置、设备和介质 |
CN111553840A (zh) * | 2020-04-10 | 2020-08-18 | 北京百度网讯科技有限公司 | 图像超分辨的模型训练和处理方法、装置、设备和介质 |
-
2021
- 2021-07-06 CN CN202110765276.9A patent/CN113362229B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111507914A (zh) * | 2020-04-10 | 2020-08-07 | 北京百度网讯科技有限公司 | 人脸修复模型的训练方法、修复方法、装置、设备和介质 |
CN111553840A (zh) * | 2020-04-10 | 2020-08-18 | 北京百度网讯科技有限公司 | 图像超分辨的模型训练和处理方法、装置、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113362229A (zh) | 2021-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10552944B2 (en) | Image upscaling with controllable noise reduction using a neural network | |
US20210209731A1 (en) | Video processing method, apparatus, device and storage medium | |
US20220245764A1 (en) | Method for image super-resolution, device and storage medium | |
CN113362229B (zh) | 图像处理模型的训练方法、图像处理方法、装置及设备 | |
CN113393468A (zh) | 图像处理方法、模型训练方法、装置和电子设备 | |
CN113963176B (zh) | 一种模型蒸馏方法、装置、电子设备及存储介质 | |
CN113436292B (zh) | 图像处理方法、图像处理模型的训练方法、装置及设备 | |
WO2019092900A1 (ja) | 情報処理装置及び情報処理方法 | |
CN117746125A (zh) | 图像处理模型的训练方法、装置及电子设备 | |
CN114202648A (zh) | 文本图像矫正方法、训练方法、装置、电子设备以及介质 | |
EP3779863A1 (en) | Techniques for upscaling images generated with undetermined downscaling kernels | |
CN116129101A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
WO2021218414A1 (zh) | 视频增强方法及装置、电子设备、存储介质 | |
CN115760614A (zh) | 图像去噪方法、装置、电子设备及存储介质 | |
CN115578261A (zh) | 图像处理方法、深度学习模型的训练方法、装置 | |
CN116862762A (zh) | 一种视频超分方法、装置、设备及存储介质 | |
CN112784967B (zh) | 信息处理方法、装置以及电子设备 | |
CN110276399B (zh) | 图像转换网络训练方法、装置、计算机设备及存储介质 | |
CN113344213A (zh) | 知识蒸馏方法、装置、电子设备及计算机可读存储介质 | |
CN109388061B (zh) | 一种自适应调优的稀疏傅里叶变换方法和系统 | |
CN113438485B (zh) | 图像编码方法、装置、电子设备和存储介质 | |
CN116342434B (zh) | 一种图像处理方法、装置、设备及存储介质 | |
CN114359905B (zh) | 一种文本识别方法、装置、电子设备及存储介质 | |
US11930307B2 (en) | Image processing method and apparatus, electronic device and computer-readable storage medium | |
CN116957985A (zh) | 图像修复方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |