CN114529775A - 模型训练方法、装置、计算机设备和存储介质 - Google Patents

模型训练方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN114529775A
CN114529775A CN202011217570.8A CN202011217570A CN114529775A CN 114529775 A CN114529775 A CN 114529775A CN 202011217570 A CN202011217570 A CN 202011217570A CN 114529775 A CN114529775 A CN 114529775A
Authority
CN
China
Prior art keywords
image
training
sample
model
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011217570.8A
Other languages
English (en)
Inventor
黄海鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan TCL Group Industrial Research Institute Co Ltd
Original Assignee
Wuhan TCL Group Industrial Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan TCL Group Industrial Research Institute Co Ltd filed Critical Wuhan TCL Group Industrial Research Institute Co Ltd
Priority to CN202011217570.8A priority Critical patent/CN114529775A/zh
Publication of CN114529775A publication Critical patent/CN114529775A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了一种模型训练方法、装置、计算机设备和存储介质,属于图像处理技术领域。该方法包括:获取多个图像对,该多个图像对中每个图像对包括噪声图像和对应的去噪图像;对该多个图像对中每个图像对中的噪声图像进行下采样,得到所述噪声图像对应的样本图像;将该多个图像对中每个图像对中的噪声图像对应的样本图像和去噪图像确定为一个训练样本,得到多个训练样本;以该多个训练样本中的样本图像为输入图像,以该多个训练样本中的去噪图像为样本标记,对神经网络模型进行训练,得到去噪模型。本申请训练得到的去噪模型的输入图像的分辨率也较小,因而该去噪模型在使用时,在取得较好的去噪效果的同时,内存占用较低,处理时间也较短。

Description

模型训练方法、装置、计算机设备和存储介质
技术领域
本申请涉及图像处理技术领域,特别涉及一种模型训练方法、装置、计算机设备和存储介质。
背景技术
超级夜景算法作为手机厂商竞争的主打拍照算法,原理是以不同曝光时间采集的多帧图像作为输入,进行多帧合成、HDR(High Dynamic Range Imaging,高动态范围成像)、去噪、ISP(Image Signal Processing,图像信号处理)来得到最终输出。
图像去噪作为超级夜景算法中的一个重要环节,属于计算机视觉中的一个重要研究领域。图像去噪的目的在于在给定的噪声图像中恢复出潜在的清晰图像,并保留更多的原始细节。
目前,可以采用BM3D(Block-Matching 3D,三维块匹配)算法进行图像去噪。但是BM3D算法复杂度较高,处理时间久,而且对于混合噪声(如加性噪声与乘性噪声的混合噪声)的去除效果不佳。
发明内容
本申请实施例提供了一种模型训练方法、装置、计算机设备和存储介质,可以在取得较好的去噪效果的同时,降低内存占用,减少处理时间。所述技术方案如下:
第一方面,提供了一种模型训练方法,包括:
获取多个图像对,所述多个图像对中每个图像对包括噪声图像和对应的去噪图像;
对所述多个图像对中每个图像对中的噪声图像进行下采样,得到所述噪声图像对应的样本图像;
将所述多个图像对中每个图像对中的噪声图像对应的样本图像和去噪图像确定为一个训练样本,得到多个训练样本;
以所述多个训练样本中的样本图像为输入图像,以所述多个训练样本中的去噪图像为样本标记,对神经网络模型进行训练,得到去噪模型。
在本申请中,可以对噪声图像进行下采样来得到样本图像,然后将该噪声图像对应的样本图像和去噪图像作为训练样本对神经网络模型进行训练,来得到去噪模型。由于该神经网络模型的输入图像的分辨率较小,所以可以减轻模型处理压力,提高模型处理速度,继而提高模型训练速度。并且,对该神经网络模型训练得到的去噪模型的输入图像的分辨率也较小,因而该去噪模型在使用时,在取得较好的去噪效果的同时,内存占用较低,处理时间也比较短。
可选地,所述噪声图像和其对应的所述去噪图像的分辨率相同。
可选地,所述获取多个图像对,包括:
获取终端以不同曝光时间对同一场景拍摄的带有噪声的多张图像;
从所述多张图像中选择一张图像作为第一图像;
对所述多张图像进行融合处理,得到去除噪声的第二图像;
根据所述第一图像和所述第二图像确定一个或多个图像对。
可选地,所述根据所述第一图像和所述第二图像确定一个或多个图像对,包括:
将所述第一图像和所述第二图像确定为一个图像对,所述第一图像为噪声图像,所述第二图像为去噪图像;和/或
对所述第一图像和所述第二图像进行同样的翻转或旋转,将经过同样的翻转或旋转后的所述第一图像和所述第二图像确定为一个图像对,翻转或旋转后的所述第一图像为噪声图像,翻转或旋转后的所述第二图像为去噪图像。
可选地,所述神经网络模型包括n个第一卷积层、多个RRG(Recursive ResidualGroup,递归残差组)层、n个上采样层,所述n为大于或等于2的整数;
所述n个第一卷积层、所述多个RRG层、所述n个上采样层、所述第二卷积层依次连接;所述n个上采样层的上采样倍数之积是所述n个第一卷积层中的卷积核的步长之积的s倍,所述s是对所述多个图像对中每个图像对中的噪声图像进行下采样时采用的下采样倍数,所述s大于1。
可选地,所述多个RRG层中的至少两个RRG层之间存在跳跃连接,所述n个第一卷积层与所述n个上采样层之间存在跳跃连接。
可选地,所述以所述多个训练样本中的样本图像为输入图像,以所述多个训练样本中的去噪图像为样本标记,对神经网络模型进行训练,得到去噪模型,包括:
以所述多个训练样本中的样本图像为输入图像,以所述多个训练样本中的去噪图像为样本标记,对所述神经网络模型进行多次迭代训练,直至模型收敛,得到所述去噪模型;
可选地,所述多次迭代训练中的前r次迭代训练根据第一损失函数进行,所述多次迭代训练中除所述前r次的迭代训练之外的k次迭代训练根据第二损失函数进行,所述第一损失函数与所述第二损失函数不同,所述r和所述k均为正整数。
可选地,所述第二损失函数为颜色损失函数,所述第一损失函数根据L1范数损失函数和SSIM(Structural Similarity Index Measurement,结构相似度指标测量)函数确定得到。
可选地,所述第一损失函数为:
Figure BDA0002760933130000031
其中,所述Loss为所述第一损失函数的损失值,所述x为输入图像,所述y为输出图像,所述
Figure BDA0002760933130000032
为样本标记,所述L1()为L1范数损失函数,所述SSIM()为SSIM函数,所述w1为所述L1范数损失函数对应的权值,所述w2为所述SSIM函数对应的权值。
第二方面,提供了一种模型训练装置,包括:
第一获取模块,用于获取多个图像对,所述多个图像对中每个图像对包括噪声图像和对应的去噪图像;
第二获取模块,用于对所述多个图像对中每个图像对中的噪声图像进行下采样,得到所述噪声图像对应的样本图像;
确定模块,用于将所述多个图像对中每个图像对中的噪声图像对应的样本图像和去噪图像确定为一个训练样本,得到多个训练样本;
训练模块,用于以所述多个训练样本中的样本图像为输入图像,以所述多个训练样本中的去噪图像为样本标记,对神经网络模型进行训练,得到去噪模型。
可选地,所述噪声图像和其对应的所述去噪图像的分辨率相同。
可选地,所述第一获取模块用于:
获取终端以不同曝光时间对同一场景拍摄的带有噪声的多张图像;
从所述多张图像中选择一张图像作为第一图像;
对所述多张图像进行融合处理,得到去除噪声的第二图像;
根据所述第一图像和所述第二图像确定一个或多个图像对。
可选地,所述第一获取模块用于:
将所述第一图像和所述第二图像确定为一个图像对,所述第一图像为噪声图像,所述第二图像为去噪图像;和/或
对所述第一图像和所述第二图像进行同样的翻转或旋转,将经过同样的翻转或旋转后的所述第一图像和所述第二图像确定为一个图像对,翻转或旋转后的所述第一图像为噪声图像,翻转或旋转后的所述第二图像为去噪图像。
可选地,所述神经网络模型包括n个第一卷积层、多个RRG层、n个上采样层,所述n为大于或等于2的整数;
所述n个第一卷积层、所述多个RRG层、所述n个上采样层、所述第二卷积层依次连接;所述n个上采样层的上采样倍数之积是所述n个第一卷积层中的卷积核的步长之积的s倍,所述s是对所述多个图像对中每个图像对中的噪声图像进行下采样时采用的下采样倍数,所述s大于1。
可选地,所述多个RRG层中的至少两个RRG层之间存在跳跃连接,所述n个第一卷积层与所述n个上采样层之间存在跳跃连接。
可选地,所述训练模块用于:
以所述多个训练样本中的样本图像为输入图像,以所述多个训练样本中的去噪图像为样本标记,对所述神经网络模型进行多次迭代训练,直至模型收敛,得到所述去噪模型;
可选地,所述多次迭代训练中的前r次迭代训练根据第一损失函数进行,所述多次迭代训练中除所述前r次的迭代训练之外的k次迭代训练根据第二损失函数进行,所述第一损失函数与所述第二损失函数不同,所述r和所述k均为正整数。
可选地,所述第二损失函数为颜色损失函数,所述第一损失函数根据L1范数损失函数和SSIM函数确定得到。
可选地,所述第一损失函数为:
Figure BDA0002760933130000051
其中,所述Loss为所述第一损失函数的损失值,所述x为输入图像,所述y为输出图像,所述
Figure BDA0002760933130000052
为样本标记,所述L1()为L1范数损失函数,所述SSIM()为SSIM函数,所述w1为所述L1范数损失函数对应的权值,所述w2为所述SSIM函数对应的权值。
第三方面,提供了一种计算机设备,所述计算机设备包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述的模型训练方法的步骤。
第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的模型训练方法的步骤。
第五方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述的模型训练方法的步骤。
可以理解的是,上述第二方面、第三方面、第四方面、第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种模型训练方法的流程图;
图2是本申请实施例提供的一种神经网络模型的示意图;
图3是本申请实施例提供的一种RRG层的示意图;
图4是本申请实施例提供的一种模型训练装置的结构示意图;
图5是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
应当理解的是,本申请提及的“多个”是指两个或两个以上。在本申请的描述中,为了便于清楚描述本申请的技术方案,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。
在对本申请实施例进行详细地解释说明之前,先对本申请实施例的应用场景予以说明。
拍照设备在低光环境下由于感光元件的原因,拍摄的图像中会不可避免的带有噪声,噪声会恶化图像的质量,甚至湮没图像的特征,给用户带来较差的使用体验。在视觉领域和图像分析领域,图像去噪成为必不可缺的一环。图像去噪的目的在于在给定的噪声图像中恢复出潜在的清晰图像,并保留更多的原始细节。
为此,本申请实施例提供了一种模型训练方法,可以训练出用于图像去噪的去噪模型。该去噪模型的输入图像的分辨率较小,因而模型处理压力较小,模型处理速度较高。如此,该去噪模型在使用时,可以在取得较好的去噪效果的同时,降低内存占用,减少处理时间。
接下来对去噪模型的训练过程进行详细说明。
图1是本申请实施例提供的一种模型训练方法的流程图。参见图1,该方法包括以下步骤。
步骤101:计算机设备获取多个图像对。
该多个图像对中每个图像对包括噪声图像和对应的去噪图像。该噪声图像是带有噪声的图像。该噪声图像对应的去噪图像是对该噪声图像处理得到的去除噪声的图像。
可选地,每个图像对中的噪声图像和对应的去噪图像的分辨率相同。图像的分辨率是指图像的每英寸中所包含的像素点个数,图像的分辨率的单位为ppi(Pixels PerInch,像素每英寸)。
并且,该噪声图像的分辨率和该去噪图像的分辨率均可以为特定的分辨率(如512ppi*512ppi),以满足后续模型训练时的图像尺寸要求。
一种可能的方式中,该多个图像对可以对应多个场景,即该多个图像对中的所有噪声图像可以是对该多个场景拍摄得到。
对于每一个场景来说,计算机设备可以获取终端以不同曝光时间对这一场景拍摄的带有噪声的多张图像,然后从该多张图像中选择一张图像作为第一图像,以及对该多张图像进行融合处理,得到去除噪声的第二图像。之后,计算机设备可以根据第一图像和第二图像确定一个或多个图像对。
其中,计算机设备对该多张图像进行融合处理时,可以先对该多张图像中的每张图像进行图像处理(包括但不限于进行图像配准、异常图像剔除等),然后对处理后的多张图像进行加权平均合成,得到第二图像。
对于第一图像和第二图像,计算机设备可以先将第一图像和第二图像均剪裁为具有特定的分辨率(如512ppi*512ppi)的图像,再根据第一图像和第二图像确定一个或多个图像对。
其中,计算机设备根据第一图像和第二图像确定一个或多个图像对时,计算机设备可以将第一图像和第二图像确定为一个图像对,此时第一图像是这个图像对中的噪声图像,第二图像是这个图像对中的去噪图像。或者,计算机设备可以对第一图像和第二图像进行同样的翻转或旋转,将经过同样的翻转或旋转后的第一图像和第二图像确定为一个图像对,翻转或旋转后的第一图像是这个图像对中的噪声图像,翻转或旋转后的第二图像是这个图像对中的去噪图像。这种情况下,每个场景对应一个图像对。
或者,计算机设备可以将第一图像和第二图像确定为一个图像对,以及对第一图像和第二图像进行同样的翻转或旋转,得到另一个图像对。这种情况下,每个场景对应两个图像对。
或者,计算机设备可以对第一图像和第二图像多次进行同样的翻转或旋转,每次进行同样的翻转或旋转后得到一个图像对。这种情况下,每个场景对应至少两个图像对。
当然,计算机设备也可以将第一图像和第二图像确定为一个图像对,以及对第一图像和第二图像多次进行同样的翻转或旋转,每次进行同样的翻转或旋转后得到一个图像对。这种情况下,每个场景对应至少两个图像对。
例如,终端可以以不同曝光时间对150个场景中每个场景拍摄100张图像。之后,对于这150个场景中的任意一个场景,计算机设备从这个场景对应的100张图像中选择一张图像作为图像1,以及对这个场景对应的100张图像进行融合处理,得到图像2。之后,计算机设备将图像1和图像2确定为图像对1,图像1为图像对1中的噪声图像,图像2为图像对1中的去噪图像。并且,计算机设备对图像1和图像2均进行水平翻转来得到图像对2,对图像1和图像2均进行垂直翻转来得到图像对3,将图像1和图像2均旋转90度来得到图像对4,以此实现数据增广。图像对2、图像对3、图像对4中由图像1翻转或旋转得到的图像是噪声图像,图像对2、图像对3、图像对4中由图像2翻转或旋转得到的图像是去噪图像。这种情况下,这个场景对应有4个图像对,分别是图像对1、图像对2、图像对3和图像对4。
本申请实施例中计算机设备获取多个图像对的操作与相关技术中获取SIDD(Smartphone Image Denoising Dataset,智能手机图像去噪数据集)的操作类似,本申请实施例对此不再进行详细阐述。
步骤102:计算机设备对该多个图像对中每个图像对中的噪声图像进行下采样,得到该噪声图像对应的样本图像。
下采样可以缩小图像。对于该多个图像对中每个图像对中的噪声图像,计算机设备对该噪声图像进行下采样后,得到的样本图像的分辨率小于该噪声图像的分辨率。在该噪声图像与该噪声图像对应的去噪图像的分辨率相同的情况下,该样本图像的分辨率也就小于该去噪图像的分辨率。
比如,计算机设备可以对该噪声图像进行s倍下采样,得到样本图像,s大于1。假设该噪声图像的分辨率为A*B,则该样本图像的分辨率为(A/s)*(B/s)。此时该样本图像的分辨率与该噪声图像的分辨率相差s倍。在该噪声图像与该噪声图像对应的去噪图像的分辨率相同的情况下,该样本图像的分辨率与该去噪图像的分辨率也相差s倍。
步骤103:计算机设备将该多个图像对中每个图像对中的噪声图像对应的样本图像和去噪图像确定为一个训练样本,得到多个训练样本。
对于该多个图像对中每个图像对来说,这个图像对中的噪声图像对应一个训练样本,这个训练样本包括该噪声图像对应的样本图像和去噪图像。因此,该多个图像对中的每个图像对对应一个训练样本,该多个图像对总共对应多个训练样本。
该多个训练样本是用于进行模型训练的样本。对于该多个训练样本中的每个训练样本来说,这个训练样本中的样本图像为输入图像,这个训练样本中的去噪图像为样本标记。在每个图像对中的噪声图像与对应的去噪图像的分辨率相同的情况下,每个训练样本中的输入图像的分辨率小于样本标记的分辨率。
步骤104:计算机设备以该多个训练样本中的样本图像为输入图像,以该多个训练样本中的去噪图像为样本标记,对神经网络模型进行训练,得到去噪模型。
该神经网络模型的输入图像的分辨率与训练样本中的输入图像的分辨率相同,该神经网络模型的输出图像的分辨率与训练样本中的样本标记的分辨率相同。在训练样本中的输入图像的分辨率小于样本标记的分辨率的情况下,该神经网络模型的输入图像的分辨率小于输出图像的分辨率。如此,可以实现SR(Super Resolution,超分辨率),即达到提高分辨率的目的。SR是指将低分辨率图像映射至高分辨率图像,以期达到增强图像细节的作用。
比如,样本图像是对噪声图像进行s倍下采样得到的,该噪声图像的分辨率与该噪声图像对应的去噪图像的分辨率相同,则该样本图像的分辨率与该去噪图像的分辨率相差s倍,即训练样本中的输入图像的分辨率与样本标记的分辨率相差s倍,则该神经网络模型的输入图像的分辨率与输出图像的分辨率相差s倍,此时该神经网络模型可以达到s倍超分的效果。
本申请实施例中,该神经网络模型的输入图像的分辨率较小,如此可以减轻模型处理压力,提高模型处理速度,继而提高模型训练速度。并且,对该神经网络模型进行训练得到的去噪模型的输入图像的分辨率也较小,且可以小于该去噪模型的输出图像的分辨率。如此,该去噪模型在使用时,在取得较好的去噪效果的同时,内存占用较低,处理时间也比较短。
另外,本申请实施例中的神经网络模型的输入图像可以是rgb(red green blue,红绿蓝)图像,输出图像也可以是rgb图像。也即,本申请实施例提供了一种基于rgb2rgb的去噪方案,并融入了超分的思想,在去噪的同时进行超分,从而可以提升图像分辨率,带来更好的视觉体验。
下面对该神经网络模型进行说明:
该神经网络模型可以为深度神经网络等,且可以是深度神经网络中的卷积神经网络等。该神经网络模型可以包括多个网络层。比如,如图2所示,该神经网络模型可以包括n个第一卷积层、多个RRG层、n个上采样层,n为大于或等于2的整数。进一步地,该神经网络模型还可以包括第二卷积层。
一种可能的方式中,当对该多个图像对中每个图像对中的噪声图像进行下采样时采用的下采样倍数是s时,该n个上采样层的上采样倍数之积可以是n个第一卷积层中的卷积核的步长之积的s倍。
假设s为2。该n个上采样层包括上采样层1、上采样层2、上采样层3、上采样层4,且上采样层1的上采样倍数为4,上采样层2的上采样倍数为2,上采样层3的上采样倍数为4,上采样层的上采样倍数为2,则该n个上采样层的上采样倍数之积是4×2×4×2=64。该n个第一卷积层包括第一卷积层1、第一卷积层2、第一卷积层3、第一卷积层4,且第一卷积层1中的卷积核的步长为1,第一卷积层2中的卷积核的步长为4,第一卷积层3中的卷积核的步长为2,第一卷积层4中的卷积核的步长为4,则该n个第一卷积层中的卷积核的步长之积为1×4×2×4=32。该n个上采样层的上采样倍数之积是n个第一卷积层中的卷积核的步长之积的2倍。
如此,该神经网络模型的输入图像经该n个第一卷积层降低分辨率,且经该n个上采样层增大分辨率后,得到的输出图像的分辨率是该输入图像的分辨率的s倍。
示例地,该n个第一卷积层中的第一个第一卷积层的卷积核的步长为1。第一个第一卷积层没有下采样功能。这种情况下,第一个第一卷积层可以对输入数据先进行卷积操作(包括但不限于进行卷积核大小为3x3、步长为1的卷积),再通过激活函数(包括但不限于leaky_relu激活函数)处理。其中,leaky_relu激活函数能够增强模型的泛化能力。
该n个第一卷积层中除第一个第一卷积层之外的其他第一卷积层的卷积核的步长大于或等于2。该其他第一卷积层具有下采样功能。这种情况下,该其他第一卷积层中的每个第一卷积层可以对输入数据先进行卷积操作(包括但不限于进行卷积核大小为3x3、步长为2的卷积),再通过激活函数(包括但不限于leaky_relu激活函数)处理。
第二卷积层的卷积核的步长为1。第二卷积层没有下采样功能。这种情况下,第二卷积层可以对输入数据先进行卷积操作(包括但不限于进行卷积核大小为3x3、步长为1的卷积),再通过激活函数(包括但不限于leaky_relu激活函数)处理。
该n个上采样层中的每个上采样层用于对输入数据进行上采样,如可以通过双线性插值等插值算法来进行上采样。可选地,该n个第一卷积层与该n个上采样层一一对应。并且,该n个第一卷积层中的第一个第一卷积层与该n个上采样层中的最后一个上采样层对应,该n个第一卷积层中的第二个第一卷积层与该n个上采样层中的倒数第二个上采样层对应,该n个第一卷积层中的第三个第一卷积层与该n个上采样层中的倒数第三个上采样层对应,以此类推。该n个第一卷积层中每个第一卷积层的输出数据的分辨率与对应的一个上采样层的输入数据的分辨率相同。该神经网络模型的输入图像可以经该n个第一卷积层降低分辨率,之后,可以经该n个上采样层增大分辨率后输出。
该n个上采样层中最后一个上采样层(即与第一个第一卷积层对应的一个上采样层)的上采样倍数是s,s是该神经网络模型的输入图像的分辨率与输出图像的分辨率之间相差的倍数。由于第二卷积层的卷积核的步长为1,因此,该神经网络模型的输入图像经该n个第一卷积层降低分辨率,且经该n个上采样层增大分辨率,又经第二卷积层处理后,得到的输出图像的分辨率是该输入图像的分辨率的s倍。
本申请实施例中的神经网络模型中的n个第一卷积层中除第一个第一卷积层之外的其他第一卷积层均可以实现下采样功能,从而可以降低后续输入RRG层的输入数据的分辨率,降低RRG层的处理压力,减少内存占用和处理时间。另外,本申请实施例中的神经网络模型采用n个上采样层来增大输入数据的分辨率,能够有效提升处理速度以及输出图像的平滑度。
该n个第一卷积层、该多个RRG层、该n个上采样层、第二卷积层依次连接。该n个第一卷积层与该n个上采样层之间存在跳跃连接,比如,该n个第一卷积层中每个第一卷积层的输出与对应的一个上采样层的输入之间存在长连接,如此,可以充分保留原始输入图像的信息,避免图像细节丢失。
该多个RRG层中的每个RRG层包含多个DAB(Dual Attention Block,双重注意力块)。RRG层引入了两种注意力(attention)机制,分别为空间注意力机制和通道注意力机制,如此能够有效保持原始输入图像的颜色信息、纹理特征以及其他细节特征。该多个RRG层中的至少两个RRG层之间也可以存在跳跃连接,比如,该多个RRG层中的倒数第三个RRG层的输出与最后一个RRG层的输入之间存在短连接,如此,可以更为充分地保留原始输入图像的信息,避免图像细节丢失。
一种可能的实现方式中,如图3所示,RRG层中可以包括多个DAB、卷积层和加法单元。输入该RRG层的输入数据依次经过该多个DAB处理后输入该卷积层,该卷积层可以对输入数据进行卷积操作(包括但不限于进行卷积核大小为3x3的卷积),然后该加法单元对输入该RRG层的输入数据和该卷积层的输出数据进行加法操作,得到该RRG层的输出数据。
DAB中可以包括多个卷积层、两个GAP(Global Average Pooling,全局平均池化)层、GMP(Global Max Pooling,全局最大池化)层、两个并联单元、两个激活单元、两个乘法单元、加法单元。
输入该DAB的输入数据先经过多个卷积层处理,比如,该多个卷积层对输入该DAB的输入数据可以先进行卷积核大小为3x3的卷积,再通过leaky_relu激活函数处理,接着再进行卷积核大小为3x3的卷积。该多个卷积层的输出数据输入到两个GAP层、GMP层和两个乘法单元。
一个GAP层对输入数据进行平均值池化,GMP层对输入数据进行最大值池化,一个并联单元对这个GAP层的输出数据和该GMP层的输出数据进行并联操作。一个卷积层对这个并联单元的输出数据进行卷积操作(包括但不限于进行卷积核大小为3x3的卷积)。一个激活单元将这个卷积层的输出数据通过Sigmoid激活函数处理。一个乘法单元对这个激活单元的输出数据和最开始的多个卷积层的输出数据进行乘法操作。
另一个GAP层对输入数据进行平均值池化,多个卷积层对该另一个GAP层的输出数据进行处理,比如,这多个卷积层对该另一个GAP层的输出数据可以先进行卷积核大小为1x1的卷积,再通过leaky_relu激活函数处理,接着再进行卷积核大小为1x1的卷积。另一个激活单元将这多个卷积层的输出数据通过Sigmoid激活函数处理。另一个乘法单元对该另一个激活单元的输出数据和最开始的多个卷积层的输出数据进行乘法操作。
另一个并联单元对这两个乘法单元的输出数据进行并联操作,一个卷积层对该另一个并联单元的输出数据进行卷积操作(包括但不限于进行卷积核大小为1x1的卷积)。加法单元对这个卷积层的输出数据和输入该DAB的输入数据进行加法操作,得到该DAB的输出数据。
下面对该神经网络模型的训练过程进行说明:
具体地,计算机设备可以以该多个训练样本中的样本图像为输入图像,以该多个训练样本中的去噪图像为样本标记,对该神经网络模型进行多次迭代训练,直至模型收敛,得到该去噪模型。
计算机设备使用该多个训练样本中的每个训练样本可以对该神经网络模型进行一次迭代训练。该多次迭代训练中的一次迭代训练包括:计算机设备将一个训练样本中的输入图像输入该神经网络模型,获得输出图像;通过损失函数确定该输出图像与这个训练样本中的样本标记之间的损失值;根据该损失值调整该神经网络模型中的参数。
模型收敛是指该神经网络模型的输出图像与样本标记之间的损失值不超过规定范围。该神经网络模型收敛后,其性能可以满足使用需求,因而可以作为去噪模型。
其中,计算机设备根据该损失值调整该神经网络模型中的参数的操作可以参考相关技术,本申请实施例对此不进行详细阐述。例如,对于该神经网络模型中的任意一个参数,计算机设备可以根据该损失值和这个参数,获取该损失函数关于这个参数的偏导数;将这个参数减去学习率与这个参数的偏导数之积,得到调整后的参数。该学习率可以预先进行设置,如该学习率可以为0.001、0.00001等,本申请实施例对此不作唯一限定。
其中,本申请实施例中计算机设备可以根据多个损失函数来对该神经网络模型进行多次迭代训练。具体地,该多次迭代训练中的前r次迭代训练可以根据第一损失函数进行,该多次迭代训练中除前r次的迭代训练之外的k次迭代训练可以根据第二损失函数进行,第一损失函数与第二损失函数不同。如此,可以增强模型性能。
其中,r和k均为正整数。可选地,r可以大于k,如r可以为6000,k可以为1000。
一种可能的实现方式中,第一损失函数可以根据L1范数损失函数和SSIM函数确定得到。这种情况下,第一损失函数能够增强去噪效果而且能有效的保证输出图像的清晰度与细节。
例如,第一损失函数可以为:
Figure BDA0002760933130000141
其中,Loss为第一损失函数的损失值;x为输入图像;y为输出图像;
Figure BDA0002760933130000144
为样本标记;L1()为L1范数损失函数;SSIM()为SSIM函数;w1为L1范数损失函数对应的权值;w2为SSIM函数对应的权值。
其中,
Figure BDA0002760933130000142
其中,
Figure BDA0002760933130000143
μ为求均值,δ为求方差,c1和c2为常数。
其中,w1和w2可以预先进行设置,且w1与w2之和为1。比如,w1可以为0.15,w2可以为0.85。当然,w1和w2也可以根据需求设置为其他数值,本申请实施例对此不作唯一限定。
一种可能的实现方式中,第二损失函数可以是颜色损失函数(color loss),颜色损失函数是计算输入图像与样本标记之间的MSE(Mean Squared Error,均方误差)作为损失值。这种情况下,能够有效减少去噪过程中出现的色块以及有效避免输出图像中出现颜色过度不自然的问题。
示例地,本申请实施例中对该神经网络模型的训练可以在GTX1080Ti等显卡上进行。
在模型训练正式开始之前,可以先对神经网络模型中的参数进行初始化,比如,可以采用Xavier初始化方式对该神经网络模型中的参数进行初始化。之后,设置初始化学习率为0.00001,采用Adam(Adaptive Moment Estimation,自适应矩阵估计)优化器且采用多项式衰减方式更新学习率,然后根据第一损失函数对该神经网络模型进行多次迭代训练(包括但不限于进行迭代次数为6000个epoch、batchsize大小为1的迭代训练),直至模型收敛。
之后,进行模型微调。固定学习率为0.0000001,根据第二损失函数继续对该神经网络模型进行迭代训练(包括但不限于进行迭代次数为1000个epoch、batchsize大小为1的迭代训练),直至模型收敛,得到去噪模型。
本申请实施例中可以使用TensorFlow框架实现对该神经网络模型的训练。并且,在训练得到该去噪模型后,还可以通过MACE框架将该去噪模型转换为终端可用的模型,包括但不限于将该去噪模型的输入图像尺寸与终端的图像拍摄尺寸匹配,如可以固定该去噪模型的输入图像尺寸为3472ppi*4640ppi。如此,可以便于将该去噪模型移植到终端,应用到终端拍摄中。终端在拍照时可以通过该去噪模型将获取的噪声图像恢复为清晰图像。
在本申请实施例中,可以对噪声图像进行下采样来得到样本图像,然后将该噪声图像对应的样本图像和去噪图像作为训练样本对神经网络模型进行训练,来得到去噪模型。由于该神经网络模型的输入图像的分辨率较小,所以可以减轻模型处理压力,提高模型处理速度,继而提高模型训练速度。并且,对该神经网络模型训练得到的去噪模型的输入图像的分辨率也较小,因而该去噪模型在使用时,在取得较好的去噪效果的同时,内存占用较低,处理时间也比较短。
下面对该去噪模型的使用过程进行详细说明。
该去噪模型可以在终端拍摄图像时使用,具体地,此使用过程可以包括如下步骤(1)-步骤(3)。
(1)终端拍摄目标图像。
该终端可以是具有摄像头的终端。该终端可以拍摄目标图像,目标图像中含有在拍摄中产生的真实混合噪声。目标图像是需要去噪的图像。
(2)该终端对目标图像进行下采样,得到输入图像。
下采样可以缩小目标图像。也即,该终端对目标图像进行下采样后得到的输入图像的分辨率小于目标图像的分辨率,此时该输入图像的尺寸符合该去噪模型的输入图像尺寸要求。
该终端对目标图像进行下采样时采用的下采样倍数可以与上述步骤102中计算机设备对该多个图像对中每个图像对中的噪声图像进行下采样时采用的下采样倍数相同。比如,该终端也可以对目标图像进行s倍下采样。
(3)该终端将该输入图像输入该去噪模型,获得去噪图像。
该终端将该输入图像输入该去噪模型后,该去噪模型可以对该输入图像进行去噪处理,输出去噪图像。
该去噪图像的清晰度高于该输入图像的清晰度,且该去噪图像的分辨率可以大于该输入图像的分辨率。该去噪图像的分辨率与该终端拍摄的目标图像的分辨率相同。也即,该去噪图像是目标图像对应的去除噪声后的图像。
由于该去噪模型的输入图像的分辨率较小,所以可以减轻模型处理压力,提高模型处理速度。如此,该终端在将该输入图像输入该去噪模型后,就可以在内存占用较低且处理时间较短的情况下,获得去噪效果较好的去噪图像。
图4是本申请实施例提供的一种模型训练装置的结构示意图。参见图4,该装置包括:第一获取模块401、第二获取模块402、确定模块403和训练模块404。
第一获取模块401,用于获取多个图像对,多个图像对中每个图像对包括噪声图像和对应的去噪图像;
第二获取模块402,用于对多个图像对中每个图像对中的噪声图像进行下采样,得到噪声图像对应的样本图像;
确定模块403,用于将多个图像对中每个图像对中的噪声图像对应的样本图像和去噪图像确定为一个训练样本,得到多个训练样本;
训练模块404,用于以多个训练样本中的样本图像为输入图像,以多个训练样本中的去噪图像为样本标记,对神经网络模型进行训练,得到去噪模型。
可选地,噪声图像和其对应的去噪图像的分辨率相同。
可选地,第一获取模块401用于:
获取终端以不同曝光时间对同一场景拍摄的带有噪声的多张图像;
从多张图像中选择一张图像作为第一图像;
对多张图像进行融合处理,得到去除噪声的第二图像;
根据第一图像和第二图像确定一个或多个图像对。
可选地,第一获取模块401用于:
将第一图像和第二图像确定为一个图像对,第一图像为噪声图像,第二图像为去噪图像;和/或
对第一图像和第二图像进行同样的翻转或旋转,将经过同样的翻转或旋转后的第一图像和第二图像确定为一个图像对,翻转或旋转后的第一图像为噪声图像,翻转或旋转后的第二图像为去噪图像。
可选地,神经网络模型包括n个第一卷积层、多个RRG层、n个上采样层,n为大于或等于2的整数;
n个第一卷积层、多个RRG层、n个上采样层、第二卷积层依次连接;n个上采样层的上采样倍数之积是n个第一卷积层中的卷积核的步长之积的s倍,s是对多个图像对中每个图像对中的噪声图像进行下采样时采用的下采样倍数,s大于1。
可选地,多个RRG层中的至少两个RRG层之间存在跳跃连接,n个第一卷积层与n个上采样层之间存在跳跃连接。
可选地,训练模块404用于:
以多个训练样本中的样本图像为输入图像,以多个训练样本中的去噪图像为样本标记,对神经网络模型进行多次迭代训练,直至模型收敛,得到去噪模型;
可选地,多次迭代训练中的前r次迭代训练根据第一损失函数进行,多次迭代训练中除前r次的迭代训练之外的k次迭代训练根据第二损失函数进行,第一损失函数与第二损失函数不同,所述r和所述k均为正整数。
可选地,第二损失函数为颜色损失函数,第一损失函数根据L1范数损失函数和SSIM函数确定得到。
可选地,第一损失函数为:
Figure BDA0002760933130000171
其中,Loss为第一损失函数的损失值,x为输入图像,y为输出图像,
Figure BDA0002760933130000172
为样本标记,L1()为L1范数损失函数,SSIM()为SSIM函数,w1为L1范数损失函数对应的权值,w2为SSIM函数对应的权值。
在本申请实施例中,可以对噪声图像进行下采样来得到样本图像,然后将该噪声图像对应的样本图像和去噪图像作为训练样本对神经网络模型进行训练,来得到去噪模型。由于该神经网络模型的输入图像的分辨率较小,所以可以减轻模型处理压力,提高模型处理速度,继而提高模型训练速度。并且,对该神经网络模型训练得到的去噪模型的输入图像的分辨率也较小,因而该去噪模型在使用时,在取得较好的去噪效果的同时,内存占用较低,处理时间也比较短。
需要说明的是:上述实施例提供的模型训练装置在模型训练时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的模型训练装置与模型训练方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图5为本申请实施例提供的一种计算机设备的结构示意图。如图5所示,计算机设备5包括:处理器50、存储器51以及存储在存储器51中并可在处理器50上运行的计算机程序52,处理器50执行计算机程序52时实现上述实施例中的模型训练方法中的步骤。
计算机设备5可以是一个通用计算机设备或一个专用计算机设备。在具体实现中,计算机设备5可以是台式机、便携式电脑、网络服务器、掌上电脑、移动手机、平板电脑、无线终端设备、通信设备或嵌入式设备,本申请实施例不限定计算机设备5的类型。本领域技术人员可以理解,图5仅仅是计算机设备5的举例,并不构成对计算机设备5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,比如还可以包括输入输出设备、网络接入设备等。
处理器50可以是中央处理单元(Central Processing Unit,CPU),处理器50还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者也可以是任何常规的处理器。
存储器51在一些实施例中可以是计算机设备5的内部存储单元,比如计算机设备5的硬盘或内存。存储器51在另一些实施例中也可以是计算机设备5的外部存储设备,比如计算机设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器51还可以既包括计算机设备5的内部存储单元也包括外部存储设备。存储器51用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,比如计算机程序的程序代码等。存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
在一些实施例中,还提供了一种计算机可读存储介质,该存储介质内存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的模型训练方法的步骤。比如,该计算机可读存储介质可以是ROM(Read-Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、CD-ROM(Compact Disc Read-Only Memory,只读光盘)、磁带、软盘和光数据存储设备等。
值得注意的是,本申请提到的计算机可读存储介质可以为非易失性存储介质,换句话说,可以是非瞬时性存储介质。
应当理解的是,实现上述实施例的全部或部分步骤可以通过软件、硬件、固件或者其任意结合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。该计算机指令可以存储在上述计算机可读存储介质中。
也即是,在一些实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中的模型训练方法的步骤。
以上所述为本申请提供的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (13)

1.一种模型训练方法,其特征在于,包括:
获取多个图像对,所述多个图像对中每个图像对包括噪声图像和对应的去噪图像;
对所述多个图像对中每个图像对中的噪声图像进行下采样,得到所述噪声图像对应的样本图像;
将所述多个图像对中每个图像对中的噪声图像对应的样本图像和去噪图像确定为一个训练样本,得到多个训练样本;
以所述多个训练样本中的样本图像为输入图像,以所述多个训练样本中的去噪图像为样本标记,对神经网络模型进行训练,得到去噪模型。
2.如权利要求1所述的方法,其特征在于,所述噪声图像和其对应的所述去噪图像的分辨率相同。
3.如权利要求1所述的方法,其特征在于,所述获取多个图像对,包括:
获取终端以不同曝光时间对同一场景拍摄的带有噪声的多张图像;
从所述多张图像中选择一张图像作为第一图像;
对所述多张图像进行融合处理,得到第二图像;
根据所述第一图像和所述第二图像确定一个或多个图像对。
4.如权利要求3所述的方法,其特征在于,所述根据所述第一图像和所述第二图像确定一个或多个图像对,包括:
将所述第一图像和所述第二图像确定为一个图像对,所述第一图像为噪声图像,所述第二图像为去噪图像;和/或
对所述第一图像和所述第二图像进行同样的翻转或旋转,将经过同样的翻转或旋转后的所述第一图像和所述第二图像确定为一个图像对,翻转或旋转后的所述第一图像为噪声图像,翻转或旋转后的所述第二图像为去噪图像。
5.如权利要求1所述的方法,其特征在于,所述神经网络模型包括n个第一卷积层、多个递归残差组RRG层、n个上采样层,所述n为大于或等于2的整数;
所述n个第一卷积层、所述多个RRG层、所述n个上采样层依次连接;所述n个上采样层的上采样倍数之积是所述n个第一卷积层中的卷积核的步长之积的s倍,所述s是对所述多个图像对中每个图像对中的噪声图像进行下采样时采用的下采样倍数,所述s大于1。
6.如权利要求5所述的方法,其特征在于,所述多个RRG层中的至少两个RRG层之间存在跳跃连接,所述n个第一卷积层与所述n个上采样层之间存在跳跃连接。
7.如权利要求1-6任一所述的方法,其特征在于,所述以所述多个训练样本中的样本图像为输入图像,以所述多个训练样本中的去噪图像为样本标记,对神经网络模型进行训练,得到去噪模型,包括:
以所述多个训练样本中的样本图像为输入图像,以所述多个训练样本中的去噪图像为样本标记,对所述神经网络模型进行多次迭代训练,直至模型收敛,得到所述去噪模型。
8.如权利要求7所述的方法,其特征在于,所述多次迭代训练中的前r次迭代训练根据第一损失函数进行,所述多次迭代训练中除所述前r次的迭代训练之外的k次迭代训练根据第二损失函数进行,所述第一损失函数与所述第二损失函数不同,所述r和所述k均为正整数。
9.如权利要求8所述的方法,其特征在于,所述第二损失函数为颜色损失函数,所述第一损失函数根据L1范数损失函数和结构相似度指标测量SSIM函数确定得到。
10.如权利要求9所述的方法,其特征在于,
所述第一损失函数为:
Figure FDA0002760933120000021
其中,所述Loss为所述第一损失函数的损失值,所述x为输入图像,所述y为输出图像,所述
Figure FDA0002760933120000031
为样本标记,所述L1()为L1范数损失函数,所述SSIM()为SSIM函数,所述w1为所述L1范数损失函数对应的权值,所述w2为所述SSIM函数对应的权值。
11.一种模型训练装置,其特征在于,包括:
第一获取模块,用于获取多个图像对,所述多个图像对中每个图像对包括噪声图像和对应的去噪图像;
第二获取模块,用于对所述多个图像对中每个图像对中的噪声图像进行下采样,得到所述噪声图像对应的样本图像;
确定模块,用于将所述多个图像对中每个图像对中的噪声图像对应的样本图像和去噪图像确定为一个训练样本,得到多个训练样本;
训练模块,用于以所述多个训练样本中的样本图像为输入图像,以所述多个训练样本中的去噪图像为样本标记,对神经网络模型进行训练,得到去噪模型。
12.一种计算机设备,其特征在于,所述计算机设备包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至10任一项所述的方法的步骤。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至10任一项所述的方法的步骤。
CN202011217570.8A 2020-11-04 2020-11-04 模型训练方法、装置、计算机设备和存储介质 Pending CN114529775A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011217570.8A CN114529775A (zh) 2020-11-04 2020-11-04 模型训练方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011217570.8A CN114529775A (zh) 2020-11-04 2020-11-04 模型训练方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN114529775A true CN114529775A (zh) 2022-05-24

Family

ID=81618694

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011217570.8A Pending CN114529775A (zh) 2020-11-04 2020-11-04 模型训练方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN114529775A (zh)

Similar Documents

Publication Publication Date Title
Xu et al. Learning to restore low-light images via decomposition-and-enhancement
Wronski et al. Handheld multi-frame super-resolution
CN110827200B (zh) 一种图像超分重建方法、图像超分重建装置及移动终端
Claus et al. Videnn: Deep blind video denoising
CN111275626B (zh) 一种基于模糊度的视频去模糊方法、装置及设备
CN110324664B (zh) 一种基于神经网络的视频补帧方法及其模型的训练方法
KR20210114856A (ko) 딥 컨볼루션 신경망을 이용한 이미지 노이즈 제거 시스템 및 방법
CN108765343B (zh) 图像处理的方法、装置、终端及计算机可读存储介质
CN108694705B (zh) 一种多帧图像配准与融合去噪的方法
CN112805744B (zh) 用于对多光谱图像去马赛克的系统和方法
Agrawal et al. Resolving objects at higher resolution from a single motion-blurred image
CN110136055B (zh) 图像的超分辨率方法和装置、存储介质、电子装置
CN112837245B (zh) 一种基于多模态融合的动态场景去模糊方法
CN112602088B (zh) 提高弱光图像的质量的方法、系统和计算机可读介质
US20230043310A1 (en) Systems and methods for image denoising using deep convolutional networks
An et al. Single-shot high dynamic range imaging via deep convolutional neural network
Gryaditskaya et al. Motion aware exposure bracketing for HDR video
Rasheed et al. LSR: Lightening super-resolution deep network for low-light image enhancement
Buades et al. CFA video denoising and demosaicking chain via spatio-temporal patch-based filtering
Zhao et al. D2hnet: Joint denoising and deblurring with hierarchical network for robust night image restoration
Nguyen et al. Self-supervised super-resolution for multi-exposure push-frame satellites
Fu et al. Raw image based over-exposure correction using channel-guidance strategy
CN113658050A (zh) 一种图像的去噪方法、去噪装置、移动终端及存储介质
CN116630152A (zh) 图像分辨率重建方法、装置、存储介质及电子设备
CN114529775A (zh) 模型训练方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination