CN111709890A - 一种图像增强模型的训练方法、装置及存储介质 - Google Patents
一种图像增强模型的训练方法、装置及存储介质 Download PDFInfo
- Publication number
- CN111709890A CN111709890A CN202010534243.9A CN202010534243A CN111709890A CN 111709890 A CN111709890 A CN 111709890A CN 202010534243 A CN202010534243 A CN 202010534243A CN 111709890 A CN111709890 A CN 111709890A
- Authority
- CN
- China
- Prior art keywords
- image
- frequency
- gray
- component
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 150
- 238000000034 method Methods 0.000 title claims abstract description 108
- 230000006870 function Effects 0.000 claims description 85
- 238000012545 processing Methods 0.000 claims description 53
- 238000001914 filtration Methods 0.000 claims description 46
- 230000004927 fusion Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000003708 edge detection Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种图像增强模型的训练方法、装置及存储介质,此方法包括:将每个训练输入图像组输入图像增强模型,获得图像增强模型输出的预测图像;使用与每个训练对分别对应的损失函数,训练图像增强模型直至收敛;损失函数包括与多个频率区间一一对应的多个灰度损失分量,每个灰度损失分量是基于每个频率区间内预测图像的灰度分频图像与对应的目标图像的灰度分频图像之间的差值确定的,不同的灰度损失分量对应于不同的频率区间。本公开中,使损失函数体现相应训练对中预测图像和目标图像的细节内容信息和语义信息,有效缓解图像增强模型训练过程中的不适定问题导致的过平滑问题。
Description
技术领域
本公开涉及图像处理技术,尤其涉及一种图像增强模型的训练方法、装置及存储介质。
背景技术
移动终端一般都具有拍照功能。移动终端中的图像传感器采样率不足,以及来源于图像采集、传输、压缩等各个方面的噪声导致移动终端拍摄到的图像存在细节丢失以及过多彩噪的问题。在低光环境下拍摄的图像和视频也存在此问题,并且此问题在小光圈摄像头的智能手机所拍摄的图像中更为严重。另外,采集图像过程中,采样率较低时还会导致混叠现象。
随着用户对图像效果的需求不断提高,如何进一步提高图像解析力、丰富图像细节和减少图像噪声是一直需要解决的技术问题。
传统的图像增强方法中,对多个图像中相同位置的像素进行加权平均获得处理后的图像,达到去噪效果,或者进行亚像素对齐和图像融合来保持图像中位于高频部分的细节。如何有效地选择合适的像素点进行加权融合以及完成亚像素对齐是影响图像增强效果的关键。
随着深度学习技术的快速发展,人们开始使用深度图像增强模型来完成图像增强。首先,使用大量的自然图像作为训练数据,使深度图像增强模型学习低质量图像到高质量图像之间的映射,但是大部分深度图像增强模型存在过平滑的问题,难以有效的在进行去噪的同时增强图像细节,其中深度图像增强模型中的损失函数对此效果的影响非常大。考虑到图像复原属于低特征级视觉任务,目前通常采用像素级损失函数。
发明内容
为克服相关技术中存在的问题,本公开提供一种图像增强模型的训练方法、装置及存储介质。
根据本文实施例的第一方面,提供了一种图像增强模型的训练方法,包括:
确定通过拍摄设备拍摄的多个样本图像组;
确定每个样本图像组相关联的目标图像以及训练输入图像组;
构建多个训练对,每个训练对包括一个训练输入图像组和对应的目标图像;
将每个训练输入图像组输入所述图像增强模型,获得所述图像增强模型输出的预测图像;
将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像,并将对应的目标图像的灰度分量图像进行分频处理,获得所述目标图像在所述多个频率区间的灰度分频图像;
使用与每个训练对分别对应的损失函数,训练所述图像增强模型直至收敛;
所述损失函数包括与所述多个频率区间一一对应的多个灰度损失分量,每个灰度损失分量是基于每个频率区间内所述预测图像的灰度分频图像与对应的目标图像的灰度分频图像之间的差值确定的,不同的灰度损失分量对应于不同的频率区间。
在一实施方式中,表征频率越高的频率区间对应的灰度损失分量中的加权系数越大。
在一实施方式中,所述损失函数包括两个灰度损失分量;所述两个灰度损失分量包括低频损失分量和高频损失分量;
所述将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像,包括:对所述预测图像的灰度分量图像进行低通滤波,获得第一灰度低频图像,计算所述预测图像的灰度分量图像与所述第一灰度低频图像的差值作为第一灰度高频图像;所述预测图像在两个频率区间的灰度分频图像包括所述第一灰度低频图像和第一灰度高频图像;
所述将所述目标图像的灰度分量图像进行分频处理,获得所述目标图像在多个频率区间的灰度分频图像,包括:对所述目标图像的灰度分量图像进行低通滤波,获得第二灰度低频图像,计算所述目标图像的灰度分量图像与所述第二灰度低频图像的差值作为第二灰度高频图像;所述目标图像在两个频率区间的灰度分频图像包括所述第二灰度低频图像和第二灰度高频图像。
在一实施方式中,所述损失函数包括两个灰度损失分量;所述两个灰度损失分量包括低频损失分量和高频损失分量;
所述将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像,包括:对所述预测图像的灰度分量图像进行高通滤波,获得第一灰度高频图像,计算所述预测图像的灰度分量图像与所述第一灰度高频图像的差值作为第一灰度低频图像;所述预测图像在两个频率区间的灰度分频图像包括所述第一灰度低频图像和第一灰度高频图像;
所述将所述目标图像的灰度分量图像进行分频处理,获得所述目标图像在多个频率区间的灰度分频图像,包括:对所述目标图像的灰度分量图像进行高通滤波,获得第二灰度高频图像,计算所述目标图像的灰度分量图像与所述第二灰度高频图像的差值作为第二灰度低频图像;所述目标图像在两个频率区间的灰度分频图像包括所述第二灰度低频图像和第二灰度高频图像。
在一实施方式中,所述方法还包括:对每个训练对中的目标图像的灰度分量图像进行边缘检测获得边缘图像,根据所述边缘图像确定边缘概率图;
所述损失函数中,表征频率最高的频率区间对应的灰度损失分量包括所述预测图像在此频率区间的灰度分频图像和对应的目标图像在此频率区间的灰度分频图像之间的差值与所述边缘概率图的点乘矩阵。
在一实施方式中,所述根据所述边缘图像确定边缘概率图,包括:
对所述边缘图像进行导向滤波获得边缘概率图,所述导向滤波中的引导图是所述目标图像或者是所述目标图像的灰度分量图像。
在一实施方式中,所述损失函数包括多个灰度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色饱和度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色度损失分量以及色饱和度损失分量的和;
所述色度损失分量是所述图像增强模型输出的预测图像的色度分量图像和对应的目标图像的色度分量图像之间的差;所述色饱和度损失分量是所述图像增强模型输出的预测图像的色饱和度分量图像和对应的目标图像的色饱和度分量图像之间的差。
在一实施方式中,同一样本图像组中的样本图像的拍摄场景相同,不同样本图像组中样本图像的拍摄场景不同;
所述确定每个样本图像组相关联的目标图像,包括以下中的一种:
根据样本图像组中各样本图像计算相同位置的像素平均值获得目标图像;
根据样本图像组中各样本图像计算相同位置的像素加权平均值获得目标图像;
从样本图像组中选择清晰度最高的样本图像、第一帧样本图像或者最后一帧样本图像作为参考图像,根据样本图像组中各样本图像计算特征点,根据所述参考图像对所述样本图像组中其它样本图像进行特征点对齐操作,将对齐操作后的样本图像进行多帧图像融合,获得目标图像;
所述确定每个样本图像组相关联的训练输入图像组,包括以下中的一种:
将所述样本图像组作为训练输入图像组;
从所述样本图像组中选择部分样本图像构成训练输入图像组。
根据本文实施例的第二方面,提供了一种图像增强模型的训练装置,包括:
第一确定模块,被配置为确定通过拍摄设备拍摄的多个样本图像组;
第二确定模块,被配置为确定每个样本图像组相关联的目标图像以及训练输入图像组;
构建模块,被配置为构建多个训练对,每个训练对包括一个训练输入图像组和对应的目标图像;
输入模块,被配置为将每个训练输入图像组输入所述图像增强模型,获得所述图像增强模型输出的预测图像;
分频模块,被配置为将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像,并将对应的目标图像的灰度分量图像进行分频处理,获得所述目标图像在所述多个频率区间的灰度分频图像;
训练模块,被配置为使用与每个训练对分别对应的损失函数,训练所述图像增强模型直至收敛;所述损失函数包括与所述多个频率区间一一对应的多个灰度损失分量,每个灰度损失分量是基于每个频率区间内所述预测图像的灰度分频图像与对应的目标图像的灰度分频图像之间的差值确定的,不同的灰度损失分量对应于不同的频率区间。
在一实施方式中,表征频率越高的频率区间对应的灰度损失分量中的加权系数越大。
在一实施方式中,所述损失函数包括两个灰度损失分量;所述两个灰度损失分量包括低频损失分量和高频损失分量;
所述分频模块,还被配置为使用以下方法将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像:对所述预测图像的灰度分量图像进行低通滤波,获得第一灰度低频图像,计算所述预测图像的灰度分量图像与所述第一灰度低频图像的差值作为第一灰度高频图像;所述预测图像在两个频率区间的灰度分频图像包括所述第一灰度低频图像和第一灰度高频图像;
还被配置为使用以下方法将所述目标图像的灰度分量图像进行分频处理,获得所述目标图像在多个频率区间的灰度分频图像:对所述目标图像的灰度分量图像进行低通滤波,获得第二灰度低频图像,计算所述目标图像的灰度分量图像与所述第二灰度低频图像的差值作为第二灰度高频图像;所述目标图像在两个频率区间的灰度分频图像包括所述第二灰度低频图像和第二灰度高频图像。
在一实施方式中,所述损失函数包括两个灰度损失分量;所述两个灰度损失分量包括低频损失分量和高频损失分量;
所述分频模块,还被配置为使用以下方法将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像:对所述预测图像的灰度分量图像进行高通滤波,获得第一灰度高频图像,计算所述预测图像的灰度分量图像与所述第一灰度高频图像的差值作为第一灰度低频图像;所述预测图像在两个频率区间的灰度分频图像包括所述第一灰度低频图像和第一灰度高频图像;还被配置为使用以下方法将所述目标图像的灰度分量图像进行分频处理,获得所述目标图像在多个频率区间的灰度分频图像:对所述目标图像的灰度分量图像进行高通滤波,获得第二灰度高频图像,计算所述目标图像的灰度分量图像与所述第二灰度高频图像的差值作为第二灰度低频图像;所述目标图像在两个频率区间的灰度分频图像包括所述第二灰度低频图像和第二灰度高频图像。
在一实施方式中,所述装置还包括:
边缘检测模块,被配置为对每个训练对中的目标图像的灰度分量图像进行边缘检测获得边缘图像;
边缘概率计算模块,被配置为根据所述边缘图像确定边缘概率图;
所述损失函数中,表征频率最高的频率区间对应的灰度损失分量包括所述预测图像在此频率区间的灰度分频图像和对应的目标图像在此频率区间的灰度分频图像之间的差值与所述边缘概率图的点乘矩阵。
在一实施方式中,所述边缘概率计算模块,被配置为使用以下方法根据所述边缘图像确定边缘概率图:对所述边缘图像进行导向滤波获得边缘概率图,所述导向滤波中的引导图是所述目标图像或者是所述目标图像的灰度分量图像。
在一实施方式中,所述损失函数包括多个灰度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色饱和度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色度损失分量以及色饱和度损失分量的和;
所述色度损失分量是所述图像增强模型输出的预测图像的色度分量图像和对应的目标图像的色度分量图像之间的差;所述色饱和度损失分量是所述图像增强模型输出的预测图像的色饱和度分量图像和对应的目标图像的色饱和度分量图像之间的差。
在一实施方式中,同一样本图像组中的样本图像的拍摄场景相同,不同样本图像组中样本图像的拍摄场景不同;
第二确定模块,还被配置为使用以下方法中的一种确定每个样本图像组相关联的目标图像:
根据样本图像组中各样本图像计算相同位置的像素平均值获得目标图像;
根据样本图像组中各样本图像计算相同位置的像素加权平均值获得目标图像;
从样本图像组中选择清晰度最高的样本图像、第一帧样本图像或者最后一帧样本图像作为参考图像,根据样本图像组中各样本图像计算特征点,根据所述参考图像对所述样本图像组中其它样本图像进行特征点对齐操作,将对齐操作后的样本图像进行多帧图像融合,获得目标图像;
所述第二确定模块,还被配置为使用以下方法中的一种确定每个样本图像组相关联的训练输入图像组:
将所述样本图像组作为训练输入图像组;
从所述样本图像组中选择部分样本图像构成训练输入图像组。
根据本文实施例的第三方面,提供了一种图像增强模型的训练装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述存储器中的可执行指令以实现上述方法的步骤。
根据本文实施例的第四方面,提供了一种非临时性计算机可读存储介质,其上存储有可执行指令,其特征在于,该可执行指令被处理器执行时实现上述方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:定义与训练对相关的损失函数,考虑到图像的细节特征主要存在于灰度分量部分的特点,在损失函数中增加图像增强模型使用训练对时的预测图像灰度分量图像的分频信息和目标图像的灰度分量图像的分频信息,在针对不同的训练对使用不同的损失函数时,使损失函数体现出此训练对中预测图像和目标图像的内容信息和语义信息,有效缓解图像增强模型训练过程中的不适定问题导致的过平滑问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种图像增强模型的训练方法的流程图;
图2是根据一示例性实施例示出的一目标图像的灰度分量图像、灰度分量图像的低频图像、灰度分量图像的高频图像;
图3是根据一示例性实施例示出的一种图像增强模型的训练装置的结构图;
图4是根据一示例性实施例示出的一种图像增强模型的训练装置的结构图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开实施例中提供一种图像增强模型的训练方法。参照图1,图1是根据一示例性实施例示出的一种图像增强模型的训练方法的流程图。如图1所示,此方法包括:
步骤S11,确定通过拍摄设备拍摄的多个样本图像组。
步骤S12,确定每个样本图像组相关联的目标图像以及训练输入图像组。
步骤S13,构建多个训练对,每个训练对包括一个训练输入图像组和对应的目标图像。
步骤S14,将每个训练输入图像组输入所述图像增强模型,获得所述图像增强模型输出的预测图像。
步骤S15,将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像,并将对应的目标图像的灰度分量图像进行分频处理,获得所述目标图像在所述多个频率区间的灰度分频图像。
步骤S16,使用与每个训练对分别对应的损失函数,训练所述图像增强模型直至收敛;所述损失函数包括与所述多个频率区间一一对应的多个灰度损失分量,每个灰度损失分量是基于每个频率区间内所述预测图像的灰度分频图像与对应的目标图像的灰度分频图像之间的差值确定的,不同的灰度损失分量对应于不同的频率区间。
本实施例中,定义与训练对相关的损失函数,考虑到图像的细节特征主要存在于灰度分量部分的特点,在损失函数中增加图像增强模型使用训练对时的预测图像灰度分量图像的分频信息和目标图像的灰度分量图像的分频信息,在针对不同的训练对使用不同的损失函数时,使损失函数体现出此训练对中预测图像和目标图像的内容信息和语义信息,有效缓解图像增强模型训练过程中的不适定问题导致的过平滑问题。
本公开实施例中提供一种图像增强模型的训练方法,此方法包括图1所示的方法,并且:步骤S12中,确定每个样本图像组相关联的目标图像,包括以下中的一种:
方法一,根据样本图像组中各样本图像计算相同位置的像素平均值获得目标图像。
方法二,根据样本图像组中各样本图像计算相同位置的像素加权平均值获得目标图像。
方法三,从样本图像组中选择第一帧样本图像或最后一帧样本图像作为参考图像,根据样本图像组中各样本图像计算特征点,根据所述参考图像对所述样本图像组中其它样本图像进行特征点对齐操作,将对齐操作后的样本图像进行多帧图像融合,获得目标图像。
方法四,从样本图像组中选择清晰度最高的样本图像作为参考图像,根据样本图像组中各样本图像计算特征点,根据所述参考图像对所述样本图像组中其它样本图像进行特征点对齐操作,将对齐操作后的样本图像进行多帧图像融合,获得目标图像。
其中,计算样本图像的清晰度的方法包括:通过拉普拉斯算子得到所有图像的梯度值,计算每一张图像的梯度值,根据梯度值确定清晰度,梯度值与清晰度呈正比。选择选择清晰度最高的样本图像为选择梯度值最大的样本图像。
确定参考图像后,采用特征点以及光流法将其他输入图像与参考图像对齐,对齐后进行融合处理,融合过程中计算相同位置的像素之间的差异性,这个差异性一般由噪声导致的差异性和局部内容发生变动所产生。根据此差异性决定融合时的权重,局部内容的差异性容易导致融合后产生伪像,而噪声的差异性则有利于去噪,通过调节权重在去噪和去伪像之间获得平衡。通过对图像进行噪声估计,可以知道该组图像的噪声大小,如果噪声较大,则说明其他图像与参考帧之间的差异主要是噪声,则可以适当提升其他图像的权重,使得融合后去噪效果好,反之则保持较低的权重,避免产生伪像。
本实施例中,采用多帧低质量的样本图像融合为一个高质量的目标图像,其中不涉及到噪声模拟和模糊模拟,使目标图像携带了更多样本图像的细节特征,有利于机器图像增强模型对细节特征的学习。
本公开实施例中提供一种图像增强模型的训练方法,此方法包括图1所示的方法,并且:步骤S11中通过拍摄设备进行拍摄时,将拍摄设备固定在稳定的支撑设备(例如三脚架)上进行连续拍摄。同一样本图像组中的样本图像的拍摄场景相同,不同样本图像组中样本图像的拍摄场景不同。例如:拍摄场景包括:近距离拍摄印刷品内容的场景、办公室场景、人物自拍的场景、风景场景、建筑场景等。
在一实施方式中,步骤S12中,确定每个样本图像组相关联的训练输入图像组,包括以下方法中的一种:
方法一,将样本图像组作为训练输入图像组。
方法二,从样本图像组中选择部分样本图像构成训练输入图像组。
此方法二中选择的方式包括以下中的一种:选择拍摄序列中中间位置的多张图像、计算每张图像的清晰度并选择清晰程度排序中前设定比例的多张图像、计算每张图像的清晰度并选择清晰程度排序中前设定数量的多张图像。在一种实现方式中,每个样本图像组中样本图像是第一固定数量时,选出的部分样本图像的数据是第二固定数量,第一固定数量大于第一固定数量。
例如:步骤S11中涉及500个场景,在每个场景下连续拍摄20张图像构成样本图像组。步骤S12中使用上述方法一时,将样本图像组作为训练输入图像组,从而构建出500个训练对,每个训练对包括一个训练输入图像组和一目标图像,每个训练输入图像组包括20张样本图像。步骤S12中使用上述方法二时,从每个样本图像组中选择出10张样本图像构成训练输入图像组。从而构建出500个训练对,每个训练对包括一个训练输入图像组和一目标图像,每个训练输入图像组包括10张样本图像。
本实施例中,通过从每个样本图像组中确定相关联的训练输入图像组的步骤,提供了对样本图像的不同兼容程度的选择权,在对样本图像的兼容程度较高时,使用上述方法一,使样本图像组中样本图像均用于训练;在对样本图像的兼容程度较低时,使用上述方法二,对样本图像组中样本图像进行筛选后,使用筛选出的样本图像用于训练。
本公开实施例中提供一种图像增强模型的方法,此方法包括图1所示的方法,并且步骤S15中:进行分频处理前,计算图像增强模型输出的预测图像的灰度分量图像以及目标图像的灰度分量图像。
摄像设备摄制到的图像一般为RGB式颜色空间的图像,包括红黄蓝三种分量图像,通过以下关系转换为包括灰度、色度、色饱和度三种分量的YUV式颜色空间的图像:
Y=0.299*R+0.587*G+0.114*B;
U=-0.1678*R–0.3313*G+0.5*B;
Y=0.5*R-0.4187*G-0.0813*B。
通过上述转换方式可以获得目标图像G的灰度分量图像Y_G和预测图像R的灰度分量图像Y_R。
摄像设备摄制到的图像为YUV式颜色空间的图像时,从图像中提取出灰度分量图像。
步骤S15中,对目标图像G的灰度分量图像Y_G进行分频处理,获得目标图像G在不同频率区间的灰度分频图像。对预测图像R的灰度分量图像Y_R进行分频处理,获得预测图像R的灰度分量图像Y_R在不同频率区间的灰度分频图像。
本公开实施例中提供一种图像增强模型的方法,此方法包括图1所示的方法,在此方法中,频率区间的个数是2个、3个或3个以上。进行分频处理时,频段区间由高斯滤波的半径决定。例如:原图为A,采用半径为R,方差为0的高斯滤波对A进行高斯滤波得到一个低频图像B,A减去B得到C,C则为高频图像。半径R将决定B和C的区间。R越大,则C的分量越多。同理,可以继续对B进行高斯滤波得到更低频的D,B减去D得到E。E相对于D来说是高频,但是相对于C则是中频。或者,频率区间的数量为两个以上时,采用不同的带通滤波器进行滤波,获得各频率区间对应的分频图像。
在一实施方式中,频率区间的个数为两个,损失函数包括两个灰度损失分量;此两个灰度损失分量包括低频损失分量和高频损失分量。
步骤S15中,将预测图像的灰度分量图像进行分频处理,获得预测图像在多个频率区间的灰度分频图像,包括:对预测图像的灰度分量图像进行低通滤波,获得第一灰度低频图像,计算预测图像的灰度分量图像与第一灰度低频图像的差值作为第一灰度高频图像;预测图像在两个频率区间的灰度分频图像包括第一灰度低频图像和第一灰度高频图像。
步骤S15中将目标图像的灰度分量图像进行分频处理,获得目标图像在多个频率区间的灰度分频图像,包括:对目标图像的灰度分量图像进行低通滤波,获得第二灰度低频图像,计算目标图像的灰度分量图像与第二灰度低频图像的差值作为第二灰度高频图像;目标图像在两个频率区间的灰度分频图像包括第二灰度低频图像和第二灰度高频图像。
例如:对目标图像G的灰度分量图像Y_G进行两个频率区间的分频处理时,获得目标图像G的灰度低频图像Y_G_baselayer,将灰度分量图像Y_G与灰度低频图像Y_G_baselayer相减获得获得目标图像G的灰度高频图像Y_G_detaillayer。如图2所示的三个图像中,从左至右依次为一种示例中目标图像的灰度分量图像、灰度低频图像、灰度高频图像。
在一实施方式中,频率区间的个数为两个,损失函数包括两个灰度损失分量;此两个灰度损失分量包括低频损失分量和高频损失分量。
步骤S15中,将预测图像的灰度分量图像进行分频处理,获得预测图像在多个频率区间的灰度分频图像,包括:对所述预测图像的灰度分量图像进行高通滤波,获得第一灰度高频图像,计算所述预测图像的灰度分量图像与所述第一灰度高频图像的差值作为第一灰度低频图像;所述预测图像在两个频率区间的灰度分频图像包括所述第一灰度低频图像和第一灰度高频图像。
步骤S15中,将所述目标图像的灰度分量图像进行分频处理,获得所述目标图像在多个频率区间的灰度分频图像,包括:对所述目标图像的灰度分量图像进行高通滤波,获得第二灰度高频图像,计算所述目标图像的灰度分量图像与所述第二灰度高频图像的差值作为第二灰度低频图像;所述目标图像在两个频率区间的灰度分频图像包括所述第二灰度低频图像和第二灰度高频图像。
损失函数M_Loss是一个矩阵,损失函数包括各灰度损失分量的和,如公式(1)所示:
M_Loss=K1×Y_detaillayer_dif+K2×Y_baselayer_dif (1)
其中,K1是高频区间对应的加权系数,Y_detaillayer_dif是目标图像G的灰度分量图像Y_G的灰度高频图像Y_G_detaillayer与预测图像R的灰度分量图像Y_R的灰度高频图像Y_R_detaillayer之间的差。
K2是低频区间对应的加权系数,Y_baselayer_dif是目标图像G的灰度分量图像Y_G的灰度低频图像Y_R_baselayer与预测图像R的灰度分量图像Y_R的灰度低频图像Y_R_baselayer之间的差。
K1大于K2,为了更多体现图像细节,使越高频的分量的权重较大,表征频率越高的频率区间对应的灰度损失分量中的加权系数越大。表征频率是表示频率区间位置的频率,例如表征频率是频率区间的最高频率、最低频率、中心频率等,或者表征频率同时包括最高频率和最低频率。不同的频率区间之间不具有重叠部分。
在一实施方式中,频率区间的个数为三个,损失函数包括三个灰度损失分量;此三个灰度损失分量包括低频损失分量、中频损失分量和高频损失分量。
损失函数M_Loss是一个矩阵,损失函数包括各灰度损失分量的和,如公式(2)所示:
M_Loss=X1×Y_FHlayer_dif+X2×Y_FMlayer_dif+X3×Y_FLlayer_dif (2)
其中,X1是高频区间对应的加权系数,Y_FHlayer_dif是目标图像G的灰度分量图像Y_G的灰度高频图像Y_G_FHlayer与预测图像R的灰度分量图像Y_R的灰度高频图像Y_R_FHlayer之间的差。
X2是是中频区间对应的加权系数,Y_FMlayer_dif是目标图像G的灰度分量图像Y_G的灰度中频图像Y_G_FMlayer与预测图像R的灰度分量图像Y_R的灰度中频图像Y_R_FMlayer之间的差。
X3是是低频区间对应的加权系数,Y_FLlayer_dif是目标图像G的灰度分量图像Y_G的灰度低频图像Y_G_FLlayer与预测图像R的灰度分量图像Y_R的灰度低频图像Y_R_FLlayer之间的差。
表征频率越高的频率区间对应的灰度损失分量中的加权系数越大,即X1大于X2,X2大于X3。
在一实施方式中,频率区间的个数为四个,损失函数包括四个灰度损失分量;此四个灰度损失分量按照频率从高到低依次包括第一损失分量、第二损失分量、第三损失分量和第四损失分量。
同理,损失函数还可以包括四个以上的灰度损失分量。
本实施例中,使表征频率越高的频率区间对应的灰度损失分量中的加权系数越大,从而体现更多的图像细节,使损失函数表现更多图像细节的信息。
本公开实施例中提供一种图像增强模型的方法,此方法包括图1所示的方法,此方法还包括:对每个训练对中的目标图像的灰度分量图像进行边缘检测获得边缘图像Y_G_edge,根据边缘图像Y_G_edge确定边缘概率图Y_G_P。损失函数中,表征频率最高的频率区间对应的灰度损失分量包括预测图像在此频率区间的灰度分频图像和对应的目标图像在此频率区间的灰度分频图像之间的差值与边缘概率图的点乘矩阵。
进行边缘检测的方法有多种,例如采用Canny算子检测方法,此检测方法中包括以下步骤中的至少一种:
一,高斯滤波处理步骤,用于去除噪声和平滑处理。
二,应用非最大抑制(non-maximum suppression)技术来消除边误检,保留每个像素点上梯度强度的极大值,而删掉极大值之外的其他值。
三,应用双阈值的方法来决定可能的(潜在的)边界,设定两个阈值。将大于高阈值的即为强边缘,小于低阈值的不为边,中间的为待定边缘。
四,利用滞后技术来跟踪边界,将待定边缘与强边缘连接认为是边缘,反之不为边缘。
在一实施方式中,根据边缘图像Y_G_edge确定边缘概率图Y_G_P,包括:对边缘图像Y_G_edge进行导向滤波获得边缘概率图Y_G_P,所述导向滤波中的引导图是目标图像或者是目标图像的灰度分量图像。导向滤波是一种图像滤波技术,通过一张引导图对边缘图像Y_G_edge进行滤波处理,使得最后的预测图像尽可能的保留检测得到的边缘,同时对于被误检查为边缘的噪声尽可能的去掉,最终得到一个概率图Y_G_P,此概率图中每个像素中的概率值表示此像素是边缘点的概率。
在一实施方式中,损失函数包括两个灰度损失分量;此两个灰度损失分量包括低频损失分量和高频损失分量。
损失函数M_Loss是一个矩阵,损失函数包括各灰度损失分量的和,如公式(3)所示:
M_Loss=K1×Y_G_P*Y_detaillayer_dif+K2×Y_baselayer_dif (3)
其中,K1是高频区间对应的加权系数,Y_G_P是对目标图像的灰度分量图像的边缘图像Y_G_edge进行导向滤波获得的边缘概率图Y_G_P,Y_detaillayer_dif是目标图像G的灰度分量图像Y_G的灰度高频图像Y_G_detaillayer与预测图像R的灰度分量图像Y_R的灰度高频图像Y_R_detaillayer之间的差,*表示矩阵点乘运算。K2是低频区间的加权系数,Y_baselayer_dif是预测图像R的灰度分量图像Y_R的灰度低频图像Y_R_baselayer与预测图像R的灰度分量图像Y_R的灰度低频图像Y_R_baselayer之间的差。
在一实施方式中,频率区间的个数为3个时,划分低频区间、中频区间和高频区间此三个区间,损失函数包括三个灰度损失分量;所述三个灰度损失分量包括低频损失分量、中频损失分量和高频损失分量。
损失函数是一个矩阵M_Loss,损失函数包括各灰度损失分量的和,如公式(4)所示:
M_Loss=X1×Y_G_P*Y_FHlayer_dif+X2×Y_FMlayer_dif+X3×Y_FLlayer_dif(4)
其中,X1是高频区间对应的加权系数,Y_G_P是对目标图像的灰度分量图像的边缘图像Y_G_edge进行导向滤波获得的概率图像Y_G_P,Y_FHlayer_dif是目标图像G的灰度分量图像Y_G的灰度高频图像Y_G_FHlayer与预测图像R的灰度分量图像Y_R的灰度高频图像Y_R_FHlayer之间的差,*表示矩阵点乘运算。
X2是中频区间对应的加权系数,Y_FMlayer_dif是预测图像R的灰度分量图像Y_R的灰度中频图像Y_R_FMlayer与预测图像R的灰度分量图像Y_R灰度中频图像Y_R_FMlayer之间的差。
X3是低频区间对应的加权系数,Y_FLlayer_dif是预测图像R的灰度分量图像Y_R的灰度低频图像Y_R_FLlayer与预测图像R的灰度分量图像Y_R的灰度低频图像Y_R_FLlayer之间的差。
本实施例中,通过在表征频率最高的频率区间对应的灰度损失分量中增加概率图像的权重,在损失函数中增加图像的语义信息以解决样本不平衡的问题。
本公开实施例中提供一种图像增强模型的方法,此方法包括图1所示的方法,此方法中,损失函数在包括各灰度损失分量的和的基础上,还包括色度损失分量和/或色饱和度损失分量。具体的:
损失函数包括多个灰度损失分量的和,与色度损失分量的和。
或者,损失函数包括多个灰度损失分量的和,与色饱和度损失分量的和。
或者,损失函数包括多个灰度损失分量的和,与色度损失分量以及色饱和度损失分量的和。
所述色度损失分量是所述图像增强模型输出的预测图像的色度分量图像和对应的目标图像的色度分量图像之间的差;所述色饱和度损失分量是所述图像增强模型输出的预测图像的色饱和度分量图像和对应的目标图像的色饱和度分量图像之间的差。
在一实施方式中,损失函数在公式(1)的基础上,损失函数如公式(5)(6)(7)中任一公式所示:
M_Loss=K1×Y_detaillayer_dif+K2×Y_baselayer_dif+U_dif (5)
M_Loss=K1×Y_detaillayer_dif+K2×Y_baselayer_dif+V_dif (6)
M_Loss=K1×Y_detaillayer_dif+K2×Y_baselayer_dif+U_dif+V_dif (7)
损失函数在公式(3)的基础上,损失函数如公式(8)(9)(10)中任一公式所示:
M_Loss=K1×Y_G_P*Y_detaillayer_dif+K2×Y_baselayer_dif+U_dif (8)
M_Loss=K1×Y_G_P*Y_detaillayer_dif+K2×Y_baselayer_dif+V_dif (9)
M_Loss=K1×Y_G_P*Y_detaillayer_dif+K2×Y_baselayer_dif+U_dif+V_dif(10)
其中,U_dif是目标图像G的色度分量图像U_G与预测图像R的色度分量图像U_R的差,V_dif是目标图像G的色饱和度分量图像V_G与预测图像R的色度分量图像V_R的差。
在频率区间的个数大于2的情况下,损失函数的设置方式与上述频率区间的个数为2的情况的同理,此处不再赘述。
本公开实施例中提供一种图像增强方法,此方法包括:使用上述训练方法对图像增强模型训练成功后,使用训练成功的图像增强模型对待处理图像进行增强处理。
本公开实施例中提供一种图像增强模型的训练装置。参照图3,图3是根据一示例性实施例示出的一种图像增强模型的训练装置的结构图。如图3所示,此装置包括:
第一确定模块301,被配置为确定通过拍摄设备拍摄的多个样本图像组;
第二确定模块302,被配置为确定每个样本图像组相关联的目标图像以及训练输入图像组;
构建模块303,被配置为构建多个训练对,每个训练对包括一个训练输入图像组和对应的目标图像;
输入模块304,被配置为将每个训练输入图像组输入所述图像增强模型,获得所述图像增强模型输出的预测图像;
分频模块305,被配置为将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像,并将对应的目标图像的灰度分量图像进行分频处理,获得所述目标图像在所述多个频率区间的灰度分频图像;
训练模块306,被配置为使用与每个训练对分别对应的损失函数,训练所述图像增强模型直至收敛;所述损失函数包括与所述多个频率区间一一对应的多个灰度损失分量,每个灰度损失分量是基于每个频率区间内所述预测图像的灰度分频图像与对应的目标图像的灰度分频图像之间的差值确定的,不同的灰度损失分量对应于不同的频率区间。
在一种实施方式中,损失函数中损失表征频率越高的频率区间对应的灰度损失分量中的加权系数越大。
本公开实施例中提供一种图像增强模型的训练装置,此训练装置包括图3所示的训练装置,并且其中所述损失函数包括两个灰度损失分量;所述两个灰度损失分量包括低频损失分量和高频损失分量;
所述分频模块305,还被配置为使用以下方法将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像:对所述预测图像的灰度分量图像进行低通滤波,获得第一灰度低频图像,计算所述预测图像的灰度分量图像与所述第一灰度低频图像的差值作为第一灰度高频图像;所述预测图像在两个频率区间的灰度分频图像包括所述第一灰度低频图像和第一灰度高频图像。
所述分频模块305,还被配置为使用以下方法将所述目标图像的灰度分量图像进行分频处理,获得所述目标图像在多个频率区间的灰度分频图像:对所述目标图像的灰度分量图像进行低通滤波,获得第二灰度低频图像,计算所述目标图像的灰度分量图像与所述第二灰度低频图像的差值作为第二灰度高频图像;所述目标图像在两个频率区间的灰度分频图像包括所述第二灰度低频图像和第二灰度高频图像。
本公开实施例中提供一种图像增强模型的训练装置,此训练装置包括图3所示的训练装置,并且其中所述损失函数包括两个灰度损失分量;所述两个灰度损失分量包括低频损失分量和高频损失分量;
所述分频模块305,还被配置为使用以下方法将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像:对所述预测图像的灰度分量图像进行高通滤波,获得第一灰度高频图像,计算所述预测图像的灰度分量图像与所述第一灰度高频图像的差值作为第一灰度低频图像;所述预测图像在两个频率区间的灰度分频图像包括所述第一灰度低频图像和第一灰度高频图像。
所述分频模块305,还被配置为使用以下方法将所述目标图像的灰度分量图像进行分频处理,获得所述目标图像在多个频率区间的灰度分频图像:对所述目标图像的灰度分量图像进行高通滤波,获得第二灰度高频图像,计算所述目标图像的灰度分量图像与所述第二灰度高频图像的差值作为第二灰度低频图像;所述目标图像在两个频率区间的灰度分频图像包括所述第二灰度低频图像和第二灰度高频图像。
本公开实施例中提供一种图像增强模型的训练装置,此训练装置包括图3所示的训练装置,并且所述装置还包括:
边缘检测模块,被配置为对每个训练对中的目标图像的灰度分量图像进行边缘检测获得边缘图像;
边缘概率计算模块,被配置为根据所述边缘图像确定边缘概率图;
所述损失函数中,表征频率最高的频率区间对应的灰度损失分量包括所述预测图像在此频率区间的灰度分频图像和对应的目标图像在此频率区间的灰度分频图像之间的差值与所述边缘概率图的点乘矩阵。
在一实施方式中,所述边缘概率计算模块,被配置为使用以下方法根据所述边缘图像确定边缘概率图:对所述边缘图像进行导向滤波获得边缘概率图,所述导向滤波中的引导图是所述目标图像或者是所述目标图像的灰度分量图像。
本公开实施例中提供一种图像增强模型的训练装置,此训练装置包括图3所示的训练装置,并且所述损失函数包括多个灰度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色饱和度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色度损失分量以及色饱和度损失分量的和;
所述色度损失分量是所述图像增强模型输出的预测图像的色度分量图像和对应的目标图像的色度分量图像之间的差;所述色饱和度损失分量是所述图像增强模型输出的预测图像的色饱和度分量图像和对应的目标图像的色饱和度分量图像之间的差。
本公开实施例中提供一种图像增强模型的训练装置,此训练装置包括图3所示的训练装置,并且同一样本图像组中的样本图像的拍摄场景相同,不同样本图像组中样本图像的拍摄场景不同;
第二确定模块302,还被配置为使用以下方法中的一种确定每个样本图像组相关联的目标图像:
根据样本图像组中各样本图像计算相同位置的像素平均值获得目标图像;
根据样本图像组中各样本图像计算相同位置的像素加权平均值获得目标图像;
从样本图像组中选择清晰度最高的样本图像、第一帧样本图像或者最后一帧样本图像作为参考图像,根据样本图像组中各样本图像计算特征点,根据所述参考图像对所述样本图像组中其它样本图像进行特征点对齐操作,将对齐操作后的样本图像进行多帧图像融合,获得目标图像;
所述第二确定模块,还被配置为使用以下方法中的一种确定每个样本图像组相关联的训练输入图像组:
将所述样本图像组作为训练输入图像组;
从所述样本图像组中选择部分样本图像构成训练输入图像组。
本公开实施例中提供一种图像增强装置,此训练装置包括上述训练装置以及增强处理模块,所述增强处理模块,被配置为使用所述训练装置训练成功的图像增强模型对待处理图像进行增强处理。
本公开实施例中提供一种图像增强模型的训练装置,此训练装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述存储器中的可执行指令以实现上述方法的步骤。
本公开实施例中提供一种图像增强模型的训练装置一种非临时性计算机可读存储介质,其上存储有可执行指令,其特征在于,该可执行指令被处理器执行时实现上述方法的步骤。
图4是根据一示例性实施例示出的一种图像增强模型的训练装置400的框图。例如,装置400可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图4,装置400可以包括以下一个或多个组件:处理组件402,存储器404,电源组件406,多媒体组件408,音频组件410,输入/输出(I/O)的接口412,传感器组件414,以及通信组件416。
处理组件402通常控制装置400的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件402可以包括一个或多个处理器420来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件402可以包括一个或多个模块,便于处理组件402和其他组件之间的交互。例如,处理组件402可以包括多媒体模块,以方便多媒体组件408和处理组件402之间的交互。
存储器404被配置为存储各种类型的数据以支持在设备400的操作。这些数据的示例包括用于在装置400上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器404可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件406为装置400的各种组件提供电力。电源组件406可以包括电源管理系统,一个或多个电源,及其他与为装置400生成、管理和分配电力相关联的组件。
多媒体组件408包括在所述装置400和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件408包括一个前置摄像头和/或后置摄像头。当设备400处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件410被配置为输出和/或输入音频信号。例如,音频组件410包括一个麦克风(MIC),当装置400处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器404或经由通信组件416发送。在一些实施例中,音频组件410还包括一个扬声器,用于输出音频信号。
I/O接口412为处理组件402和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件414包括一个或多个传感器,用于为装置400提供各个方面的状态评估。例如,传感器组件414可以检测到设备400的打开/关闭状态,组件的相对定位,例如所述组件为装置400的显示器和小键盘,传感器组件414还可以检测装置400或装置400一个组件的位置改变,用户与装置400接触的存在或不存在,装置400方位或加速/减速和装置400的温度变化。传感器组件414可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件414还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件414还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件416被配置为便于装置400和其他设备之间有线或无线方式的通信。装置400可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件416经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件416还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置400可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器404,上述指令可由装置400的处理器420执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (18)
1.一种图像增强模型的训练方法,其特征在于,包括:
确定通过拍摄设备拍摄的多个样本图像组;
确定每个样本图像组相关联的目标图像以及训练输入图像组;
构建多个训练对,每个训练对包括一个训练输入图像组和对应的目标图像;
将每个训练输入图像组输入所述图像增强模型,获得所述图像增强模型输出的预测图像;
将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像,并将对应的目标图像的灰度分量图像进行分频处理,获得所述目标图像在所述多个频率区间的灰度分频图像;
使用与每个训练对分别对应的损失函数,训练所述图像增强模型直至收敛;
所述损失函数包括与所述多个频率区间一一对应的多个灰度损失分量,每个灰度损失分量是基于每个频率区间内所述预测图像的灰度分频图像与对应的目标图像的灰度分频图像之间的差值确定的,不同的灰度损失分量对应于不同的频率区间。
2.如权利要求1所述的训练方法,其特征在于,
表征频率越高的频率区间对应的灰度损失分量中的加权系数越大。
3.如权利要求1所述的训练方法,其特征在于,
所述损失函数包括两个灰度损失分量;所述两个灰度损失分量包括低频损失分量和高频损失分量;
所述将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像,包括:对所述预测图像的灰度分量图像进行低通滤波,获得第一灰度低频图像,计算所述预测图像的灰度分量图像与所述第一灰度低频图像的差值作为第一灰度高频图像所述预测图像在两个频率区间的灰度分频图像包括所述第一灰度低频图像和第一灰度高频图像;
所述将所述目标图像的灰度分量图像进行分频处理,获得所述目标图像在多个频率区间的灰度分频图像,包括:对所述目标图像的灰度分量图像进行低通滤波,获得第二灰度低频图像,计算所述目标图像的灰度分量图像与所述第二灰度低频图像的差值作为第二灰度高频图像;所述目标图像在两个频率区间的灰度分频图像包括所述第二灰度低频图像和第二灰度高频图像。
4.如权利要求1所述的训练方法,其特征在于,
所述损失函数包括两个灰度损失分量;所述两个灰度损失分量包括低频损失分量和高频损失分量;
所述将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像,包括:对所述预测图像的灰度分量图像进行高通滤波,获得第一灰度高频图像,计算所述预测图像的灰度分量图像与所述第一灰度高频图像的差值作为第一灰度低频图像;所述预测图像在两个频率区间的灰度分频图像包括所述第一灰度低频图像和第一灰度高频图像;
所述将所述目标图像的灰度分量图像进行分频处理,获得所述目标图像在多个频率区间的灰度分频图像,包括:对所述目标图像的灰度分量图像进行高通滤波,获得第二灰度高频图像,计算所述目标图像的灰度分量图像与所述第二灰度高频图像的差值作为第二灰度低频图像;所述目标图像在两个频率区间的灰度分频图像包括所述第二灰度低频图像和第二灰度高频图像。
5.如权利要求1所述的训练方法,其特征在于,
所述方法还包括:对每个训练对中的目标图像的灰度分量图像进行边缘检测获得边缘图像,根据所述边缘图像确定边缘概率图;
所述损失函数中,表征频率最高的频率区间对应的灰度损失分量包括所述预测图像在此频率区间的灰度分频图像和对应的目标图像在此频率区间的灰度分频图像之间的差值与所述边缘概率图的点乘矩阵。
6.如权利要求5所述的训练方法,其特征在于,
所述根据所述边缘图像确定边缘概率图,包括:
对所述边缘图像进行导向滤波获得边缘概率图,所述导向滤波中的引导图是所述目标图像或者是所述目标图像的灰度分量图像。
7.如权利要求1所述的训练方法,其特征在于,
所述损失函数包括多个灰度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色饱和度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色度损失分量以及色饱和度损失分量的和;
所述色度损失分量是所述图像增强模型输出的预测图像的色度分量图像和对应的目标图像的色度分量图像之间的差;所述色饱和度损失分量是所述图像增强模型输出的预测图像的色饱和度分量图像和对应的目标图像的色饱和度分量图像之间的差。
8.如权利要求1所述的训练方法,其特征在于,
同一样本图像组中的样本图像的拍摄场景相同,不同样本图像组中样本图像的拍摄场景不同;
所述确定每个样本图像组相关联的目标图像,包括以下中的一种:
根据样本图像组中各样本图像计算相同位置的像素平均值获得目标图像;
根据样本图像组中各样本图像计算相同位置的像素加权平均值获得目标图像;
从样本图像组中选择清晰度最高的样本图像、第一帧样本图像或者最后一帧样本图像作为参考图像,根据样本图像组中各样本图像计算特征点,根据所述参考图像对所述样本图像组中其它样本图像进行特征点对齐操作,将对齐操作后的样本图像进行多帧图像融合,获得目标图像;
所述确定每个样本图像组相关联的训练输入图像组,包括以下中的一种:
将所述样本图像组作为训练输入图像组;
从所述样本图像组中选择部分样本图像构成训练输入图像组。
9.一种图像增强模型的训练装置,其特征在于,包括:
第一确定模块,被配置为确定通过拍摄设备拍摄的多个样本图像组;
第二确定模块,被配置为确定每个样本图像组相关联的目标图像以及训练输入图像组;
构建模块,被配置为构建多个训练对,每个训练对包括一个训练输入图像组和对应的目标图像;
输入模块,被配置为将每个训练输入图像组输入所述图像增强模型,获得所述图像增强模型输出的预测图像;
分频模块,被配置为将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像,并将对应的目标图像的灰度分量图像进行分频处理,获得所述目标图像在所述多个频率区间的灰度分频图像;
训练模块,被配置为使用与每个训练对分别对应的损失函数,训练所述图像增强模型直至收敛;所述损失函数包括与所述多个频率区间一一对应的多个灰度损失分量,每个灰度损失分量是基于每个频率区间内所述预测图像的灰度分频图像与对应的目标图像的灰度分频图像之间的差值确定的,不同的灰度损失分量对应于不同的频率区间。
10.如权利要求9所述的训练装置,其特征在于,
表征频率越高的频率区间对应的灰度损失分量中的加权系数越大。
11.如权利要求9所述的训练装置,其特征在于,
所述损失函数包括两个灰度损失分量;所述两个灰度损失分量包括低频损失分量和高频损失分量;
所述分频模块,还被配置为使用以下方法将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像:对所述预测图像的灰度分量图像进行低通滤波,获得第一灰度低频图像,计算所述预测图像的灰度分量图像与所述第一灰度低频图像的差值作为第一灰度高频图像;所述预测图像在两个频率区间的灰度分频图像包括所述第一灰度低频图像和第一灰度高频图像;
还被配置为使用以下方法将所述目标图像的灰度分量图像进行分频处理,获得所述目标图像在多个频率区间的灰度分频图像:对所述目标图像的灰度分量图像进行低通滤波,获得第二灰度低频图像,计算所述目标图像的灰度分量图像与所述第二灰度低频图像的差值作为第二灰度高频图像;所述目标图像在两个频率区间的灰度分频图像包括所述第二灰度低频图像和第二灰度高频图像。
12.如权利要求9所述的训练装置,其特征在于,
所述损失函数包括两个灰度损失分量;所述两个灰度损失分量包括低频损失分量和高频损失分量;
所述分频模块,还被配置为使用以下方法将所述预测图像的灰度分量图像进行分频处理,获得所述预测图像在多个频率区间的灰度分频图像:对所述预测图像的灰度分量图像进行高通滤波,获得第一灰度高频图像,计算所述预测图像的灰度分量图像与所述第一灰度高频图像的差值作为第一灰度低频图像;所述预测图像在两个频率区间的灰度分频图像包括所述第一灰度低频图像和第一灰度高频图像;
还被配置为使用以下方法将所述目标图像的灰度分量图像进行分频处理,获得所述目标图像在多个频率区间的灰度分频图像:对所述目标图像的灰度分量图像进行高通滤波,获得第二灰度高频图像,计算所述目标图像的灰度分量图像与所述第二灰度高频图像的差值作为第二灰度低频图像;所述目标图像在两个频率区间的灰度分频图像包括所述第二灰度低频图像和第二灰度高频图像。
13.如权利要求9所述的训练装置,其特征在于,
所述装置还包括:
边缘检测模块,被配置为对每个训练对中的目标图像的灰度分量图像进行边缘检测获得边缘图像;
边缘概率计算模块,被配置为根据所述边缘图像确定边缘概率图;
所述损失函数中,表征频率最高的频率区间对应的灰度损失分量包括所述预测图像在此频率区间的灰度分频图像和对应的目标图像在此频率区间的灰度分频图像之间的差值与所述边缘概率图的点乘矩阵。
14.如权利要求13所述的训练装置,其特征在于,
所述边缘概率计算模块,被配置为使用以下方法根据所述边缘图像确定边缘概率图:对所述边缘图像进行导向滤波获得边缘概率图,所述导向滤波中的引导图是所述目标图像或者是所述目标图像的灰度分量图像。
15.如权利要求9所述的训练装置,其特征在于,
所述损失函数包括多个灰度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色饱和度损失分量的和;
或者,所述损失函数包括多个灰度损失分量的和,与色度损失分量以及色饱和度损失分量的和;
所述色度损失分量是所述图像增强模型输出的预测图像的色度分量图像和对应的目标图像的色度分量图像之间的差;所述色饱和度损失分量是所述图像增强模型输出的预测图像的色饱和度分量图像和对应的目标图像的色饱和度分量图像之间的差。
16.如权利要求9所述的训练装置,其特征在于,
同一样本图像组中的样本图像的拍摄场景相同,不同样本图像组中样本图像的拍摄场景不同;
第二确定模块,还被配置为使用以下方法中的一种确定每个样本图像组相关联的目标图像:
根据样本图像组中各样本图像计算相同位置的像素平均值获得目标图像;
根据样本图像组中各样本图像计算相同位置的像素加权平均值获得目标图像;
从样本图像组中选择清晰度最高的样本图像、第一帧样本图像或者最后一帧样本图像作为参考图像,根据样本图像组中各样本图像计算特征点,根据所述参考图像对所述样本图像组中其它样本图像进行特征点对齐操作,将对齐操作后的样本图像进行多帧图像融合,获得目标图像;
所述第二确定模块,还被配置为使用以下方法中的一种确定每个样本图像组相关联的训练输入图像组:
将所述样本图像组作为训练输入图像组;
从所述样本图像组中选择部分样本图像构成训练输入图像组。
17.一种图像增强模型的训练装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述存储器中的可执行指令以实现权利要求1至8中任一项所述方法的步骤。
18.一种非临时性计算机可读存储介质,其上存储有可执行指令,其特征在于,该可执行指令被处理器执行时实现权利要求1至8中任一项所述方法的步骤。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010534243.9A CN111709890B (zh) | 2020-06-12 | 2020-06-12 | 一种图像增强模型的训练方法、装置及存储介质 |
US17/147,714 US11475243B2 (en) | 2020-06-12 | 2021-01-13 | Training method and device for an image enhancement model, and storage medium |
KR1020210007168A KR102612632B1 (ko) | 2020-06-12 | 2021-01-19 | 이미지 강화 모델의 트레이닝 방법, 장치 및 저장 매체 |
EP21155377.1A EP3923234B1 (en) | 2020-06-12 | 2021-02-05 | Training method and device for an image enhancement model, and storage medium |
JP2021018016A JP7100729B2 (ja) | 2020-06-12 | 2021-02-08 | 画像強調モデルのトレーニング方法、装置及び記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010534243.9A CN111709890B (zh) | 2020-06-12 | 2020-06-12 | 一种图像增强模型的训练方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111709890A true CN111709890A (zh) | 2020-09-25 |
CN111709890B CN111709890B (zh) | 2023-11-24 |
Family
ID=72540029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010534243.9A Active CN111709890B (zh) | 2020-06-12 | 2020-06-12 | 一种图像增强模型的训练方法、装置及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11475243B2 (zh) |
EP (1) | EP3923234B1 (zh) |
JP (1) | JP7100729B2 (zh) |
KR (1) | KR102612632B1 (zh) |
CN (1) | CN111709890B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561818A (zh) * | 2020-12-14 | 2021-03-26 | 英特灵达信息技术(深圳)有限公司 | 一种图像增强方法、装置、电子设备及存储介质 |
WO2022194344A1 (en) * | 2021-03-16 | 2022-09-22 | Huawei Technologies Co., Ltd. | Learnable augmentation space for dense generative adversarial networks |
CN116152123A (zh) * | 2023-04-21 | 2023-05-23 | 荣耀终端有限公司 | 图像处理方法、电子设备及可读存储介质 |
CN116386118A (zh) * | 2023-04-17 | 2023-07-04 | 广州番禺职业技术学院 | 一种基于人像识别的粤剧匹配化妆系统及其方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111709890B (zh) * | 2020-06-12 | 2023-11-24 | 北京小米松果电子有限公司 | 一种图像增强模型的训练方法、装置及存储介质 |
EP4064217A1 (en) * | 2021-03-27 | 2022-09-28 | Tata Consultancy Services Limited | Extracting region of interest from scanned images and determining an associated image type thereof |
CN115578383B (zh) * | 2022-11-23 | 2023-04-07 | 惠州威尔高电子有限公司 | 基于全景图像的厚铜pcb板检测方法 |
CN115861380B (zh) * | 2023-02-16 | 2023-06-06 | 深圳市瓴鹰智能科技有限公司 | 雾天低照度场景下端到端无人机视觉目标跟踪方法及装置 |
CN116993720B (zh) * | 2023-09-25 | 2024-01-09 | 深圳市希格莱特科技有限公司 | 用于电子烟pcb板的生产缺陷识别方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108492271A (zh) * | 2018-03-26 | 2018-09-04 | 中国电子科技集团公司第三十八研究所 | 一种融合多尺度信息的自动图像增强系统及方法 |
CN110210524A (zh) * | 2019-05-13 | 2019-09-06 | 东软医疗系统股份有限公司 | 一种图像增强模型的训练方法、图像增强方法及装置 |
WO2019192121A1 (zh) * | 2018-04-04 | 2019-10-10 | 平安科技(深圳)有限公司 | 双通道神经网络模型训练及人脸比对方法、终端及介质 |
US20190356905A1 (en) * | 2018-05-17 | 2019-11-21 | Niantic, Inc. | Self-supervised training of a depth estimation system |
US20200051217A1 (en) * | 2018-08-07 | 2020-02-13 | BlinkAI Technologies, Inc. | Artificial intelligence techniques for image enhancement |
CN110798690A (zh) * | 2019-08-23 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 视频解码方法、环路滤波模型的训练方法、装置和设备 |
US20200058112A1 (en) * | 2018-08-20 | 2020-02-20 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method for Image Processing, Electronic Device, and Non-Transitory Storage Medium |
CN110827253A (zh) * | 2019-10-30 | 2020-02-21 | 北京达佳互联信息技术有限公司 | 一种目标检测模型的训练方法、装置及电子设备 |
CN111160448A (zh) * | 2019-12-26 | 2020-05-15 | 北京达佳互联信息技术有限公司 | 一种图像分类模型的训练方法及装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8866936B2 (en) * | 2008-07-24 | 2014-10-21 | Florida State University of Research Foundation | Systems and methods for training an active random field for real-time image denoising |
US9667842B2 (en) | 2014-08-30 | 2017-05-30 | Apple Inc. | Multi-band YCbCr locally-adaptive noise modeling and noise reduction based on scene metadata |
JP6957197B2 (ja) | 2017-05-17 | 2021-11-02 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
WO2019003434A1 (ja) | 2017-06-30 | 2019-01-03 | 株式会社島津製作所 | 放射線治療用追跡装置、位置検出装置および動体追跡方法 |
JP2019067078A (ja) * | 2017-09-29 | 2019-04-25 | 国立大学法人 筑波大学 | 画像処理方法、及び画像処理プログラム |
KR20190060606A (ko) * | 2017-11-24 | 2019-06-03 | 삼성전자주식회사 | 의료 영상 진단 장치 및 방법 |
WO2019134879A1 (en) | 2018-01-03 | 2019-07-11 | Koninklijke Philips N.V. | Full dose pet image estimation from low-dose pet imaging using deep learning |
CN109214990A (zh) | 2018-07-02 | 2019-01-15 | 广东工业大学 | 一种基于Inception模型的深度卷积神经网络图像去噪方法 |
EP3837636B1 (en) | 2018-08-15 | 2024-03-27 | Hyperfine, Inc. | Deep learning techniques for suppressing artefacts in magnetic resonance images |
WO2020150264A1 (en) * | 2019-01-15 | 2020-07-23 | Portland State University | Feature pyramid warping for video frame interpolation |
CN110188776A (zh) | 2019-05-30 | 2019-08-30 | 京东方科技集团股份有限公司 | 图像处理方法及装置、神经网络的训练方法、存储介质 |
CN110782034A (zh) | 2019-10-31 | 2020-02-11 | 北京小米智能科技有限公司 | 神经网络的训练方法、装置及存储介质 |
CN110827219B (zh) | 2019-10-31 | 2023-04-07 | 北京小米智能科技有限公司 | 图像处理模型的训练方法、装置及介质 |
CN111476737B (zh) * | 2020-04-15 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、智能设备及计算机可读存储介质 |
CN111709890B (zh) * | 2020-06-12 | 2023-11-24 | 北京小米松果电子有限公司 | 一种图像增强模型的训练方法、装置及存储介质 |
US11908233B2 (en) * | 2020-11-02 | 2024-02-20 | Pinscreen, Inc. | Normalization of facial images using deep neural networks |
-
2020
- 2020-06-12 CN CN202010534243.9A patent/CN111709890B/zh active Active
-
2021
- 2021-01-13 US US17/147,714 patent/US11475243B2/en active Active
- 2021-01-19 KR KR1020210007168A patent/KR102612632B1/ko active IP Right Grant
- 2021-02-05 EP EP21155377.1A patent/EP3923234B1/en active Active
- 2021-02-08 JP JP2021018016A patent/JP7100729B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108492271A (zh) * | 2018-03-26 | 2018-09-04 | 中国电子科技集团公司第三十八研究所 | 一种融合多尺度信息的自动图像增强系统及方法 |
WO2019192121A1 (zh) * | 2018-04-04 | 2019-10-10 | 平安科技(深圳)有限公司 | 双通道神经网络模型训练及人脸比对方法、终端及介质 |
US20190356905A1 (en) * | 2018-05-17 | 2019-11-21 | Niantic, Inc. | Self-supervised training of a depth estimation system |
US20200051217A1 (en) * | 2018-08-07 | 2020-02-13 | BlinkAI Technologies, Inc. | Artificial intelligence techniques for image enhancement |
US20200058112A1 (en) * | 2018-08-20 | 2020-02-20 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method for Image Processing, Electronic Device, and Non-Transitory Storage Medium |
CN110210524A (zh) * | 2019-05-13 | 2019-09-06 | 东软医疗系统股份有限公司 | 一种图像增强模型的训练方法、图像增强方法及装置 |
CN110798690A (zh) * | 2019-08-23 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 视频解码方法、环路滤波模型的训练方法、装置和设备 |
CN110827253A (zh) * | 2019-10-30 | 2020-02-21 | 北京达佳互联信息技术有限公司 | 一种目标检测模型的训练方法、装置及电子设备 |
CN111160448A (zh) * | 2019-12-26 | 2020-05-15 | 北京达佳互联信息技术有限公司 | 一种图像分类模型的训练方法及装置 |
Non-Patent Citations (2)
Title |
---|
吴从中;陈曦;季栋;詹曙;: "结合深度残差学习和感知损失的图像去噪" * |
姚哲维;杨丰;黄靖;刘娅琴;: "改进型循环生成对抗网络的血管内超声图像增强" * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561818A (zh) * | 2020-12-14 | 2021-03-26 | 英特灵达信息技术(深圳)有限公司 | 一种图像增强方法、装置、电子设备及存储介质 |
CN112561818B (zh) * | 2020-12-14 | 2024-05-28 | 英特灵达信息技术(深圳)有限公司 | 一种图像增强方法、装置、电子设备及存储介质 |
WO2022194344A1 (en) * | 2021-03-16 | 2022-09-22 | Huawei Technologies Co., Ltd. | Learnable augmentation space for dense generative adversarial networks |
CN116386118A (zh) * | 2023-04-17 | 2023-07-04 | 广州番禺职业技术学院 | 一种基于人像识别的粤剧匹配化妆系统及其方法 |
CN116386118B (zh) * | 2023-04-17 | 2024-04-05 | 广州番禺职业技术学院 | 一种基于人像识别的粤剧匹配化妆系统及其方法 |
CN116152123A (zh) * | 2023-04-21 | 2023-05-23 | 荣耀终端有限公司 | 图像处理方法、电子设备及可读存储介质 |
CN116152123B (zh) * | 2023-04-21 | 2023-09-19 | 荣耀终端有限公司 | 图像处理方法、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3923234B1 (en) | 2023-02-01 |
JP2021197149A (ja) | 2021-12-27 |
CN111709890B (zh) | 2023-11-24 |
US20210390340A1 (en) | 2021-12-16 |
JP7100729B2 (ja) | 2022-07-13 |
KR102612632B1 (ko) | 2023-12-12 |
US11475243B2 (en) | 2022-10-18 |
KR20210154710A (ko) | 2021-12-21 |
EP3923234A1 (en) | 2021-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111709890B (zh) | 一种图像增强模型的训练方法、装置及存储介质 | |
CN109345485B (zh) | 一种图像增强方法、装置、电子设备及存储介质 | |
US11580327B2 (en) | Image denoising model training method, imaging denoising method, devices and storage medium | |
CN109859144B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
RU2669511C2 (ru) | Способ и устройство для идентификации типа изображения | |
CN108154465B (zh) | 图像处理方法及装置 | |
CN108154466B (zh) | 图像处理方法及装置 | |
EP3816927B1 (en) | Method and apparatus for training image processing models, and storage medium | |
CN112614064A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN110619610A (zh) | 图像处理方法及装置 | |
US10204403B2 (en) | Method, device and medium for enhancing saturation | |
CN105791790A (zh) | 图像处理方法及装置 | |
CN104992416B (zh) | 图像增强方法和装置、智能设备 | |
CN112288657B (zh) | 图像处理方法、图像处理装置及存储介质 | |
CN104536713B (zh) | 显示图像中的字符的方法及装置 | |
CN114066784A (zh) | 一种图像处理方法、装置和存储介质 | |
EP3273437A1 (en) | Method and device for enhancing readability of a display | |
WO2022226963A1 (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN112950503A (zh) | 训练样本的生成方法及装置、真值图像的生成方法及装置 | |
WO2023231009A1 (zh) | 一种对焦方法、装置及存储介质 | |
CN117455782A (zh) | 图像增强方法、图像增强装置及存储介质 | |
CN118485593A (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN116546320A (zh) | 摄像头对焦方法、装置、电子设备和存储介质 | |
CN115375553A (zh) | 图像处理方法、装置及存储介质 | |
CN109034068A (zh) | 视频处理方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |