CN103413286B - 一种基于学习的高动态范围与高分辨率图像联合重建方法 - Google Patents
一种基于学习的高动态范围与高分辨率图像联合重建方法 Download PDFInfo
- Publication number
- CN103413286B CN103413286B CN201310334142.7A CN201310334142A CN103413286B CN 103413286 B CN103413286 B CN 103413286B CN 201310334142 A CN201310334142 A CN 201310334142A CN 103413286 B CN103413286 B CN 103413286B
- Authority
- CN
- China
- Prior art keywords
- image
- hdr
- ldr
- sample
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于学习的高动态范围与高分辨率图像联合重建方法,算法分为离线训练和在线学习两部分。离线部分包括学习样本采集、组织和分类预测器训练部分。样本采集过程根据场景亮度不同分为三类分别进行。采用聚类方法对样本文件进行组织。然后,通过线性或非线性预测器学习方法对分类预测器进行训练。在线重建部分对输入的多幅具有不同曝光参数的LR‑LDR图像进行HDR‑HR重建。首先,通过输入图像的平均图像进行场景的背景亮度分类;然后,根据亮度分类结果,利用离线训练部分训练好的分类预测器对输入图像进行高动态范围和高分辨率细节信息的预测,最终重建细节信息。该发明可对高对比度场景进行有效成像,本发明可用于夜晚街景监控图像处理。
Description
技术领域
本发明涉及数字图像处理方法,特别涉及一种基于学习的高动态范围与高分辨率图像联合重建方法。
背景技术
受到图像成像设备分辨率以及亮度动态范围的影响,现有的普通摄像机难以对高对比度场景进行较远距离的高质量成像。高质量的图像在有效表现高对比度场景的同时,也应当具有较高的空间分辨率。针对图像的高动态范围图像显示和空间分辨率的重建问题,许多学者已进行了一些卓有成效的研究工作,但他们基本上都是分别独立进行的。现有的超分辨率复原技术通常假设多幅图像的曝光参数是不变的、摄像机响应函数的参数以及噪声参数是已知的;但是,在真实世界中所获取的图像通常对以上假设条件难以满足。因此,在统一技术框架中重建高动态范围和高分辨率图像,对图像融合的理论基础和实际应用都具有一定的价值。该发明可对高对比度场景进行有效成像,可用于夜街景监控图像处理或为摄影艺术家提供数码照片处理工具。
发明内容
本发明的目的在于,将同一场景多幅具有不同曝光参数的低分辨率图像重建为具有高亮度动态范围和高分辨率的高质量图像。这里的高动态范围指场景亮度对比度在256级以上,高分辨率指空间分辨率放大2倍以上。
为了达到上述目的,本发明采用基于示例学习的框架进行高动态范围和高分辨率图像的联合重建。通过对示例样本的学习,建立LDR-LR(Low Dynamic Range – LowResolution)与HDR-HR(High Dynamic Range-High Resolution)之间的映射关系。通过合理组织样本,分类训练学习模型等策略在无需人为交互的情况下实现HDR-HR图像的联合重建。整体流程图如附图1所示。算法分为离线训练和在线重建两部分。其流程图分别如附图2和附图3所示。离线部分包括学习样本采集、组织和分类预测器训练部分。样本采集过程根据场景亮度不同分为三类分别进行。采用K均值聚类方法对样本文件进行组织。然后,对分类预测器进行训练。
在线部分对输入的至少3幅具有不同曝光参数的LR-LDR图像进行HDR-HR重建。首先,通过输入图像的平均图像进行场景的背景亮度分类;然后,根据亮度分类结果,利用离线部分训练好的分类预测器对输入图像进行动态范围和细节信息的预测,最终重建细节信息。
该方法具体包括以下步骤:
(一)离线训练部分
1)示例样本的提取与组织
训练图像库由多组训练图像组成,每组训练图像为同一场景的至少3幅具有不同曝光参数的低分辨率图像和一幅对应的目标图像;图像序列可由分辨率相对较低的相机拍摄具有不同曝光参数的图像ILDR-LRi,i=-1,0,1, 和一幅对应的目标图像IHDR-HR;其中ILDR-LR0为正常曝光图像,即采用自动曝光设置的相机采集的图像,设其曝光时间为t0,ILDR-LR-1为曝光时间小于t0时采集的图像,即曝光时间短的图像,ILDR-LR1为曝光时间大于t0时采集的图像,即曝光时间长的图像;目标图像可通过光学记录仪器记录场景的真实亮度值,以浮点型数据存储形成的HDR图像,然后经过色调映射方法映射为能够体现高对比度场景且可在显示设备上显示的图像。训练图像也可由现有的浮点HDR图像模拟产生。示例样本是由成对的图像信息块组成,即HDR-HR图像块和相应的LDR-LR图像信息块。
HDR-HR和LDR-LR图像细节信息的提取:首先通过双边滤波器对每幅输入图像和HDR-HR图像进行滤波得到图像的基本层,取原图像与基本层图像的差值图像作为细节信息:
LHDR-HR = IHDR-HR-BF(IHDR-HR) (1)
相应的LR-LDR图像的细节信息如下式计算:
LLDR-LRi = ILDR-LRi-BF(Ii) i=-1,0,1 (2)
其中BF(IHDR-HR)为双边滤波器对图像IHDR_HR滤波后的结果图像,即基本层图像。成对的训练样本块从LHDR-HR和LLDR-LRi中提取。其中i取决于背景亮度的聚类分割结果;在亮区从LHDR-HR和LLDR-LR-1中提取样本,在适中区从LHDR-HR和LLDR-LR0中提取样本,而在暗区则从LHDR-HR和LLDR-LR1中提取样本。
在样本采集时,对HDR-HR场景进行了背景亮度分类。具体为对所有LDR-LR图像的平均图像Iaverage进行K均值聚类分割,将图像分为亮区,适中区和暗区3个区域。成对的训练样本块从LHDR-HR和LLDR-LRi中提取;其中i取决于背景亮度的聚类分割结果;在亮区从LHDR-HR和LLDR-LR-1中提取样本,在适中区从LHDR-HR和LLDR-LR0中提取样本,而在暗区则从LHDR-HR和LLDR-LR1中提取样本。
示例样本的提取示意图如附图4所示。LHDR-HR是HDR-HR图像的细节信息,LLDR-LR是LDR-LR图像的细节信息。图像LHDR-HR中任意一个图像块,在图像LLDR-LR中都能找到一个对应的LDR-LR图像块。如图4 b)中所示,当下采样系数为2倍时,LHDR-HR中灰色图像块大小为4×4,则在LLDR-LR中对应的LDR-LR块为深灰色的大小为2×2 的图像块。为了同时考虑图像块与相邻块之间的内容连续性,我们将LLDR-LR中的LDR-LR块向周边扩展一个像素。这样由两幅差图像中对应位置的灰色图像块构成一个成对的训练样本:
其中,[x0,x1,…x15]是LDR-LR图像的16维细节信息,[y0,y1,…y15]是HDR-HR图像的16维细节信息。
样本图像中所有位置的图像块都被选为训练样本,在对Iaverage聚类分割中被划分为同一个类别区域所提取的样本构成一个样本库。因此,可采集适用于亮区、暗区和适中区域的三个样本库。
2)分类预测器及其训练
对于每个样本库,训练一个分类预测器。分类预测的设计部分,分类预测器由一组子预测器构成,每个类别分别对应一个线性子预测器,其框图如图5所示。
对于给定样本库, LDR-LR部分样本的内容一般可被划分为若干类别。每个区域的内容具有相似的特征。算法将输入的LDR-LR样本示例(T中的{xi,i=0,1, 15}部分)进行基于内容的分类。对于每个类别,设计一个简单的预测器,用于预测同一类别的LR-LDR图像块对应的细节信息。样本库的组织与训练具体方法如下:
对LR-LDR样本块进行聚类,将训练样本库划分为若干样本子空间,并通过分类来组织输入图像的内容。每个类别用一个编码矢量表示,得到一个由每类的编码矢量组成的码本。算法将每个样本分为一类,产生一个样本分类的编码列表。
码本的产生过程和训练样本库的分类过程都是离线进行的。利用采集到的3个训练样本库分别进行离线训练。得到码本后,训练样本根据码本进行分类,即对给定样本中的LDR-LR特征矢量,在码本中寻找与之距离最近的编码矢量,然后将该样本划分到该编码矢量所代表的类别中。
训练样本库的类别数为N,聚类后生成一个由N 个码字组成的码本CB,每个码字为一个编码矢量:
其中,R16表示16维实数矢量空间。
分类预测器的训练过程就是训练每个子预测器的过程。
(二)在线重建部分
1)场景背景亮度分类
在线重建部分选用至少3幅低分辨率低动态图像作为实验输入图像,J-1为一曝光时间过短图像,J1为一曝光时间过长图像,J0为一曝光时间正常图像;其中曝光时间正常图像指将相机设置为自动曝光时获取的图像,设其曝光时间为t0,曝光时间过短图像指采用比自动曝光时间t0少的曝光时间拍摄的图像,曝光时间过长的图像指采用比自动曝光时间t0长的曝光时间拍摄的图像。
为了保持场景整体亮度动态范围,选择3幅实验输入图像的平均图像作为LDR-LR图像,对中间图像进行K均值聚类获得场景亮度分类。依据亮度分类结果,在每个区域的像素进行重建的过程中分别采用对应类别的分类预测器进行预测。
预测时,输入数据首先通过样本分类过程产生的码本进行编码,即分类;然后根据其类别选择对应的子预测器进行预测。
2)分类预测学习及其重建
对于重建目标HDR-HR图像JHDR-HR中每个4×4的图像块,在输入的LDR-LR图像都有对应位置的4×4块。这种位置对应关系与训练样本提取过程中的对应关系相同,如图4所示。
对于3幅输入图像获得其平均图像后,对其进行插值放大获得HDR-HR场景的初始估计图像。图像对其进行双边滤波器滤波取差值图像获得输入图像LDR-LR的细节信息。复原过程中,根据样本提取方式对输入LDR-LR图像对应图像块提取相应特征矢量,将该特征矢量作为分类预测器的输入,预测对应位置HDR-HR块的细节信息。整体HDR-HR图像细节信息层的重建过程采用一个4×4 像素的窗口在HDR-HR目标图像坐标上滑动,水平和垂直步长为2个像素。对每个窗口位置进行细节信息预测。图像中相同位置的细节信息由于窗口的重叠会产生多个预测值,将所有的预测值进行平均得到预测结果。
对应于3幅输入图像来说,对应亮区J-1图像相对应的细节比较多,对应暗区J1图像相对应的细节比较多,对应正常区域J0图像相对应的细节比较多。因此,在用分类预测器用于进行细节信息的预测时,分别对应于不同的亮度区域,采用不同的输入图像指导细节信息的预测,最后估计得到的细节信息层叠加到初始估计图像中形成输出HDR-HR图像。
为了保证估计HDR-HR图像结果接近理想高分辨率图像的约束,通常采用LDR-LR图像观测模型约束。我们采用高斯移动平均模型约束。
本发明有益的技术效果是:提供了在基于学习的框架内进行图像高动态范围与超分辨率的联合重建,该方法能同时重建高动态范围与高分辨率的目标图像。
下面结合实例参照附图进行详细说明,以求对本发明的目的、特征和优点得到更深入的理解。
附图说明:
图1、本发明方法整体框图;
图2、离线训练部分流程图;
图3、在线重建部分流程图;
图4、提取训练样本示意图;a) HDR-HR细节图像 b) LDR-LR细节图像
图5、分类预测器框图;
图6、输入具有不同曝光参数的图像;a) Rosette b) Cathedral c) Church
图7、背景亮度分类结果;
图8、细节信息重建示意图;
图9、HDR-HR重建结果;a) Rosette b) Cathedral c) Church
图10、本发明方法与传统插值放大结果局部细节比较。a) Rosette插值局部细节信息 b)本发明方法局部细节信息。
具体实施方式:
以下结合说明书附图,对本发明的实施实例加以说明:
本发明提出方法分为离线训练和在线重建两部分。离线训练部分流程图如图2所示,包括学习样本采集、组织和分类预测器训练部分。样本采集过程根据场景亮度不同分为三类分别进行。采用聚类方法对样本文件进行组织。然后,通过线性或非线性预测器学习方法对分类预测器进行训练。
在线重建部分流程图如图3所示,对输入的3幅具有不同曝光参数的LR-LDR图像进行HDR-HR重建。首先,通过输入图像的平均图像进行场景的背景亮度分类;然后,根据亮度分类结果,利用离线训练部分训练好的分类预测器对输入图像进行高动态范围和高分辨率细节信息的预测,最终重建细节信息。
下面结合实例对该方法进行详细说明。
(1)离线训练部分
训练图像选取现有的浮点HDR图像模拟产生。通过HDRShop V1.0软件将HDR浮点图像模拟映射为3幅具有不同曝光参数的图像。具体产生方法为:首先将浮点HDR图像进行z=2倍下采样,选取正常曝光图像作为I0。曝光参数调小1个f-stop,获得图像作为曝光较小图像I-1;曝光参数以I0为基准,调大一个f-stop作为I1。目标图像通过Photomatix Pro 4.2.3软件将浮点HDR图像映射为一幅HDR-HR场景的目标图像IHDR-HR,映射中采用了默认方法和参数。3幅LDR-LR图像和一幅对应的HDR-HR场景的目标图像IHDR-HR组成一个场景的训练图像。
如在样本采集时,首先对HDR-HR场景进行背景亮度分类。背景亮度分类可采用多种方案,如可对3幅LDR-LR图像的平均图像Iaverage进行K均值聚类,分割为3类,从而将图像分为亮区,适中区和暗区3个区域。根据场景亮度分类结果,亮区样本在曝光时间短的LDR-LR与目标图像对应的细节图中提取;暗区样本在曝光时间长的LDR-LR与目标图像对应的细节图中提取;亮度适中区,则选择曝光时间适中的LDR-LR与目标图像对应的细节图中提取;在每个区域中采集示例样本,构成3个训练样本集。
示例样本是由成对的图像信息块组成,即HDR-HR图像块和相应的LDR-LR图像块。样本提取前,分别对LDR-LR和HDR-HR训练图像进行双边滤波器滤波,然后将原图像减去滤波后的图像得到细节信息。在对应的细节信息图像上,按照图4所示的对应关系采集成对的示例样本。图4中以采样倍数等于2为例。对应的样本分别提取的是16维的向量。
采集到的3个训练样本库分别进行基于聚类的样本组织。可采用K均值聚类,对样本中的LDR-LR部分进行聚类。
对于每个样本库,训练一个分类预测器。分类预测器由一组子预测器构成,每个聚类类别的样本子集对应一个子预测器。子预测器的训练中,对应类别的所有样本为训练样本。其中LDR-LR部分为输入,HDR-HR部分为目标。预测器的目的是描述同类样本LDR-LR和HDR-HR的映射关系。这种映射关系用于指导非训练样本LDR-LR图像序列的HDR-HR图像重建。子预测器采用简单的最小均方误差准则(Least Mean Squares, LMS)预测器。各子预测器的输出为:
其中,x '为训练样本中的矢量:
训练过程中,权值矩阵初始化为零。训练过程采用训练样本库中相应类别的样本子集合进行。
离线训练部分的目的是训练与背景亮度分类数量对应个数的分类预测器,表示不同训练样本集中LDR-LR和HDR-HR之间的映射关系。分类预测器用于在线重建过程中的细节信息预测。
(2)在线重建部分
以3幅不属于训练图像的输入图像为例,J-1为一曝光时间较短图像,J1为曝光时间较长的图像,J0为曝光时间正常图像。如附图5所示。为了保持场景整体亮度动态范围,选择3幅实验输入图像的平均图像Javerage作为LDR-LR初始图像,将初始图像经双线性插值放大到目标图像大小,作为基本层图像。对I0的灰度图像进行K均值聚类获得场景亮度分类,分割出亮区、暗区和亮度适中区。背景亮度分类结果如附图6所示。
对J-1,J0和J1分别进行细节信息提取,即将原图与双边滤波器滤波后的平滑图像的差图像作为LDR-LR细节图像。
依据亮度分类结果,在每个区域的像素进行重建的过程中分别采用对应类别的分类预测器进行预测。预测时,输入数据首先通过样本分类过程产生的码本进行编码,即分类;然后根据其类别选择对应的子预测器进行细节信息预测。
对应于3幅输入图像来说,对于亮区,J-1图像所呈现的细节信息相对较好;对于暗区,J1图像中所成像的细节信息相对较好;对应正常区域J0图像相对应的细节成像较好。因此,在用分类预测器用于进行细节信息的预测时,分别对应于不同的亮度区域,采用不同的输入图像指导细节信息的预测。
细节层的预测是逐块进行的,如附图8所示。由图像Ji的细节图像中4×4图像块经分类预测器预测得到一个4×4的输出结果,作为JHDR-HR图像对应位置的细节信息块。然后,Ji细节图像中的方框以2像素为步长移动,提取细节信息块,再通过分类预测器,得到JHDR-HR图像下一位置的细节信息块。最终,通过逐块预测,得到完整的细节信息层。最后将估计得到的细节信息层叠加到初始估计图像中形成融合的HDR-HR图像。
最后,通过图像观测模型,采用插值放大的基本层图像对融合图像进行模型约束,通过迭代优化:
其中IHDR-HR为重建目标图像,(k, l)为图像JHDR-HR与高斯函数卷积后得到的图像坐标;JLDR-LR(i, j)为输入LDR-LR图像序列平均图像在坐标(i, j)处的像素值;q为放大倍数,Gσ为方差为σ的高斯滤波器,为卷积运算。高斯滤波使HDR-HR估计图像中每个像素为其周围点的加权平均和。迭代求解公式(7)的最优化问题,可得到最终的HDR-HR图像JHDR-HR。
重建结果如图9所示。图10为本发明方法与传统插值放大结果局部细节比较。
本发明基于学习的高动态范围与超分辨率联合重建方法,可对高对比度场景进行有效成像,达到同时重建高分辨率和高动态范围图像的目标。本发明应用范围广泛,可用于夜晚街景监控图像处理以及为摄影艺术家提供数码照片处理工具。离线训练过程可一次训练,多次应用。
Claims (2)
1.一种基于学习的高动态范围与高分辨率图像联合重建方法,高动态范围指场景亮度对比度在256级以上,高分辨率指空间分辨率放大2倍以上;由图像采集设备对高对比度场景进行采集,将光学信号以不同曝光参数转化为多幅数字图像,存储在采集设备的存储器中;计算机读入图像,在处理器中进行高动态范围与高分辨率图像联合重建;所述的联合重建结果以数据库的形式存放并直接存储在本地硬盘,或通过网络存储设备进行网络存储;所述的基于学习的高动态范围与高分辨率图像联合重建方法包括离线训练部分和在线重建两部分;
所述的离线训练部分包括示例样本的采集与组织和分类预测器训练步骤;其目的是通过学习方法获得LDR-LR即低动态范围与低分辨率图像与HDR-HR即高动态范围与高分辨率图像信息之间的映射关系,以指导HDR-HR图像联合重建;
所述的在线重建部分对输入的多幅具有不同曝光参数的LDR-LR图像进行HDR-HR重建;首先,通过输入图像的平均图像进行场景的背景亮度分类;然后,根据亮度分类结果,利用离线部分训练好的分类预测器对输入图像进行高动态范围和高分辨率细节信息预测,最后通过LDR-LR观测模型约束最终重建HDR-HR图像;
所述的离线训练部分,具体步骤如下:
2.1示例样本的提取与组织:
训练图像库由多组训练图像组成,每组训练图像为同一场景的至少3幅具有不同曝光参数的低分辨率图像ILDR-LRi,i=-1,0,1,和一幅对应的目标图像IHDR-HR;其中ILDR-LR0为正常曝光图像,即采用自动曝光设置的相机采集的图像,设其曝光时间为t0,ILDR-LR-1为曝光时间小于t0时采集的图像,即曝光时间短的图像,ILDR-LR1为曝光时间大于t0时采集的图像,即曝光时间长的图像;图像序列由分辨率相对较低的相机拍摄具有不同曝光参数的图像序列得到,目标图像通过光学记录仪器记录场景的真实亮度值,以浮点型数据存储形成的HDR图像,然后经过色调映射方法映射为能够体现高对比度场景且能在显示设备上显示的图像;训练图像或者由现有的浮点HDR图像模拟产生;示例样本是由成对的图像信息块组成,即HDR-HR图像信息块和相应的LDR-LR图像信息块;
HDR-HR和LDR-LR图像细节信息的提取:首先通过双边滤波器对每幅输入图像和HDR-HR图像进行滤波得到图像的基本层,取原图像与基本层图像的差值图像作为细节信息;LHDR-HR为目标图像的细节信息:
LHDR-HR=IHDR-HR-BF(IHDR-HR) (1)
LR-LDR图像的细节信息LLDR-LRi如下式计算:
LLDR-LRi=ILDR-LRi-BF(Ii)i=-1,0,1 (2)
其中BF()为双边滤波器,如公式(3)所示,BF(IHDR_HR)为双边滤波器对图像IHDR_HR滤波后的结果图像,即基本层图像;
其中Ω为图像的定义域,“*”表示乘法,p(x)和p(y)为空间位置x和y(x,y均为2维坐标)处的像素值,和分别为空间域和像素域中的权值核函数,通常均取为高斯函数,δs空域高斯函数的标准差,δr为值域高斯函数的标准差,取值由实验经验设定;
在样本采集时,对HDR-HR场景进行了背景亮度分类;具体为对所有LDR-LR图像的平均图像Iaverage进行聚类分割,将图像分为亮区,适中区和暗区3个区域;成对的训练样本块从LHDR-HR和LLDR-LRi中提取;其中i取决于背景亮度的聚类分割结果;在亮区从LHDR-HR和LLDR-LR-1中提取样本,在适中区从LHDR-HR和LLDR-LR0中提取样本,而在暗区则从LHDR-HR和LLDR-LR1中提取样本;
图像LHDR-HR中任意一个图像信息块,在图像LLDR-LR中都能找到一个对应的LDR-LR图像信息块;当下采样倍数为2时,LHDR-HR中的图像信息块大小设为4×4,则在LLDR-LRi中对应的LDR-LR块为2×2大小的图像信息块;将LLDR-LR中的LDR-LR块向周边扩展一个像素;这样由两幅差图像中对应位置的图像信息块构成一个成对的训练样本:
T=[x0,x1,…x15,y0,y1,…y15]T (4)
其中,[x0,x1,…x15]是LDR-LR图像的16维细节信息,[y0,y1,…y15]是HDR-HR图像的16维细节信息;
样本图像中所有位置的图像信息块都被选为训练样本,在对Iaverage聚类分割中被划分为同一个类别区域所提取的样本构成一个样本库;因此,采集适用于亮区、暗区和适中区域的三个样本库;
2.2分类预测器训练:
对于每个样本库,训练一个分类预测器;分类预测的设计部分,分类预测器由一组子预测器构成,每个类别分别对应一个线性子预测器;
对于给定样本库,LDR-LR部分样本的内容被划分为若干类别;每个区域的内容具有相似的特征;算法将输入的LDR-LR样本示例进行基于内容的分类;对于每个类别,设计一个预测器,用于预测同一类别的LDR-LR图像信息块对应的细节信息;样本库的组织与训练具体方法如下:
对LDR-LR样本块进行聚类,将训练样本库划分为若干样本子空间,并通过分类来组织输入图像的内容;每个类别用一个编码矢量表示,得到一个由每类的编码矢量组成的码本;算法将每个样本分为一类,产生一个样本分类的编码列表;
码本的产生过程和训练样本库的分类过程都是离线进行的;利用采集到的3个训练样本库分别进行离线训练;得到码本后,训练样本根据码本进行分类,即对给定样本中的LDR-LR特征矢量,在码本中寻找与之距离最近的编码矢量,然后将该样本划分到该编码矢量所代表的类别中;
训练样本库的类别数为N,聚类后生成一个由N个码字组成的码本CB,每个码字为一个编码矢量:
CB={ci|ci∈R16,i=0,1,…,N-1} (5)
其中,R16表示16维实数矢量空间,ci为训练样本经K均值聚类后获得的码字,及被分类同一类所有样本的平均值,为16维向量,每维的取值范围为-255到255;
分类预测器的训练过程就是训练每个子预测器的过程;子预测器采用简单的最小均方误差准则预测器;各子预测器的输出yi为:
其中,wi,j为线性预测的权值,其取值为实数;x'为训练样本中的矢量:
x'={x0,x1,…,x15} (7)
训练过程中,权值wi,j初始化为零,具体取值由最小均方误差准则预测器迭代计算获得;训练过程采用训练样本库中相应类别的样本子集合进行。
2.根据权利要求1所述的一种基于学习的高动态范围与高分辨率图像联合重建方法,其特征在于,所述的在线重建部分,具体步骤如下:
3.1场景背景亮度分类:
在线重建部分选用至少3幅低分辨率低动态图像作为实验输入图像,J-1为一曝光时间过短图像,J1为一曝光时间过长图像,J0为一曝光时间正常图像;其中曝光时间正常图像指将相机设置为自动曝光时获取的图像,设其曝光时间为t0,曝光时间过短图像指采用比自动曝光时间t0少的曝光时间拍摄的图像,曝光时间过长的图像指采用比自动曝光时间t0长的曝光时间拍摄的图像;
选择3幅实验输入图像的平均图像作为场景背景估计图像,对平均图像进行K均值聚类获得场景亮度分类;依据亮度分类结果,在每个区域的像素进行重建的过程中分别采用对应类别的分类预测器进行预测;
预测时,输入数据首先通过样本分类过程产生的码本进行编码,即分类;然后根据其类别选择对应的子预测器进行预测;
3.2分类预测学习及其重建:
对于重建目标HDR-HR图像JHDR-HR中每个4×4的图像信息块,在输入的LDR-LR图像都有对应位置的4×4块;这种位置对应关系与训练样本提取过程中的对应关系相同,即图像重建目标图像中任意一个图像信息块,在图像LDR-LR图像中都能找到一个对应的LDR-LR图像信息块;当上采样倍数为2时,HDR-HR中的图像信息块大小设为4×4,则在LDR-LR中对应的图像信息块为2×2大小的图像信息块;将LDR-LR图像细节信息L’LDR-LR中的LDR-LR块向周边扩展一个像素;
对于3幅输入图像获得其平均图像后,对其进行插值放大获得HDR-HR场景的初始估计图像;对其进行双边滤波器滤波取差值图像获得输入图像LDR-LR的细节信息;根据样本提取方式对输入LDR-LR图像对应图像信息块提取相应特征矢量,将该特征矢量作为分类预测器的输入,预测对应位置HDR-HR块的细节信息;整体HDR-HR图像细节信息层的重建过程采用一个4×4像素的窗口在HDR-HR目标图像坐标上滑动,水平和垂直步长为2个像素;对每个窗口位置进行细节信息预测;图像中相同位置的细节信息由于窗口的重叠会产生多个预测值,将所有的预测值进行平均得到预测结果;
对应于3幅输入图像来说,对应亮区J-1图像相对应的细节比较多,对应暗区J1图像相对应的细节比较多,对应正常区域J0图像相对应的细节比较多;因此,在用分类预测器用于进行细节信息的预测时,分别对应于不同的亮度区域,采用不同的输入图像指导细节信息的预测,最后估计得到的细节信息层叠加到初始估计图像中形成输出HDR-HR图像;
采用LDR-LR图像观测模型约束;求解最优化问题,得到最终的HDR-HR图像JHDR-HR。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310334142.7A CN103413286B (zh) | 2013-08-02 | 2013-08-02 | 一种基于学习的高动态范围与高分辨率图像联合重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310334142.7A CN103413286B (zh) | 2013-08-02 | 2013-08-02 | 一种基于学习的高动态范围与高分辨率图像联合重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103413286A CN103413286A (zh) | 2013-11-27 |
CN103413286B true CN103413286B (zh) | 2017-05-03 |
Family
ID=49606291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310334142.7A Expired - Fee Related CN103413286B (zh) | 2013-08-02 | 2013-08-02 | 一种基于学习的高动态范围与高分辨率图像联合重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103413286B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5937661B2 (ja) * | 2014-11-13 | 2016-06-22 | みずほ情報総研株式会社 | 情報予測システム、情報予測方法及び情報予測プログラム |
JP6390512B2 (ja) * | 2015-05-21 | 2018-09-19 | 株式会社デンソー | 車載カメラ装置 |
US9979895B2 (en) * | 2015-09-04 | 2018-05-22 | Disney Enterprises, Inc. | High dynamic range tone mapping |
WO2017215767A1 (en) * | 2016-06-17 | 2017-12-21 | Huawei Technologies Co., Ltd. | Exposure-related intensity transformation |
CN106161986B (zh) * | 2016-07-21 | 2019-02-12 | 中国科学院软件研究所 | 一种基于Sandroid卫星平台空间清晰成像的方法及系统 |
JP6858243B2 (ja) * | 2016-07-25 | 2021-04-14 | シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレーテッドSiemens Healthcare Diagnostics Inc. | 試料容器の容器キャップを識別するためのシステム、方法及び装置 |
WO2019001701A1 (en) * | 2017-06-28 | 2019-01-03 | Huawei Technologies Co., Ltd. | APPARATUS AND METHOD FOR IMAGE PROCESSING |
CN108846797B (zh) * | 2018-05-09 | 2022-03-11 | 浙江师范大学 | 基于两种训练集合的图像超分辨率方法 |
CN108846817B (zh) * | 2018-06-22 | 2021-01-12 | Oppo(重庆)智能科技有限公司 | 图像处理方法、装置以及移动终端 |
CN110706196B (zh) * | 2018-11-12 | 2022-09-30 | 浙江工商职业技术学院 | 基于聚类感知的无参考色调映射图像质量评价算法 |
CN109712091B (zh) * | 2018-12-19 | 2021-03-23 | Tcl华星光电技术有限公司 | 图片处理方法、装置及电子设备 |
CN109919841B (zh) * | 2019-01-24 | 2022-12-27 | 重庆邮电大学 | 一种用于高动态范围图像联合上采样的导向图的合成方法 |
CN110443766B (zh) * | 2019-08-06 | 2022-05-31 | 厦门美图之家科技有限公司 | 图像处理方法、装置、电子设备及可读存储介质 |
CN111047529B (zh) * | 2019-11-28 | 2023-05-23 | 杭州当虹科技股份有限公司 | 一种基于机器学习的视频处理方法 |
CN111163570B (zh) * | 2019-12-30 | 2023-09-08 | 南京东晖光电有限公司 | 一种基于nb-iot的室内灯具组合调控系统及方法 |
CN111292264B (zh) * | 2020-01-21 | 2023-04-21 | 武汉大学 | 一种基于深度学习的图像高动态范围重建方法 |
CN111784598B (zh) * | 2020-06-18 | 2023-06-02 | Oppo(重庆)智能科技有限公司 | 色调映射模型的训练方法、色调映射方法及电子设备 |
WO2022193132A1 (zh) * | 2021-03-16 | 2022-09-22 | 华为技术有限公司 | 图像检测方法、装置和电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101809617A (zh) * | 2007-07-30 | 2010-08-18 | 杜比实验室特许公司 | 提高图像动态范围 |
CN102693538A (zh) * | 2011-02-25 | 2012-09-26 | 微软公司 | 生成高动态范围图像的全局对准 |
CN103201766A (zh) * | 2010-11-03 | 2013-07-10 | 伊斯曼柯达公司 | 产生高动态范围图像的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010016053A1 (en) * | 1997-10-10 | 2001-08-23 | Monte A. Dickson | Multi-spectral imaging sensor |
-
2013
- 2013-08-02 CN CN201310334142.7A patent/CN103413286B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101809617A (zh) * | 2007-07-30 | 2010-08-18 | 杜比实验室特许公司 | 提高图像动态范围 |
CN103201766A (zh) * | 2010-11-03 | 2013-07-10 | 伊斯曼柯达公司 | 产生高动态范围图像的方法 |
CN102693538A (zh) * | 2011-02-25 | 2012-09-26 | 微软公司 | 生成高动态范围图像的全局对准 |
Non-Patent Citations (1)
Title |
---|
高分辨率与高动态范围图像联合重建研究进展;李晓光等;《测控技术》;20121231;第31卷(第5期);第2-3节 * |
Also Published As
Publication number | Publication date |
---|---|
CN103413286A (zh) | 2013-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103413286B (zh) | 一种基于学习的高动态范围与高分辨率图像联合重建方法 | |
CN109064396B (zh) | 一种基于深度成分学习网络的单幅图像超分辨率重建方法 | |
Lim et al. | DSLR: Deep stacked Laplacian restorer for low-light image enhancement | |
Engin et al. | Cycle-dehaze: Enhanced cyclegan for single image dehazing | |
CN107767413B (zh) | 一种基于卷积神经网络的图像深度估计方法 | |
CN110363716B (zh) | 一种基于条件生成对抗网络复合降质图像高质量重建方法 | |
CN109447907B (zh) | 一种基于全卷积神经网络的单图像增强方法 | |
CN110136062B (zh) | 一种联合语义分割的超分辨率重建方法 | |
CN111192200A (zh) | 基于融合注意力机制残差网络的图像超分辨率重建方法 | |
CN110675321A (zh) | 一种基于渐进式的深度残差网络的超分辨率图像重建方法 | |
CN112750201B (zh) | 三维重建方法及相关装置、设备 | |
CN111127325B (zh) | 基于循环神经网络的卫星视频超分辨率重建方法及系统 | |
Cheng et al. | Zero-shot image super-resolution with depth guided internal degradation learning | |
CN103413285A (zh) | 基于样本预测的hdr和hr图像重建方法 | |
CN112801904B (zh) | 一种基于卷积神经网络的混合退化图像增强方法 | |
CN113096029A (zh) | 基于多分支编解码器神经网络的高动态范围图像生成方法 | |
CN112102163A (zh) | 基于多尺度运动补偿框架和递归学习的连续多帧图像超分辨率重建方法 | |
CN111539888A (zh) | 一种基于金字塔通道特征注意力的神经网络图像去雾方法 | |
CN110349087A (zh) | 基于适应性卷积的rgb-d图像高质量网格生成方法 | |
CN111626927A (zh) | 采用视差约束的双目图像超分辨率方法、系统及装置 | |
CN116205962B (zh) | 基于完整上下文信息的单目深度估计方法及系统 | |
CN112580473A (zh) | 一种融合运动特征的视频超分辨率重构方法 | |
CN113052764A (zh) | 一种基于残差连接的视频序列超分重建方法 | |
CN104992407A (zh) | 一种图像超分辨方法 | |
CN111369443A (zh) | 光场跨尺度的零次学习超分辨率方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170503 Termination date: 20210802 |
|
CF01 | Termination of patent right due to non-payment of annual fee |