CN103247036B - 多曝光图像融合方法和装置 - Google Patents
多曝光图像融合方法和装置 Download PDFInfo
- Publication number
- CN103247036B CN103247036B CN201210029200.0A CN201210029200A CN103247036B CN 103247036 B CN103247036 B CN 103247036B CN 201210029200 A CN201210029200 A CN 201210029200A CN 103247036 B CN103247036 B CN 103247036B
- Authority
- CN
- China
- Prior art keywords
- image
- retroreflective regions
- subimage
- images
- retroreflective
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims description 25
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000000605 extraction Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 22
- 239000013598 vector Substances 0.000 claims description 29
- 239000000284 extract Substances 0.000 claims description 26
- 238000012549 training Methods 0.000 claims description 24
- 239000000463 material Substances 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000000354 decomposition reaction Methods 0.000 claims description 8
- 230000002708 enhancing effect Effects 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 7
- 238000005728 strengthening Methods 0.000 claims description 6
- 238000000205 computational method Methods 0.000 claims description 5
- 238000005286 illumination Methods 0.000 claims description 2
- 238000002156 mixing Methods 0.000 abstract description 7
- 230000004927 fusion Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000000574 ganglionic effect Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000155 melt Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 201000005111 ocular hyperemia Diseases 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 206010021703 Indifference Diseases 0.000 description 1
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 208000024754 bloodshot eye Diseases 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
Abstract
提供了一种多曝光图像融合装置和方法。该多曝光图像融合装置包括:反光区域提取单元,用于提取同一场景的多个曝光程度不同的图像中的每个图像的反光区域;以及多曝光图像反光区域融合单元,用于融合所述多个反光区域的图像。该多曝光图像融合装置和方法仅对反光区域进行融合操作,而不是对多个整幅图像进行融合操作,显著提高了处理速度,适合于实时性要求较高的情况。
Description
技术领域
本发明总体地涉及图像处理领域,更具体地涉及多曝光图像融合方法和装置。
背景技术
在某些情景下拍摄的图像经常存在高亮或反光区域,如照相机或投影仪-摄像机系统中所拍摄的图像,导致所拍摄的图像高亮区域内的内容不可见或者无法看清。
例如,白板图像由于包含较强的镜面反射现象,使得图像的动态范围增大,而普通数码照相及显示器材的动态范围远小于上述情况的值,因此,白板图像中的部分内容(例如,部分笔画信息)将无法被拍摄到。
目前,从软件开发的角度,解决数码照相机动态范围局限性的方法主要有两种,两者的处理对象均为一组关于同一场景的曝光程度不同的图像序列。一种是高动态范围(HDR)图像生成技术。这种技术需要已知图像的曝光时间来计算照相机响应函数,进而生成HDR图像,但还需要经过色调映射处理才能将上述结果显示出来。相比之下,另一种方法,即多曝光融合,则具有更加简便的计算方法。它只需要将输入图像按照一定的权值限定后,融合成为一幅能够直接用于显示的细节增强的合成图像,而不需要经过HDR图像生成及色调映射处理。由于没有生成HDR图像这一中间结果,因此,多曝光图像融合方法的实施过程不需要恢复照相机响应函数,也不需要已知图像的曝光时间。
在专利公开CN102063712A中,提出了一种基于子带结构的多曝光图像融合方法。该方法基于子带的架构,利用正交镜像滤波器(QuadratureMirrorFilter,QMF)滤波器组作为分析滤波器组将输入多曝光图像序列分解成一组子带图像;利用QMF滤波器将多曝光的输入图像分解成水平、垂直和对角线的子带信号,以及一个低通带图像;利用增益控制图对新的子带图像进行修饰,避免信号的失真从而保留更多的细节。
在美国专利US7492962B2中介绍了一种增强图像的系统和方法,其中利用图像增强系统对原始图内容像进行增强;使用幂函数变换方法生成幂函数变换图像,使用对数变换方法生成对数变换图像;使用阈值方法和蒙版图像加工方法,选择性地对幂函数变换图像和对数变换图像分别进行处理,以及融合两个从幂函数变换图象和对数变换图像获得的拉普拉斯金字塔。
在美国专利US7027662B2中介绍了一种去除闪光效果的方法和装置,其中,从有闪光的图像上减去没有闪光的图像;根据图像相减结果的强度直方图调整一个阈值,使得通过阈值方法,仅仅保留图像相减结果中强度差别巨大的部分;从有闪光的图像上减去这个处理后的结果图像,从而去除闪光的影响,例如镜面反射和红眼,该方法可以通过给颜色空间的不同维度(例如R/G/B)分别设置阈值来优化。
在美国专利US7457477B2中,介绍了数字图像的闪光和无闪光效果的加工,其中使用一对闪光和无闪光的图像,去除正常环境光下的图像的噪声,利用从闪光图像中获得细节,锐化正常环境光下的图像,还原色彩,去除红眼效应;通过检测亮度值大于传感器输出值95%的方法来检测镜面反射区域;利用图像的形态学处理方法来清理图像上镜面反射的影响,如腐蚀斑点和填充空洞。
发明内容
本发明的一个目的在于提供适于快速改善反光区域内容的装置和方法。
根据本发明的一个方面,提供了一种多曝光图像融合装置,可以包括:反光区域提取单元,用于提取同一场景的多个曝光程度不同的图像中的每个图像的反光区域;以及多曝光图像反光区域融合单元,用于融合所述多个反光区域的图像。
多曝光图像反光区域融合单元还包括反光区域子图像获取单元,
反光区域子图像获取单元可以将所述多个反光区域的图像的每个分解以生成粗糙层子图像和细节层子图像。其中,反光区域子图像获取单元可以通过利用多尺度滤波器分解多个反光区域图像的每个,获取反映所述每个反光区域的不同尺度特征的所述反光区域的粗糙层子图像;以及反光区域子图像获取单元可以通过计算相邻尺度的粗糙层子图像之间的差或者计算每个粗糙层子图像与粗糙层子图像的均值图像之间的差,获取反映每个反光区域的进一步图像内容细节特征的所述反光区域的细节层子图像。
多曝光图像反光区域融合单元可以通过对所述多个反光区域图像进行加权求和来增强所述多个反光区域图像,其中所述反光区域图像的权值可以基于该反光区域图像的反映图像内容的可见程度的可见度和反映区域颜色丰富程度的区域颜色程度计算得到。
多曝光图像反光区域融合单元可以对所述多个反光区域图像的对应粗糙层图像进行加权求和从而得到增强后的粗糙层图像,以及对各个图像的反光区域的对应细节层图像进行加权求和,从而得到增强后的细节层图像;以及基于增强后的粗糙层图像和增强后的细节层图像重构反光区域图像。
多曝光图像融合装置还可以包括质量增强单元,用于去除融合获得的反光区域图像中的光源颜色污染。
多个曝光程度不同的图像可以包括参考图像和辅助图像,参考图像可以为照相机在自动参数设置下拍摄的图像,辅助图像可以包括曝光过度及不足的图像,以及多曝光图像融合装置还可以包括图像贴回单元,用于通过基于泊松方程求解的方法将融合获得的反光区域图像贴回到参考图像。
反光区域提取单元可以利用预定的图像分类器将该参考图像分类到预定类别,然后利用与该预定类别相关联的反光区域提取阈值来提取该多个曝光程度不同的图像的反光区域。
根据本发明的另一方面,提供了一种多曝光图像融合方法,可以包括提取同一场景的多个曝光程度不同的图像中的每个图像的反光区域;以及融合所述多个反光区域的图像。
融合多个反光区域的图像可以包括反光区域子图像获取。
反光区域子图像获取可以包括将所述多个反光区域的图像的每个分解以生成粗糙层子图像和细节层子图像。其中,可以通过利用多尺度滤波器分解多个反光区域图像的每个,获取反映所述每个反光区域的不同尺度特征的所述反光区域的粗糙层子图像;以及可以通过计算相邻尺度的粗糙层子图像之间的差或者计算每个粗糙层子图像与粗糙层子图像的均值图像之间的差,获取反映每个反光区域的进一步图像内容细节特征的所述反光区域的细节层子图像。
多曝光图像反光区域融合可以包括通过对所述多个反光区域图像进行加权求和来增强所述多个反光区域图像,其中所述反光区域图像的权值可以基于该反光区域图像的反映图像内容的可见程度的可见度和反映区域颜色丰富程度的区域颜色程度计算得到。
多曝光图像反光区域融合可以包括对所述多个反光区域图像的对应粗糙层图像进行加权求和从而得到增强后的粗糙层图像,以及对各个图像的反光区域的对应细节层图像进行加权求和,从而得到增强后的细节层图像;以及基于增强后的粗糙层图像和增强后的细节层图像重构反光区域图像。
多曝光图像融合还可以包括去除融合获得的反光区域图像中的光源颜色污染。
多个曝光程度不同的图像可以包括参考图像和辅助图像,参考图像可以为照相机在自动参数设置下拍摄的图像,辅助图像可以包括曝光过度及不足的图像,以及多曝光图像融合装置还可以包括通过基于泊松方程求解的方法将融合获得的反光区域图像贴回到参考图像。
反光区域提取可以包括利用预定的图像分类器将该参考图像分类到预定类别,然后利用与该预定类别相关联的反光区域提取阈值来提取该多个曝光程度不同的图像的反光区域。
利用本发明实施例的多曝光图像融合装置和方法,提取多曝光图像的反光区域,仅对反光区域进行融合操作,而不是对多个整幅图像进行融合操作,因此显著提高了处理速度,更加适合于实时性要求较高的情况。
另外,根据本发明优选实施例的多曝光图像融合中的权值计算方法既考虑了图像内容的可见度也考虑了区域颜色的丰富程度,因此可以更加适当地确定图像的权值图,尤其适用于图像笔画信息丰富的白板图像。
另外,根据本发明优选实施例的多曝光图像融合处理中分解得到反映反光区域的不同尺度特征的粗糙层子图像和反映图像内容细节特征的细节层子图像,然后分别对各个反光区域的对应细节层子图像和粗糙层子图像进行融合处理,由此特别增强了反光区域细节特征,尤其适合于对于可能丢失了细节特征的反光区域的内容增强处理。
另外,根据本发明优选实施例的质量增强单元可以去除融合后反光区域中的光源颜色污染,进一步提高图像质量。
另外,根据本发明优选实施例的基于泊松方程求解的贴回方法可以较高质量实现两幅图像的无缝拼贴。
附图说明
图1是根据本发明一个实施例的多曝光图像融合装置的总体框图;
图2示出了根据一个实施例的反光区域提取单元的配置的示意性框图;
图3示出了根据一个实施例的多曝光图像反光区域融合单元的配置的示意性框图;
图4示出了其中通过相邻粗糙层子图像相减获取细节层子图像的示例;
图5示出了其中粗糙层子图像减去其均值来获取细节层子图像的示例;
图6给出了从一个输入图像获得四个粗糙层子图像的示意性视图;
图7给出了从该四个粗糙层子图像获得四个细节层子图像的示意性视图;
图8示出了根据本发明实施例的多曝光融合方法的总体流程;
图9示出了根据本发明实施例的可由反光区域提取单元执行的示例性反光区域提取方法的流程图;
图10示出了根据本发明实施例的可由多曝光图像融合单元执行的示例性多曝光图像融合方法的流程图;
图11图示了根据本发明第二实施例的多曝光图像融合装置的总体配置;
图12图示了根据本发明第二实施例的多曝光图像融合方法的总体流程;
图13图示了根据本发明第三实施例的多曝光图像融合装置的总体配置;
图14图示了根据本发明第三实施例的多曝光图像融合方法的总体流程;
图15(a)和15(b)示出了根据本发明实施例的白板图像处理前后的对比示意图;以及
图16是示出按照本发明实施例的多图像融合系统的总体硬件框图。
具体实施方式
为了使本领域技术人员更好地理解本发明,下面结合附图和具体实施方式对本发明作进一步详细说明。
将按如下顺序描述本发明的各个实施例:
1、第一实施例
1.1、多曝光图像融合装置的总体配置
1.2、反光区域提取单元的示例性配置
1.3、多曝光图像反光区域融合单元的示例性配置
1.4、第一多曝光图像融合方法示例
1.5、反光区域提取方法示例
1.6、多曝光图像反光区域融合方法示例
2、第二实施例
2.1、第二多曝光图像融合装置的总体配置
2.2、第二多曝光图像融合方法示例
3、第三实施例
3.1、第三多曝光图像融合装置的总体配置
3.2、第三多曝光图像融合方法示例
4、多曝光图像融合系统的硬件配置
5、总结
<1.第一实施例>
<1.1多曝光图像融合装置的总体配置>
图1是根据本发明一个实施例的多曝光图像融合装置1000的总体框图。
如图1所示,该多曝光图像融合装置1000可以包括:反光区域提取单元1100和多曝光图像反光区域融合单元1200。
反光区域提取单元1100用于提取同一场景的多个曝光程度不同的图像的每个图像的反光区域
优选地,该多个曝光程度不同的图像包括曝光过度以及曝光不足的图像。
作为示例,反光区域提取单元1100可以利用预定的图像分类器将该多个曝光程度不同的图像分类到各个预定类别,然后利用与各个预定类别相关联的反光区域提取阈值来提取该多个曝光程度不同的图像的反光区域。
更优选地,在某些情况下,例如在处理白板场景的图像的情况下,可以从多个曝光程度不同的图像中选择一个图像,称作参考图像,该参考图像将作为场景归类、以及后续的贴回处理的处理对象。此时,反光区域提取单元1100可以仅对参考图像进行分类,将其分类到预定类别,然后获得与该预定类别相关联的反光区域提取阈值,进而利用此反光区域提取阈值来提取该多个曝光程度不同的图像的反光区域。后续将参考图2对此情况下反光区域提取单元的具体配置示例进行详细描述。
不过,上述反光区域提取方法仅为优选示例。任何可以提取图像中的反光区域的方法均可以用于本发明。例如,作为替代,另一种示例方法是,计算图像整体平均强度,然后将此平均强度加上预定步长后获得的值作为反光区域划分强度阈值,进而提取反光区域。
多曝光图像反光区域融合单元1200用于融合所述多个反光区域的图像。需要说明的是,这里的融合应做广泛意义上的理解。可以直接将该多个反光区域图像进行加权求和来获得一个反光区域图像。也可以对每个反光区域图像进行分解来获得体现不同图像特征的多个反光区域子图像,然后有针对性地对各个反光区域图像的对应反光区域子图像进行组合增强,然后由增强后的反光区域子图像逆向重构获得一个新的反光区域。下面将参考图3来对后一种情况的多曝光图像反光区域融合单元1200的具体配置示例进行详细描述。
如此获得的融合后的反光区域图像可以贴回到例如上述参考图像中,或者也可以直接输出给用户,或者提供给后续处理单元进行图像内容识别等进一步处理。
根据此实施例的图像融合方法因为仅融合反光区域,因此处理更加具有针对性,且处理速度更快,更适于实时处理。
<1.2.反光区域提取单元的示例性配置>
下面参考图2描述反光区域提取单元的示例性具体配置。
图2示出了根据一个实施例的反光区域提取单元1100的配置的示意性框图。
如图2所示,反光区域提取单元1100可以包括类别模型向量生成单元1110、类别模型向量和反光区域提取阈值存储单元1120、匹配向量计算单元1130、类别匹配单元1140、反光区域提取阈值获取单元1150、反光区域位置信息计算单元1160、反光区域图像抽取单元1170。
类别模型向量生成单元1110用于根据预定分类器将输入的训练图像分类到各个类别,并基于分类后的结果计算代表各类的类别模型向量。
多个曝光程度不同的图像可以表示为Ii(x,y),i=1,...,N,其中N为2或大于2的整数。用于场景归类的参考图像表示为图像Ir(x,y),序列中的其余图像Ij(x,y),j=1,...,N,j≠r称为参考图像Ir(x,y)的辅助图像。作为优选示例,参考图像Ir(x,y)为照相机在自动参数设置下拍摄的图像,辅助图像Ij(x,y),j=1,...,N,j≠r包括曝光过度及不足的图像。
以白板图像处理为例,类别模型向量生成单元1110获得类别模型向量的一种示例性实现方式如下:
假设类别个数为S类,S为大于等于2的整数,各类为C(l),l∈[1,S],各类别之间由图像笔画的不可见度来区分,第1类图像笔画的不可见度范围为[Kl-1,kl],例如,设最大不可见度KS已知,Kl可通过公式计算得到。(1)、输入M幅一组关于同一场景且光照条件不同的图像Ti(x,y),i=1,...,M,其中,完全不包含反光区域的图像Tg(x,y)称为基准图像,序列中的其余图像Tj(x,y),j=1,...,M,j≠g称为训练图像,其中M为大于等于2的整数;
(2)、计算基准图像Tg(x,y)及训练图像Tj(x,y)的梯度图像,得到基准梯度图像Gg(x,y)及训练梯度图像Gj(x,y);
(3)、根据如下公式(1)对基准梯度图像Gg(x,y)进行阈值化处理以生成笔画引导图Ag(x,y),
其中,θ为阈值;
(4)、根据笔画引导图Ag(x,y)利用如下公式(2)计算训练梯度图像Gj(x,y)的不可见度IV(j),即计算仅发生在笔画引导图Ag(x,y)=1的像素点,
其中,n为训练梯度图像Gj(x,y)的像素个数;
(5)、根据训练梯度图像Gj(x,y)的不可见度IV(j)将训练图像Tj(x,y)归类到C(l),如公式(3)所示,
其中,Kl-1,Kl分别为第C(l)类图像的不可见度的上、下限;
(6)、计算类别l的模型向量M(l),l∈[1,S],一种示例性计算方法如公式(4)、(5)、(6)所示,
其中,Meanmap(l,Ch)为属于第C(l)类的所有训练图像Tj(x,y)的Ch色彩通道的均值图;Tj,Ch(x,y)表示训练图像Tj(x,y)的Ch色彩通道图像数据,例如图像的各像素点的灰度;ave(t(x,y))为任意图像t(x,y)按像素的均值,n为图像t(x,y)的像素个数;
(7)、确定类别模型向量M(l),l∈[1,S]的反光区域提取阈值δ(l),可以人工指定或者例如根据强度均值求得。
作为替代性示例,另一种实现方式为,类别模型向量生成单元1110利用聚类算法例如k均值聚类对训练图像根据不可见度进行聚类,然后用聚类后的各类中样本的均值向量作为代表各类的类别模型向量。
类别模型向量和反光区域提取阈值存储单元1120用于存储各类的类别模型向量和反光区域提取阈值。
匹配向量计算单元1130根据如下公式(7)计算多曝光图像中的参考图像Ir(x,y)的匹配向量
类别匹配单元1140将参考图像Ir(x,y)的匹配向量和存储的各个类别的类别模型向量进行比较,并例如根据如下公式(8)来确定参考图像Ir(x,y)的类别:
其中,ε为类型匹配阈值。
反光区域提取阈值获取单元1150根据参考图像被归类到的类别l来从类别模型向量生成单元1110检索反光区域提取阈值δ(l)。
反光区域位置信息计算单元1160根据阈值δ(l)计算参考图像Ir(x,y)的反光区域位置,得到反光区域左上角(x11,y11)、右上角(x12,y12)、左下角(x21,y21)及右下角(x22,y22)坐标,从而提取出参考反光区域图像Fr(x,y)。
反光区域图像抽取单元1170根据上述反光区域位置信息从辅助图像Ij(x,y)中提取出辅助反光区域图像Fj(x,y)。
上述反光区域图像抽取单元从图像内容不可见度方面来对训练图像进行分类,进而计算得到各类别的类别模型向量,而且通过对参考图像归类来确定反光区域的大小,避免了对所有多曝光图像逐个进行反光区域提取阈值确定和反光区域大小确定,因而可以进一步提高处理效率,而且考虑到将来反光区域贴回到参考图像,这样处理也更有针对性和合理性。
反光区域提取单元1100的上述配置仅为示例,本发明不局限于上述配置,而是可以具有适于从输入图像中提取反光区域的任何配置。
<1.3.多曝光图像反光区域融合单元的示例性配置>
下面参考图3描述多曝光图像反光区域融合单元的示例性具体配置。
图3示出了根据一个实施例的多曝光图像反光区域融合单元1200的配置的示意性框图。
如图3所示,多曝光图像反光区域融合单元1200包括反光区域子图像获取单元1210、权值获取单元1220、组合增强单元1230、反光区域重构单元1240。
反光区域子图像获取单元1210从所述多个反光区域的图像的每个获取多个反光区域子图像。
权值获取单元1220获取所述多个反光区域的图像的每个的权值图。
组合增强单元1230根据权值获取单元1220获取的权值图,组合增强各个反光区域图像的对应反光区域子图像。
反光区域重构单元1240从组合增强单元1230获得的组合增强后的反光区域子图像重构反光区域图像。
下面具体描述各个单元的详细构成和具体操作。
作为示例,反光区域子图像获取单元1210可以包括粗糙层子图像获取单元1211和细节层子图像获取单元1212,用于将所述多个反光区域的图像的每个分解以生成粗糙层子图像和细节层子图像。
粗糙层子图像是指例如源图像去掉一定程度的纹理结构信息后的图像,其中包含源图像的颜色、轮廓等信息。细节层子图像是指包含源图像细节信息的图像,例如包含源图像的纹理结构信息。在图像是白板场景图像的情况下,粗糙层子图像更多包括颜色、轮廓信息,而细节层子图像更多包括了笔画信息。
反光区域子图像获取单元1210可以通过利用多尺度滤波器分解所述多个反光区域图像的每个,获取反映所述每个反光区域的不同尺度特征的所述反光区域的粗糙层子图像。反光区域子图像获取单元1220通过计算相邻尺度的粗糙层子图像之间的差或者计算每个粗糙层子图像与粗糙层子图像的均值图像之间的差,获取反映所述每个反光区域的进一步图像内容细节特征的所述反光区域的细节层子图像。
假设各个反光区域图像表示为Fi(x,y),i=1,...,N,其中N为多曝光图像的反光区域图像的个数,也即多曝光图像的个数,从反光区域图像Fi(x,y)分解得到粗糙层子图像FCi,h(x,y),h=1,...,H,H为粗糙层子图像的个数。则可以基于如下公式(9)通过相邻尺度的粗糙层子图像相减得到细节层子图像FDi,h(x,y)。
FDi,h(x,y)=FCi,h+1(x,y)-FCi,h(x,y)...(9)
或者可以基于如下公式(10)、(11)通过粗糙层子图像减去粗糙层子图像的均值图像得到细节层子图像FDi,h(x,y)。
图4示出了其中通过相邻粗糙层子图像相减获取细节层子图像的示例。图5示出了其中粗糙层子图像减去其均值来获取细节层子图像的示例。
如图4所示,使用例如加权最小平方滤波器(WLSF,WeightedLeastSquaresFilters)的多尺度滤波器将多曝光图像的反光区域图像F1分解为三个粗糙层子图像FC11、FC12和FC13。其中F(x1)、F(x2)、F(x3)中的x1、x2、x3表示能量方程中的相关参数的不同取值,具体过程介绍可参考ZeevFarbman等人的文章Edge-PreservingDecompositionsforMulti-ScaleToneandDetailManipulation,ProceedingSIGGRAPH′08ACMSIGGRAPH2008,ACMNewYork,NY,USA2008。然后粗糙层子图像FC11和FC12相减得到细节层子图像FD11,粗糙层子图像FC12和FC13相减得到细节层子图像FD12。
如图5所示,同样将多曝光图像F1分解为三个粗糙层子图像FC11、FC12和FC13。然后计算粗糙层子图像FC11、FC12和FC13的均值得到平均粗糙层图像然后FC11和相减得到细节层子图像FD11,FC12和相减得到细节层子图像FD12,以及FC13和相减得到细节层子图像FD13。
类似地,对其余的多曝光图像的反光区域图像F2,F3,...,FN进行分解处理,以得到对应的粗糙层子图像和细节层子图像。
在上述例子中,从每个多曝光图像分解得到三个粗糙层子图像和三个细节层子图像,但是本发明并不局限于此,粗糙层子图像和细节层子图像的个数可以根据需要任意设置。
图6给出了从一个输入图像获得四个粗糙层子图像的示意性视图,以及图7给出了从该四个粗糙层子图像获得四个细节层子图像的示意性视图。
上述示例给出了使用加权最小平方滤波器分解多曝光图像的示例,不过本发明并不局限于此,而是可以使用其他具有边缘保持特性的多尺度滤波器,例如双边滤波器(BilateralFiltering),有关双边滤波器的详细介绍可参见文献Agentleintroductiontobilateralfilteringanditsapplications,inACMSIGGRAPH2007courses,Course13,PARIS,S.2007。
权值获取单元1220用于基于反光区域图像的反映图像内容的可见程度的可见度和反映区域颜色丰富程度的区域颜色程度计算得到反光区域图像融合的权值。
具体地,例如,如图所示,权值获取单元1220可以包括可见度计算单元1221、区域颜色计算单元1222、以及权值计算单元1223。
假设反光区域图像Fi中每个像素点Fi(x,y)的可见度表示为SVi(x,y),其可以根据图像Fi(x,y)的梯度值GIi(x,y)计算得到,其中图像内容(在文字的情况下,笔画)越清晰可见,可见度SVi(x,y)的值越大。区域颜色RCi(x,y)满足如下规则:R、G、B三通道间的差值越大,即图像颜色越异于白色,权值越大。
可见度计算单元1221可以根据如下公式(12)、(13)计算每个像素点Fi(x,y)的可见度SVi(x,y):
其中Ggt(x,y)为N个反光区域图像的梯度值GIi(x,y)之和。
区域颜色计算单元1222根据如下公式(14)、(15)、(16)、(17)计算反光区域图像Fi中每个像素点Fi(x,y)的颜色丰富程度RCi(x,y):
RCi(x,y)=βi×Di,1(x,y)×Di,2(x,y)×Di,3(x,y)...(14)
Di,1(x,y)=|Fi,R(x,y)-Fi,B(x,y)|...(15)
Di,2(x,y)=|Fi,G(x,y)-Fi,B(x,y)|...(16)
Di,1(x,y)=|Fi,R(x,y)-Fi,G(x,y)|...(17)
其中βi表示尺度因子,用于控制取得必要尺度的差值,即放大或缩小差值,Di,1(x,y)、Di,2(x,y)、Di,3(x,y)表示三个色彩通道的像素值两两之间的差异。具体地,Di,1(x,y)表示像素点Fi(x,y)处R、B两通道间的像素值差,Di,2(x,y)表示像素点Fi(x,y)处G、B两通道间的像素值差,Di,3(x,y)表示像素点Fi(x,y)处R、G两通道间的像素值差。
权值计算单元1223可以基于图像内容可见度SVi(x,y)和区域颜色RCi(x,y)根据如下公式(18)计算得到每个像素点Fi(x,y)的权值。
Wi(x,y)=SVi(x,y)×RCi(x,y)...(18)
此外,权值计算单元1223还可以例如根据如下公式(19)对权值Wi(x,y)进行去噪以及归一化处理,得到更新后的权值Wi‘(x,y)。
其中g(σ)表示高斯函数,用于图像的平滑去噪。
上述权值计算方法仅为优选实施例。本发明并不局限于此,可以利用其它的权值计算方法,例如仅基于图像内容可见度的权值计算或仅基于区域颜色丰富程度的权值计算。另外,替代地,还可以依据输入图像的对比度、饱和度及曝光度三方面度量计算权值,关于此的详细介绍可参考Mertens,T.,Kautz,J.,Reeth,F.V.等的Exposurefusion:asimpleandpracticalalternativetohighdynamicrangephotography.Comput.Graph.Forum28(1),161-171(2008)。
组合增强单元1230依据权值获取单元1220计算得到的权值图对反光区域子图像获取单元1210得到的对应反光区域子图像进行组合,从而得到增强后的反光区域子图像。
例如,假设每个反光区域图像存在H个粗糙层子图像和H个细节层子图像,作为示例,可以利用如下公式(20)、(21)融合N个反光区域图像的各个对应细节层子图像,从而得到融合后的H个细节层子图像,以及还可以融合各个反光区域图像的粗糙层子图像中的一个粗糙层子图像FCi,j(x,y),从而得到融合后的一个粗糙层子图像。
具体地,例如,如图4示,假设融合N个反光区域图像的F1,...,FN的各个细节层子图像,以及融合N个反光区域图像的每个的最后一个粗糙层子图像。即,将第1个反光区域图像F1的第一个细节层子图像FD11、第2个反光区域图像F2的第一个细节层子图像FD21,...,以及第N个反光区域图像FN的第一个细节层子图像FDN1分别乘以对应的权重W1、W2,...,WN,从而得到融合后的第一个细节层子图像FD1,如以下公式(22)所示:
FD1=FD11*W1+FD21*W2+...+FDN1*WN...(22)
类似地,将第1个反光区域图像F1的第二个细节层子图像FD12、第2个反光区域图像F2的第二个细节层子图像FD22,...,以及第N个反光区域图像FN的第二个细节层子图像FDN2分别乘以对应的权重W1、W2,...,WN,从而得到融合后的第二个细节层子图像FD2;将第1个反光区域图像F1的第三个细节层子图像FD13、第2个反光区域图像F2的第三个细节层子图像FD23,...,以及第N个反光区域图像FN的第三个细节层子图像FDN3分别乘以对应的权重W1、W2,...,WN,从而得到融合后的第三个细节层子图像FD3。
如上,在图4示的示例中,融合N个反光区域图像的每个的最后一个粗糙层子图像,即第三个粗糙层子图像。具体地,即将第1个反光区域图像F1的第三个粗糙层子图像FC13、第2个反光区域图像F2的第三个粗糙层子图像FC23,...,以及第N个反光区域图像FN的第三个粗糙层子图像FCN3分别乘以对应的权重W1、W2,...,WN,从而得到融合后的第三个粗糙层子图像FC3。
反光区域重构单元1240基于融合后的反光区域图像的各个细节层子图像和融合后的粗糙层子图像,按照与利用滤波器分解得到粗糙层子图像,以及基于粗糙层子图像获得细节层子图像的逆过程重构获得新的反光区域图像。
仍以图4示情况为例,此时重构过程如下,融合后的第三个粗糙层子图像FC3与融合后的第三个细节层子图像FD3求和得到新的第二个粗糙层子图像FC2,新的第二个粗糙层子图像FC2与融合后的第二个细节层子图像FD2求和得到新的第一个粗糙层子图像FC1,然后基于这些新的第一粗糙层子图像、第二粗糙层子图像、第三粗糙层子图像FC1、FC2、FC3滤波器分解的可逆过程获得新的反光区域图像Rf(x,y)。
替代地,组合增强单元1230可以以其他方式进行融合操作。例如,如图5示,假设融合N个反光区域图像的F1,...,FN的各个细节层子图像,以及融合N个反光区域图像的平均粗糙层子图像。此时,融合细节层子图像的操作与参考图4示的相同,不再赘述。与图4示示例不同在于替代融合各个反光区域图像的最后一个粗糙层子图像,本例中融合平均粗糙层子图像。以公式(23)表示如下:
如图5示,融合N个反光区域图像的每个的平均粗糙层子图像。具体地,即将第1个反光区域图像F1的第平均粗糙层子图像第2个反光区域图像F2的平均粗糙层子图像...,以及第N个反光区域图像FN的平均粗糙层子图像分别乘以对应的权重W1、W2,...,WN,从而得到融合后的平均粗糙层子图像FC’。
此时反光区域重构单元1240可以基于融合后的反光区域图像的各个细节层子图像和融合后的平均粗糙层子图像,按照与基于粗糙层子图像获得细节层子图像、利用滤波器分解得到粗糙层子图像的逆过程重构获得新的反光区域图像。
替代地,可以以其他方式进行重构,例如使用加权最小平方滤波器WLSF对从公式(21)和公式(20)获得的融合后的粗糙层子图像FC’(x,y)和融合后的细节层子图像FDh’(x,y)进行滤波以去除高频噪声,得到更新后的粗糙层子图像FC”(x,y)和细节层子图像FDh”(x,y),然后根据如下公式(24)利用更新后的的粗糙层子图像FC”(x,y)和细节层子图像FDh”(x,y)重构反光区域图像Rf(x,y)。
如前所述,如此获得的融合后的反光区域图像可以贴回到例如上述参考图像中,或者也可以直接输出给用户,或者提供给后续处理单元进行图像内容识别等进一步处理。
<1.4第一多曝光图像融合方法示例>
图8示出了根据本发明实施例的多曝光融合方法400的总体流程。可由多曝光图像融合装置1000执行多曝光融合方法400。
在步骤S410中,提取同一场景的多个曝光程度不同的图像的每个图像的反光区域。
在步骤S420中,融合所述多个反光区域的图像。
关于上述各步骤的详细操作可以参考图1以及对应描述,这里不再赘述。
<1.5反光区域提取方法示例>
图9示出了根据本发明实施例的可由图2所示的反光区域提取单元1100执行的示例性反光区域提取方法500的流程图。
在步骤S510中,基于训练图像生成类别模型向量。
在步骤S520中,计算多曝光图像中参考图像的匹配向量。
在步骤S530中,比较类别模型向量和匹配向量以对多曝光图像中的参考向量进行分类。
在步骤S540中,根据分类结果获取反光区域提取阈值。优选地,预先将各个类别的反光区域提取阈值和对应类别相关联地存储在存储区域中。该反光区域提取阈值例如为强度阈值。
在步骤S550中,根据提取的反光区域提取阈值计算参考图像的反光区域位置信息,从而提取了参考图像的反光区域。
在步骤S560中,根据所计算的反光区域位置信息提取多曝光图像中其它图像的反光区域。
图9所示的反光区域提取方法仅为示例。可以通过任何可提取出图像的反光区域的方法来提取多曝光图像的反光区域。
另外有关上述各步骤的详细操作可以参考图2以及对应描述,这里不再赘述。
<1.6多曝光图像反光区域融合方法示例>
图10示出了根据本发明实施例的可由图1所示的多曝光图像融合单元1200执行的示例性多曝光图像融合方法600的流程图。
在步骤S610中,从各个反光区域图像获取各自的粗糙层子图像和细节层子图像。
在步骤S620中,计算各个反光区域图像的权值图。
在步骤S630中,融合各个反光区域图像的对应子图像。
在步骤S640中,基于融合后的各个子图像重构反光区域子图像。
有关上述各个步骤的具体实现例子,可以参考图3以及其对应描述,这里不再赘述。
<2.第二实施例>
<2.1、第二多曝光图像融合装置的总体配置>
图11图示了根据本发明第二实施例的多曝光图像融合装置2000的总体配置。
图11所示的第二实施例与图1所示的第一实施例不同在于多了质量增强单元2300。因为图11中的反光区域提取单元1100和多曝光图像反光区域图像融合单元1200与图1中的相同,这里不再赘述。下面重点描述质量增强单元2300的操作。
质量增强单元2300可以对重构后的反光区域图像进行去色处理。
在原始图像以及重构后的图像中,可能存在光源造成的颜色污染。在RGB色彩空间中,彩色图像的R、G、B三个色彩通道的像素值相等时,彩色图像呈现为灰度图像。当光源颜色为白色时,R、G、B三个色彩通道的像素值两两之间均无差异。当光源颜色不为白色时,R、G、B三通道的像素值之间存在差异。可以通过减小R、G、B三通道的像素值之间的差异来实现去除光源造成的污染色。
根据优选示例,可以根据如下公式(25)、(26)、(27)、(28)、(29)、(30)去除重构后的图像的R、G、B各通道的污染色。
R′f,R(x,y)=Rf,R(x,y)-αR×D1(x,y)×D3(x,y)...(25)
R′f,G(x,y)=Rf,G(x,y)-αG×D2(x,y)×D3(x,y)...(26)
R′f,B(x,y)=Rf,B(x,y)-αB×D1(x,y)×D2(x,y)...(27)
D1(x,y)=|Rf,R(x,y)-Rf,B(x,y)|...(28)
D2(x,y)=|Ff,G(x,y)-Rf,B(x,y)|...(29)
D3(x,y)=|Rf,R(x,y)-Rf,G(x,y)|...(30)
其中,D1(x,y)表示重构后的反光区域图像的像素点(x,y)的R通道和B通道的像素值之差;D2(x,y)表示重构后的反光区域图像的像素点(x,y)的G通道和B通道的像素值之差;D3(x,y)表示重构后的反光区域图像的像素点(x,y)的R通道和G通道的像素值之差。αR、αG、αB分别表示用于颜色通道R、G、B的参数,表示尺度因子,用于控制取得必要尺度的差值,即放大或缩小差值,例如,根据经验可以取αR=4、αG=3.3、αB=1,不过该参数取值仅为示例,根据具体实现和需要,可以通过学习确定参数αR、αG、αB的值,或者设置为其它取值。R’f,R(x,y)、R’f,G(x,y)、R’f,B(x,y)分别表示去除污染色后的像素点(x,y)的R、G、B通道的像素值。
上述去除污染色的过程可以迭代进行。
通过质量增强单元2300上述去除污染色的处理,有效降低了光源颜色对图像质量的影响,进一步改进了反光区域图像的质量。
上述质量增强单元2300的处理仅为示例,还可以进行其它增强图像质量的后处理操作,例如去噪、平滑化处理等。
<2.2、第二多曝光图像融合方法示例>
图12图示了根据本发明第二实施例的多曝光图像融合方法700的总体流程。
在步骤S710中,提取同一场景的多个曝光程度不同的图像的每个图像的反光区域。
在步骤S720中,融合所述多个反光区域的图像。
在步骤S730中,去除融合获得的反光区域的图像中的光源颜色污染。
有关上述步骤的具体操作可以参考图11以及对应描述,这里不再重复描述。
<3、第三实施例>
<3.1、第三多曝光图像融合装置的总体配置>
图13图示了根据本发明第三实施例的多曝光图像融合装置3000的总体配置。
图13所示的第三实施例与图11所示的第二实施例不同在于多了贴回单元3400。因为图13中的反光区域提取单元1100、多曝光图像反光区域图像融合单元1200、质量增强单元2300与图11中的相同,这里不再赘述。下面重点描述贴回单元3400的操作。
贴回单元3400将质量增强单元2300增强后的图像贴回到例如前述参考图像的对应位置,得到最后的合成结果图。例如,可以采用PatrickPerez等人的文章PoissonImageEditing中的基于泊松方程求解的方法实现增强后的图像的贴回操作,由此实现两幅图像的无缝拼贴。
基于泊松方程求解的贴回方法仅是示例性的。本发明并不局限于此。例如,替代地,也可以利用梯度域优化代价方程的方法实现,关于此具体可参见如下文献中的介绍LEVIN,A.,ZOMET,A.,PELEG,S.,ANDWEISS,Y.,Seamlessimagestitchinginthegradientdomain.InEuropeanConferenceonComputerVision(ECCV04),2004。
<3.2、第三多曝光图像融合方法示例>
图14图示了根据本发明第三实施例的多曝光图像融合方法700的总体流程。
在步骤S810中,提取同一场景的多个曝光程度不同的图像的每个图像的反光区域。
在步骤S820中,融合所述多个反光区域的图像。
在步骤S830中,去除融合获得的反光区域的图像中的光源颜色污染。
在步骤S840中,将去除光源颜色污染后的图像贴回到参考图像。
有关上述步骤的具体操作可以参考图13以及对应描述。
图15示出了根据本发明实施例的白板图像处理前后的对比示意图。其中15(a)示出了融合前的图像,15(b)示出了融合后的图像。可见经过本发明的多曝光图像融合处理,显著提高了反光区域的图像质量和内容可视性。
<4多曝光图像融合系统的硬件配置>
本发明还可以通过一种多曝光图像融合硬件系统来实施。图16是示出按照本发明实施例的多图像融合系统9000的总体硬件框图。如图16所示,多曝光图像融合系统9000可以包括:输入设备9100,用于从外部输入多曝光图像,例如可以包括键盘、鼠标器、以及通信网络及其所连接的远程输入设备等等;处理设备1200,用于实施上述的按照本发明实施例的多曝光图像融合方法,或者实施为上述的多曝光图像融合装置,例如可以包括计算机的中央处理器或其它的具有处理能力的芯片等等,可以连接到诸如因特网的网络(未示出),根据处理过程的需要向远程传送处理后的图像等等;输出设备1300,用于向外部输出实施上述多曝光图像融合过程所得的结果,例如可以包括显示器、打印机、以及通信网络及其所连接的远程输出设备等等;以及存储设备1400,用于以易失或非易失的方式存储上述多曝光图像融合过程所涉及的类别模型向量单元、反光区域提取阈值、反光区域的图像、粗糙层子图像、细节层子图像、融合处理后的反光区域图像、经过质量增强后的反光区域图像、经过反光区域图像贴回处理后的参考图像等等,例如可以包括随机存取存储器(RAM)、只读存储器(ROM)、硬盘、或半导体存储器等等的各种易失或非易失性存储器。
<5总结>
根据本发明的实施例,提供了一种多曝光图像融合装置,可以包括:反光区域提取单元,用于提取同一场景的多个曝光程度不同的图像中的每个图像的反光区域;以及多曝光图像反光区域融合单元,用于融合所述多个反光区域的图像。
多曝光图像反光区域融合单元还可以包括反光区域子图像获取单元,反光区域子图像获取单元将所述多个反光区域的图像的每个分解以生成粗糙层子图像和细节层子图像;其中,所述反光区域子图像获取单元通过利用多尺度滤波器分解所述多个反光区域图像的每个,获取反映所述每个反光区域的不同尺度特征的所述反光区域的粗糙层子图像;以及所述反光区域子图像获取单元通过计算相邻尺度的粗糙层子图像之间的差或者计算每个粗糙层子图像与粗糙层子图像的均值图像之间的差,获取反映所述每个反光区域的进一步图像内容细节特征的所述反光区域的细节层子图像。
多曝光图像反光区域融合单元可以通过对所述多个反光区域图像进行加权求和来增强所述多个反光区域图像,其中所述反光区域图像的权值基于该反光区域图像的反映图像内容的可见程度的可见度和反映区域颜色丰富程度的区域颜色程度计算得到。
多曝光图像反光区域融合单元可以对所述多个反光区域图像的对应粗糙层图像进行加权求和从而得到增强后的粗糙层图像,以及对各个图像的反光区域的对应细节层图像进行加权求和,从而得到增强后的细节层图像;以及基于增强后的粗糙层图像和增强后的细节层图像重构反光区域图像。
多曝光图像融合装置还可以包括:质量增强单元,用于去除融合获得的反光区域图像中的光源颜色污染。
多个曝光程度不同的图像可以包括参考图像和辅助图像,参考图像为照相机在自动参数设置下拍摄的图像,辅助图像包括曝光过度及不足的图像,以及多曝光图像融合装置还可以包括图像贴回单元,用于通过基于泊松方程求解的方法将融合获得的反光区域图像贴回到参考图像。反光区域提取单元可以利用预定的图像分类器将该参考图像分类到预定类别,然后利用与该预定类别相关联的反光区域提取阈值来提取该多个曝光程度不同的图像的反光区域。
根据本发明的实施例,还提供了一种多曝光图像融合方法,可以包括:提取同一场景的多个曝光程度不同的图像中的每个图像的反光区域;以及融合所述多个反光区域的图像。
根据本发明实施例的多曝光图像融合装置和方法,提取多曝光图像的反光区域,仅对反光区域进行融合操作,而不是对多个整幅图像进行融合操作,因此显著提高了处理速度,更加适合于实时性要求较高的情况。
另外,根据本发明优选实施例的多曝光图像融合中的权值计算方法既考虑了图像内容的可见度也考虑了区域颜色的丰富程度,因此可以更加适当地确定图像的权值图,尤其适用于图像笔画信息丰富的白板图像。
另外,根据本发明优选实施例的多曝光图像融合处理中分解得到反映反光区域的不同尺度特征的粗糙层子图像和反映图像内容细节特征的细节层子图像,然后分别对各个反光区域的对应细节层子图像和粗糙层子图像进行融合处理,由此特别增强了反光区域细节特征,尤其适合于对于可能丢失了细节特征的反光区域的内容增强处理。
另外,根据本发明优选实施例的质量增强单元可以去除融合后反光区域中的光源颜色污染,进一步提高图像质量。
另外,根据本发明优选实施例的基于泊松方程求解的贴回方法可以较高质量实现两幅图像的无缝拼贴。
前述描述仅为说明性的,可以进行很多修改和/或替换。
例如,前面多次以白板场景图像为例说明类别模型构建方法,但此仅为示例,本发明并不局限于此,而是可以应用于各种图像,例如人物图像或自然场景图像等。
另外,前面提到参考图像为照相机在自动参数设置下拍摄的图像,不过此仅为示例,参考图像可以是照相机在用户手动设置参数下拍摄的图像。
另外,前文曾提到参数可以人工设置,不过这仅为示例,本发明并不局限于此,前述各个参数可以通过各种学习方法或者参数优化方法来得到。
以上结合具体实施例描述了本发明的基本原理,但是,需要指出的是,对本领域的普通技术人员而言,能够理解本发明的方法和装置的全部或者任何步骤或者部件,可以在任何计算装置(包括处理器、存储介质等)或者计算装置的网络中,以硬件、固件、软件或者它们的组合加以实现,这是本领域普通技术人员在阅读了本发明的说明的情况下运用他们的基本编程技能就能实现的。
因此,本发明的目的还可以通过在任何计算装置上运行一个程序或者一组程序来实现。所述计算装置可以是公知的通用装置。因此,本发明的目的也可以仅仅通过提供包含实现所述方法或者装置的程序代码的程序产品来实现。也就是说,这样的程序产品也构成本发明,并且存储有这样的程序产品的存储介质也构成本发明。显然,所述存储介质可以是任何公知的存储介质或者将来所开发出来的任何存储介质。
还需要指出的是,在本发明的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行。某些步骤可以并行或彼此独立地执行。例如,图10中图示的顺序为反光区域子图像获取步骤S610在前,权值计算步骤S620在后,但是显然可以先执行权值计算后执行反光区域子图像获取,或者并行执行该两个步骤。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种多曝光图像融合装置,包括:
反光区域提取单元,用于提取同一场景的多个曝光程度不同的图像中的每个图像的反光区域;以及
多曝光图像反光区域融合单元,用于融合所述多个反光区域的图像。
2.根据权利要求1的多曝光图像融合装置,其中
多曝光图像反光区域融合单元还包括反光区域子图像获取单元,
反光区域子图像获取单元将所述多个反光区域的图像的每个分解以生成粗糙层子图像和细节层子图像;
其中,所述反光区域子图像获取单元通过利用多尺度滤波器分解所述多个反光区域图像的每个,获取反映所述每个反光区域的不同尺度特征的所述反光区域的粗糙层子图像;以及
所述反光区域子图像获取单元通过计算相邻尺度的粗糙层子图像之间的差或者计算每个粗糙层子图像与粗糙层子图像的均值图像之间的差,获取反映所述每个反光区域的进一步图像内容细节特征的所述反光区域的细节层子图像。
3.根据权利要求1的多曝光图像融合装置,所述多曝光图像反光区域融合单元通过对所述多个反光区域图像进行加权求和来增强所述多个反光区域图像,其中所述反光区域图像的权值基于该反光区域图像的反映图像内容的可见程度的可见度和反映区域颜色丰富程度的区域颜色程度计算得到。
4.根据权利要求2的多曝光图像融合装置,其中,
所述多曝光图像反光区域融合单元对所述多个反光区域图像的对应粗糙层图像进行加权求和从而得到增强后的粗糙层图像,以及对各个图像的反光区域的对应细节层图像进行加权求和,从而得到增强后的细节层图像;以及
基于增强后的粗糙层图像和增强后的细节层图像重构反光区域图像。
5.根据权利要求1的多曝光图像融合装置,还包括:
质量增强单元,用于去除融合获得的反光区域图像中的光源颜色污染。
6.根据权利要求1的多曝光图像融合装置,其中,
所述多个曝光程度不同的图像包括参考图像和辅助图像,参考图像为照相机在自动参数设置下拍摄的图像,辅助图像包括曝光过度及不足的图像,以及
所述多曝光图像融合装置还包括图像贴回单元,用于通过基于泊松方程求解的方法将融合获得的反光区域图像贴回到参考图像。
7.根据权利要求1的多曝光图像融合装置,其中
所述多个曝光程度不同的图像包括参考图像和辅助图像,参考图像为照相机在自动参数设置下拍摄的图像,辅助图像包括曝光过度及不足的图像,
其中所述反光区域提取单元利用预定的图像分类器将该参考图像分类到预定类别,然后利用与该预定类别相关联的反光区域提取阈值来提取该多个曝光程度不同的图像的反光区域。
8.根据权利要求7的多曝光图像融合装置,其中所述预定的图像分类器通过以下步骤训练得到:
(1)输入M幅一组关于同一场景且光照条件不同的图像Ti(x,y),i=1,...,M,其中,完全不包含反光区域的图像Tg(x,y)称为基准图像,序列中的其余图像Tj(x,y),j=1,...,M,j≠g称为训练图像,其中M为大于等于2的整数;
(2)计算基准图像Tg(x,y)及训练图像Tj(x,y)的梯度图像,得到基准梯度图像Gg(x,y)及训练梯度图像Gj(x,y);
(3)根据如下公式对基准梯度图像Gg(x,y)进行阈值化处理以生成笔画引导图Ag(x,y),
其中,θ为阈值;
(4)根据笔画引导图Ag(x,y)利用如下公式计算训练梯度图像Gj(x,y)的不可见度IV(j),即计算仅发生在笔画引导图Ag(x,y)=1的像素点,
其中,n为训练梯度图像Gj(x,y)的像素个数;
(5)预先将训练图像序列分为C(l),l∈[1,S]类,S表示类别个数,为大于等于2的整数,根据训练梯度图像Gj(x,y)的不可见度IV(j)将训练图像Tj(x,y)归类到C(l),计算方法为,
其中,Kl-1,Kl分别为第C(l)类图像的不可见度的上、下限,KS为最大不可见度;
(6)计算类别l的模型向量M(l),l∈[1,S],计算方法为,
其中,Meanmap(l,Ch)为属于第C(l)类的所有训练图像Tj(x,y)的Ch色彩通道的均值图;Tj,Ch(x,y)表示训练图像Tj(x,y)的Ch色彩通道图像;ave(t(x,y))为任意图像t(x,y)按像素的均值,n为图像t(x,y)的像素个数;
人工指定类别模型向量M(l),l∈[1,S]的反光区域提取阈值δ(l)。
9.根据权利要求8的多曝光图像融合装置,其中所述反光区域提取单元利用预定的图像分类器将该参考图像分类到预定类别,然后利用与该预定类别相关联的反光区域提取阈值来提取该多个曝光程度不同的图像的反光区域包括:
(1)计算参考图像Ir(x,y)的匹配向量计算方法为,
其中,Ir,Ch(x,y)表示训练图像Ir(x,y)的Ch色彩通道图像,Ch=R,G,B;
(2)计算参考图像Ir(x,y)的类别,计算方法为,
其中,ε为类型匹配阈值;
(3)根据阈值δ(l)计算参考图像Ir(x,y)的反光区域位置,得到反光区域左上角(x11,y11)、右上角(x12,y12)、左下角(x21,y21)及右下角(x22,y22)坐标,从而提取出参考反光区域图像Fr(x,y);
(4)根据上述步骤(3)得到的反光区域位置信息从辅助图像Ij(x,y)中提取出辅助反光区域图像Fj(x,y)。
10.一种多曝光图像融合方法,包括
提取同一场景的多个曝光程度不同的图像中的每个图像的反光区域;以及
融合所述多个反光区域的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210029200.0A CN103247036B (zh) | 2012-02-10 | 2012-02-10 | 多曝光图像融合方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210029200.0A CN103247036B (zh) | 2012-02-10 | 2012-02-10 | 多曝光图像融合方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103247036A CN103247036A (zh) | 2013-08-14 |
CN103247036B true CN103247036B (zh) | 2016-05-18 |
Family
ID=48926541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210029200.0A Active CN103247036B (zh) | 2012-02-10 | 2012-02-10 | 多曝光图像融合方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103247036B (zh) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105279746B (zh) * | 2014-05-30 | 2018-01-26 | 西安电子科技大学 | 一种基于双边滤波的多曝光图像融合方法 |
CN104700426B (zh) * | 2015-04-02 | 2017-11-03 | 厦门美图之家科技有限公司 | 一种判断图像是否偏暗或偏亮的方法和系统 |
CN104881854B (zh) * | 2015-05-20 | 2017-10-31 | 天津大学 | 基于梯度和亮度信息的高动态范围图像融合方法 |
CN105959543B (zh) * | 2016-05-19 | 2019-04-30 | 努比亚技术有限公司 | 一种去除反光的拍摄装置和方法 |
CN106251365A (zh) * | 2016-07-22 | 2016-12-21 | 北京邮电大学 | 多曝光视频融合方法及装置 |
CN106447642B (zh) * | 2016-08-31 | 2019-12-31 | 北京贝塔科技股份有限公司 | 一种图像双重曝光融合方法及装置 |
CN107203985B (zh) * | 2017-05-18 | 2019-11-08 | 北京联合大学 | 一种端到端深度学习框架下的多曝光图像融合方法 |
CN107945148B (zh) * | 2017-12-15 | 2021-06-01 | 电子科技大学 | 一种基于mrf区域选择的多曝光度图像融合方法 |
CN108171679B (zh) * | 2017-12-27 | 2022-07-22 | 合肥君正科技有限公司 | 一种图像融合方法、系统及设备 |
CN108305252B (zh) * | 2018-02-26 | 2020-03-27 | 中国人民解放军总医院 | 用于便携式电子内镜的图像融合方法 |
CN108681989A (zh) * | 2018-03-30 | 2018-10-19 | 国信优易数据有限公司 | 一种图像数据增强方法以及装置 |
CN110166684B (zh) * | 2018-06-29 | 2021-09-17 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读介质及电子设备 |
CN111050143B (zh) | 2018-10-11 | 2021-09-21 | 华为技术有限公司 | 一种图像拍摄方法和终端设备 |
CN109240210A (zh) * | 2018-10-16 | 2019-01-18 | 重庆工业职业技术学院 | 一种具有故障诊断与预警功能的数控机床 |
CN109636765B (zh) * | 2018-11-09 | 2021-04-02 | Tcl华星光电技术有限公司 | 基于图像多重曝光融合的高动态显示方法 |
CN110087003B (zh) * | 2019-04-30 | 2021-03-23 | Tcl华星光电技术有限公司 | 多曝光图像融合方法 |
CN110517210B (zh) * | 2019-07-08 | 2021-09-03 | 河北工业大学 | 基于Haar小波梯度重建的多曝光焊区图像融合方法 |
CN110572585B (zh) * | 2019-08-26 | 2021-03-23 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN110784645B (zh) * | 2019-10-09 | 2021-01-01 | 中国航空工业集团公司洛阳电光设备研究所 | 基于单色双通道sCMOS摄像机的灰度调制图像融合方法 |
CN110717878B (zh) * | 2019-10-12 | 2022-04-15 | 北京迈格威科技有限公司 | 图像融合方法、装置、计算机设备和存储介质 |
CN110781860B (zh) * | 2019-11-05 | 2024-01-19 | 大连海事大学 | 一种海洋石油平台溢油监控智能报警系统及方法 |
CN111510623B (zh) * | 2020-04-02 | 2022-02-15 | 维沃移动通信有限公司 | 拍摄方法及电子设备 |
CN111754440B (zh) * | 2020-06-29 | 2023-05-05 | 苏州科达科技股份有限公司 | 车牌图像增强方法、系统、设备及存储介质 |
CN113194253B (zh) * | 2021-04-28 | 2023-04-28 | 维沃移动通信有限公司 | 去除图像反光的拍摄方法、装置和电子设备 |
CN114004809A (zh) * | 2021-10-29 | 2022-02-01 | 北京百度网讯科技有限公司 | 皮肤图像处理方法、装置、电子设备和介质 |
CN116304163B (zh) * | 2023-05-11 | 2023-07-25 | 深圳兔展智能科技有限公司 | 一种图像检索方法、装置、计算机设备及介质 |
CN116506739B (zh) * | 2023-06-26 | 2023-09-12 | 季华实验室 | 图像的数据增强方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1697478A (zh) * | 2004-05-13 | 2005-11-16 | 欧姆龙株式会社 | 图像修正装置 |
CN101052100A (zh) * | 2007-03-29 | 2007-10-10 | 上海交通大学 | 多曝光图像增强方法 |
CN101394487A (zh) * | 2008-10-27 | 2009-03-25 | 华为技术有限公司 | 一种合成图像的方法与系统 |
CN101415059A (zh) * | 2007-10-15 | 2009-04-22 | 富士施乐株式会社 | 图像读取设备和图像读取方法 |
CN102063712A (zh) * | 2010-11-04 | 2011-05-18 | 北京理工大学 | 基于子带结构的多曝光图像融合方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101633893B1 (ko) * | 2010-01-15 | 2016-06-28 | 삼성전자주식회사 | 다중노출 영상을 합성하는 영상합성장치 및 방법 |
-
2012
- 2012-02-10 CN CN201210029200.0A patent/CN103247036B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1697478A (zh) * | 2004-05-13 | 2005-11-16 | 欧姆龙株式会社 | 图像修正装置 |
CN101052100A (zh) * | 2007-03-29 | 2007-10-10 | 上海交通大学 | 多曝光图像增强方法 |
CN101415059A (zh) * | 2007-10-15 | 2009-04-22 | 富士施乐株式会社 | 图像读取设备和图像读取方法 |
CN101394487A (zh) * | 2008-10-27 | 2009-03-25 | 华为技术有限公司 | 一种合成图像的方法与系统 |
CN102063712A (zh) * | 2010-11-04 | 2011-05-18 | 北京理工大学 | 基于子带结构的多曝光图像融合方法 |
Non-Patent Citations (1)
Title |
---|
基于梯度的多曝光图像融合;吴伟华 等;《计算机与现代化》;20110615;第18-21页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103247036A (zh) | 2013-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103247036B (zh) | 多曝光图像融合方法和装置 | |
Zhou et al. | Pyramid fully convolutional network for hyperspectral and multispectral image fusion | |
CN110378985B (zh) | 一种基于gan的动漫绘画辅助创作方法 | |
Gautam et al. | Realistic river image synthesis using deep generative adversarial networks | |
JP6395158B2 (ja) | シーンの取得画像を意味的にラベル付けする方法 | |
CN106372648A (zh) | 基于多特征融合卷积神经网络的浮游生物图像分类方法 | |
Kim et al. | CityCraft: 3D virtual city creation from a single image | |
CN103020917B (zh) | 一种基于显著性检测的中国古代书法绘画图像复原方法 | |
CN109558806A (zh) | 高分遥感图像变化的检测方法和系统 | |
Zhang et al. | Feature pyramid network for diffusion-based image inpainting detection | |
CN111178121B (zh) | 基于空间特征和深度特征强化技术的害虫图像定位识别方法 | |
CN113762138B (zh) | 伪造人脸图片的识别方法、装置、计算机设备及存储介质 | |
CN107273870A (zh) | 一种监控场景下融合上下文信息的行人位置检测方法 | |
CN110610509A (zh) | 可指定类别的优化抠图方法及系统 | |
CN109740515A (zh) | 一种评阅方法及装置 | |
CN109272568B (zh) | 一种采用基元发现的人脸风格图像处理方法 | |
CN117078930A (zh) | 基于边界感知和注意力机制的医学图像分割方法 | |
CN111126127A (zh) | 一种多级空间上下文特征指导的高分辨率遥感影像分类方法 | |
CN117197763A (zh) | 基于交叉注意引导特征对齐网络的道路裂缝检测方法和系统 | |
Hou et al. | Text-aware single image specular highlight removal | |
Zhao et al. | Region-and pixel-level multi-focus image fusion through convolutional neural networks | |
CN108805022A (zh) | 一种基于多尺度centrist特征的遥感场景分类方法 | |
Wang et al. | GGD-GAN: Gradient-guided dual-branch adversarial networks for relic sketch generation | |
Peng et al. | A relic sketch extraction framework based on detail-aware hierarchical deep network | |
Zhang et al. | Deep joint neural model for single image haze removal and color correction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |