CN114639004A - 多聚焦图像融合方法及装置 - Google Patents

多聚焦图像融合方法及装置 Download PDF

Info

Publication number
CN114639004A
CN114639004A CN202210323138.XA CN202210323138A CN114639004A CN 114639004 A CN114639004 A CN 114639004A CN 202210323138 A CN202210323138 A CN 202210323138A CN 114639004 A CN114639004 A CN 114639004A
Authority
CN
China
Prior art keywords
image
training
map
focusing
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210323138.XA
Other languages
English (en)
Inventor
强晓鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agricultural Bank of China
Original Assignee
Agricultural Bank of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agricultural Bank of China filed Critical Agricultural Bank of China
Priority to CN202210323138.XA priority Critical patent/CN114639004A/zh
Publication of CN114639004A publication Critical patent/CN114639004A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种多聚焦图像融合方法及装置,该方法包括:获取目标图像,对目标图像进行高斯模糊处理和二值化处理,获得目标图像对应的高斯图和真值图;生成真值图对应的反真值图,反真值图与真值图为互补关系;基于目标图像、高斯图、真值图及反真值图,生成目标图像对应的第一聚焦图和第二聚焦图,第一聚焦图与第二聚焦图为互补关系;将第一聚焦图及第二聚焦图输入预先训练完成的图像融合网络,获得图像融合网络输出的决策图,决策图为经所述图像融合网络进行预测的二值图;将第一聚焦图像、第二聚焦图像及决策图进行融合,获得多聚焦融合图像。应用本发明提供的方法,可以简化多聚焦图像融合过程。

Description

多聚焦图像融合方法及装置
技术领域
本发明涉及图像处理技术领域,特别是涉及一种多聚焦图像融合方法及装置。
背景技术
图像融合技术是可视的信息融合技术,是信息融合的一个扩展分支。图像融合主要是同一场景下,将多源传感器分别获取多信道的内容信息进行各种方法处理,通过提取各自图像中的有用内容信息,最终融合成高质量、信息量丰富的单幅图像。多聚焦图像融合是图像融合的重要分支之一,它是使用单一传感器设备对某一场景下的多次聚焦获取图像内容信息进行融合。
现有技术的多聚焦图像融合方法是基于卷积神经网络进行的预测和处理,其中还需要对图像进行二值分割、除洞、分水岭等操作,而且部分相关数据都是需要人工去提取特征,这个过程相当繁琐。
发明内容
有鉴于此,本发明提供一种多聚焦图像融合方法,通过该方法,可以简化多聚焦图像融合过程。
本发明还提供了一种多聚焦图像融合装置,用以保证上述方法在实际中的实现及应用。
一种多聚焦图像融合方法,包括:
获取目标图像,对所述目标图像进行高斯模糊处理和二值化处理,获得所述目标图像对应的高斯图和真值图;
生成所述真值图对应的反真值图,所述反真值图与所述真值图为互补关系;
基于所述目标图像、所述高斯图、所述真值图及所述反真值图,生成所述目标图像对应的第一聚焦图和第二聚焦图,所述第一聚焦图与所述第二聚焦图为互补关系;
将所述第一聚焦图及所述第二聚焦图输入预先训练完成的图像融合网络,获得所述图像融合网络输出的决策图,所述决策图为经所述图像融合网络进行预测的二值图;
将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得多聚焦融合图像。
上述的方法,可选的,所述基于所述目标图像、所述高斯图、所述真值图及所述反真值图,生成所述目标图像对应的第一聚焦图和第二聚焦图,包括:
应用预设的第一计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第一聚焦图;
应用预设的第二计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第二聚焦图;
所述第一计算公式为:
Figure BDA0003572488500000021
所述第二计算公式为:
Figure BDA0003572488500000022
其中,y1为第一聚焦图,y2为第二聚焦图,x为目标图像,
Figure BDA0003572488500000023
为真值图,
Figure BDA0003572488500000024
为反真值图,xblur为高斯图。
上述的方法,可选的,训练所述图像融合网络的过程,包括:
获取第一训练图像、第二训练图像及训练目标,所述第一训练图像和第二训练图像为互补关系的聚焦图,所述训练目标为所述第一训练图像和第二训练图像对应的二值图;
基于所述第一训练图像、第二训练图像及训练目标,执行所述图像融合网络对应的训练过程;
其中,所述训练过程包括:将所述第一训练图像及所述第二训练图像分别输入所述图像融合网络的第一编码网络和第二编码网络,获得所述第一编码网络输出的所述第一训练图像对应的第一上下文信息及所述第二编码网络输出的所述第二训练图像对应的第二上下文信息;将所述第一上下文信息与所述第二上下文信息进行融合后获得的融合信息,并将所述融合信息输入所述图像融合网络的解码器,获得所述解码器输出的目标二值图;
将所述目标二值图与所述训练目标进行比对,获得比对结果;
当所述比对结果不满足预设的训练条件时,应用预设的二值交叉熵函数调整所述图像融合网络,并重新执行所述训练过程;
当所述比对结果满足所述训练条件时,结束对所述图像融合网络的训练。
上述的方法,可选的,所述将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得多聚焦融合图像,包括:
应用预先设置的条件随机场方法CRF对所述决策图进行边界平滑处理,获得已处理的决策图;
将所述第一聚焦图像、第二聚焦图像及已处理的决策图进行融合,获得多聚焦融合图像。
上述的方法,可选的,所述将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得融合图像,包括:
应用预先设置的第三计算公式对所述第一聚焦图像、第二聚焦图像及所述决策图进行计算,生成多聚焦融合图像;
所述第三计算公式为:
Ffused=FD(x,y)×FA(x,y)+(1-FD(x,y))×FB(x,y)
其中,Ffused为融合图像,FA为第一聚焦图像,FB为第二聚焦图像,FD为图决策图,(x,y)为图像中的像素点。
一种多聚焦图像融合方法,包括:
第一处理单元,用于获取目标图像,对所述目标图像进行高斯模糊处理和二值化处理,获得所述目标图像对应的高斯图和真值图;
第一生成单元,用于生成所述真值图对应的反真值图,所述反真值图与所述真值图为互补关系;
第二生成单元,用于基于所述目标图像、所述高斯图、所述真值图及所述反真值图,生成所述目标图像对应的第一聚焦图和第二聚焦图,所述第一聚焦图与所述第二聚焦图为互补关系;
第二处理单元,用于将所述第一聚焦图及所述第二聚焦图输入预先训练完成的图像融合网络,获得所述图像融合网络输出的决策图,所述决策图为经所述图像融合网络进行预测的二值图;
融合单元,用于将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得多聚焦融合图像。
上述的装置,可选的,所述第二生成单元,包括:
第一子计算单元,用于应用预设的第一计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第一聚焦图;
第二计算子单元,用于应用预设的第二计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第二聚焦图;
所述第一计算公式为:
Figure BDA0003572488500000041
所述第二计算公式为:
Figure BDA0003572488500000042
其中,y1为第一聚焦图,y2为第二聚焦图,x为目标图像,
Figure BDA0003572488500000043
为真值图,
Figure BDA0003572488500000044
为反真值图,xblur为高斯图。
上述的装置,可选的,还包括:
获取单元,用于获取第一训练图像、第二训练图像及训练目标,所述第一训练图像和第二训练图像为互补关系的聚焦图,所述训练目标为所述第一训练图像和第二训练图像对应的二值图;
训练单元,用于基于所述第一训练图像、第二训练图像及训练目标,执行所述图像融合网络对应的训练过程;
其中,所述训练过程包括:将所述第一训练图像及所述第二训练图像分别输入所述图像融合网络的第一编码网络和第二编码网络,获得所述第一编码网络输出的所述第一训练图像对应的第一上下文信息及所述第二编码网络输出的所述第二训练图像对应的第二上下文信息;将所述第一上下文信息与所述第二上下文信息进行融合后获得的融合信息,并将所述融合信息输入所述图像融合网络的解码器,获得所述解码器输出的目标二值图;
比对单元,用于将所述目标二值图与所述训练目标进行比对,获得比对结果;当所述比对结果不满足预设的训练条件时,应用预设的二值交叉熵函数调整所述图像融合网络,并重新执行所述训练过程;当所述比对结果满足所述训练条件时,结束对所述图像融合网络的训练。
上述的装置,可选的,所述融合单元,包括:
第一处理子单元,用于应用预先设置的条件随机场方法CRF对所述决策图进行边界平滑处理,获得已处理的决策图;
融合子单元,用于将所述第一聚焦图像、第二聚焦图像及已处理的决策图进行融合,获得多聚焦融合图像。
上述的装置,可选的,所述融合单元,包括:
生成子单元,用于应用预先设置的第三计算公式对所述第一聚焦图像、第二聚焦图像及所述决策图进行计算,生成多聚焦融合图像;
所述第三计算公式为:
Ffused=FD(x,y)×FA(x,y)+(1-FD(x,y))×FB(x,y)
其中,Ffused为融合图像,FA为第一聚焦图像,FB为第二聚焦图像,FD为图决策图,(x,y)为图像中的像素点。
一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行上述的多聚焦图像融合方法。
一种电子设备,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行上述的多聚焦图像融合方法。
与现有技术相比,本发明包括以下优点:
本发明提供一种多聚焦图像融合方法,包括:获取目标图像,对所述目标图像进行高斯模糊处理和二值化处理,获得所述目标图像对应的高斯图和真值图;生成所述真值图对应的反真值图,所述反真值图与所述真值图为互补关系;基于所述目标图像、所述高斯图、所述真值图及所述反真值图,生成所述目标图像对应的第一聚焦图和第二聚焦图,所述第一聚焦图与所述第二聚焦图为互补关系;将所述第一聚焦图及所述第二聚焦图输入预先训练完成的图像融合网络,获得所述图像融合网络输出的决策图,所述决策图为经所述图像融合网络进行预测的二值图;将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得多聚焦融合图像。应用本发明提供的方法,可以简化多聚焦图像融合过程。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种多聚焦图像融合方法的方法流程图;
图2为本发明实施例提供的一种多聚焦图像融合方法的又一方法流程图;
图3为本发明实施例提供的一种图像融合网络的训练过程示意图;
图4为本发明实施例提供的一种多聚焦图像融合装置的装置结构图;
图5为本发明实施例提供的一种电子设备结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明可用于众多通用或专用的计算装置环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器装置、包括以上任何装置或设备的分布式计算环境等等。
本发明实施例提供了一种多聚焦图像融合方法,该方法可以应用在多种系统平台,其执行主体可以为计算机终端或各种移动设备的处理器,所述方法的方法流程图如图1所示,具体包括:
S101:获取目标图像,对所述目标图像进行高斯模糊处理和二值化处理,获得所述目标图像对应的高斯图和真值图。
需要说明的是,目标图像可以为显著性图像,显著性图像是显示每个像素独特性的图像。
其中,对目标图像进行高斯模糊处理可以模拟相机的离焦属性,从而获得非聚焦的高斯图。对目标图像进行二值化处理是将图像中的像素点灰度值设置为0或255,得到一种只有黑和白的真值图。
S102:生成所述真值图对应的反真值图。
其中,所述反真值图与所述真值图为互补关系,即真值图中灰度值为0像素点在反真值图中的灰度值为255,真值图中灰度值为255像素点在反真值图中的灰度值为0。
S103:基于所述目标图像、所述高斯图、所述真值图及所述反真值图,生成所述目标图像对应的第一聚焦图和第二聚焦图。
其中,所述第一聚焦图与所述第二聚焦图为互补关系。
具体的,获得第一聚焦图和第二聚焦图的过程为:
应用预设的第一计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第一聚焦图;
应用预设的第二计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第二聚焦图;
所述第一计算公式为:
Figure BDA0003572488500000081
所述第二计算公式为:
Figure BDA0003572488500000082
其中,y1为第一聚焦图,y2为第二聚焦图,x为目标图像,
Figure BDA0003572488500000083
为真值图,
Figure BDA0003572488500000084
为反真值图,xblur为高斯图。
需要说明的是,聚焦图中包含聚焦区域和非聚焦区域。聚焦区域指的是聚焦图中聚焦清晰的图像区域。非聚焦区域指的是聚焦图像中不清晰的图像区域。本发明实施例中,第一聚焦图和第二聚焦图为互补关系,因此,第一聚焦图中的聚焦区域在第二聚焦图中为非聚焦区域,第一聚焦图中的非聚焦区域在第二聚焦图中为聚焦区域。
S104:将所述第一聚焦图及所述第二聚焦图输入预先训练完成的图像融合网络,获得所述图像融合网络输出的决策图。
其中,所述决策图为经所述图像融合网络进行预测的二值图。
需要说明的是,图像融合网络为双分支端到端的编码解码网络,将第一聚焦图及第二聚焦图作为网络的输入相关信息的提取,获得决策图。
还需要说明的是,决策图为经过图像融合网络对第一聚焦图及第二聚焦图进行融合分析后得出的二值图,图像融合网络输出的决策图可以与真值图一致,也可以与真值图存在区别。
S105:将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得多聚焦融合图像。
具体的,对该个图像进行融合的过程为:
应用预先设置的第三计算公式对所述第一聚焦图像、第二聚焦图像及所述决策图进行计算,生成多聚焦融合图像;
所述第三计算公式为:
Ffused=FD(x,y)×FA(x,y)+(1-FD(x,y))×FB(x,y)
其中,Ffused为融合图像,FA为第一聚焦图像,FB为第二聚焦图像,FD为图决策图,(x,y)为图像中的像素点。
需要说明的是,应用第三计算公式对每个像素点进行计算,将第一聚焦图、第二聚焦图和决策图中各个像素点融合,生成多聚焦融合图像。
本发明实施例提供的方法中,获取目标图像,对图像进行高斯模糊处理后获得高斯图,同时进行二值化处理获得真值图。将真值图中灰度值为0的像素点转换成灰度值为255的像素点,灰度值为255的像素点转换成灰度值为0的像素点,生成与该真值图成互补关系的反真值图。按照第一计算公式计算目标图像、高斯图、真值图和反真值图,获得第一聚焦图,即,将目标图像与真值图相乘再加上高斯图与反真值图相乘的结构获得第一聚焦图。按照第二计算公式计算目标图像、高斯图、真值图和反真值图,获得第二聚焦图,即,将目标图像与反真值图相乘再加上高斯图与真值图相乘的结构获得第一聚焦图。通过图像融合网络对第一聚焦图和第二聚焦图进行分析,输出决策图,该决策图也是二值图,决策图中的各个像素点的灰度值为0或255。将第一聚焦图、第二聚焦图和决策图进行融合,获得的多聚焦融合图像。在本发明实施例中,无需在图像融合过程中使用差值、而知分割以及除洞等大量繁琐的处理操作,简化多聚焦图像融合过程。
进一步地,在多聚焦图像融合过程中,可以对决策图进行进一步的平滑处理,以保证多聚焦图像的聚焦区域和非聚焦区域的平滑,因此,将所述第一聚焦图像、第二聚焦图像及决策图进行融合的过程,具体可以包括:
应用预先设置的条件随机场方法CRF对所述决策图进行边界平滑处理,获得已处理的决策图;
将所述第一聚焦图像、第二聚焦图像及已处理的决策图进行融合,获得多聚焦融合图像。
需要说明的是,条件随机场主要思想是利用像素之间的标签一致性等假设,将像素级的标签分类问题转换为概率求解问题。其能量函数如下:
E(x)=∑iψu(xi)+∑i≠jψp(xi,xj)
ψu(xi)表示每个像素属于各个类别的概率,即每个像素属于聚焦区域或非聚焦区域的概率。ψp(xi,xj)为成对势函数项,用于衡量两个像素同属于一个区域的概率,定义为高斯核函数的加权。ψp(xi,xj)的计算公式为:
Figure BDA0003572488500000101
其中,ω1和ω2为高斯权重项,Ii,Ij,pi,pj分别代表像素点i和j的像素值和位置,μ(xi,xj)为两个标签之间的兼容性度量,θαβγ为高斯核参数。
还需要说明的是,在对决策图进行处理后,可以应用第三计算公式将第一聚焦图像、第二聚焦图像和已处理的决策图进行计算,生成多聚焦融合图像。
应用本发明实施例提供的方法,将第一聚焦图、第二聚焦图和决策图进行融合的过程中,应用CRF对各个图像进行处理和融合,从而保证聚焦区域与费聚焦区域的一致性及边界的平滑过渡性。
在本发明中,为了简化图像融合的过程,应用图像融合网络对第一聚焦图和第二聚焦图进行处理后,获得决策图。参考图2,训练图像融合网络的过程,具体可以包括:
S201:获取第一训练图像、第二训练图像及训练目标。
其中,所述第一训练图像和第二训练图像为互补关系的聚焦图,所述训练目标为所述第一训练图像和第二训练图像对应的二值图。
可选的,第一训练图和第二训练图可以是上述S103提及的第一聚集图和第二聚集图,训练目标可以是上述S101提及的真值图。
S202:将所述第一训练图像及所述第二训练图像分别输入所述图像融合网络的第一编码网络和第二编码网络,获得所述第一编码网络输出的所述第一训练图像对应的第一上下文信息及所述第二编码网络输出的所述第二训练图像对应的第二上下文信息。
需要说明的是,将第一训练图像输入第一编码网络,第一编码网络输出第一训练图像对应的第一上下文信息;将第二训练图像输入第二编码网络,第二编码网络输出第二训练图像对应的第二上下文信息。图像融合网络为双分支端到端的编码解码网络,该网络中的双分支则为第一编码器和第二编码器。
S203:将所述第一上下文信息与所述第二上下文信息进行融合后获得的融合信息,并将所述融合信息输入所述图像融合网络的解码器,获得所述解码器输出的目标二值图。
需要说明的是,将第一上下文信息与第二上下文信息进行特征融合,在解码器中经过多级卷积模块的处理后输出灰度为黑白的目标二值图。
S204:将所述目标二值图与所述训练目标进行比对,获得比对结果。
需要说明的是,将目标二值图与训练目标进行比对,具体是计算目标二值图与训练目标的相似度,相似度大于预设的阈值则满足预设的训练条件,继续执行S205,相似度不大于预设的阈值则不满足预设的训练条件,则继续执行S206。
S205:当所述比对结果不满足预设的训练条件时,应用预设的二值交叉熵函数调整所述图像融合网络,并重新返回执行S202。
需要说明的是,二值交叉熵函数为:
L=-∑G(m,n)log(S(m,n))-∑(1-G(m,n))log(1-S(m,n))
其中,G(m,n)∈(0,1)为真实标签(训练目标)G在位置(m,n)的值,S(m,n)∈(0,1)为目标二值图预测结果S在位置(m,n)的值。
S206:当所述比对结果满足所述训练条件时,结束对所述图像融合网络的训练。
可选的,本发明可以应用多个成对互补的聚焦图对图像融合网络进行训练,以通过多对图像的训练后提高图像融合网络的精度。
本发明实施例提供的方法中,参考图3,图3为图像融合网络的训练过程示意图,其中包括两个编码器(Encoder Module)和一个解码器(Decoder Module)。在两个解码器分别输入成对互补的训练图后由解码器输出对应的二值图。编码器中包含残差密集卷积块(RDA)进行特征提取,获得训练图的上下文信息。
在本发明实施例提供的方法,计了双分支的端到端编码解码网络,实现了决策图的端到端的预测;避免了现有方法使用插值、二值分割、除洞等大量繁琐的后处理操作优化结果。
上述各个实施例的具体实施过程及其衍生方式,均在本发明的保护范围之内。
与图1所述的方法相对应,本发明实施例还提供了一种多聚焦图像融合装置,用于对图1中方法的具体实现,本发明实施例提供的多聚焦图像融合装置可以应用计算机终端或各种移动设备中,其结构示意图如图4所示,具体包括:
第一处理单元401,用于获取目标图像,对所述目标图像进行高斯模糊处理和二值化处理,获得所述目标图像对应的高斯图和真值图;
第一生成单元402,用于生成所述真值图对应的反真值图,所述反真值图与所述真值图为互补关系;
第二生成单元403,用于基于所述目标图像、所述高斯图、所述真值图及所述反真值图,生成所述目标图像对应的第一聚焦图和第二聚焦图,所述第一聚焦图与所述第二聚焦图为互补关系;
第二处理单元404,用于将所述第一聚焦图及所述第二聚焦图输入预先训练完成的图像融合网络,获得所述图像融合网络输出的决策图,所述决策图为经所述图像融合网络进行预测的二值图;
融合单元405,用于将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得多聚焦融合图像。
本发明实施例提供的装置中,获取目标图像,对图像进行高斯模糊处理后获得高斯图,同时进行二值化处理获得真值图。将真值图中灰度值为0的像素点转换成灰度值为255的像素点,灰度值为255的像素点转换成灰度值为0的像素点,生成与该真值图成互补关系的反真值图。按照第一计算公式计算目标图像、高斯图、真值图和反真值图,获得第一聚焦图,即,将目标图像与真值图相乘再加上高斯图与反真值图相乘的结构获得第一聚焦图。按照第二计算公式计算目标图像、高斯图、真值图和反真值图,获得第二聚焦图,即,将目标图像与反真值图相乘再加上高斯图与真值图相乘的结构获得第一聚焦图。通过图像融合网络对第一聚焦图和第二聚焦图进行分析,输出决策图,该决策图也是二值图,决策图中的各个像素点的灰度值为0或255。将第一聚焦图、第二聚焦图和决策图进行融合,获得的多聚焦融合图像。在本发明实施例中,无需在图像融合过程中使用差值、而知分割以及除洞等大量繁琐的处理操作,简化多聚焦图像融合过程。
本发明实施例提供的装置中,所述第二生成单元403,包括:
第一子计算单元,用于应用预设的第一计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第一聚焦图;
第二计算子单元,用于应用预设的第二计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第二聚焦图;
所述第一计算公式为:
Figure BDA0003572488500000131
所述第二计算公式为:
Figure BDA0003572488500000132
其中,y1为第一聚焦图,y2为第二聚焦图,x为目标图像,
Figure BDA0003572488500000133
为真值图,
Figure BDA0003572488500000134
为反真值图,xblur为高斯图。
本发明实施例提供的装置中,还包括:
获取单元,用于获取第一训练图像、第二训练图像及训练目标,所述第一训练图像和第二训练图像为互补关系的聚焦图,所述训练目标为所述第一训练图像和第二训练图像对应的二值图;
训练单元,用于基于所述第一训练图像、第二训练图像及训练目标,执行所述图像融合网络对应的训练过程;
其中,所述训练过程包括:将所述第一训练图像及所述第二训练图像分别输入所述图像融合网络的第一编码网络和第二编码网络,获得所述第一编码网络输出的所述第一训练图像对应的第一上下文信息及所述第二编码网络输出的所述第二训练图像对应的第二上下文信息;将所述第一上下文信息与所述第二上下文信息进行融合后获得的融合信息,并将所述融合信息输入所述图像融合网络的解码器,获得所述解码器输出的目标二值图;
比对单元,用于将所述目标二值图与所述训练目标进行比对,获得比对结果;当所述比对结果不满足预设的训练条件时,应用预设的二值交叉熵函数调整所述图像融合网络,并重新执行所述训练过程;当所述比对结果满足所述训练条件时,结束对所述图像融合网络的训练。
本发明实施例提供的装置中,所述融合单元405,包括:
第一处理子单元,用于应用预先设置的条件随机场方法CRF对所述决策图进行边界平滑处理,获得已处理的决策图;
融合子单元,用于将所述第一聚焦图像、第二聚焦图像及已处理的决策图进行融合,获得多聚焦融合图像。
本发明实施例提供的装置中,所述融合单元405,包括:
生成子单元,用于应用预先设置的第三计算公式对所述第一聚焦图像、第二聚焦图像及所述决策图进行计算,生成多聚焦融合图像;
所述第三计算公式为:
Ffused=FD(x,y)×FA(x,y)+(1-FD(x,y))×FB(x,y)
其中,Ffused为融合图像,FA为第一聚焦图像,FB为第二聚焦图像,FD为图决策图,(x,y)为图像中的像素点。
以上本发明实施例公开的多聚焦图像融合装置中各个单元及子单元的具体工作过程,可参见本发明上述实施例公开的多聚焦图像融合方法中的对应内容,这里不再进行赘述。
本发明实施例还提供了一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行上述多聚焦图像融合方法。
本发明实施例还提供了一种电子设备,其结构示意图如图5所示,具体包括存储器501,以及一个或者一个以上的指令502,其中一个或者一个以上指令502存储于存储器501中,且经配置以由一个或者一个以上处理器503执行所述一个或者一个以上指令502进行以下操作:
获取目标图像,对所述目标图像进行高斯模糊处理和二值化处理,获得所述目标图像对应的高斯图和真值图;
生成所述真值图对应的反真值图,所述反真值图与所述真值图为互补关系;
基于所述目标图像、所述高斯图、所述真值图及所述反真值图,生成所述目标图像对应的第一聚焦图和第二聚焦图,所述第一聚焦图与所述第二聚焦图为互补关系;
将所述第一聚焦图及所述第二聚焦图输入预先训练完成的图像融合网络,获得所述图像融合网络输出的决策图,所述决策图为经所述图像融合网络进行预测的二值图;
将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得多聚焦融合图像。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现。
为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种多聚焦图像融合方法,其特征在于,包括:
获取目标图像,对所述目标图像进行高斯模糊处理和二值化处理,获得所述目标图像对应的高斯图和真值图;
生成所述真值图对应的反真值图,所述反真值图与所述真值图为互补关系;
基于所述目标图像、所述高斯图、所述真值图及所述反真值图,生成所述目标图像对应的第一聚焦图和第二聚焦图,所述第一聚焦图与所述第二聚焦图为互补关系;
将所述第一聚焦图及所述第二聚焦图输入预先训练完成的图像融合网络,获得所述图像融合网络输出的决策图,所述决策图为经所述图像融合网络进行预测的二值图;
将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得多聚焦融合图像。
2.根据权利要求1所述的方法,其特征在于,所述基于所述目标图像、所述高斯图、所述真值图及所述反真值图,生成所述目标图像对应的第一聚焦图和第二聚焦图,包括:
应用预设的第一计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第一聚焦图;
应用预设的第二计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第二聚焦图;
所述第一计算公式为:
Figure FDA0003572488490000011
所述第二计算公式为:
Figure FDA0003572488490000012
其中,y1为第一聚焦图,y2为第二聚焦图,x为目标图像,
Figure FDA0003572488490000013
为真值图,
Figure FDA0003572488490000014
为反真值图,xblur为高斯图。
3.根据权利要求1所述的方法,其特征在于,训练所述图像融合网络的过程,包括:
获取第一训练图像、第二训练图像及训练目标,所述第一训练图像和第二训练图像为互补关系的聚焦图,所述训练目标为所述第一训练图像和第二训练图像对应的二值图;
基于所述第一训练图像、第二训练图像及训练目标,执行所述图像融合网络对应的训练过程;
其中,所述训练过程包括:将所述第一训练图像及所述第二训练图像分别输入所述图像融合网络的第一编码网络和第二编码网络,获得所述第一编码网络输出的所述第一训练图像对应的第一上下文信息及所述第二编码网络输出的所述第二训练图像对应的第二上下文信息;将所述第一上下文信息与所述第二上下文信息进行融合后获得的融合信息,并将所述融合信息输入所述图像融合网络的解码器,获得所述解码器输出的目标二值图;
将所述目标二值图与所述训练目标进行比对,获得比对结果;
当所述比对结果不满足预设的训练条件时,应用预设的二值交叉熵函数调整所述图像融合网络,并重新执行所述训练过程;
当所述比对结果满足所述训练条件时,结束对所述图像融合网络的训练。
4.根据权利要求1所述的方法,其特征在于,所述将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得多聚焦融合图像,包括:
应用预先设置的条件随机场方法CRF对所述决策图进行边界平滑处理,获得已处理的决策图;
将所述第一聚焦图像、第二聚焦图像及已处理的决策图进行融合,获得多聚焦融合图像。
5.根据权利要求1或4所述的方法,其特征在于,所述将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得融合图像,包括:
应用预先设置的第三计算公式对所述第一聚焦图像、第二聚焦图像及所述决策图进行计算,生成多聚焦融合图像;
所述第三计算公式为:
Ffused=FD(x,y)×FA(x,y)+(1-FD(x,y))×FB(x,y)
其中,Ffused为融合图像,FA为第一聚焦图像,FB为第二聚焦图像,FD为图决策图,(x,y)为图像中的像素点。
6.一种多聚焦图像融合装置,其特征在于,包括:
第一处理单元,用于获取目标图像,对所述目标图像进行高斯模糊处理和二值化处理,获得所述目标图像对应的高斯图和真值图;
第一生成单元,用于生成所述真值图对应的反真值图,所述反真值图与所述真值图为互补关系;
第二生成单元,用于基于所述目标图像、所述高斯图、所述真值图及所述反真值图,生成所述目标图像对应的第一聚焦图和第二聚焦图,所述第一聚焦图与所述第二聚焦图为互补关系;
第二处理单元,用于将所述第一聚焦图及所述第二聚焦图输入预先训练完成的图像融合网络,获得所述图像融合网络输出的决策图,所述决策图为经所述图像融合网络进行预测的二值图;
融合单元,用于将所述第一聚焦图像、第二聚焦图像及决策图进行融合,获得多聚焦融合图像。
7.根据权利要求6所述的装置,其特征在于,所述第二生成单元,包括:
第一子计算单元,用于应用预设的第一计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第一聚焦图;
第二计算子单元,用于应用预设的第二计算公式,对所述目标图像、所述高斯图、所述真值图及所述反真值图进行计算,生成所述目标图像对应的第二聚焦图;
所述第一计算公式为:
Figure FDA0003572488490000031
所述第二计算公式为:
Figure FDA0003572488490000032
其中,y1为第一聚焦图,y2为第二聚焦图,x为目标图像,
Figure FDA0003572488490000033
为真值图,
Figure FDA0003572488490000034
为反真值图,xblur为高斯图。
8.根据权利要求6所述的装置,其特征在于,还包括:
获取单元,用于获取第一训练图像、第二训练图像及训练目标,所述第一训练图像和第二训练图像为互补关系的聚焦图,所述训练目标为所述第一训练图像和第二训练图像对应的二值图;
训练单元,用于基于所述第一训练图像、第二训练图像及训练目标,执行所述图像融合网络对应的训练过程;
其中,所述训练过程包括:将所述第一训练图像及所述第二训练图像分别输入所述图像融合网络的第一编码网络和第二编码网络,获得所述第一编码网络输出的所述第一训练图像对应的第一上下文信息及所述第二编码网络输出的所述第二训练图像对应的第二上下文信息;将所述第一上下文信息与所述第二上下文信息进行融合后获得的融合信息,并将所述融合信息输入所述图像融合网络的解码器,获得所述解码器输出的目标二值图;
比对单元,用于将所述目标二值图与所述训练目标进行比对,获得比对结果;当所述比对结果不满足预设的训练条件时,应用预设的二值交叉熵函数调整所述图像融合网络,并重新执行所述训练过程;当所述比对结果满足所述训练条件时,结束对所述图像融合网络的训练。
9.根据权利要求6所述的装置,其特征在于,所述融合单元,包括:
第一处理子单元,用于应用预先设置的条件随机场方法CRF对所述决策图进行边界平滑处理,获得已处理的决策图;
融合子单元,用于将所述第一聚焦图像、第二聚焦图像及已处理的决策图进行融合,获得多聚焦融合图像。
10.根据权利要求6或9所述的装置,其特征在于,所述融合单元,包括:
生成子单元,用于应用预先设置的第三计算公式对所述第一聚焦图像、第二聚焦图像及所述决策图进行计算,生成多聚焦融合图像;
所述第三计算公式为:
Ffused=FD(x,y)×FA(x,y)+(1-FD(x,y))×FB(x,y)
其中,Ffused为融合图像,FA为第一聚焦图像,FB为第二聚焦图像,FD为图决策图,(x,y)为图像中的像素点。
CN202210323138.XA 2022-03-30 2022-03-30 多聚焦图像融合方法及装置 Pending CN114639004A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210323138.XA CN114639004A (zh) 2022-03-30 2022-03-30 多聚焦图像融合方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210323138.XA CN114639004A (zh) 2022-03-30 2022-03-30 多聚焦图像融合方法及装置

Publications (1)

Publication Number Publication Date
CN114639004A true CN114639004A (zh) 2022-06-17

Family

ID=81952359

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210323138.XA Pending CN114639004A (zh) 2022-03-30 2022-03-30 多聚焦图像融合方法及装置

Country Status (1)

Country Link
CN (1) CN114639004A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117058061A (zh) * 2023-10-12 2023-11-14 广东工业大学 一种基于目标检测的多聚焦图像融合方法及相关装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117058061A (zh) * 2023-10-12 2023-11-14 广东工业大学 一种基于目标检测的多聚焦图像融合方法及相关装置
CN117058061B (zh) * 2023-10-12 2024-01-30 广东工业大学 一种基于目标检测的多聚焦图像融合方法及相关装置

Similar Documents

Publication Publication Date Title
CN111079764B (zh) 一种基于深度学习的低照度车牌图像识别方法及装置
CN111695421B (zh) 图像识别方法、装置及电子设备
CN113487618B (zh) 人像分割方法、装置、电子设备及存储介质
CN110909665B (zh) 一种多任务的图像处理方法、装置、电子设备及存储介质
CN112561879B (zh) 模糊度评价模型训练方法、图像模糊度评价方法及装置
CN112258436A (zh) 图像处理模型的训练方法、装置、图像处理方法及模型
CN111046771A (zh) 用于恢复书写轨迹的网络模型的训练方法
Chen et al. Residual pyramid learning for single-shot semantic segmentation
Zhu et al. HMFCA-Net: Hierarchical multi-frequency based Channel attention net for mobile phone surface defect detection
CN115797336A (zh) 光伏组件的故障检测方法、装置、电子设备和存储介质
CN114639004A (zh) 多聚焦图像融合方法及装置
CN112651399B (zh) 检测倾斜图像中同行文字的方法及其相关设备
CN110796003B (zh) 车道线检测方法、装置及电子设备
Uchigasaki et al. Deep image compression using scene text quality assessment
CN115187834A (zh) 一种票据识别的方法及装置
CN114463734A (zh) 文字识别方法、装置、电子设备及存储介质
CN114067136A (zh) 图像匹配方法、装置、电子设备、存储介质及相关产品
CN114898381A (zh) Ocr识别方法及装置、存储介质和电子设备
CN116310615A (zh) 图像处理方法、装置、设备及介质
CN113609957A (zh) 一种人体行为识别方法及终端
CN113610856A (zh) 训练图像分割模型和图像分割的方法和装置
CN108694347B (zh) 图像处理方法和装置
Tran et al. Encoder-decoder networks with guided transmission map for effective image dehazing
CN115631115B (zh) 基于递归Transformer的动态图像复原方法
Egipko et al. Real-time deep learning-based object recognition in augmented reality

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination