CN114882444A - 一种图像融合处理方法、设备及介质 - Google Patents
一种图像融合处理方法、设备及介质 Download PDFInfo
- Publication number
- CN114882444A CN114882444A CN202210766437.0A CN202210766437A CN114882444A CN 114882444 A CN114882444 A CN 114882444A CN 202210766437 A CN202210766437 A CN 202210766437A CN 114882444 A CN114882444 A CN 114882444A
- Authority
- CN
- China
- Prior art keywords
- image
- band
- images
- channel
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000007499 fusion processing Methods 0.000 title claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 20
- 230000009467 reduction Effects 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000013528 artificial neural network Methods 0.000 claims abstract description 4
- 230000015654 memory Effects 0.000 claims description 38
- 230000006870 function Effects 0.000 claims description 34
- 238000004590 computer program Methods 0.000 claims description 10
- 238000003062 neural network model Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 6
- 239000004065 semiconductor Substances 0.000 description 7
- 210000003128 head Anatomy 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000007500 overflow downdraw method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
Abstract
本公开涉及一种图像融合处理方法、设备及介质,所述方法包括:采集多波段图像数据并存储,构建初始训练图像数据集;将所述图像数据集中的每一张图像数据按照RGB颜色通道分为三个单波段图像和一个或多个中长波红外波段图像和/或短波红外波段图像;将所述RGB波段图像和一个或多个中长波红外波段图像和/或短波红外波段图像进行融合得到组合图像;利用图像降维方法分别对所述组合图像进行降维处理,得到降维后的结构参考图像;初始化基于神经网络的波段融合模型,模型将组合图像融合成单波段图像;构建包含结构损失和颜色损失的总体损失函数;利用所述训练数据集和损失函数,训练波段融合模型,得到训练后的波段融合模型。
Description
技术领域
本公开涉及图像处理技术领域,更为具体来说,本公开涉及一种图像融合处理方法、设备及介质。
背景技术
传统监控摄像头的图像大多数都是可见光范围内的红、绿、蓝三通道图像,具有直观、清晰、易于判读的优点。然而,基于可见光的视频监控系统在浓雾、阴雨、低照度环境下,成像质量大大降低,从而直接影响后续的智能分析方法性能。
为了解决传统摄像机在低照度环境下成像质量不佳的问题,红外热像仪得到了越来越广泛的应用。红外热像仪可以在低照度环境下拍摄较为清晰的图像,极大地增强了视频监控系统在夜间的可视能力。然而,大部分红外热像仪是基于中长波红外热成像,无法穿透浓雾、浓烟、雨水等物体,因此无法在恶劣的复杂场景下拍摄清晰的图像。
相比于可见光和中长波红外,短波红外的穿透力更强,可以有效穿透雾、雨、雪、尘埃、普通玻璃和有机玻璃等,在复杂的天气环境以及低照度环境下依然具有清晰的成像效果。
可见光、短波红外和中长波红外图像在不同环境下具有各自的优势。将多个波段的图像按像素融合成为一张三通道的图像,可以使得该图像能够被展示在显示器上方便人眼分析,并为同一复杂场景进行更为准确、全面和可靠的描述。
多波段图像的像素级融合需要设计特定的方法。波段融合方法应该不仅能够保持每个波段图像包含的信息,同时,融合后的图像应该具有符合人眼感知习惯的自然颜色。
发明内容
为解决现有技术的波段融合方法不能满足用户需求的技术问题。
为实现上述技术目的,本公开提供了一种图像融合处理方法,包括:
对测试图像进行处理,得到每一张测试图像数据的不可见光图像和按照RGB颜色通道分出的三个第一单波段图像;
将所述不可见光图像和所述第一单波段图像分别进行组合得到三个组合图像;
将所述组合图像分别输入对应的训练好的波段融合模型,得到三个第二单波段图像;
将所述三个第二单波段图像进行组合得到最终的三通道输出图像。
进一步,所述训练好的波段融合模型的训练方法为:
采集多波段图像数据并存储,构建初始训练图像数据集;
将所述图像数据集中的每一张图像数据进行处理得到不可见光图像和按照RGB颜色通道分出三个第一单波段图像;
将所述第一单波段图像和所述不可见光图像分别进行组合得到三个组合图像;
利用图像降维方法分别对所述组合图像进行降维处理,得到降维后的结构参考图像;
将三个第一单波段图像、及其对应的所述组合图像和所述结构参考图像构成三个训练数据集;
初始化基于神经网络的波段融合模型,模型将组合图像融合成三个第二单波段图像;
分别构建所述三个数据集对应的包含结构损失和颜色损失的损失函数;
利用所述训练数据集和损失函数,训练波段融合模型,得到三个训练后的波段融合模型。
进一步,所述损失函数基于SSIM的结构损失以及L2-norm颜色损失构建得到。
进一步,所述不可见光图像为一个或多个中长波红外波段图像和/或短波红外波段图像。
进一步,所述不可见光图像和按照RGB颜色通道分出的三个第一单波段图像包括第一单波段图像R、第一单波段图像G、第一单波段图像B以及一个或多个中长波红外波段图像和/或短波红外波段图像。
进一步,所述将三个第一单波段图像、及其对应的所述组合图像和所述结构参考图像构成三个训练数据集,具体包括:
将所述第一单波段图像R、组合图像R’以及所述结构参考图像Rc’构成数据集1;
将所述第一单波段图像G、组合图像G’以及所述结构参考图像Gc’构成数据集2;
将所述第一单波段图像B、组合图像B’以及所述结构参考图像Bc’构成数据集3。
进一步,所述损失函数具体包括:
基于SSIM的结构损失以及L2-norm颜色损失,
对于数据集1构建的波段神经网络模型R1,其损失函数表示为:
对于融合数据集2构建的波段神经网络模型G1,其损失函数表示为:
对于融合数据集3构建的波段神经网络模型B1,其损失函数表示为:
其中,λ表示平衡SSIM损失和L2-norm损失的权重;N表示图像像素的个数;
R表示R通道的第一单波段图像R,G表示G通道的第一单波段图像G,B表示B通道的第一单波段图像B;
Rc’表示R通道的结构参考图像,Gc’表示G通道的结构参考图像,Bc’表示B通道的结构参考图像;
OR表示网络输出的融合后的R通道第二单波段图像,OG表示融合后的G通道第二单波段图像,OB表示融合后的B通道第二单波段图像;
为实现上述技术目的,本公开还能够提供一种计算机存储介质,其上存储有计算机程序,计算机程序被处理器执行时用于实现上述的图像融合处理方法的步骤。
为实现上述技术目的,本公开还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述的图像融合处理方法的步骤。
本公开的有益效果为:
本公开的图像融合方法在保留各个原始波段结构特征的同时,能够以符合人眼感知习惯的自然颜色展示融合后的图像,方便人眼对图像进行分析。
附图说明
图1示出了本公开的实施例1的方法的流程示意图;
图2示出了本公开的实施例3的结构示意图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在附图中示出了根据本公开实施例的各种结构示意图。这些图并非是按比例绘制的,其中为了清楚表达的目的,放大了某些细节,并且可能省略了某些细节。图中所示的各种区域、层的形状以及它们之间的相对大小、位置关系仅是示例性的,实际中可能由于制造公差或技术限制而有所偏差,并且本领域技术人员根据实际所需可以另外设计具有不同形状、大小、相对位置的区域/层。
实施例一:
如图1所示:
本公开提供了一种图像融合处理方法,包括:
S101:对测试图像进行处理,得到每一张测试图像数据的不可见光图像和按照RGB颜色通道分出的三个第一单波段图像;
S102:将所述不可见光图像和所述第一单波段图像分别进行组合得到三个组合图像;
S103:将所述组合图像分别输入对应的训练好的波段融合模型,得到三个第二单波段图像;
S104:将所述三个第二单波段图像进行组合得到最终的三通道输出图像。
进一步,所述训练好的波段融合模型的训练方法为:
采集多波段图像数据并存储,构建初始训练图像数据集;
将所述图像数据集中的每一张图像数据进行处理得到不可见光图像和按照RGB颜色通道分出三个第一单波段图像;
将所述第一单波段图像和所述不可见光图像分别进行组合得到三个组合图像;
所述组合图像具体包括:
将所述第一单波段图像R、所述第一单波段图像G以及所述第一单波段图像B分别和所述其他一个或多个波段图像进行组合得到组合图像R’、组合图像G’、组合图像B’。
利用图像降维方法分别对所述组合图像进行降维处理,得到降维后的结构参考图像;
所述利用图像降维方法分别对所述组合图像进行降维处理,得到降维后的结构参考图像,具体包括:
利用线性降维方法或流形降维方法分别对所述组合图像R’、所述组合图像G’以及所述组合图像B’进行降维处理,得到降维后的结构参考图像Rc’、结构参考图像Gc’以及结构参考图像Bc’。
将三个第一单波段图像、及其对应的所述组合图像和所述结构参考图像构成三个训练数据集;
初始化基于神经网络的波段融合模型,模型将组合图像融合成三个第二单波段图像;
分别构建所述三个数据集对应的包含结构损失和颜色损失的损失函数;
利用所述训练数据集和损失函数,训练波段融合模型,得到三个训练后的波段融合模型。
进一步,所述损失函数基于SSIM的结构损失以及L2-norm颜色损失构建得到。
进一步,所述不可见光图像为一个或多个中长波红外波段图像和/或短波红外波段图像。
进一步,所述不可见光图像和按照RGB颜色通道分出的三个第一单波段图像包括第一单波段图像R、第一单波段图像G、第一单波段图像B以及一个或多个中长波红外波段图像和/或短波红外波段图像。
进一步,所述将三个第一单波段图像、及其对应的所述组合图像和所述结构参考图像构成三个训练数据集,具体包括:
将所述第一单波段图像R、组合图像R’以及所述结构参考图像Rc’构成数据集1;
将所述第一单波段图像G、组合图像G’以及所述结构参考图像Gc’构成数据集2;
将所述第一单波段图像B、组合图像B’以及所述结构参考图像Bc’构成数据集3。
进一步,所述损失函数具体包括:
基于SSIM的结构损失以及L2-norm颜色损失,
对于数据集1构建的波段神经网络模型R1,其损失函数表示为:
对于融合数据集2构建的波段神经网络模型G1,其损失函数表示为:
对于融合数据集3构建的波段神经网络模型B1,其损失函数表示为:
其中,λ表示平衡SSIM损失和L2-norm损失的权重;N表示图像像素的个数;
R表示R通道的第一单波段图像R,G表示G通道的第一单波段图像G,B表示B通道的第一单波段图像B;
Rc’表示R通道的结构参考图像,Gc’表示G通道的结构参考图像,Bc’表示B通道的结构参考图像;
OR表示网络输出的融合后的R通道第二单波段图像,OG表示融合后的G通道第二单波段图像,OB表示融合后的B通道第二单波段图像;
实施例二:
本公开还能够提供一种计算机存储介质,其上存储有计算机程序,计算机程序被处理器执行时用于实现上述的图像融合处理方法的步骤。
本公开的计算机存储介质可以采用半导体存储器、磁芯存储器、磁鼓存储器或磁盘存储器实现。
半导体存储器,主要用于计算机的半导体存储元件主要有Mos和双极型两种。Mos元件集成度高、工艺简单但速度较慢。双极型元件工艺复杂、功耗大、集成度低但速度快。NMos和CMos问世后,使 Mos存储器在半导体存储器中开始占主要地位。NMos速度快,如英特尔公司的1K位静态随机存储器的存取时间为 45ns。而 CMos耗电省,4K位的CMos 静态存储器存取时间为300ns。上述半导体存储器都是随机存取存储器(RAM),即在工作过程中可随机进行读出和写入新内容。而半导体只读存储器 (ROM)在工作过程中可随机读出但不能写入,它用来存放已固化好的程序和数据。ROM 又分为不可改写的熔断丝式只读存储器──PROM和可改写的只读存储器EPROM两种。
磁芯存储器,具有成本低,可靠性高的特点,且有20多年的实际使用经验。70年代中期以前广泛使用磁芯存储器作为主存储器。其存储容量可达10位以上,存取时间最快为300ns。国际上典型的磁芯存储器容量为 4MS~8MB,存取周期为1.0~1.5μs。在半导体存储快速发展取代磁芯存储器作为主存储器的位置之后,磁芯存储器仍然可以作为大容量扩充存储器而得到应用。
磁鼓存储器,一种磁记录的外存储器。由于其信息存取速度快,工作稳定可靠,虽然其容量较小,正逐渐被磁盘存储器所取代,但仍被用作实时过程控制计算机和中、大型计算机的外存储器。为了适应小型和微型计算机的需要,出现了超小型磁鼓,其体积小、重量轻、可靠性高、使用方便。
磁盘存储器,一种磁记录的外存储器。它兼有磁鼓和磁带存储器的优点,即其存储容量较磁鼓容量大,而存取速度则较磁带存储器快,又可脱机贮存,因此在各种计算机系统中磁盘被广泛用作大容量的外存储器。磁盘一般分为硬磁盘和软磁盘存储器两大类。
硬磁盘存储器的品种很多。从结构上,分可换式和固定式两种。可换式磁盘盘片可调换,固定式磁盘盘片是固定的。可换式和固定式磁盘都有多片组合和单片结构两种,又都可分为固定磁头型和活动磁头型。固定磁头型磁盘的容量较小,记录密度低存取速度高,但造价高。活动磁头型磁盘记录密度高(可达1000~6250位/英寸),因而容量大,但存取速度相对固定磁头磁盘低。磁盘产品的存储容量可达几百兆字节,位密度为每英寸6 250位,道密度为每英寸475道。其中多片可换磁盘存储器由于盘组可以更换,具有很大的脱体容量,而且容量大,速度高,可存储大容量情报资料,在联机情报检索系统、数据库管理系统中得到广泛应用。
实施例三:
本公开还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述的图像融合处理方法的步骤。
图2为一个实施例中电子设备的内部结构示意图。如图2所示,该电子设备包括通过系统总线连接的处理器、存储介质、存储器和网络接口。其中,该计算机设备的存储介质存储有操作系统、数据库和计算机可读指令,数据库中可存储有控件信息序列,该计算机可读指令被处理器执行时,可使得处理器实现一种图像融合处理方法。该电设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该计算机设备的存储器中可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种图像融合处理方法。该计算机设备的网络接口用于与终端连接通信。本领域技术人员可以理解,图2中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
该电子设备包括但不限于智能电话、计算机、平板电脑、可穿戴智能设备、人工智能设备、移动电源等。
所述处理器在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器内的程序或者模块(例如执行远端数据读写程序等),以及调用存储在所述存储器内的数据,以执行电子设备的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器以及至少一个处理器等之间的连接通信。
图2仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图2示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。
可选地,该电子设备还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。本公开的范围由所附权利要求及其等价物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (9)
1.一种图像融合处理方法,其特征在于,包括:
对测试图像进行处理,得到每一张测试图像数据的不可见光图像和按照RGB颜色通道分出的三个第一单波段图像;
将所述不可见光图像和所述第一单波段图像分别进行组合得到三个组合图像;
将所述组合图像分别输入对应的训练好的波段融合模型,得到三个第二单波段图像;
将所述三个第二单波段图像进行组合得到最终的三通道输出图像。
2.根据权利要求1所述的方法,其特征在于,所述训练好的波段融合模型的训练方法为:
采集多波段图像数据并存储,构建初始训练图像数据集;
将所述图像数据集中的每一张图像数据进行处理得到不可见光图像和按照RGB颜色通道分出三个第一单波段图像;
将所述第一单波段图像和所述不可见光图像分别进行组合得到三个组合图像;
利用图像降维方法分别对所述组合图像进行降维处理,得到降维后的结构参考图像;
将三个第一单波段图像、及其对应的所述组合图像和所述结构参考图像构成三个训练数据集;
初始化基于神经网络的波段融合模型,模型将组合图像融合成三个第二单波段图像;
分别构建所述三个数据集对应的包含结构损失和颜色损失的损失函数;
利用所述训练数据集和损失函数,训练波段融合模型,得到三个训练后的波段融合模型。
3.根据权利要求2所述的方法,其特征在于,所述损失函数基于SSIM的结构损失以及L2-norm颜色损失构建得到。
4.根据权利要求1或2所述的方法,其特征在于,所述不可见光图像为一个或多个中长波红外波段图像和/或短波红外波段图像。
5.根据权利要求1或2所述的方法,其特征在于,所述不可见光图像和按照RGB颜色通道分出的三个第一单波段图像包括第一单波段图像R、第一单波段图像G、第一单波段图像B以及一个或多个中长波红外波段图像和/或短波红外波段图像。
6.根据权利要求2所述的方法,其特征在于,所述将三个第一单波段图像、及其对应的所述组合图像和所述结构参考图像构成三个训练数据集,具体包括:
将所述第一单波段图像R、组合图像R’以及所述结构参考图像Rc’构成数据集1;
将所述第一单波段图像G、组合图像G’以及所述结构参考图像Gc’构成数据集2;
将所述第一单波段图像B、组合图像B’以及所述结构参考图像Bc’构成数据集3。
7.根据权利要求6所述的方法,其特征在于,所述损失函数具体包括:
基于SSIM的结构损失以及L2-norm颜色损失,
对于数据集1构建的波段神经网络模型R1,其损失函数表示为:
对于融合数据集2构建的波段神经网络模型G1,其损失函数表示为:
对于融合数据集3构建的波段神经网络模型B1,其损失函数表示为:
其中,λ表示平衡SSIM损失和L2-norm损失的权重;N表示图像像素的个数;
R表示R通道的第一单波段图像R,G表示G通道的第一单波段图像G,B表示B通道的第一单波段图像B;
Rc’表示R通道的结构参考图像,Gc’表示G通道的结构参考图像,Bc’表示B通道的结构参考图像;
OR表示网络输出的融合后的R通道第二单波段图像,OG表示融合后的G通道第二单波段图像,OB表示融合后的B通道第二单波段图像;
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现权利要求1~7任一项中所述的图像融合处理方法对应的步骤。
9.一种计算机存储介质,其上存储有计算机程序指令,其特征在于,所述程序指令被处理器执行时用于实现权利要求1~7任一项中所述的图像融合处理方法对应的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210766437.0A CN114882444B (zh) | 2022-07-01 | 2022-07-01 | 一种图像融合处理方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210766437.0A CN114882444B (zh) | 2022-07-01 | 2022-07-01 | 一种图像融合处理方法、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114882444A true CN114882444A (zh) | 2022-08-09 |
CN114882444B CN114882444B (zh) | 2022-12-02 |
Family
ID=82682771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210766437.0A Active CN114882444B (zh) | 2022-07-01 | 2022-07-01 | 一种图像融合处理方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114882444B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115797788A (zh) * | 2023-02-17 | 2023-03-14 | 武汉大学 | 基于深度学习的多模态铁路设计要素遥感特征提取方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102306295A (zh) * | 2011-05-31 | 2012-01-04 | 东华大学 | 一种基于单波段红外图像的自然彩色夜视实现方法 |
CN112288663A (zh) * | 2020-09-24 | 2021-01-29 | 山东师范大学 | 一种红外与可见光图像融合方法及系统 |
CN113160286A (zh) * | 2021-01-06 | 2021-07-23 | 中国地质大学(武汉) | 一种基于卷积神经网络的近红外和可见光图像融合方法 |
WO2021184029A1 (en) * | 2020-11-12 | 2021-09-16 | Innopeak Technology, Inc. | Systems and methods for fusing color image and near-infrared image |
CN113781377A (zh) * | 2021-11-03 | 2021-12-10 | 南京理工大学 | 基于对抗性语义引导与感知的红外和可见光图像融合方法 |
CN114511484A (zh) * | 2021-12-29 | 2022-05-17 | 浙江大学 | 基于多级LatLRR的红外和彩色可见光图像快速融合方法 |
-
2022
- 2022-07-01 CN CN202210766437.0A patent/CN114882444B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102306295A (zh) * | 2011-05-31 | 2012-01-04 | 东华大学 | 一种基于单波段红外图像的自然彩色夜视实现方法 |
CN112288663A (zh) * | 2020-09-24 | 2021-01-29 | 山东师范大学 | 一种红外与可见光图像融合方法及系统 |
WO2021184029A1 (en) * | 2020-11-12 | 2021-09-16 | Innopeak Technology, Inc. | Systems and methods for fusing color image and near-infrared image |
CN113160286A (zh) * | 2021-01-06 | 2021-07-23 | 中国地质大学(武汉) | 一种基于卷积神经网络的近红外和可见光图像融合方法 |
CN113781377A (zh) * | 2021-11-03 | 2021-12-10 | 南京理工大学 | 基于对抗性语义引导与感知的红外和可见光图像融合方法 |
CN114511484A (zh) * | 2021-12-29 | 2022-05-17 | 浙江大学 | 基于多级LatLRR的红外和彩色可见光图像快速融合方法 |
Non-Patent Citations (2)
Title |
---|
HUI LI ET AL.: "DenseFuse: A Fusion Approach to Infrared and Visible Images", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
王鹏: "彩色可见光与红外图像融合算法的研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115797788A (zh) * | 2023-02-17 | 2023-03-14 | 武汉大学 | 基于深度学习的多模态铁路设计要素遥感特征提取方法 |
CN115797788B (zh) * | 2023-02-17 | 2023-04-14 | 武汉大学 | 基于深度学习的多模态铁路设计要素遥感特征提取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114882444B (zh) | 2022-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3996381A1 (en) | Cover image determination method and apparatus, and device | |
CN110610510B (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
US20210233248A1 (en) | Image Processing Method and Apparatus, and Device | |
US11037335B2 (en) | Deep learning based virtual hair dyeing method and method for providing virtual hair dyeing service using the same | |
WO2020078027A1 (zh) | 一种图像处理方法、装置与设备 | |
US20240106973A1 (en) | Optimized video review using motion recap images | |
CN205665733U (zh) | 广告传媒投放终端中基于细胞神经网络或卷积神经网络的用户识别系统 | |
WO2022121485A1 (zh) | 图像的多标签分类方法、装置、计算机设备及存储介质 | |
CN114882444B (zh) | 一种图像融合处理方法、设备及介质 | |
US10474574B2 (en) | Method and apparatus for system resource management | |
US11894021B2 (en) | Data processing method and system, storage medium, and computing device | |
WO2024074012A1 (zh) | 视频传输控制方法、装置、设备及非易失性可读存储介质 | |
US20110064319A1 (en) | Electronic apparatus, image display method, and content reproduction program | |
CN113627402A (zh) | 一种图像识别方法及相关装置 | |
EP2781085A1 (en) | Video analytic encoding | |
CN113012220A (zh) | 一种果实计数方法、装置及电子设备 | |
CN109685802B (zh) | 一种低延迟的视频分割实时预览方法 | |
CN115714839A (zh) | 图像处理电路、装置、方法、芯片及电子设备 | |
CN114596214A (zh) | 一种面部美白图像处理方法、装置、介质及设备 | |
CN111818364B (zh) | 视频融合方法、系统、设备及介质 | |
CN112911285A (zh) | 硬件编码器帧内模式决策电路、方法、装置、设备及介质 | |
WO2019237286A1 (zh) | 一种筛选局部特征点的方法及装置 | |
CN110544221A (zh) | 训练方法及装置、去雨方法、终端设备、存储介质 | |
CN107426486A (zh) | 预览图像合成方法及系统 | |
CN113220351B (zh) | 一种基于智能终端充电状态下自动切换充电动画的系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |