CN110889398B - 一种基于相似度网络的多模态图像能见度检测方法 - Google Patents
一种基于相似度网络的多模态图像能见度检测方法 Download PDFInfo
- Publication number
- CN110889398B CN110889398B CN201911317691.7A CN201911317691A CN110889398B CN 110889398 B CN110889398 B CN 110889398B CN 201911317691 A CN201911317691 A CN 201911317691A CN 110889398 B CN110889398 B CN 110889398B
- Authority
- CN
- China
- Prior art keywords
- image
- gray
- layer
- visible light
- infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于相似度网络的多模态图像能见度检测方法,包括如下步骤:步骤1)利用图像配准获取视野与分辨率均相同的可见光‑红外图像对,建立双模态图像数据集;步骤2)构建相似度网络模型“4CH‑LSTM‑CNN网络模型”,利用双模态图像数据集训练网络的权值,获取神经网络参数;步骤3)利用训练完毕的“4CH‑LSTM‑CNN网络模型”对待测的可见光‑红外双模态图像能见度的等级进行分类。本发明能够将可见光、红外图像各自的静态外观特征和模态之间的动态相似度变化特征进行融合。有效克服传统基于单模态可见光图像能见度检测方法局限于“静态外观特征”问题,显著提高小样本条件下能见度检测的准确性与稳定性。
Description
技术领域
本发明涉及基于图像/视频的能见度等级分类、检测技术,尤其涉及一种利用多模态图像(可见光-红外图像对儿)局部图像块序列作为输入信号,通过相似度网络模型提取多模态图像相似度变化动态特征,进而对能见度等级进行分类和检测的方法。
背景技术
雾、霾等恶劣天气是严重影响道路行车安全的因素,每年由低能见度原因造成的交通拥塞甚至恶性事故频频发生,据统计发生在恶劣天气下的交通事故占总交通事故的24%。因此,及时、准确、有效地对雾天道路能见度进行监测和预警意义重大。传统的能见度监测仪器价格昂贵,体积较大,且无法密集布设。因此,研究基于图像处理的能见度检测算法已成为一种新的主流方向。
目前,常见的基于图像的能见度检测方法大概可以分为一下三种。“双亮度差法”:在图像中寻找距离不同的两个目标,然后通过目标与背景的相对亮度比估计能见度值。该方法需要设置人工辅助目标物,操作复杂。“暗通道法”:利用暗通道先验知识求取大气消光系数,在利用韦伯定律求取大气能见度。该方法精度较低,且受到ROI区域检测效果影响较大。“深度学习法”:利用卷积神经网络对输入可见光彩色图像的能见度等级进行分类,该方法性能受到训练样本的质量和数量的影响。
综上所述,现有的基于图像的能见度检测方法多局限于面向可见光彩色图像的研究,即通过可见光彩色图像的静态外观特征估计能见度的等级或者能见度距离。而现有基于深度学习的方法在小样本条件下受到初始训练权值的影响、稳定性不佳,为了获取最优参数需要长时间反复训练。
发明内容
发明目的:为了解决上述问题,本发明的主要目的在于提供一种基于相似度网络的多模态图像能见度检测方法其先进性表现为:一、从全局到局部的可见光-红外图像对序列中提取多模态图像相似度变化动态特征信息。二、通过设计相似度网络结构(4CH-LSTM-CNN),将提取外观特征的卷积神经网络CNN与提取动态变化特征的长短时记忆网络LSTM相结合,可以有效地将多模态外观静态特征和相似度变化动态特征进行融合,能够显著提高小样本下神经网络能见度的检测准确度和稳定性。
技术方案:为达到上述目的,本发明的技术方案是:一种基于相似度网络的多模态图像能见度检测方法,包括如下步骤:
步骤1)利用图像配准获取视野与分辨率均相同的可见光-红外图像对,建立双模态图像数据集;
步骤2)构建相似度网络模型“4CH-LSTM-CNN网络模型”,利用双模态图像数据集训练网络的权值,获取神经网络参数;
步骤3)利用训练完毕的“4CH-LSTM-CNN网络模型”对待测的可见光-红外双模态图像能见度的等级进行分类。
作为优化:步骤1)的具体内容为:
首先,将可见光彩色图像转换为灰度图像Igray,并且在灰度图像Igray和红外图像IIR中分别提取SIFT特征点;然后,以红外图像IIR中每个SIFT特征点FIR i为中心,在给定的搜索范围内在可见光灰度图像Igray中寻找SIFT候补特征点集合{Fgray 1,Fgray 2,…Fgray n};接着,计算红外图像IIR特征点FIR i与灰度图像Igray候补特征点集合中每一个特征点FCCD j之间的相似度,最后,根据最大相似度完成FIR i和{Fgray 1,Fgray 2,…Fgray n}之间的可见光-红外SIFT特征点匹配;
在红外图像IIR中所有的SIFT特征点匹配之后,利用RANSAC算法从可见光-红外SIFT特征点对儿集合中,估计可见光图像Igray与红外图像IIR之间的转换矩阵M;最后,根据M矩阵将灰度图像Igray转换为与红外图像IIR在视野和分辨率均相同的图像ICCD;
双模态图像数据集的建立过程如下:首先,根据步骤1)所述预处理内容,将双目摄像机获取的可见光-红外图像配准成分辨率和视野相同的多模态图像(可见光-红外图像)集合;然后,根据能见度的强弱将多模态集合分成N类:0为能见度最强,N为能见度最弱;对每一类的多模态图像标定种类标签Y,Y∈[0,N]。
作为优化:所述的FIR i与Fgray j之间相似度的具体计算方法如下:
1.分别以SIFT特征点FIR i和Fgray j为中心,从IIR和Igray中提取80x80的图像块QIR和Qgray,然后,分别从QIR和Qgray中提取384维的LGHD特征向量HIR i和Hgray j;
2.利用直方图交叉核度量两个LGHD特征向量HIR i和Hgray j之间的相似度,计算公式如下:
式中,HIR i,Hgray j分别是红外图像IIR第i个SIFT特征点对应LGHD特征向量;Hgray j是可见光灰度图像Igray第j个SIFT特征点对应LGHD特征向量。
作为优化:步骤2)的具体内容为:
本发明提出的“4CH-LSTM-CNN网络模型”由三个模块构成:“局部图像块提取模块”、“4通道卷积神经网络(4CH-Net)层”、“LSTM-CNN网络”;
所述的“局部图像块提取模块”的输入为红外图像IIR、可见光图像ICCD;输出为红外-可见光图像的局部图像块对IIR i、ICCD i,(i=1,…,N);提取过程如下:以图像中心(x0,y0)为起点,将图像的高H和宽W平均分成N份,依次以(x0,y0)为中心以i/N为步长,分别在IIR、ICCD中截取高为i*H/N,宽为i*W/N的图像块对PIR i、PCCD i(i=1,…,N);
所述的“4通道卷积神经网络(4CH-Net)层”由N个“4通道卷积神经网络(4CH-Net)”并行组成,每个4CH-Net网络之间没有数据交换;其中,每一个“4通道卷积神经网络(4CH-Net)”的输入是具有一个四通道数据结构的图像:第一个通道是可见光图像块PCCD i的红色分量通道(R通道);第二个通道是可见光图像块PCCD i的蓝色分量通道(B通道);第三个通道是可见光图像块PCCD i的绿色分量通道(G通道);第四个通道是红外图像块PIR i对应的灰度图像(红外通道);单个4CH-Net的网络结构如下:网络共有10层,分别是输入层(224x224x4)、卷积层1(96个11x11卷积核)、最大池化层1(3x3)、卷积层2(256个5x5卷积核)、最大池化层2(3x3)、卷积层3(384个3x3卷积核)、卷积层4(384个3x3卷积核)、卷积层5(256个3x3卷积核)、最大池化层3(3x3)、全连接层(2048维);每个4CH-Net网络的输出为2048维图像特征向量,整个“4通道卷积神经网络(4CH-Net)层”的输出是N个2048维的图像特征向量;
所述的“LSTM-CNN网络”的输入是N个2048维度的特征向量,输出是能见度等级的概率;网络共有6层,分别是长短期记忆网络(LSTM,Long Short-Term Memory)层,该层共有N个LSTM子网络,卷积层(96个11x11卷积核)、最大池化层1(3x3)、全连接层(2048维)、Dropout层、Softmax层;
4CH-LSTM-CNN网络的训练过程如下:依次将每一类的双模态训练图像中的红外图像IIR和可见光图像ICCD,通过“局部图像块提取模块”提取N个红外-可见光局部图像块序列PIR i、PCCD i(i=1,…,N),并且将其作为4CH-Net层的输入;将PIR i、PCCD i(i=1,…,N)对应的能见度等级标签Y作为训练的输出值;然后,利用“梯度下降法”求取4CH-LSTM-CNN网络模型中的每个权值;训练结束后,保存权值矩阵作为4CH-LSTM-CNN网络的数学模型。
作为优化:步骤3)的具体内容为:
根据步骤1)所述预处理内容,将待测多模态图像(可见光-红外图像)配准成视野和分辨率均相同的图像对,并且归一化为224x224x3;然后,将图像对作为4CH-LSTM-CNN网络的输入;经过局部图像提取模块提取N个可见光-红外图像对PIR i、PCCD i(i=1,…,N);接着,利用4通道卷积网络层提取各图像对的相似度特征向量;之后,利用LSTM层将双模态图像相似度特征向量序列建模,提取相似度向量序列之间的变化规律;再利用卷积层将LSTM的输出进行融合,经过dropout层处理后,通过全连接层进行描述;最后,融合后的6144维多模态联合特征送入softmax层获取能见度的等级的概率。
有益效果:本发明能够利用4CH-LSTM-CNN网络模型将可见光、红外图像各自的静态外观特征和模态之间的动态相似度变化特征进行融合。有效克服传统基于单模态可见光图像能见度检测方法局限于“静态外观特征”问题,显著提高小样本条件下能见度检测的准确性与稳定性。
附图说明
图1为本发明能见度检测方法的流程图;
图2为本发明提出的“相似度网络模型”结构的示意图;
图3为本发明的能见度检测方法与传统单模态可见光结合卷积神经网络方法的稳定性比较结果实例;
图4为本发明的能见度检测方法与传统单模态可见光结合卷积神经网络方法的准确性比较结果实例。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,以使本领域的技术人员能够更好的理解本发明的优点和特征,从而对本发明的保护范围做出更为清楚的界定。本发明所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
如图1所示,一种基于相似度网络的多模态图像能见度检测方法,包括如下步骤:
步骤101:利用图像配准获取视野与分辨率均相同的可见光-红外图像对,建立双模态图像数据集;具体内容为:
首先,将可见光彩色图像转换为灰度图像Igray,并且在灰度图像Igray和红外图像IIR中分别提取SIFT特征点;然后,以红外图像IIR中每个SIFT特征点FIR i为中心,在给定的搜索范围(search window)内在可见光灰度图像Igray中寻找SIFT候补特征点集合{Fgray 1,Fgray 2,…Fgray n};接着,计算红外图像IIR特征点FIR i与灰度图像Igray候补特征点集合中每一个特征点FCCD j之间的相似度,最后,根据最大相似度完成FIR i和{Fgray 1,Fgray 2,…Fgray n}之间的可见光-红外SIFT特征点匹配。其中,FIR i与Fgray j之间相似度的具体计算方法如下:
1.分别以SIFT特征点FIR i和Fgray j为中心,从IIR和Igray中提取80x80的图像块QIR和Qgray。然后,分别从QIR和Qgray中提取384维的LGHD特征向量HIR i和Hgray j。
2.利用直方图交叉核(histogram intersection)度量两个LGHD特征向量HIR i和Hgray j之间的相似度,计算公式如下:
式中,HIR i,Hgray j分别是红外图像IIR第i个SIFT特征点对应LGHD特征向量。Hgray j是可见光灰度图像Igray第j个SIFT特征点对应LGHD特征向量。
在红外图像IIR中所有的SIFT特征点匹配之后,利用RANSAC算法从可见光-红外SIFT特征点对儿集合中,估计可见光图像Igray与红外图像IIR之间的转换矩阵M。最后,根据M矩阵将灰度图像Igray转换为与红外图像IIR在视野和分辨率均相同的图像ICCD。
双模态图像数据集的建立过程如下:首先,根据步骤1)所述预处理内容,将双目摄像机获取的可见光-红外图像配准成分辨率和视野相同的多模态图像(可见光-红外图像)集合。然后,根据能见度的强弱将多模态集合分成N类:0为能见度最强,N为能见度最弱。对每一类的多模态图像标定种类标签Y,Y∈[0,N]。
步骤102:构建相似度网络模型“4CH-LSTM-CNN网络模型”,利用双模态图像数据集训练网络的权值,获取神经网络参数;具体内容为:
本发明提出的“相似度网络模型(4CH-LSTM-CNN)”由三个模块构成:“局部图像块提取模块”、“4通道卷积神经网络(4CH-Net)层”、“LSTM-CNN网络”,参见图2(相似度网络4CH-LSTM-CNN模型)。
“局部图像块提取模块”的输入为红外图像IIR、可见光图像ICCD。输出为红外-可见光图像的局部图像块对IIR i、ICCD i,(i=1,…,N)。提取过程如下:以图像中心(x0,y0)为起点,将图像的高H和宽W平均分成N份。依次以(x0,y0)为中心以i/N为步长,分别在IIR、ICCD中截取高为i*H/N,宽为i*W/N的图像块对PIR i、PCCD i(i=1,…,N)。
“4通道卷积神经网络(4CH-Net)层”由N个“4通道卷积神经网络(4CH-Net)”并行组成,每个4CH-Net网络之间没有数据交换。其中,每一个“4通道卷积神经网络(4CH-Net)”的输入是具有一个四通道数据结构的图像:第一个通道是可见光图像块PCCD i的红色分量通道(R通道);第二个通道是可见光图像块PCCD i的蓝色分量通道(B通道);第三个通道是可见光图像块PCCD i的绿色分量通道(G通道);第四个通道是红外图像块PIR i对应的灰度图像(红外通道)。单个4CH-Net的网络结构如下:网络共有10层,分别是输入层(224x224x4)、卷积层1(96个11x11卷积核)、最大池化层1(3x3)、卷积层2(256个5x5卷积核)、最大池化层2(3x3)、卷积层3(384个3x3卷积核)、卷积层4(384个3x3卷积核)、卷积层5(256个3x3卷积核)、最大池化层3(3x3)、全连接层(2048维)。每个4CH-Net网络的输出为2048维图像特征向量,整个“4通道卷积神经网络(4CH-Net)层”的输出是N个2048维的图像特征向量。
“LSTM-CNN网络”的输入是N个2048维度的特征向量,输出是能见度等级的概率。网络共有6层,分别是长短期记忆网络(LSTM,Long Short-Term Memory)层,该层共有N个LSTM子网络。卷积层(96个11x11卷积核)、最大池化层1(3x3)、全连接层(2048维)、Dropout层、Softmax层。
4CH-LSTM-CNN网络的训练过程如下:依次将每一类的双模态训练图像中的红外图像IIR和可见光图像ICCD,通过“局部图像块提取模块”提取N个红外-可见光局部图像块序列PIR i、PCCD i(i=1,…,N),并且将其作为4CH-Net层的输入;将PIR i、PCCD i(i=1,…,N)对应的能见度等级标签Y作为训练的输出值。然后,利用“梯度下降法”求取4CH-LSTM-CNN网络模型中的每个权值。训练结束后,保存权值矩阵作为4CH-LSTM-CNN网络的数学模型。
步骤103:利用训练完毕的“4CH-LSTM-CNN网络模型”对待测的可见光-红外双模态图像能见度的等级进行分类。具体内容为:
根据步骤101所述预处理内容,将待测多模态图像(可见光-红外图像)配准成视野和分辨率均相同的图像对,并且归一化为224x224x3。然后,将图像对作为4CH-LSTM-CNN网络的输入;经过局部图像提取模块提取N个可见光-红外图像对PIR i、PCCD i(i=1,…,N)。接着,利用4通道卷积网络层提取各图像对的相似度特征向量。之后,利用LSTM层将双模态图像相似度特征向量序列建模,提取相似度向量序列之间的变化规律。最后再利用卷积层将LSTM的输出进行融合,经过dropout层处理后,通过全连接层进行描述;最后,融合后的6144维多模态联合特征送入softmax层获取能见度的等级的概率。
如图3(a),3(b)分别为不同方法在相同的数据样本下,反复随机设置网络初始权值,进行网络训练的15次获取的能见度检测准确率及其平均值。经过对比可以清楚的看出:本发明的方法平均准确率最高,达到76.9%。其余两个单模态图像(可见光或红外)加卷积神经网络的方法准确性均小于30%,这说明传统基于单模态图像的深度学习方法稳定性不佳。而本发明提出的方法可以通过网络模型对不同模态的图像静态和动态特征进行有效地融合,显著提高检测的稳定性。
如图4,为不同方法在训练数据数量变化下,最优网络权值下能见度检测准确率的比较。经过对比可以清楚的看出:无论训练样本如何变化,本发明的方法准确率最高,显著优于其余两个单模态图像(可见光或红外)加普通卷积神经网络的方法。通过比较可以看出尤其再小样本条件下(50%训练、50%测试),本发明提出的方法检测准确度显著高于其他方法。
本发明的技术内容及技术特征已揭示如上,然而熟悉本领域的技术人员仍可能基于本发明的揭示而作种种不背离本发明精神的替换及修饰,因此,本发明保护范围应不限于实施例所揭示的内容,而应包括各种不背离本发明的替换及修饰,并为本专利申请权利要求所涵盖。
Claims (1)
1.一种基于相似度网络的多模态图像能见度检测方法,其特征在于:包括如下步骤:
步骤1)利用图像配准获取视野与分辨率均相同的可见光-红外图像对,建立双模态图像数据集;
步骤2)构建相似度网络模型“4CH-LSTM-CNN网络模型”,利用双模态图像数据集训练网络的权值,获取神经网络参数;
步骤3)利用训练完毕的“4CH-LSTM-CNN网络模型”对待测的可见光-红外双模态图像能见度的等级进行分类;
步骤1)的具体内容为:
首先,将可见光彩色图像转换为灰度图像Igray,并且在灰度图像Igray和红外图像IIR中分别提取SIFT特征点;然后,以红外图像IIR中每个SIFT特征点FIR i为中心,在给定的搜索范围内在可见光灰度图像Igray中寻找SIFT候补特征点集合{Fgray 1,Fgray 2,…Fgray n};接着,计算红外图像IIR特征点FIR i与灰度图像Igray候补特征点集合中每一个特征点FCCD j之间的相似度,最后,根据最大相似度完成FIR i和{Fgray 1,Fgray 2,…Fgray n}之间的可见光-红外SIFT特征点匹配;
在红外图像IIR中所有的SIFT特征点匹配之后,利用RANSAC算法从可见光-红外SIFT特征点对儿集合中,估计可见光图像Igray与红外图像IIR之间的转换矩阵M;最后,根据M矩阵将灰度图像Igray转换为与红外图像IIR在视野和分辨率均相同的图像ICCD;
双模态图像数据集的建立过程如下:首先,根据步骤1),将双目摄像机获取的可见光-红外图像配准成分辨率和视野相同的双模态图像数据集;然后,根据能见度的强弱将多模态集合分成N类:0为能见度最强,N为能见度最弱;对每一类的多模态图像标定种类标签Y,Y∈[0,N];
所述的FIR i与Fgray j之间相似度的具体计算方法如下:
1-1.分别以SIFT特征点FIR i和Fgray j为中心,从IIR和Igray中提取80x80的图像块QIR和Qgray,然后,分别从QIR和Qgray中提取384维的LGHD特征向量HIR i和Hgray j;
1-2.利用直方图交叉核度量两个LGHD特征向量HIR i和Hgray j之间的相似度,计算公式如下:
式中,HIR i,Hgray j分别是红外图像IIR第i个SIFT特征点对应LGHD特征向量;Hgray j是可见光灰度图像Igray第j个SIFT特征点对应LGHD特征向量;
步骤2)的具体内容为:
“4CH-LSTM-CNN网络模型”由三个模块构成:“局部图像块提取模块”、“4通道卷积神经网络4CH-Net层”、“LSTM-CNN网络”;
所述的“局部图像块提取模块”的输入为红外图像IIR、可见光图像ICCD;输出为红外-可见光图像的局部图像块对IIR i、ICCD i,i=1,…,N;提取过程如下:以图像中心(x0,y0)为起点,将图像的高H和宽W平均分成N份,依次以(x0,y0)为中心以i/N为步长,分别在IIR、ICCD中截取高为i*H/N,宽为i*W/N的图像块对PIR i、PCCD i,i=1,…,N;
所述的“4通道卷积神经网络4CH-Net层”由N个“4通道卷积神经网络4CH-Net”并行组成,每个4CH-Net网络之间没有数据交换;其中,每一个“4通道卷积神经网络4CH-Net”的输入是具有一个四通道数据结构的图像:第一个通道是可见光图像块PCCD i的红色分量通道R通道;第二个通道是可见光图像块PCCD i的蓝色分量通道B通道;第三个通道是可见光图像块PCCD i的绿色分量通道G通道;第四个通道是红外图像块PIR i对应的红外通道灰度图像;单个4CH-Net的网络结构如下:网络共有10层,分别是输入层,其维度是224x224x4、卷积层1,其具有96个11x11卷积核、最大池化层1,其使用3x3卷积核、卷积层2,其具有256个5x5卷积核、最大池化层2,其使用3x3卷积核、卷积层3,其具有384个3x3卷积核、卷积层4,其具有384个3x3卷积核、卷积层5,,其具有256个3x3卷积核、最大池化层3,其使用3x3卷积核、全连接层,其维度为2048维;每个4CH-Net网络的输出为2048维图像特征向量,整个“4通道卷积神经网络4CH-Net层”的输出是N个2048维的图像特征向量;
所述的“LSTM-CNN网络”的输入是N个2048维度的特征向量,输出是能见度等级的概率;网络共有6层,分别是长短期记忆网络(LSTM,Long Short-Term Memory)层,该层共有N个LSTM子网络,卷积层,其具有96个11x11卷积核、最大池化层1,其使用3x3卷积核、全连接层,其维度2048维、Dropout层、Softmax层;
4CH-LSTM-CNN网络的训练过程如下:依次将每一类的双模态训练图像中的红外图像IIR和可见光图像ICCD,通过“局部图像块提取模块”提取N个红外-可见光局部图像块序列PIR i、PCCD i,i=1,…,N,并且将其作为4CH-Net层的输入;将PIR i、PCCD i,i=1,…,N,对应的能见度等级标签Y作为训练的输出值;然后,利用“梯度下降法”求取4CH-LSTM-CNN网络模型中的每个权值;训练结束后,保存权值矩阵作为4CH-LSTM-CNN网络的数学模型;
步骤3)的具体内容为:
根据步骤1),将待测可见光-红外图像配准成视野和分辨率均相同的图像对,并且归一化为224x224x3;然后,将图像对作为4CH-LSTM-CNN网络的输入;经过局部图像提取模块提取N个可见光-红外图像对PIR i、PCCD i,i=1,…,N;接着,利用4通道卷积网络层提取各图像对的相似度特征向量;之后,利用LSTM层将双模态图像相似度特征向量序列建模,提取相似度向量序列之间的变化规律;再利用卷积层将LSTM的输出进行融合,经过dropout层处理后,通过全连接层进行描述;最后,融合后的6144维多模态联合特征送入softmax层获取能见度的等级的概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911317691.7A CN110889398B (zh) | 2019-12-19 | 2019-12-19 | 一种基于相似度网络的多模态图像能见度检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911317691.7A CN110889398B (zh) | 2019-12-19 | 2019-12-19 | 一种基于相似度网络的多模态图像能见度检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110889398A CN110889398A (zh) | 2020-03-17 |
CN110889398B true CN110889398B (zh) | 2022-01-14 |
Family
ID=69752514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911317691.7A Active CN110889398B (zh) | 2019-12-19 | 2019-12-19 | 一种基于相似度网络的多模态图像能见度检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110889398B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111738314B (zh) * | 2020-06-09 | 2021-11-02 | 南通大学 | 基于浅层融合的多模态图像能见度检测模型的深度学习方法 |
CN112016558B (zh) * | 2020-08-26 | 2024-05-31 | 大连信维科技有限公司 | 一种基于图像质量的介质能见度识别方法 |
CN112014393B (zh) * | 2020-08-26 | 2023-12-19 | 大连信维科技有限公司 | 一种基于目标视觉效果的介质能见度识别方法 |
CN112836719B (zh) * | 2020-12-11 | 2024-01-05 | 南京富岛信息工程有限公司 | 一种融合二分类和三元组的示功图相似性检测方法 |
CN112330675B (zh) * | 2020-12-15 | 2022-08-23 | 南昌工程学院 | 基于AOD-Net的交通道路图像大气能见度检测方法 |
CN112733728A (zh) * | 2021-01-12 | 2021-04-30 | 深圳市安软科技股份有限公司 | 一种能见度边缘计算方法、装置、电子设备及存储介质 |
CN113283529B (zh) * | 2021-06-08 | 2022-09-06 | 南通大学 | 一种面向多模态图像能见度检测的神经网络构建方法 |
CN116977154B (zh) * | 2023-09-22 | 2024-03-19 | 南方电网数字电网研究院有限公司 | 可见光图像与红外图像融合储存方法、装置、设备和介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1748167A (zh) * | 2003-02-06 | 2006-03-15 | 宝马股份公司 | 用于以红外图像和可见图像与环境相关的结合来显示车辆环境的方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10545230B2 (en) * | 2017-06-01 | 2020-01-28 | Lenovo (Singapore) Pte Ltd | Augmented reality view activation |
CN109214470B (zh) * | 2018-10-25 | 2020-11-03 | 中国人民解放军国防科技大学 | 一种基于编码网络微调的图像能见度检测方法 |
-
2019
- 2019-12-19 CN CN201911317691.7A patent/CN110889398B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1748167A (zh) * | 2003-02-06 | 2006-03-15 | 宝马股份公司 | 用于以红外图像和可见图像与环境相关的结合来显示车辆环境的方法和装置 |
Non-Patent Citations (2)
Title |
---|
Relative CNN-RNN: Learning Relative Atmospheric Visibility From Images;Yang You等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20190131;第28卷(第1期);第45-55页 * |
红外成像激光雷达测量大气能见度实验研究;郑显明等;《量子电子学报》;20190930;第36卷(第5期);第627-634页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110889398A (zh) | 2020-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110889398B (zh) | 一种基于相似度网络的多模态图像能见度检测方法 | |
CN110910378B (zh) | 一种基于深度融合网络的双模态图像能见度检测方法 | |
CN109977812B (zh) | 一种基于深度学习的车载视频目标检测方法 | |
CN106096561B (zh) | 基于图像块深度学习特征的红外行人检测方法 | |
CN110020651B (zh) | 基于深度学习网络的车牌检测定位方法 | |
CN105975929A (zh) | 一种基于聚合通道特征的快速行人检测方法 | |
CN111160249A (zh) | 基于跨尺度特征融合的光学遥感图像多类目标检测方法 | |
CN107506729B (zh) | 一种基于深度学习的能见度检测方法 | |
CN111461083A (zh) | 基于深度学习的快速车辆检测方法 | |
CN108492298B (zh) | 基于生成对抗网络的多光谱图像变化检测方法 | |
CN111611874B (zh) | 基于ResNet和Canny的人脸口罩佩戴检测方法 | |
CN106023257A (zh) | 一种基于旋翼无人机平台的目标跟踪方法 | |
CN112288758B (zh) | 一种电力设备红外与可见光图像配准方法 | |
CN109711379B (zh) | 一种复杂环境交通信号灯候选区域提取及识别方法 | |
CN105046701A (zh) | 一种基于构图线的多尺度显著目标检测方法 | |
CN114612883A (zh) | 一种基于级联ssd和单目深度估计的前向车辆距离检测方法 | |
CN114913498A (zh) | 一种基于关键点估计的并行多尺度特征聚合车道线检测方法 | |
CN113205107A (zh) | 一种基于改进高效率网络的车型识别方法 | |
CN114596316A (zh) | 一种基于语义分割的道路图像细节抓取方法 | |
CN110909656B (zh) | 一种雷达与摄像机融合的行人检测方法和系统 | |
CN117372898A (zh) | 一种基于改进yolov8的无人机航拍图像目标检测方法 | |
CN113326846B (zh) | 一种基于机器视觉的桥梁表观病害快速检测方法 | |
CN114973031A (zh) | 一种无人机视角下的可见光-热红外图像目标检测方法 | |
CN111428752B (zh) | 一种基于红外图像的能见度检测方法 | |
CN116934820A (zh) | 基于交叉注意力的多尺寸窗口Transformer网络布匹图像配准方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |