CN110766676A - 基于多源传感器融合的目标检测方法 - Google Patents

基于多源传感器融合的目标检测方法 Download PDF

Info

Publication number
CN110766676A
CN110766676A CN201911014564.XA CN201911014564A CN110766676A CN 110766676 A CN110766676 A CN 110766676A CN 201911014564 A CN201911014564 A CN 201911014564A CN 110766676 A CN110766676 A CN 110766676A
Authority
CN
China
Prior art keywords
image
layer
background
formula
weighted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911014564.XA
Other languages
English (en)
Other versions
CN110766676B (zh
Inventor
孙海江
吴言枫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun Institute of Optics Fine Mechanics and Physics of CAS
Original Assignee
Changchun Institute of Optics Fine Mechanics and Physics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun Institute of Optics Fine Mechanics and Physics of CAS filed Critical Changchun Institute of Optics Fine Mechanics and Physics of CAS
Priority to CN201911014564.XA priority Critical patent/CN110766676B/zh
Publication of CN110766676A publication Critical patent/CN110766676A/zh
Application granted granted Critical
Publication of CN110766676B publication Critical patent/CN110766676B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

基于多源传感器融合的目标检测方法,涉及图像处理自动检测技术领域,解决现有目标检测方法存在无法应对快速场景变化或者复杂背景下检测低小慢目标的问题,本发明通过对红外图像及可见光图像的感兴趣区域提取;基于滚动引导滤波和加权最小二乘优化函数进行图像融合,获得融合后的图像F;输入感兴趣区域的融合图像,通过背景建模方法完成像小慢目标的检测。本发明采用了多传感器图像融合的方式对目标进行检测,与VIBE、PBAS等传统算法不同,利用可见光相机与红外相机间的信息互补来提高检测的精确性及可靠性,融合后的图像具有明显的纹理特征和较高的分辨率,输入静态背景建模框架中可以抵抗光照、特殊天气、物体遮挡的影响实现全天候工作。

Description

基于多源传感器融合的目标检测方法
技术领域
本发明涉及图像处理自动检测技术领域,具体涉及一种基于多源传感器融合的“低小慢”目标检测方法。
背景技术
目前,“低小慢”目标检测技术是精确制导、红外搜索跟踪和侦察告警系统的一项关键技术,如何在复杂场景中排除云层、光照、噪声以及遮挡等干扰,准确地检测出低空慢速小目标一直是目标检测领域极具挑战的研究课题,其检测性能直接决定系统的作用距离与探测灵敏度。传统的“低小慢”目标检测VIBE算法、和PBAS算法,无法应对快速场景变化或者复杂背景等特殊场合,因此不能稳定工作。
发明内容
本发明为解决现有目标检测方法存在无法应对快速场景变化或者复杂背景下检测低小慢目标的问题,提供一种基于多源传感器融合的目标检测方法。
基于多源传感器融合的目标检测方法,该方法由以下步骤实现:
步骤一、对红外图像及可见光图像的感兴趣区域提取;
步骤二、基于滚动引导滤波和加权最小二乘优化函数进行图像融合,获得融合后的图像F;具体过程为:
采用滚动引导滤波器对原始红外图像和原始可见光图像进行了多尺度分解,并采用视觉显著性算法对分解后的红外图像基础层与可见光图像基础层进行融合处理,采用加权最小二乘函数对红外图像细节层与可见光图像细节层进行融合处理;
采用高斯滤波器获得原始可见光图像和原始红外图像包含粗尺度结构信息的基础层;
当j=1,2…N-1时,第j层滤波后的细节图像,用下式表示为:
Figure BDA0002245266580000021
dj=uj-1-uj
当j=N时,第j层滤波后的基础层图像,用下式表示为:
Figure BDA0002245266580000022
dj=uj-1-uj
式中,RGF(·)滚动引导滤波器,uj为第j层滤波后的图像,dj为第j层分解图像,N为图像分解的层数,T为迭代次数;σs为尺度参数,σr为权重范围参数,设置
Figure BDA0002245266580000023
获得红外基础层图像B1和可见光基础层图像B2;对于红外基础层图像B1和可见光基础层图像B2,采用视觉显著性算法FT求取其归一化显著性像素值FT1和FT2,并通过融合规则获得输出图像BF的基础融合层,具体表示为:
Figure BDA0002245266580000024
式中,Wb为融合权重,对于细节层图像
Figure BDA0002245266580000025
Figure BDA0002245266580000026
Figure BDA0002245266580000027
Figure BDA0002245266580000028
采用MS规则获得初始融合细节层Mj,用公式表示为:
Figure BDA0002245266580000029
其中,MS加权系数Wj采用下式获得:
第j层融合细节层
Figure BDA00022452665800000211
通过加权最小二乘优化函数获得,具体表示为:
Figure BDA00022452665800000212
式中,
Figure BDA00022452665800000213
将融合细节层
Figure BDA00022452665800000214
和基于MS规则的初始融合细节层
Figure BDA00022452665800000215
之间的欧几里得距离最小化,
Figure BDA00022452665800000216
中,λ为等式中前后两项的平衡控制参数;
权重参数
Figure BDA0002245266580000031
ωi为以像素n为中心的正方形7×7滑窗,重写其矩阵形式为:
Figure BDA0002245266580000032
式中,Aj为包含所有权重参数Λ的对角矩阵,则获得融合后的图像F:
F=BF+D1+D2+…+DN
步骤三、对低小慢目标的检测;在步骤二中获得的融合图像F内寻找步骤一中确定的感兴趣区域,输入感兴趣区域内的融合图像,通过SuBSENSE背景建模算法完成低小慢目标的检测;
步骤三一、基于时空二进制相似性和Color-LBSP描述子,在一个无参模型中使用V帧输入的感兴趣区域融合图像值初始化背景模型,用下式表示为:
B(x)={B1(x),B2(x),...BV(x)}
步骤三二、计算像素点的当前像素与该像素点的样本集之间的递归滑动平均距离Dmin(x),计算方式为:
Dmin(x)=Dmin(x)·(1-α)+dt(x)·α
式中,α为变化更新学习率,dt(x)所有样本之间的最小标准化Color-LBSP距离;
步骤三三、根据SuBSENSE中的局部距离对阈值进行控制,并对SuBSENSE背景模型进行实时更新,获得分割输出检测结果;用公式表示为:
Figure BDA0002245266580000033
式中,Ft(x)为t时刻的融合后图像,B(x)为历史样本,St(x)为分割结果,Rmax为最大距离阈值,#min为背景分类所需的最小匹配数,dist(Ft(x),B(x))返回当前观测值与给定背景样本之间的距离,获得检测结果。
本发明的有益效果:本发明提供的检测技术基于多传感器融合与SuBSENSE背景模型,使融合图像既具备可见光图像的纹理信息,又具备红外图像的显著信息。融合后的图像输入静态背景建模框架中可以抵抗光照、特殊天气、物体遮挡的影响,解决检测技术全天候工作的技术难点。相比于以往的检测技术,本发明更具有广泛的实用性,且具有更高的准确率。
本发明采用了多传感器图像融合的方式对目标进行检测,与VIBE、PBAS等传统算法不同,利用可见光相机与红外相机间的信息互补来提高检测的精确性及可靠性,融合后的图像具有明显的纹理特征和较高的分辨率,输入静态背景建模框架中可以抵抗光照、特殊天气、物体遮挡的影响实现全天候工作。
附图说明
图1为本发明所述的基于多源传感器融合的目标检测方法的流程图;
图2为本发明所述的基于多源传感器融合的目标检测方法中原始红外图像效果图;
图3为本发明所述的基于多源传感器融合的目标检测方法中的红外图像中感兴趣区域效果图;
图4为本发明所述的基于多源传感器融合的目标检测方法中原始可见光图像效果图;
图5为本发明所述的基于多源传感器融合的目标检测方法中的原始可见光图像中感兴趣区域效果图;
图6本发明所述的基于多源传感器融合的目标检测方法中原始红外图像与原始可见光图像融合后的效果图;
图7为本发明所述的基于多源传感器融合的目标检测方法中局部SuBSENSE分割后图像效果图;
图8为采用本发明所述的基于多源传感器融合的目标检测方法检测的效果图。
具体实施方式
具体实施方式一、结合图1至图8说明本实施方式,基于多源传感器融合的目标检测方法;
步骤一、红外图像及可见光图像的感兴趣区域提取;
获取红外图像,采用加权移动平均背景建模(Weighted Moving Mean)对所述红外图像进行前景提取,完成对红外图像感兴趣区域的定位;
具体过程为:采用下式表示图像像素的加权平均值:
Figure BDA0002245266580000051
Figure BDA0002245266580000052
式中,weighted_mean为图像像素的加权平均值,weight为权重,image_f为输入图像;
红外图像成像符合热力学定律,通过计算红外图像的一维信息熵作为阈值区分前后背景,其中,计算背景红外图像一维信息熵时,m=[0,L],计算前景红外图像一维信息熵时,
Figure BDA0002245266580000054
红外图像的背景及前景的信息熵分别用下式表示为:
Figure BDA0002245266580000055
Figure BDA0002245266580000056
式中,pm为红外图像的自信息量,为区分前后背景的灰度值,W1和W2分别为背景和目标中的灰度值概率,L为红外图像的灰度级数,红外图像的分割阈值用下式表示为:
式中,
Figure BDA0002245266580000062
为红外图像总的信息熵,
Figure BDA0002245266580000063
为图像一维信息熵最大时的分割阈值,检测当前帧时,将当前帧图像的像素值与步骤一背景模型中相同位置像素的加权平均值进行作差,并将作差后获得的差值与阈值进行比较,大于阈值的则判定为前景,反之则为背景;
根据背景图像和当前帧图像的加权动态更新背景模型,使更新后的背景模型适应场景变化,更新公式为:
ft+1(x,y)=(1-α)Bt(x,y)+αft(x,y) (6)
式中,α为变化更新学习率,Bt(x,y)为t时刻背景模型,ft(x,y)为t时刻图像;通过更新后的背景模型获得红外图像的感兴趣区域;
通过计算可见光图像标准差替代平均值提取所述红外图像的感兴趣区域,用下式表示为:
variance(image_fi,weighti)=weighti*(image_fi-weighted_mean)2 (7)
Figure BDA0002245266580000064
式中,variance(·)为图像像素加权方差的计算结果,std_dev为计算得到的加权标准差,并采用大津算法对可见光图像进行前后自适应分割,应用基于加权移动均方差算法的背景减除模型获取可见光图像的感兴趣区域。
步骤二、基于滚动引导滤波和加权最小二乘优化函数进行图像融合,获得融合后的图像F;
采用滚动引导滤波器对原始红外图像和原始可见光图像进行了多尺度分解,并采用视觉显著性算法对分解后的红外图像基础层与可见光图像基础层进行融合处理,采用加权最小二乘函数对红外图像细节层与可见光图像细节层进行融合处理;
采用高斯滤波器获得原始可见光图像和原始红外图像包含粗尺度结构信息的基础层;
当j=1,2…N-1时,第j层滤波后的细节图像,用下式表示为:
Figure BDA0002245266580000071
dj=uj-1-uj (10)
当j=N时,第j层滤波后的基础层图像,用下式表示为:
Figure BDA0002245266580000072
dj=uj-1-uj (12)
式中,RGF(·)滚动引导滤波器,uj为第j层滤波后的图像,dj为第j层分解图像,N为图像分解的层数,T为迭代次数;σs为尺度参数,σr为权重范围参数,设置
Figure BDA0002245266580000073
获得红外基础层图像B1和可见光基础层图像B2;对于红外基础层图像B1和可见光基础层图像B2,采用视觉显著性算法FT求取其归一化显著性像素值FT1和FT2,并通过融合规则获得输出图像BF的基础融合层,具体表示为:
Figure BDA0002245266580000074
式中,Wb为融合权重,对于细节层图像
Figure BDA0002245266580000075
Figure BDA0002245266580000076
Figure BDA0002245266580000077
采用MS规则获得初始融合细节层Mj,用公式表示为:
Figure BDA0002245266580000079
其中,MS加权系数Wj采用下式获得:
第j层融合细节层
Figure BDA0002245266580000081
通过加权最小二乘优化函数获得,具体表示为:
Figure BDA0002245266580000082
式中,
Figure BDA0002245266580000083
将融合细节层
Figure BDA0002245266580000084
和基于MS规则的初始融合细节层
Figure BDA0002245266580000085
之间的欧几里得距离最小化,
Figure BDA0002245266580000086
中,λ为等式中前后两项的平衡控制参数;
权重参数ωi为以像素n为中心的正方形7×7滑窗,重写其矩阵形式为:
Figure BDA0002245266580000088
式中,Aj为包含所有权重参数Λ的对角矩阵,则获得融合后的图像F:
F=BF+D1+D2+…+DN (18)
步骤三、对低小慢目标的检测;输入感兴趣区域内的融合图像,通过SuBSENSE背景建模算法完成低小慢目标的检测;
具体过程为:
整个检测过程由背景模型初始化、递归滑动平均距离计算、噪声抑制、局部距离阈值控制、背景模型的更新以及判别输出结果六部分构成,具体过程为:
步骤三一、基于时空二进制相似性和Color-LBSP描述子,在一个无参模型中使用V帧输入的感兴趣区域融合图像值初始化背景模型,用下式表示为:
B(x)={B1(x),B2(x),...BV(x)} (19)
(2)在得到背景模型后,计算像素点的当前像素与该像素点的样本集之间的递归滑动平均距离,计算方式为:
Dmin(x)=Dmin(x)·(1-α)+dt(x)·α (20)
式中,α为变化更新学习率,dt(x)所有样本之间的最小标准化Color-LBSP距离。
(3)在进行局部距离阈值控制前,为了提高检测精度,需要消除模型中的闪烁噪声,进行噪声抑制的二维映射像素级累加器具体为:
其中v(x)为闪烁像素的二进制映射。
(4)为了动态选取合适阈值,这里采用SuBSENSE背景模型中的局部距离对阈值进行控制,具体为:
Figure BDA0002245266580000092
(5)为了克服光照、阴影、移动目标对检测结果的影响,需要对SuBSENSE背景模型进行实时更新,具体更新方式为:
Figure BDA0002245266580000093
(6)分割输出检测结果,具体方式为:
Figure BDA0002245266580000094
式中,Ft(x)为t时刻的融合后图像,B(x)为历史样本,St(x)为分割结果,Rmax为最大距离阈值,#min为背景分类所需的最小匹配数,dist(Ft(x),B(x))返回当前观测值与给定背景样本之间的距离,由此即可得到检测结果。

Claims (4)

1.基于多源传感器融合的目标检测方法,其特征是:该检测方法由以下步骤实现:
步骤一、对红外图像及可见光图像的感兴趣区域提取;
步骤二、基于滚动引导滤波和加权最小二乘优化函数进行图像融合,获得融合后的图像F;具体过程为:
采用滚动引导滤波器对原始红外图像和原始可见光图像进行了多尺度分解,并采用视觉显著性算法对分解后的红外图像基础层与可见光图像基础层进行融合处理,采用加权最小二乘函数对红外图像细节层与可见光图像细节层进行融合处理;
采用高斯滤波器获得原始可见光图像和原始红外图像包含粗尺度结构信息的基础层;
当j=1,2…N-1时,第j层滤波后的细节图像,用下式表示为:
Figure FDA0002245266570000011
dj=uj-1-uj
当j=N时,第j层滤波后的基础层图像,用下式表示为:
Figure FDA0002245266570000012
dj=uj-1-uj
式中,RGF(·)滚动引导滤波器,uj为第j层滤波后的图像,dj为第j层分解图像,N为图像分解的层数,T为迭代次数;σs为尺度参数,σr为权重范围参数,设置获得红外基础层图像B1和可见光基础层图像B2;对于红外基础层图像B1和可见光基础层图像B2,采用视觉显著性算法FT求取其归一化显著性像素值FT1和FT2,并通过融合规则获得输出图像BF的基础融合层,具体表示为:
式中,Wb为融合权重,对于细节层图像
Figure FDA0002245266570000015
Figure FDA0002245266570000016
采用MS规则获得初始融合细节层Mj,用公式表示为:
Figure FDA0002245266570000021
其中,MS加权系数Wj采用下式获得:
第j层融合细节层
Figure FDA0002245266570000023
通过加权最小二乘优化函数获得,具体表示为:
Figure FDA0002245266570000024
式中,
Figure FDA0002245266570000025
将融合细节层
Figure FDA0002245266570000026
和基于MS规则的初始融合细节层
Figure FDA0002245266570000027
之间的欧几里得距离最小化,
Figure FDA0002245266570000028
中,λ为等式中前后两项的平衡控制参数;
权重参数
Figure FDA0002245266570000029
ωi为以像素n为中心的正方形7×7滑窗,重写其矩阵形式为:
Figure FDA00022452665700000210
式中,Aj为包含所有权重参数Λ的对角矩阵,则获得融合后的图像F:
F=BF+D1+D2+…+DN
步骤三、对低小慢目标的检测;
在步骤二中获得的融合图像F内寻找步骤一中确定的感兴趣区域,并输入感兴趣区域内的融合图像,通过SuBSENSE背景建模算法完成低小慢目标的检测;
步骤三一、基于时空二进制相似性和Color-LBSP描述子,在一个无参模型中使用V帧输入的感兴趣区域融合图像值初始化背景模型,用下式表示为:
B(x)={B1(x),B2(x),...BV(x)}
步骤三二、计算像素点的当前像素与该像素点的样本集之间的递归滑动平均距离Dmin(x),计算方式为:
Dmin(x)=Dmin(x)·(1-α)+dt(x)·α
式中,α为变化更新学习率,dt(x)所有样本之间的最小标准化Color-LBSP距离;
步骤三三、根据SuBSENSE背景建模中的局部距离对阈值进行控制,并对SuBSENSE背景模型进行实时更新,获得分割输出检测结果;用公式表示为:
式中,Ft(x)为t时刻的融合后图像,B(x)为历史样本,St(x)为分割结果,Rmax为最大距离阈值,#min为背景分类所需的最小匹配数,dist(Ft(x),B(x))返回当前观测值与给定背景样本之间的距离,获得检测结果。
2.根据权利要求1所述的基于多源传感器融合的目标检测方法,其特征在于:步骤一中,采用加权移动平均背景模型对所述红外图像进行前景提取,完成对红外图像感兴趣区域的提取;
具体过程为:采用下式表示图像像素的加权平均值:
Figure FDA0002245266570000032
式中,weighted_mean为图像像素的加权平均值,weight为权重,image_f为输入图像;
红外图像成像符合热力学定律,通过计算红外图像的一维信息熵作为阈值区分前后背景,其中,
Figure FDA0002245266570000033
计算背景红外图像一维信息熵时,m=[0,L],计算前景红外图像一维信息熵时,
Figure FDA0002245266570000034
红外图像的背景及前景的信息熵分别用下式表示为:
Figure FDA0002245266570000041
Figure FDA0002245266570000042
式中,pm为红外图像的自信息量,
Figure FDA0002245266570000043
为区分前后背景的灰度值,W1和W2分别为背景和目标中的灰度值概率,L为红外图像的灰度级数,红外图像的分割阈值用下式表示为:
式中,
Figure FDA0002245266570000045
为红外图像总的信息熵,为图像一维信息熵最大时的分割阈值,检测当前帧时,将当前帧图像的像素值与步骤一背景模型中相同位置像素的加权平均值进行作差,并将作差后获得的差值与阈值进行比较,大于阈值的则判定为前景,反之则为背景;
根据背景图像和当前帧图像的加权动态更新背景模型,使更新后的背景模型适应场景变化,更新公式为:
ft+1(x,y)=(1-α)Bt(x,y)+αft(x,y)
式中,α为变化更新学习率,Bt(x,y)为t时刻背景模型,ft(x,y)为t时刻图像;通过更新后的背景模型获得红外图像的感兴趣区域;
通过计算可见光图像标准差替代平均值提取所述红外图像的感兴趣区域,用下式表示为:
variance(image_fi,weighti)=weighti*(image_fi-weighted_mean)2
式中,variance(·)为图像像素加权方差的计算结果,std_dev为计算得到的加权标准差,并采用大津算法对可见光图像进行前后自适应分割,应用基于加权移动均方差算法的背景减除模型获取可见光图像的感兴趣区域。
3.根据权利要求1所述的基于多源传感器融合的目标检测方法,其特征在于:在步骤三三中,进行局部距离阈值控制前,采用二维映射像素级累加器抑制噪声;
所述二维映射像素级累加器,用下式表示为:
式中,v(x)为闪烁像素的二进制映射;
根据SuBSENSE中的局部距离对阈值R(x)进行控制,用下式表示为:
4.根据权利要求1所述的基于多源传感器融合的目标检测方法,其特征在于:在步骤三三中,对SuBSENSE背景建模进行实时更新,更新公式为:
Figure FDA0002245266570000053
式中,T(x)为模型中对应点像素更新概率。
CN201911014564.XA 2019-10-24 2019-10-24 基于多源传感器融合的目标检测方法 Active CN110766676B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911014564.XA CN110766676B (zh) 2019-10-24 2019-10-24 基于多源传感器融合的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911014564.XA CN110766676B (zh) 2019-10-24 2019-10-24 基于多源传感器融合的目标检测方法

Publications (2)

Publication Number Publication Date
CN110766676A true CN110766676A (zh) 2020-02-07
CN110766676B CN110766676B (zh) 2022-04-26

Family

ID=69333583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911014564.XA Active CN110766676B (zh) 2019-10-24 2019-10-24 基于多源传感器融合的目标检测方法

Country Status (1)

Country Link
CN (1) CN110766676B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111798560A (zh) * 2020-06-09 2020-10-20 同济大学 一种电力设备红外热像测温数据三维实景模型可视化方法
CN114092369A (zh) * 2021-11-19 2022-02-25 中国直升机设计研究所 基于视觉显著映射与最小二乘优化的图像融合方法
CN114485947A (zh) * 2021-12-30 2022-05-13 北京联合永道软件股份有限公司 用于户外用电设备的安防监控方法
CN115578621A (zh) * 2022-11-01 2023-01-06 中国矿业大学 一种基于多源数据融合的图像识别方法
CN116295446A (zh) * 2023-05-22 2023-06-23 中国人民解放军国防科技大学 一种偏振多尺度分解的无人机视觉匹配导航方法和装置
CN116630762A (zh) * 2023-06-25 2023-08-22 山东卓业医疗科技有限公司 一种基于深度学习的多模态医学图像融合方法
CN117036313A (zh) * 2023-08-18 2023-11-10 华大天元(北京)科技股份有限公司 基于计算机视觉的电力设备红外智能检测方法和设备
CN117783051A (zh) * 2024-02-28 2024-03-29 西安尚展信息科技有限公司 一种基于多传感器数据融合的甲烷气体泄漏检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080036576A1 (en) * 2006-05-31 2008-02-14 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
US20090169102A1 (en) * 2007-11-29 2009-07-02 Chao Zhang Multi-scale multi-camera adaptive fusion with contrast normalization
CN107451595A (zh) * 2017-08-04 2017-12-08 河海大学 基于混合算法的红外图像显著性区域检测方法
CN109242888A (zh) * 2018-09-03 2019-01-18 中国科学院光电技术研究所 一种结合图像显著性和非下采样轮廓波变换的红外与可见光图像融合方法
CN109801250A (zh) * 2019-01-10 2019-05-24 云南大学 基于adc-scm与低秩矩阵表达的红外与可见光图像融合方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080036576A1 (en) * 2006-05-31 2008-02-14 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
US20090169102A1 (en) * 2007-11-29 2009-07-02 Chao Zhang Multi-scale multi-camera adaptive fusion with contrast normalization
CN107451595A (zh) * 2017-08-04 2017-12-08 河海大学 基于混合算法的红外图像显著性区域检测方法
CN109242888A (zh) * 2018-09-03 2019-01-18 中国科学院光电技术研究所 一种结合图像显著性和非下采样轮廓波变换的红外与可见光图像融合方法
CN109801250A (zh) * 2019-01-10 2019-05-24 云南大学 基于adc-scm与低秩矩阵表达的红外与可见光图像融合方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
吴言枫等: "复杂动背景下的"低小慢"目标检测技术", 《中国光学》 *
王嘉成等: "高分辨率多传感器融合图像跟踪系统的设计与实现", 《液晶与显示》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111798560A (zh) * 2020-06-09 2020-10-20 同济大学 一种电力设备红外热像测温数据三维实景模型可视化方法
CN111798560B (zh) * 2020-06-09 2023-09-01 同济大学 一种电力设备红外热像测温数据三维实景模型可视化方法
CN114092369A (zh) * 2021-11-19 2022-02-25 中国直升机设计研究所 基于视觉显著映射与最小二乘优化的图像融合方法
CN114485947A (zh) * 2021-12-30 2022-05-13 北京联合永道软件股份有限公司 用于户外用电设备的安防监控方法
CN114485947B (zh) * 2021-12-30 2024-04-02 北京联合永道软件股份有限公司 用于户外用电设备的安防监控方法
CN115578621A (zh) * 2022-11-01 2023-01-06 中国矿业大学 一种基于多源数据融合的图像识别方法
CN116295446A (zh) * 2023-05-22 2023-06-23 中国人民解放军国防科技大学 一种偏振多尺度分解的无人机视觉匹配导航方法和装置
CN116630762A (zh) * 2023-06-25 2023-08-22 山东卓业医疗科技有限公司 一种基于深度学习的多模态医学图像融合方法
CN116630762B (zh) * 2023-06-25 2023-12-22 山东卓业医疗科技有限公司 一种基于深度学习的多模态医学图像融合方法
CN117036313A (zh) * 2023-08-18 2023-11-10 华大天元(北京)科技股份有限公司 基于计算机视觉的电力设备红外智能检测方法和设备
CN117036313B (zh) * 2023-08-18 2024-04-30 华大天元(北京)科技股份有限公司 基于计算机视觉的电力设备红外智能检测方法和设备
CN117783051A (zh) * 2024-02-28 2024-03-29 西安尚展信息科技有限公司 一种基于多传感器数据融合的甲烷气体泄漏检测方法

Also Published As

Publication number Publication date
CN110766676B (zh) 2022-04-26

Similar Documents

Publication Publication Date Title
CN110766676B (zh) 基于多源传感器融合的目标检测方法
CN108898047B (zh) 基于分块遮挡感知的行人检测方法及系统
CN110033473B (zh) 基于模板匹配和深度分类网络的运动目标跟踪方法
CN111079556A (zh) 一种多时相无人机视频图像变化区域检测及分类方法
CN105894701B (zh) 输电线路防外破大型施工车辆的识别报警方法
CN111062273B (zh) 一种遗留物品追溯检测与报警方法
CN114299417A (zh) 一种基于雷视融合的多目标跟踪方法
CN110569792A (zh) 一种基于卷积神经网络的自动驾驶汽车前方物体检测方法
CN113610895A (zh) 目标跟踪方法、装置、电子设备及可读存储介质
CN110555868A (zh) 一种复杂地面背景下运动小目标检测方法
CN112818905B (zh) 一种基于注意力和时空信息的有限像素车辆目标检测方法
CN112364865B (zh) 一种复杂场景中运动小目标的检测方法
CN110569971B (zh) 一种基于LeakyRelu激活函数的卷积神经网络单目标识别方法
CN109902578B (zh) 一种红外目标检测与跟踪方法
CN106846367A (zh) 一种基于运动约束光流法的复杂动态场景的运动物体检测方法
Hu et al. An infrared target intrusion detection method based on feature fusion and enhancement
Liu et al. Small target detection from infrared remote sensing images using local adaptive thresholding
CN113822352A (zh) 基于多特征融合的红外弱小目标检测方法
CN108985216B (zh) 一种基于多元logistic回归特征融合的行人头部检测方法
CN110826575A (zh) 一种基于机器学习的水下目标识别方法
Wei et al. Remote sensing image aircraft detection technology based on deep learning
CN116862832A (zh) 一种基于三维实景模型的作业人员定位方法
El Baf et al. Fuzzy foreground detection for infrared videos
CN112215161A (zh) 基于人工智能的车门自动解锁方法
CN105023277B (zh) 基于复杂动态场景的卡尔曼粒子滤波跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant