CN111160154A - 串级时空特征融合远距离弱小目标视觉检测方法 - Google Patents

串级时空特征融合远距离弱小目标视觉检测方法 Download PDF

Info

Publication number
CN111160154A
CN111160154A CN201911298799.6A CN201911298799A CN111160154A CN 111160154 A CN111160154 A CN 111160154A CN 201911298799 A CN201911298799 A CN 201911298799A CN 111160154 A CN111160154 A CN 111160154A
Authority
CN
China
Prior art keywords
map
space
time
image
feature fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911298799.6A
Other languages
English (en)
Other versions
CN111160154B (zh
Inventor
谢伟戈
高承醒
于晋
吴均峰
陈积明
史治国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201911298799.6A priority Critical patent/CN111160154B/zh
Publication of CN111160154A publication Critical patent/CN111160154A/zh
Application granted granted Critical
Publication of CN111160154B publication Critical patent/CN111160154B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明公开了一种串级时空特征融合远距离弱小目标视觉检测方法。该方法包括:1.滤除视频中地平线以下的地面背景,得到空域图;2.分别采用暗目标帧间差分法及形态学底帽法对所述空域图进行处理,得到时间特征图及空间特征图并将二者在深度上进行叠加得到时空特征融合图;3.在训练阶段,根据标注信息在所述时空特征融合图提取正、负时空描述子,训练支持向量机;4.在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器中对时空特征融合图进行快速检测,得到目标检测置信图;5.对所述目标检测置信图进行图像后处理得到最终的目标检测图。

Description

串级时空特征融合远距离弱小目标视觉检测方法
技术领域
本发明涉及计算机视觉领域,具体而言,涉及一种串级时空特征融合远距离弱小目标视觉检测方法。
背景技术
随着低空空域的逐步开放,小型无人机、航模、滑翔机、三角翼、风筝等非合作小目标的增加,空域的管制难度大大增加。尤其是多旋翼小型无人机,由于其价格便宜、容易购买和使用、开放的编程体系、体型轻巧隐蔽、低空飞行速度快等特点,已经广泛应用到工业、民用等方面,包括个人航拍、娱乐、农业、林业、物流、气象、安防等。但是同时,近几年以来,全世界各地无人机的“黑飞”、“滥飞”事件频发,严重危害个人隐私安全、公共场所安全、航空安全以及国家安全。为应对频发的无人机的“黑飞”、“滥飞”事件对个体、公共甚至是国家安全造成的挑战,非常有必要对侵入特定区域的无人机进行反制。对目标进行高准确、低误检的检测是反制重要前提。为了给反制留出足够多的时间,应尽可能在较远距离时发现目标。由于目标距离监控摄像机很远且监测环境复杂,获取的观测目标存在信号弱、成像面积小、形状或纹理特征弱、无固定运动规律、缺乏相对运动等特点,目前的弱小目标视觉检测存在着诸多挑战。如何设计一种高准确、低误检、少漏检的远距离弱小目标检测方法是一个亟待解决的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
有鉴于此,本发明提供一种串级时空特征融合远距离弱小目标视觉检测方法,通过设计根据目标运动状态的自适应切换的时空融合算法,在增强目标与环境对比度的同时抑制噪声和杂波的强度,以实现高准确、低误检、少漏检的远距离弱对比度小目标检测。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开实施例的一个方面,提供了一种串级时空特征融合远距离弱小目标视觉检测方法,包括五个步骤,分别是步骤一:滤除监控图像中地平线以下的地面背景,得到空域图;步骤二:分别采用暗目标帧间差分法及形态学底帽法对所述空域图进行处理,得到时间特征图及空间特征图并将二者在深度上进行叠加得到时空特征融合图;步骤三:在训练阶段,根据标注信息在所述时空特征融合图提取正时空描述子和负时空描述子,训练支持向量机;步骤四:在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器(GPU)中对时空特征融合图进行快速检测,得到目标检测置信图;步骤五:对所述目标检测置信图进行图像后处理得到最终的目标检测图。以下我们将依次对各个步骤进行详细介绍。
针对步骤一中的视频图像预处理,本方法主要用于检测空域背景中的弱小目标避免复杂地面背景对检测的影响,首先由基于Canny算子得到边缘图,然后根据原图及边缘共同构建梯度的能量优化函数,当能量优化函数取得最小值时的地平线即为最优地平线,然后将地平线以下的地面背景滤除,只保留天空背景。
在步骤二中,本方法首先通过暗目标帧间差分法生成时间特征图,其计算过程如公式(1)所示:
Tmap(x,y,c,k)=max{μ,I(x,y,c,k-1)-I(x,y,c,k)} (1)
其中I(x,y,c,k)表示第k帧视频图像,x=1,2…,M,y=1,2,…,N分别为像素的横纵坐标,M、N分别是图像的宽度和高度,c∈{R,G,B}代表图像的不同颜色通道,μ为表征暗目标的预设值;首先第k-1帧图像减去第k帧图像得到残差图像,然后将残差图中小于预设值μ的元素置为μ,得到时间特征图Tmap(x,y,c,k)。在生成时间特征图的同时,本方法用形态学底帽法生成空间特征图,其计算过程如公式(2-4)所示:
腐蚀:
Figure BDA0002320814190000031
膨胀:
Figure BDA0002320814190000032
形态学底帽法:
Figure BDA0002320814190000033
其中I为图像I(x,y,c,k)的缩写,
Figure BDA0002320814190000034
Figure BDA0002320814190000035
分别为形态学腐蚀算子和形态学膨胀算子,E为矩形结构化算子,
Figure BDA0002320814190000036
ω表征结构化算子的大小,Smap代表生成的空间特征图。然后将由暗目标帧间差分法生成的时间特征图Tmap与形态学底帽法生成的空间特征图Smap在深度上进行叠加得到时空特征融合图
Figure BDA00023208141900000311
其中C∈{RS,GS,BS,RT,GT,BT},RS,GS,BS代表空间特征图Smap的不同颜色通道,RT,GT,BT代表时间特征图Tmap的不同颜色通道,|*|代表集合*中元素的个数,|C|等于|2c|,M、N为时空特征融合图的长与宽。
步骤三为支持向量机的样本生成及训练阶段。在训练集中,视频图像中的目标被事先标注的矩形框所包围。在步骤二中生成的时空特征融合图STmap的相应位置提取时空特征描述子
Figure BDA0002320814190000037
Figure BDA0002320814190000038
其中p,q={-l,-l+1,…,0,…,l-1,l},l为时空特征描述子的尺度。正时空特征描述子位于标注矩形框内,其标签为Y(x,y,k)=+1,负时空特征描述子在标注矩形框外,在时空特征融合图上随机产生得到,其标签为Y(x,y,k)=-1。然后本方法将正负时空描述子及其对应标签输入线性支持向量机进行训练,得到可区分正负时空描述子的线性支持向量机模型。
步骤四为串级时空特征融合检测器,此检测器可分为两个阶段。
第一阶段为加法过滤器,计算时空特征融合图上每个时空描述子的和,如公式(5)所示:
Figure BDA0002320814190000039
Figure BDA00023208141900000310
其中θ=(2l+1)×(2l+1)×|c|×t为加法过滤器的阈值,t为预设的单位像素阈值,由经验可得。当和小于θ时,加法过滤器会将对应的时空描述子标签置0;当和大于等于θ时,会将对应的时空描述子标签置1。
第二阶段为线性支持向量机分类器,对加法过滤器过滤后标签仍为1的时空描述子进行二次检测,本方法将训练得到的线性支持向量机模型参数重构成与时空描述子相同维度的卷积核K,其维度为(2l+1)×(2l+1)×|C|,并将卷积核的偏置设为训练得到的线性支持向量机的偏置,从而将支持向量机对每个时空描述子进行串行检测的过程转化为用卷积核K对时空特征融合图STmap在图形处理器(GPU)上进行并行卷积的过程,快速地得到目标检测置信图。
在步骤五中,本方法对由步骤四中得到的目标检测置信图进行膨胀和连通度检测,将连通面积大于最小面积min_area(依据经验设定)且小于最大面积max_area(依据经验设定)的从背景中分割出来,得到最终的检测结果。
本发明的有益效果在于:
1.将图像的时间特征与空间特征融合,并考虑了像素之间的关联性,从而构建了一种新的适用于小目标检测的特征——时空描述子。
2.在串级检测中,为提高检测速度并减小误检,首先采用快速的加法过滤器对简单背景进行过滤,并将性线支持向量机串行的检测过程转化为可在图形处理单元上并行处理的卷积过程,进一步提高了检测速度。
3.使用正负时空描述子训练线性支持向量机模型,而非显式地定义融合机制与检测阈值,增强了检测方法的鲁棒性与适用性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
在附图中:
图1示出了串级时空特征融合远距离弱小目标视觉检测方法流程图;
图2示出了串级时空特征融合远距离弱小目标视觉检测方法的可视化效果图。
图3示出了支持向量机向量重构成卷积核的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
图1示出了串级时空特征融合远距离弱小目标视觉检测方法流程图。根据本公开实施例的一个方面,提供了一种串级时空特征融合远距离弱小目标视觉检测方法,包括五个步骤,分别是步骤一:滤除监控图像中地平线以下的地面背景,得到空域图;步骤二:分别采用暗目标帧间差分法及形态学底帽法对所述空域图进行处理,得到时间特征图及空间特征图并将二者在深度上进行叠加得到时空特征融合图;步骤三:在训练阶段,根据标注信息在所述时空特征融合图提取正时空描述子和负时空描述子,训练支持向量机;步骤四:在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器(GPU)中对时空特征融合图进行快速检测,得到目标检测置信图;步骤五:对所述目标检测置信图进行图像后处理得到最终的目标检测图。以下我们将依次对各个步骤进行详细介绍。
针对步骤一中的视频图像预处理,本方法主要用于检测空域背景中的弱小目标避免复杂地面背景对检测的影响,首先由基于Canny算子得到边缘图,然后根据原图及边缘共同构建梯度的能量优化函数,当能量优化函数取得最小值时的地平线即为最优地平线,然后将地平线以下的地面背景滤除,只保留天空背景。
在步骤二中,本方法首先通过暗目标帧间差分法生成时间特征图,其计算过程如公式(1)所示:
Tmap(x,y,c,k)=max{μ,I(x,y,c,k-1)-I(x,y,c,k)} (1)
其中I(x,y,c,k)表示第k帧视频图像,x=1,2…,M,y=1,2,…,N分别为像素的横纵坐标,M,N分别是图像的宽度和高度,c∈{R,G,B}代表图像的不同颜色通道,μ为表征暗目标的预设值,在本实施例中,μ被设为0;首先第k-1帧图像减去第k帧图像得到残差图像,然后将残差图中小于预设值μ的元素置为μ,得到时间特征图Tmap(x,y,c,k)。在生成时间特征图的同时,本方法用形态学底帽法生成空间特征图,其计算过程如公式(2-4)所示:
腐蚀:
Figure BDA0002320814190000061
膨胀:
Figure BDA0002320814190000062
形态学底帽法:
Figure BDA0002320814190000063
其中I为图像I(x,y,c,k)的缩写,
Figure BDA0002320814190000064
Figure BDA0002320814190000065
分别为形态学腐蚀算子和形态学膨胀算子,E为矩形结构化算子,
Figure BDA0002320814190000066
ω表征结构化算子的大小,在本实施例中,ω设置为2,Smap代表生成的空间特征图。然后将由暗目标帧间差分法生成的时间特征图Tmap与形态学底帽法生成的空间特征图Smap在深度上进行叠加得到时空特征融合图
Figure BDA0002320814190000067
Figure BDA0002320814190000068
如图1所示,其中C∈{RS,GS,BS,RT,GT,BT},RS,GS,BS代表空间特征图Smap的不同颜色通道,RT,GT,BT代表时间特征图Tmap的不同颜色通道,|*|代表集合*中元素的个数,|C|等于|2c|,M、N为时空特征融合图的长与宽。
步骤三为支持向量机的样本生成及训练阶段。在训练集中,视频图像中的目标被事先标注的矩形框所包围。在步骤二中生成的时空特征融合图STmap的相应位置提取时空特征描述子
Figure BDA0002320814190000069
Figure BDA00023208141900000610
如图1所示,其中p,q={-l,-l+1,…,0,…,l-1,l},l为时空特征描述子的尺度,在本实施例中设l等于2。正时空特征描述子位于标注矩形框内,其标签为Y(x,y,k)=+1,负时空特征描述子在标注矩形框外,在时空特征融合图上随机产生得到,其标签为Y(x,y,k)=-1。然后本方法将正负时空描述子及其对应标签输入线性支持向量机进行训练,得到可区分正负时空描述子的线性支持向量机模型。
步骤四为串级时空特征融合检测器,此检测器可分为两个阶段。
第一阶段为加法过滤器,计算时空特征融合图上每个时空描述子的和,如公式(5)所示:
Figure BDA0002320814190000071
Figure BDA0002320814190000072
其中θ=(2l+1)×(2l+1)×|c|×t为加法过滤器的阈值,t为预设的单位像素阈值,一般由经验可得,在本实施例中t被设置为7。当和小于θ时,加法过滤器会将对应的时空描述子标签置0;当和大于等于θ时,会将对应的时空描述子标签置1。
第二阶段为线性支持向量机分类器,对加法过滤器过滤后标签仍为1的时空描述子进行二次检测,本方法将训练得到的线性支持向量机模型参数重构成与时空描述子相同维度的卷积核K,其维度为(2l+1)×(2l+1)×|C|,并将卷积核的偏置设为训练得到的线性支持向量机的偏置(如图3所示),从而将支持向量机对每个时空描述子进行串行检测的过程转化为用卷积核K对时空特征融合图STmap在图形处理器上进行并行卷积的过程,快速地得到目标检测置信图,在本实施例中,并行卷积使用Pytorch框架实现。
在步骤五中,本方法对由步骤四中得到的目标检测置信图进行膨胀和连通度检测,将连通面积大于等于最小面积min_area(依据经验设定)且小于最大面积max_area(依据经验设定)的从背景中分割出来,得到最终的检测结果,由于本方法是为检测远距离小目标设计,在本实施例中,最大面积max_area设置为400,最小面积min_area设置为9。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (7)

1.一种串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,包括以下步骤:
步骤一:滤除监控图像中地平线以下的地面背景,得到空域图。
步骤二:分别采用暗目标帧间差分法及形态学底帽法对所述空域图进行处理,得到时间特征图及空间特征图并将二者在深度方向上进行叠加得到时空特征融合图。
步骤三:在训练阶段,根据标注信息在所述时空特征融合图提取正时空描述子和负时空描述子,训练支持向量机。
步骤四:在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器(GPU)中对时空特征融合图进行快速检测,得到目标检测置信图。
步骤五:对所述目标检测置信图进行图像后处理得到最终的目标检测图。
2.如权利要求1所述的串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,所述步骤二中,由暗目标帧间差分法生成时间特征图的计算过程如公式(1)所示:
Tmap(x,y,c,k)=max{μ,I(x,y,c,k-1)-I(x,y,c,k)} (1)
其中I(x,y,c,k)表示第k帧视频图像,x=1,2...,M,y=1,2,...,N分别为像素的横纵坐标,M、N分别是图像的宽度和高度,c∈{R,G,B}代表图像的不同颜色通道,Tmap(x,y,c,k)为生成的时间特征图,μ为表征暗目标的预设值;首先第k-1帧图像减去第k帧图像得到残差图像,然后将残差图中小于预设值μ的元素置为μ,得到时间特征图。
3.如权利要求1所述的串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,所述步骤二中,用形态学底帽法生成空间特征图的计算过程如公式(2-4)所示:
腐蚀:
Figure FDA0002320814180000011
膨胀:
Figure FDA0002320814180000012
形态学底帽法:
Figure FDA0002320814180000013
其中I为图像I(x,y,c,k)的缩写,
Figure FDA0002320814180000014
Figure FDA0002320814180000015
分别为形态学腐蚀算子和形态学膨胀算子,E为矩形结构化算子,
Figure FDA0002320814180000025
ω表征结构化算子的大小,Smap(x,y,c,k)为生成的空间特征图。
4.如权利要求1所述的串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,所述步骤二中,将时间特征图Tmap与空间特征图Smap在深度方向上进行叠加得到时空特征融合图
Figure FDA0002320814180000021
其中C∈{RS,GS,BS,RT,GT,BT},RS,GS,BS代表空间特征图Smap的不同颜色通道,RT,GT,BT代表时间特征图Tmap的不同颜色通道,|*|代表集合*中元素的个数,|C|等于2|c|,M、N为时空特征融合图的长与宽。
5.如权利要求1所述的串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,所述步骤三中,在训练阶段,视频图像中的目标被事先标注的矩形框所包围,从所述时空特征融合图STmap的相应位置提取时空特征描述子
Figure FDA0002320814180000022
p,q={-l,-l+1,...,0,...,l-1,l},l为时空特征描述子的尺度,其中正时空特征描述子位于标注矩形框内,其标签为Y(x,y,k)=+1,负时空特征描述子在标注矩形框外,由随机采样得到,其标签为Y(x,y,k)=-1,用正负时空描述子训练线性支持向量机。
6.如权利要求5所述的串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,所述步骤四串级检测机制的第一级检测中,加法过滤器计算所述时空特征融合图中每个时空描述子的和,如公式(5)所示:
Figure FDA0002320814180000023
Figure FDA0002320814180000024
其中θ=(2l+1)×(2l+1)×|C|×t为加法过滤器的阈值,t为预设的单位像素阈值,由经验得。当和小于θ时,对应的时空描述子标签为0;当和大于等于θ时,对应的时空描述子标签为1。
7.如权利要求6所述的串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,所述步骤四串级检测机制的第二级检测中,对加法过滤器过滤后标签仍为1的时空描述子进行二次检测,将训练得到的线性支持向量机模型参数重构成与时空描述子相同维度的卷积核K,其维度为(2l+1)×(2l+1)×|C|,并将卷积核的偏置设为训练得到的线性支持向量机的偏置,从而将支持向量机对时空描述子进行串行检测的过程转化为用卷积核K对时空特征融合图STmap在图形处理器(GPU)上进行并行卷积的过程,快速地得到目标检测置信图。
CN201911298799.6A 2019-12-16 2019-12-16 串级时空特征融合远距离弱小目标视觉检测方法 Active CN111160154B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911298799.6A CN111160154B (zh) 2019-12-16 2019-12-16 串级时空特征融合远距离弱小目标视觉检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911298799.6A CN111160154B (zh) 2019-12-16 2019-12-16 串级时空特征融合远距离弱小目标视觉检测方法

Publications (2)

Publication Number Publication Date
CN111160154A true CN111160154A (zh) 2020-05-15
CN111160154B CN111160154B (zh) 2023-09-22

Family

ID=70557320

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911298799.6A Active CN111160154B (zh) 2019-12-16 2019-12-16 串级时空特征融合远距离弱小目标视觉检测方法

Country Status (1)

Country Link
CN (1) CN111160154B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116645580A (zh) * 2023-06-05 2023-08-25 北京邮电大学 一种基于时空特征差异的红外弱小目标检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2519908A1 (en) * 2003-03-21 2005-03-10 Lockheed Martin Corporation Target detection improvements using temporal integrations and spatial fusion
CN108256562A (zh) * 2018-01-09 2018-07-06 深圳大学 基于弱监督时空级联神经网络的显著目标检测方法及系统
CN109800689A (zh) * 2019-01-04 2019-05-24 西南交通大学 一种基于时空特征融合学习的目标跟踪方法
CN110378288A (zh) * 2019-07-19 2019-10-25 合肥工业大学 一种基于深度学习的多级时空运动目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2519908A1 (en) * 2003-03-21 2005-03-10 Lockheed Martin Corporation Target detection improvements using temporal integrations and spatial fusion
US20070076917A1 (en) * 2003-03-21 2007-04-05 Lockheed Martin Corporation Target detection improvements using temporal integrations and spatial fusion
CN108256562A (zh) * 2018-01-09 2018-07-06 深圳大学 基于弱监督时空级联神经网络的显著目标检测方法及系统
CN109800689A (zh) * 2019-01-04 2019-05-24 西南交通大学 一种基于时空特征融合学习的目标跟踪方法
CN110378288A (zh) * 2019-07-19 2019-10-25 合肥工业大学 一种基于深度学习的多级时空运动目标检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116645580A (zh) * 2023-06-05 2023-08-25 北京邮电大学 一种基于时空特征差异的红外弱小目标检测方法及装置
CN116645580B (zh) * 2023-06-05 2023-11-14 北京邮电大学 一种基于时空特征差异的弱小目标检测方法及装置

Also Published As

Publication number Publication date
CN111160154B (zh) 2023-09-22

Similar Documents

Publication Publication Date Title
CN111209810B (zh) 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构
Rakibe et al. Background subtraction algorithm based human motion detection
Sommer et al. Flying object detection for automatic UAV recognition
CN103077521B (zh) 一种用于视频监控的感兴趣区域提取方法
CN104933680B (zh) 一种智能的无人艇视觉系统视频快速海雾去除方法
CN111179318B (zh) 基于双流法的复杂背景运动小目标检测方法
Sun et al. Fusion of infrared and visible images for remote detection of low-altitude slow-speed small targets
CN109460764A (zh) 一种结合亮度特征与改进帧间差分法的卫星视频船舶监测方法
CN112446246B (zh) 一种图像遮挡检测方法及车载终端
CN106887002B (zh) 一种红外图像序列显著性检测方法
Li et al. Photo-realistic simulation of road scene for data-driven methods in bad weather
CN111553403A (zh) 基于伪3d卷积神经网络的烟雾检测方法及系统
CN114202646A (zh) 一种基于深度学习的红外图像吸烟检测方法与系统
Liang et al. Methods of moving target detection and behavior recognition in intelligent vision monitoring.
CN103870847B (zh) 一种低照度环境下对地监控的运动目标检测方法
CN110751068B (zh) 基于自适应时空融合的远距离弱小目标视觉检测方法
Chen et al. Visual depth guided image rain streaks removal via sparse coding
Sun et al. IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes
CN105046670A (zh) 一种图像去雨方法及系统
Miller et al. Person tracking in UAV video
CN111160154A (zh) 串级时空特征融合远距离弱小目标视觉检测方法
Dong et al. Adaptive Object Detection and Visibility Improvement in Foggy Image.
Wang et al. An efficient method of shadow elimination based on image region information in HSV color space
CN113920089A (zh) 目标检测方法、装置以及电子控制器
Briese et al. Deep learning with semi-synthetic training images for detection of non-cooperative UAVs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant