CN111160154B - 串级时空特征融合远距离弱小目标视觉检测方法 - Google Patents

串级时空特征融合远距离弱小目标视觉检测方法 Download PDF

Info

Publication number
CN111160154B
CN111160154B CN201911298799.6A CN201911298799A CN111160154B CN 111160154 B CN111160154 B CN 111160154B CN 201911298799 A CN201911298799 A CN 201911298799A CN 111160154 B CN111160154 B CN 111160154B
Authority
CN
China
Prior art keywords
map
space
time
feature
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911298799.6A
Other languages
English (en)
Other versions
CN111160154A (zh
Inventor
谢伟戈
高承醒
于晋
吴均峰
陈积明
史治国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201911298799.6A priority Critical patent/CN111160154B/zh
Publication of CN111160154A publication Critical patent/CN111160154A/zh
Application granted granted Critical
Publication of CN111160154B publication Critical patent/CN111160154B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明公开了一种串级时空特征融合远距离弱小目标视觉检测方法。该方法包括:1.滤除视频中地平线以下的地面背景,得到空域图;2.分别采用暗目标帧间差分法及形态学底帽法对所述空域图进行处理,得到时间特征图及空间特征图并将二者在深度上进行叠加得到时空特征融合图;3.在训练阶段,根据标注信息在所述时空特征融合图提取正、负时空描述子,训练支持向量机;4.在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器中对时空特征融合图进行快速检测,得到目标检测置信图;5.对所述目标检测置信图进行图像后处理得到最终的目标检测图。

Description

串级时空特征融合远距离弱小目标视觉检测方法
技术领域
本发明涉及计算机视觉领域,具体而言,涉及一种串级时空特征融合远距离弱小目标视觉检测方法。
背景技术
随着低空空域的逐步开放,小型无人机、航模、滑翔机、三角翼、风筝等非合作小目标的增加,空域的管制难度大大增加。尤其是多旋翼小型无人机,由于其价格便宜、容易购买和使用、开放的编程体系、体型轻巧隐蔽、低空飞行速度快等特点,已经广泛应用到工业、民用等方面,包括个人航拍、娱乐、农业、林业、物流、气象、安防等。但是同时,近几年以来,全世界各地无人机的“黑飞”、“滥飞”事件频发,严重危害个人隐私安全、公共场所安全、航空安全以及国家安全。为应对频发的无人机的“黑飞”、“滥飞”事件对个体、公共甚至是国家安全造成的挑战,非常有必要对侵入特定区域的无人机进行反制。对目标进行高准确、低误检的检测是反制重要前提。为了给反制留出足够多的时间,应尽可能在较远距离时发现目标。由于目标距离监控摄像机很远且监测环境复杂,获取的观测目标存在信号弱、成像面积小、形状或纹理特征弱、无固定运动规律、缺乏相对运动等特点,目前的弱小目标视觉检测存在着诸多挑战。如何设计一种高准确、低误检、少漏检的远距离弱小目标检测方法是一个亟待解决的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
有鉴于此,本发明提供一种串级时空特征融合远距离弱小目标视觉检测方法,通过设计根据目标运动状态的自适应切换的时空融合算法,在增强目标与环境对比度的同时抑制噪声和杂波的强度,以实现高准确、低误检、少漏检的远距离弱对比度小目标检测。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开实施例的一个方面,提供了一种串级时空特征融合远距离弱小目标视觉检测方法,包括五个步骤,分别是步骤一:滤除监控图像中地平线以下的地面背景,得到空域图;步骤二:分别采用暗目标帧间差分法及形态学底帽法对所述空域图进行处理,得到时间特征图及空间特征图并将二者在深度上进行叠加得到时空特征融合图;步骤三:在训练阶段,根据标注信息在所述时空特征融合图提取正时空描述子和负时空描述子,训练支持向量机;步骤四:在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器(GPU)中对时空特征融合图进行快速检测,得到目标检测置信图;步骤五:对所述目标检测置信图进行图像后处理得到最终的目标检测图。以下我们将依次对各个步骤进行详细介绍。
针对步骤一中的视频图像预处理,本方法主要用于检测空域背景中的弱小目标避免复杂地面背景对检测的影响,首先由基于Canny算子得到边缘图,然后根据原图及边缘共同构建梯度的能量优化函数,当能量优化函数取得最小值时的地平线即为最优地平线,然后将地平线以下的地面背景滤除,只保留天空背景。
在步骤二中,本方法首先通过暗目标帧间差分法生成时间特征图,其计算过程如公式(1)所示:
Tmap(x,y,c,k)=max{μ,I(x,y,c,k-1)-I(x,y,c,k)} (1)
其中I(x,y,c,k)表示第k帧视频图像,x=1,2…,M,y=1,2,…,N分别为像素的横纵坐标,M、N分别是图像的宽度和高度,c∈{R,G,B}代表图像的不同颜色通道,μ为表征暗目标的预设值;首先第k-1帧图像减去第k帧图像得到残差图像,然后将残差图中小于预设值μ的元素置为μ,得到时间特征图Tmap(x,y,c,k)。在生成时间特征图的同时,本方法用形态学底帽法生成空间特征图,其计算过程如公式(2-4)所示:
腐蚀:
膨胀:
形态学底帽法:其中I为图像I(x,y,c,k)的缩写,/>与/>分别为形态学腐蚀算子和形态学膨胀算子,E为矩形结构化算子,/>ω表征结构化算子的大小,Smap代表生成的空间特征图。然后将由暗目标帧间差分法生成的时间特征图Tmap与形态学底帽法生成的空间特征图Smap在深度上进行叠加得到时空特征融合图/>其中C∈{RS,GS,BS,RT,GT,BT},RS,GS,BS代表空间特征图Smap的不同颜色通道,RT,GT,BT代表时间特征图Tmap的不同颜色通道,|*|代表集合*中元素的个数,|C|等于|2c|,M、N为时空特征融合图的长与宽。
步骤三为支持向量机的样本生成及训练阶段。在训练集中,视频图像中的目标被事先标注的矩形框所包围。在步骤二中生成的时空特征融合图STmap的相应位置提取时空特征描述子 其中p,q={-l,-l+1,…,0,…,l-1,l},l为时空特征描述子的尺度。正时空特征描述子位于标注矩形框内,其标签为Y(x,y,k)=+1,负时空特征描述子在标注矩形框外,在时空特征融合图上随机产生得到,其标签为Y(x,y,k)=-1。然后本方法将正负时空描述子及其对应标签输入线性支持向量机进行训练,得到可区分正负时空描述子的线性支持向量机模型。
步骤四为串级时空特征融合检测器,此检测器可分为两个阶段。
第一阶段为加法过滤器,计算时空特征融合图上每个时空描述子的和,如公式(5)所示:
其中θ=(2l+1)×(2l+1)×|c|×t为加法过滤器的阈值,t为预设的单位像素阈值,由经验可得。当和小于θ时,加法过滤器会将对应的时空描述子标签置0;当和大于等于θ时,会将对应的时空描述子标签置1。
第二阶段为线性支持向量机分类器,对加法过滤器过滤后标签仍为1的时空描述子进行二次检测,本方法将训练得到的线性支持向量机模型参数重构成与时空描述子相同维度的卷积核K,其维度为(2l+1)×(2l+1)×|C|,并将卷积核的偏置设为训练得到的线性支持向量机的偏置,从而将支持向量机对每个时空描述子进行串行检测的过程转化为用卷积核K对时空特征融合图STmap在图形处理器(GPU)上进行并行卷积的过程,快速地得到目标检测置信图。
在步骤五中,本方法对由步骤四中得到的目标检测置信图进行膨胀和连通度检测,将连通面积大于最小面积min_area(依据经验设定)且小于最大面积max_area(依据经验设定)的从背景中分割出来,得到最终的检测结果。
本发明的有益效果在于:
1.将图像的时间特征与空间特征融合,并考虑了像素之间的关联性,从而构建了一种新的适用于小目标检测的特征——时空描述子。
2.在串级检测中,为提高检测速度并减小误检,首先采用快速的加法过滤器对简单背景进行过滤,并将性线支持向量机串行的检测过程转化为可在图形处理单元上并行处理的卷积过程,进一步提高了检测速度。
3.使用正负时空描述子训练线性支持向量机模型,而非显式地定义融合机制与检测阈值,增强了检测方法的鲁棒性与适用性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
在附图中:
图1示出了串级时空特征融合远距离弱小目标视觉检测方法流程图;
图2示出了串级时空特征融合远距离弱小目标视觉检测方法的可视化效果图。
图3示出了支持向量机向量重构成卷积核的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
图1示出了串级时空特征融合远距离弱小目标视觉检测方法流程图。根据本公开实施例的一个方面,提供了一种串级时空特征融合远距离弱小目标视觉检测方法,包括五个步骤,分别是步骤一:滤除监控图像中地平线以下的地面背景,得到空域图;步骤二:分别采用暗目标帧间差分法及形态学底帽法对所述空域图进行处理,得到时间特征图及空间特征图并将二者在深度上进行叠加得到时空特征融合图;步骤三:在训练阶段,根据标注信息在所述时空特征融合图提取正时空描述子和负时空描述子,训练支持向量机;步骤四:在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器(GPU)中对时空特征融合图进行快速检测,得到目标检测置信图;步骤五:对所述目标检测置信图进行图像后处理得到最终的目标检测图。以下我们将依次对各个步骤进行详细介绍。
针对步骤一中的视频图像预处理,本方法主要用于检测空域背景中的弱小目标避免复杂地面背景对检测的影响,首先由基于Canny算子得到边缘图,然后根据原图及边缘共同构建梯度的能量优化函数,当能量优化函数取得最小值时的地平线即为最优地平线,然后将地平线以下的地面背景滤除,只保留天空背景。
在步骤二中,本方法首先通过暗目标帧间差分法生成时间特征图,其计算过程如公式(1)所示:
Tmap(x,y,c,k)=max{μ,I(x,y,c,k-1)-I(x,y,c,k)} (1)
其中I(x,y,c,k)表示第k帧视频图像,x=1,2…,M,y=1,2,…,N分别为像素的横纵坐标,M,N分别是图像的宽度和高度,c∈{R,G,B}代表图像的不同颜色通道,μ为表征暗目标的预设值,在本实施例中,μ被设为0;首先第k-1帧图像减去第k帧图像得到残差图像,然后将残差图中小于预设值μ的元素置为μ,得到时间特征图Tmap(x,y,c,k)。在生成时间特征图的同时,本方法用形态学底帽法生成空间特征图,其计算过程如公式(2-4)所示:
腐蚀:
膨胀:
形态学底帽法:其中I为图像I(x,y,c,k)的缩写,/>与/>分别为形态学腐蚀算子和形态学膨胀算子,E为矩形结构化算子,/>ω表征结构化算子的大小,在本实施例中,ω设置为2,Smap代表生成的空间特征图。然后将由暗目标帧间差分法生成的时间特征图Tmap与形态学底帽法生成的空间特征图Smap在深度上进行叠加得到时空特征融合图/> 如图1所示,其中C∈{RS,GS,BS,RT,GT,BT},RS,GS,BS代表空间特征图Smap的不同颜色通道,RT,GT,BT代表时间特征图Tmap的不同颜色通道,|*|代表集合*中元素的个数,|C|等于|2c|,M、N为时空特征融合图的长与宽。
步骤三为支持向量机的样本生成及训练阶段。在训练集中,视频图像中的目标被事先标注的矩形框所包围。在步骤二中生成的时空特征融合图STmap的相应位置提取时空特征描述子 如图1所示,其中p,q={-l,-l+1,…,0,…,l-1,l},l为时空特征描述子的尺度,在本实施例中设l等于2。正时空特征描述子位于标注矩形框内,其标签为Y(x,y,k)=+1,负时空特征描述子在标注矩形框外,在时空特征融合图上随机产生得到,其标签为Y(x,y,k)=-1。然后本方法将正负时空描述子及其对应标签输入线性支持向量机进行训练,得到可区分正负时空描述子的线性支持向量机模型。
步骤四为串级时空特征融合检测器,此检测器可分为两个阶段。
第一阶段为加法过滤器,计算时空特征融合图上每个时空描述子的和,如公式(5)所示:
其中θ=(2l+1)×(2l+1)×|c|×t为加法过滤器的阈值,t为预设的单位像素阈值,一般由经验可得,在本实施例中t被设置为7。当和小于θ时,加法过滤器会将对应的时空描述子标签置0;当和大于等于θ时,会将对应的时空描述子标签置1。
第二阶段为线性支持向量机分类器,对加法过滤器过滤后标签仍为1的时空描述子进行二次检测,本方法将训练得到的线性支持向量机模型参数重构成与时空描述子相同维度的卷积核K,其维度为(2l+1)×(2l+1)×|C|,并将卷积核的偏置设为训练得到的线性支持向量机的偏置(如图3所示),从而将支持向量机对每个时空描述子进行串行检测的过程转化为用卷积核K对时空特征融合图STmap在图形处理器上进行并行卷积的过程,快速地得到目标检测置信图,在本实施例中,并行卷积使用Pytorch框架实现。
在步骤五中,本方法对由步骤四中得到的目标检测置信图进行膨胀和连通度检测,将连通面积大于等于最小面积min_area(依据经验设定)且小于最大面积max_area(依据经验设定)的从背景中分割出来,得到最终的检测结果,由于本方法是为检测远距离小目标设计,在本实施例中,最大面积max_area设置为400,最小面积min_area设置为9。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (3)

1.一种串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,包括以下步骤:
步骤一:滤除监控图像中地平线以下的地面背景,得到空域图;
步骤二:采用暗目标帧间差分法对所述空域图进行处理,得到时间特征图,计算公式如下:
Tmap(x,y,c,k)=max{μ,I(x,y,c,k-1)-I(x,y,c,k)}
其中I(x,y,c,k)表示第k帧视频图像,x=1,2...,M,y=1,2,...,N分别为像素的横纵坐标,M、N分别是图像的宽度和高度,c∈{R,G,B}代表图像的不同颜色通道,Tmap(x,y,c,k)为生成的时间特征图,μ为表征暗目标的预设值;首先第k-1帧图像减去第k帧图像得到残差图像,然后将残差图中小于预设值μ的元素置为μ,得到时间特征图;
采用形态学底帽法对所述空域图进行处理,得到空间特征图Smap(x,y,c,k);
将时间特征图Tmap与空间特征图Smap在深度方向上进行叠加得到时空特征融合图其中C∈{RS,GS,BS,RT,GT,BT},RS,GS,BS代表空间特征图Smap的不同颜色通道,RT,GT,BT代表时间特征图Tmap的不同颜色通道,|*|代表集合*中元素的个数,|C|等于2|c|;
步骤三:在训练阶段,根据标注信息在所述时空特征融合图提取正时空描述子和负时空描述子,训练支持向量机;包括:
在训练阶段,视频图像中的目标被事先标注的矩形框所包围,从所述时空特征融合图STmap的相应位置提取时空特征描述子 p,q={-l,-l+1,...,0,...,l-1,l},l为时空特征描述子的尺度,其中正时空特征描述子位于标注矩形框内,其标签为Y(x,y,k)=+1,负时空特征描述子在标注矩形框外,由随机采样得到,其标签为Y(x,y,k)=-1,用正负时空描述子训练线性支持向量机;
步骤四:在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器中对时空特征融合图进行快速检测,得到目标检测置信图;加法过滤器计算所述时空特征融合图中每个时空描述子的和,计算公式如下:
其中θ=(2l+1)×(2l+1)×|C|×t为加法过滤器的阈值,t为预设的单位像素阈值,由经验得;当和小于θ时,对应的时空描述子标签为0;当和大于等于θ时,对应的时空描述子标签为1;
步骤五:对所述目标检测置信图进行图像后处理得到最终的目标检测图。
2.如权利要求1所述的串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,所述步骤二中,用形态学底帽法生成空间特征图的计算过程如下所示:
腐蚀:
膨胀:
形态学底帽法:
其中I为图像I(x,y,c,k)的缩写,与/>分别为形态学腐蚀算子和形态学膨胀算子,E为矩形结构化算子,/>ω表征结构化算子的大小,Smap(x,y,c,k)为生成的空间特征图。
3.如权利要求1所述的串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,所述步骤四串级检测机制的第二级检测中,对加法过滤器过滤后标签仍为1的时空描述子进行二次检测,将训练得到的线性支持向量机模型参数重构成与时空描述子相同维度的卷积核K,其维度为(2l+1)×(2l+1)×|C|,并将卷积核的偏置设为训练得到的线性支持向量机的偏置,从而将支持向量机对时空描述子进行串行检测的过程转化为用卷积核K对时空特征融合图STmap在图形处理器上进行并行卷积的过程,快速地得到目标检测置信图。
CN201911298799.6A 2019-12-16 2019-12-16 串级时空特征融合远距离弱小目标视觉检测方法 Active CN111160154B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911298799.6A CN111160154B (zh) 2019-12-16 2019-12-16 串级时空特征融合远距离弱小目标视觉检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911298799.6A CN111160154B (zh) 2019-12-16 2019-12-16 串级时空特征融合远距离弱小目标视觉检测方法

Publications (2)

Publication Number Publication Date
CN111160154A CN111160154A (zh) 2020-05-15
CN111160154B true CN111160154B (zh) 2023-09-22

Family

ID=70557320

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911298799.6A Active CN111160154B (zh) 2019-12-16 2019-12-16 串级时空特征融合远距离弱小目标视觉检测方法

Country Status (1)

Country Link
CN (1) CN111160154B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116645580B (zh) * 2023-06-05 2023-11-14 北京邮电大学 一种基于时空特征差异的弱小目标检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2519908A1 (en) * 2003-03-21 2005-03-10 Lockheed Martin Corporation Target detection improvements using temporal integrations and spatial fusion
CN108256562A (zh) * 2018-01-09 2018-07-06 深圳大学 基于弱监督时空级联神经网络的显著目标检测方法及系统
CN109800689A (zh) * 2019-01-04 2019-05-24 西南交通大学 一种基于时空特征融合学习的目标跟踪方法
CN110378288A (zh) * 2019-07-19 2019-10-25 合肥工业大学 一种基于深度学习的多级时空运动目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2519908A1 (en) * 2003-03-21 2005-03-10 Lockheed Martin Corporation Target detection improvements using temporal integrations and spatial fusion
CN108256562A (zh) * 2018-01-09 2018-07-06 深圳大学 基于弱监督时空级联神经网络的显著目标检测方法及系统
CN109800689A (zh) * 2019-01-04 2019-05-24 西南交通大学 一种基于时空特征融合学习的目标跟踪方法
CN110378288A (zh) * 2019-07-19 2019-10-25 合肥工业大学 一种基于深度学习的多级时空运动目标检测方法

Also Published As

Publication number Publication date
CN111160154A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
Zheng et al. Air-to-air visual detection of micro-uavs: An experimental evaluation of deep learning
Mou et al. Multitemporal very high resolution from space: Outcome of the 2016 IEEE GRSS data fusion contest
Hu et al. Detection of unmanned aerial vehicles using a visible camera system
James et al. Learning to detect aircraft for long-range vision-based sense-and-avoid systems
WO2010129907A2 (en) Method and system for visual collision detection and estimation
Sokalski et al. Automatic salient object detection in UAV imagery
CN111179318B (zh) 基于双流法的复杂背景运动小目标检测方法
CN113486697B (zh) 基于空基多模态图像融合的森林烟火监测方法
Xie et al. Adaptive switching spatial-temporal fusion detection for remote flying drones
Yetgin et al. Automatic recognition of scenes with power line wires in real life aerial images using DCT-based features
CN116935214B (zh) 一种卫星多源遥感数据的时空谱融合方法
Zhao et al. SAR ship detection based on end-to-end morphological feature pyramid network
Tuominen et al. Cloud detection and movement estimation based on sky camera images using neural networks and the Lucas-Kanade method
Dinnbier et al. Target detection using Gaussian mixture models and fourier transforms for UAV maritime search and rescue
Zhou et al. Infrared small target detection via incorporating spatial structural prior into intrinsic tensor sparsity regularization
CN111160154B (zh) 串级时空特征融合远距离弱小目标视觉检测方法
Elsayed et al. Review on real-time drone detection based on visual band electro-optical (EO) sensor
Hwang et al. Aircraft detection using deep convolutional neural network in small unmanned aircraft systems
Miller et al. Person tracking in UAV video
CN110751068B (zh) 基于自适应时空融合的远距离弱小目标视觉检测方法
Müller et al. Robust drone detection with static VIS and SWIR cameras for day and night counter-UAV
Song et al. Ship detection in haze and low-light remote sensing images via colour balance and DCNN
Zhang et al. Spatial and temporal context information fusion based flying objects detection for autonomous sense and avoid
Sinha et al. Human activity recognition from UAV videos using a novel DMLC-CNN model
Angelov et al. ARTOT: Autonomous real-Time object detection and tracking by a moving camera

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant