CN111160154A - 串级时空特征融合远距离弱小目标视觉检测方法 - Google Patents
串级时空特征融合远距离弱小目标视觉检测方法 Download PDFInfo
- Publication number
- CN111160154A CN111160154A CN201911298799.6A CN201911298799A CN111160154A CN 111160154 A CN111160154 A CN 111160154A CN 201911298799 A CN201911298799 A CN 201911298799A CN 111160154 A CN111160154 A CN 111160154A
- Authority
- CN
- China
- Prior art keywords
- map
- space
- time
- image
- feature fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了一种串级时空特征融合远距离弱小目标视觉检测方法。该方法包括:1.滤除视频中地平线以下的地面背景,得到空域图;2.分别采用暗目标帧间差分法及形态学底帽法对所述空域图进行处理,得到时间特征图及空间特征图并将二者在深度上进行叠加得到时空特征融合图;3.在训练阶段,根据标注信息在所述时空特征融合图提取正、负时空描述子,训练支持向量机;4.在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器中对时空特征融合图进行快速检测,得到目标检测置信图;5.对所述目标检测置信图进行图像后处理得到最终的目标检测图。
Description
技术领域
本发明涉及计算机视觉领域,具体而言,涉及一种串级时空特征融合远距离弱小目标视觉检测方法。
背景技术
随着低空空域的逐步开放,小型无人机、航模、滑翔机、三角翼、风筝等非合作小目标的增加,空域的管制难度大大增加。尤其是多旋翼小型无人机,由于其价格便宜、容易购买和使用、开放的编程体系、体型轻巧隐蔽、低空飞行速度快等特点,已经广泛应用到工业、民用等方面,包括个人航拍、娱乐、农业、林业、物流、气象、安防等。但是同时,近几年以来,全世界各地无人机的“黑飞”、“滥飞”事件频发,严重危害个人隐私安全、公共场所安全、航空安全以及国家安全。为应对频发的无人机的“黑飞”、“滥飞”事件对个体、公共甚至是国家安全造成的挑战,非常有必要对侵入特定区域的无人机进行反制。对目标进行高准确、低误检的检测是反制重要前提。为了给反制留出足够多的时间,应尽可能在较远距离时发现目标。由于目标距离监控摄像机很远且监测环境复杂,获取的观测目标存在信号弱、成像面积小、形状或纹理特征弱、无固定运动规律、缺乏相对运动等特点,目前的弱小目标视觉检测存在着诸多挑战。如何设计一种高准确、低误检、少漏检的远距离弱小目标检测方法是一个亟待解决的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
有鉴于此,本发明提供一种串级时空特征融合远距离弱小目标视觉检测方法,通过设计根据目标运动状态的自适应切换的时空融合算法,在增强目标与环境对比度的同时抑制噪声和杂波的强度,以实现高准确、低误检、少漏检的远距离弱对比度小目标检测。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开实施例的一个方面,提供了一种串级时空特征融合远距离弱小目标视觉检测方法,包括五个步骤,分别是步骤一:滤除监控图像中地平线以下的地面背景,得到空域图;步骤二:分别采用暗目标帧间差分法及形态学底帽法对所述空域图进行处理,得到时间特征图及空间特征图并将二者在深度上进行叠加得到时空特征融合图;步骤三:在训练阶段,根据标注信息在所述时空特征融合图提取正时空描述子和负时空描述子,训练支持向量机;步骤四:在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器(GPU)中对时空特征融合图进行快速检测,得到目标检测置信图;步骤五:对所述目标检测置信图进行图像后处理得到最终的目标检测图。以下我们将依次对各个步骤进行详细介绍。
针对步骤一中的视频图像预处理,本方法主要用于检测空域背景中的弱小目标避免复杂地面背景对检测的影响,首先由基于Canny算子得到边缘图,然后根据原图及边缘共同构建梯度的能量优化函数,当能量优化函数取得最小值时的地平线即为最优地平线,然后将地平线以下的地面背景滤除,只保留天空背景。
在步骤二中,本方法首先通过暗目标帧间差分法生成时间特征图,其计算过程如公式(1)所示:
Tmap(x,y,c,k)=max{μ,I(x,y,c,k-1)-I(x,y,c,k)} (1)
其中I(x,y,c,k)表示第k帧视频图像,x=1,2…,M,y=1,2,…,N分别为像素的横纵坐标,M、N分别是图像的宽度和高度,c∈{R,G,B}代表图像的不同颜色通道,μ为表征暗目标的预设值;首先第k-1帧图像减去第k帧图像得到残差图像,然后将残差图中小于预设值μ的元素置为μ,得到时间特征图Tmap(x,y,c,k)。在生成时间特征图的同时,本方法用形态学底帽法生成空间特征图,其计算过程如公式(2-4)所示:
形态学底帽法:其中I为图像I(x,y,c,k)的缩写,与分别为形态学腐蚀算子和形态学膨胀算子,E为矩形结构化算子,ω表征结构化算子的大小,Smap代表生成的空间特征图。然后将由暗目标帧间差分法生成的时间特征图Tmap与形态学底帽法生成的空间特征图Smap在深度上进行叠加得到时空特征融合图其中C∈{RS,GS,BS,RT,GT,BT},RS,GS,BS代表空间特征图Smap的不同颜色通道,RT,GT,BT代表时间特征图Tmap的不同颜色通道,|*|代表集合*中元素的个数,|C|等于|2c|,M、N为时空特征融合图的长与宽。
步骤三为支持向量机的样本生成及训练阶段。在训练集中,视频图像中的目标被事先标注的矩形框所包围。在步骤二中生成的时空特征融合图STmap的相应位置提取时空特征描述子 其中p,q={-l,-l+1,…,0,…,l-1,l},l为时空特征描述子的尺度。正时空特征描述子位于标注矩形框内,其标签为Y(x,y,k)=+1,负时空特征描述子在标注矩形框外,在时空特征融合图上随机产生得到,其标签为Y(x,y,k)=-1。然后本方法将正负时空描述子及其对应标签输入线性支持向量机进行训练,得到可区分正负时空描述子的线性支持向量机模型。
步骤四为串级时空特征融合检测器,此检测器可分为两个阶段。
第一阶段为加法过滤器,计算时空特征融合图上每个时空描述子的和,如公式(5)所示:
其中θ=(2l+1)×(2l+1)×|c|×t为加法过滤器的阈值,t为预设的单位像素阈值,由经验可得。当和小于θ时,加法过滤器会将对应的时空描述子标签置0;当和大于等于θ时,会将对应的时空描述子标签置1。
第二阶段为线性支持向量机分类器,对加法过滤器过滤后标签仍为1的时空描述子进行二次检测,本方法将训练得到的线性支持向量机模型参数重构成与时空描述子相同维度的卷积核K,其维度为(2l+1)×(2l+1)×|C|,并将卷积核的偏置设为训练得到的线性支持向量机的偏置,从而将支持向量机对每个时空描述子进行串行检测的过程转化为用卷积核K对时空特征融合图STmap在图形处理器(GPU)上进行并行卷积的过程,快速地得到目标检测置信图。
在步骤五中,本方法对由步骤四中得到的目标检测置信图进行膨胀和连通度检测,将连通面积大于最小面积min_area(依据经验设定)且小于最大面积max_area(依据经验设定)的从背景中分割出来,得到最终的检测结果。
本发明的有益效果在于:
1.将图像的时间特征与空间特征融合,并考虑了像素之间的关联性,从而构建了一种新的适用于小目标检测的特征——时空描述子。
2.在串级检测中,为提高检测速度并减小误检,首先采用快速的加法过滤器对简单背景进行过滤,并将性线支持向量机串行的检测过程转化为可在图形处理单元上并行处理的卷积过程,进一步提高了检测速度。
3.使用正负时空描述子训练线性支持向量机模型,而非显式地定义融合机制与检测阈值,增强了检测方法的鲁棒性与适用性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
在附图中:
图1示出了串级时空特征融合远距离弱小目标视觉检测方法流程图;
图2示出了串级时空特征融合远距离弱小目标视觉检测方法的可视化效果图。
图3示出了支持向量机向量重构成卷积核的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
图1示出了串级时空特征融合远距离弱小目标视觉检测方法流程图。根据本公开实施例的一个方面,提供了一种串级时空特征融合远距离弱小目标视觉检测方法,包括五个步骤,分别是步骤一:滤除监控图像中地平线以下的地面背景,得到空域图;步骤二:分别采用暗目标帧间差分法及形态学底帽法对所述空域图进行处理,得到时间特征图及空间特征图并将二者在深度上进行叠加得到时空特征融合图;步骤三:在训练阶段,根据标注信息在所述时空特征融合图提取正时空描述子和负时空描述子,训练支持向量机;步骤四:在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器(GPU)中对时空特征融合图进行快速检测,得到目标检测置信图;步骤五:对所述目标检测置信图进行图像后处理得到最终的目标检测图。以下我们将依次对各个步骤进行详细介绍。
针对步骤一中的视频图像预处理,本方法主要用于检测空域背景中的弱小目标避免复杂地面背景对检测的影响,首先由基于Canny算子得到边缘图,然后根据原图及边缘共同构建梯度的能量优化函数,当能量优化函数取得最小值时的地平线即为最优地平线,然后将地平线以下的地面背景滤除,只保留天空背景。
在步骤二中,本方法首先通过暗目标帧间差分法生成时间特征图,其计算过程如公式(1)所示:
Tmap(x,y,c,k)=max{μ,I(x,y,c,k-1)-I(x,y,c,k)} (1)
其中I(x,y,c,k)表示第k帧视频图像,x=1,2…,M,y=1,2,…,N分别为像素的横纵坐标,M,N分别是图像的宽度和高度,c∈{R,G,B}代表图像的不同颜色通道,μ为表征暗目标的预设值,在本实施例中,μ被设为0;首先第k-1帧图像减去第k帧图像得到残差图像,然后将残差图中小于预设值μ的元素置为μ,得到时间特征图Tmap(x,y,c,k)。在生成时间特征图的同时,本方法用形态学底帽法生成空间特征图,其计算过程如公式(2-4)所示:
形态学底帽法:其中I为图像I(x,y,c,k)的缩写,与分别为形态学腐蚀算子和形态学膨胀算子,E为矩形结构化算子,ω表征结构化算子的大小,在本实施例中,ω设置为2,Smap代表生成的空间特征图。然后将由暗目标帧间差分法生成的时间特征图Tmap与形态学底帽法生成的空间特征图Smap在深度上进行叠加得到时空特征融合图 如图1所示,其中C∈{RS,GS,BS,RT,GT,BT},RS,GS,BS代表空间特征图Smap的不同颜色通道,RT,GT,BT代表时间特征图Tmap的不同颜色通道,|*|代表集合*中元素的个数,|C|等于|2c|,M、N为时空特征融合图的长与宽。
步骤三为支持向量机的样本生成及训练阶段。在训练集中,视频图像中的目标被事先标注的矩形框所包围。在步骤二中生成的时空特征融合图STmap的相应位置提取时空特征描述子 如图1所示,其中p,q={-l,-l+1,…,0,…,l-1,l},l为时空特征描述子的尺度,在本实施例中设l等于2。正时空特征描述子位于标注矩形框内,其标签为Y(x,y,k)=+1,负时空特征描述子在标注矩形框外,在时空特征融合图上随机产生得到,其标签为Y(x,y,k)=-1。然后本方法将正负时空描述子及其对应标签输入线性支持向量机进行训练,得到可区分正负时空描述子的线性支持向量机模型。
步骤四为串级时空特征融合检测器,此检测器可分为两个阶段。
第一阶段为加法过滤器,计算时空特征融合图上每个时空描述子的和,如公式(5)所示:
其中θ=(2l+1)×(2l+1)×|c|×t为加法过滤器的阈值,t为预设的单位像素阈值,一般由经验可得,在本实施例中t被设置为7。当和小于θ时,加法过滤器会将对应的时空描述子标签置0;当和大于等于θ时,会将对应的时空描述子标签置1。
第二阶段为线性支持向量机分类器,对加法过滤器过滤后标签仍为1的时空描述子进行二次检测,本方法将训练得到的线性支持向量机模型参数重构成与时空描述子相同维度的卷积核K,其维度为(2l+1)×(2l+1)×|C|,并将卷积核的偏置设为训练得到的线性支持向量机的偏置(如图3所示),从而将支持向量机对每个时空描述子进行串行检测的过程转化为用卷积核K对时空特征融合图STmap在图形处理器上进行并行卷积的过程,快速地得到目标检测置信图,在本实施例中,并行卷积使用Pytorch框架实现。
在步骤五中,本方法对由步骤四中得到的目标检测置信图进行膨胀和连通度检测,将连通面积大于等于最小面积min_area(依据经验设定)且小于最大面积max_area(依据经验设定)的从背景中分割出来,得到最终的检测结果,由于本方法是为检测远距离小目标设计,在本实施例中,最大面积max_area设置为400,最小面积min_area设置为9。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (7)
1.一种串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,包括以下步骤:
步骤一:滤除监控图像中地平线以下的地面背景,得到空域图。
步骤二:分别采用暗目标帧间差分法及形态学底帽法对所述空域图进行处理,得到时间特征图及空间特征图并将二者在深度方向上进行叠加得到时空特征融合图。
步骤三:在训练阶段,根据标注信息在所述时空特征融合图提取正时空描述子和负时空描述子,训练支持向量机。
步骤四:在检测阶段,首先使用加法过滤器滤除所述时空特征融合图中的简单背景,然后将串行的支持向量机分类转化为可并行实现的卷积操作,并在图形处理器(GPU)中对时空特征融合图进行快速检测,得到目标检测置信图。
步骤五:对所述目标检测置信图进行图像后处理得到最终的目标检测图。
2.如权利要求1所述的串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,所述步骤二中,由暗目标帧间差分法生成时间特征图的计算过程如公式(1)所示:
Tmap(x,y,c,k)=max{μ,I(x,y,c,k-1)-I(x,y,c,k)} (1)
其中I(x,y,c,k)表示第k帧视频图像,x=1,2...,M,y=1,2,...,N分别为像素的横纵坐标,M、N分别是图像的宽度和高度,c∈{R,G,B}代表图像的不同颜色通道,Tmap(x,y,c,k)为生成的时间特征图,μ为表征暗目标的预设值;首先第k-1帧图像减去第k帧图像得到残差图像,然后将残差图中小于预设值μ的元素置为μ,得到时间特征图。
7.如权利要求6所述的串级时空特征融合远距离弱小目标视觉检测方法,其特征在于,所述步骤四串级检测机制的第二级检测中,对加法过滤器过滤后标签仍为1的时空描述子进行二次检测,将训练得到的线性支持向量机模型参数重构成与时空描述子相同维度的卷积核K,其维度为(2l+1)×(2l+1)×|C|,并将卷积核的偏置设为训练得到的线性支持向量机的偏置,从而将支持向量机对时空描述子进行串行检测的过程转化为用卷积核K对时空特征融合图STmap在图形处理器(GPU)上进行并行卷积的过程,快速地得到目标检测置信图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911298799.6A CN111160154B (zh) | 2019-12-16 | 2019-12-16 | 串级时空特征融合远距离弱小目标视觉检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911298799.6A CN111160154B (zh) | 2019-12-16 | 2019-12-16 | 串级时空特征融合远距离弱小目标视觉检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111160154A true CN111160154A (zh) | 2020-05-15 |
CN111160154B CN111160154B (zh) | 2023-09-22 |
Family
ID=70557320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911298799.6A Active CN111160154B (zh) | 2019-12-16 | 2019-12-16 | 串级时空特征融合远距离弱小目标视觉检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111160154B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116645580A (zh) * | 2023-06-05 | 2023-08-25 | 北京邮电大学 | 一种基于时空特征差异的红外弱小目标检测方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2519908A1 (en) * | 2003-03-21 | 2005-03-10 | Lockheed Martin Corporation | Target detection improvements using temporal integrations and spatial fusion |
CN108256562A (zh) * | 2018-01-09 | 2018-07-06 | 深圳大学 | 基于弱监督时空级联神经网络的显著目标检测方法及系统 |
CN109800689A (zh) * | 2019-01-04 | 2019-05-24 | 西南交通大学 | 一种基于时空特征融合学习的目标跟踪方法 |
CN110378288A (zh) * | 2019-07-19 | 2019-10-25 | 合肥工业大学 | 一种基于深度学习的多级时空运动目标检测方法 |
-
2019
- 2019-12-16 CN CN201911298799.6A patent/CN111160154B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2519908A1 (en) * | 2003-03-21 | 2005-03-10 | Lockheed Martin Corporation | Target detection improvements using temporal integrations and spatial fusion |
US20070076917A1 (en) * | 2003-03-21 | 2007-04-05 | Lockheed Martin Corporation | Target detection improvements using temporal integrations and spatial fusion |
CN108256562A (zh) * | 2018-01-09 | 2018-07-06 | 深圳大学 | 基于弱监督时空级联神经网络的显著目标检测方法及系统 |
CN109800689A (zh) * | 2019-01-04 | 2019-05-24 | 西南交通大学 | 一种基于时空特征融合学习的目标跟踪方法 |
CN110378288A (zh) * | 2019-07-19 | 2019-10-25 | 合肥工业大学 | 一种基于深度学习的多级时空运动目标检测方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116645580A (zh) * | 2023-06-05 | 2023-08-25 | 北京邮电大学 | 一种基于时空特征差异的红外弱小目标检测方法及装置 |
CN116645580B (zh) * | 2023-06-05 | 2023-11-14 | 北京邮电大学 | 一种基于时空特征差异的弱小目标检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111160154B (zh) | 2023-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111209810B (zh) | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 | |
Rakibe et al. | Background subtraction algorithm based human motion detection | |
Sommer et al. | Flying object detection for automatic UAV recognition | |
CN103077521B (zh) | 一种用于视频监控的感兴趣区域提取方法 | |
CN104933680B (zh) | 一种智能的无人艇视觉系统视频快速海雾去除方法 | |
CN111179318B (zh) | 基于双流法的复杂背景运动小目标检测方法 | |
Sun et al. | Fusion of infrared and visible images for remote detection of low-altitude slow-speed small targets | |
CN109460764A (zh) | 一种结合亮度特征与改进帧间差分法的卫星视频船舶监测方法 | |
CN112446246B (zh) | 一种图像遮挡检测方法及车载终端 | |
CN106887002B (zh) | 一种红外图像序列显著性检测方法 | |
Li et al. | Photo-realistic simulation of road scene for data-driven methods in bad weather | |
CN111553403A (zh) | 基于伪3d卷积神经网络的烟雾检测方法及系统 | |
CN114202646A (zh) | 一种基于深度学习的红外图像吸烟检测方法与系统 | |
Liang et al. | Methods of moving target detection and behavior recognition in intelligent vision monitoring. | |
CN103870847B (zh) | 一种低照度环境下对地监控的运动目标检测方法 | |
CN110751068B (zh) | 基于自适应时空融合的远距离弱小目标视觉检测方法 | |
Chen et al. | Visual depth guided image rain streaks removal via sparse coding | |
Sun et al. | IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes | |
CN105046670A (zh) | 一种图像去雨方法及系统 | |
Miller et al. | Person tracking in UAV video | |
CN111160154A (zh) | 串级时空特征融合远距离弱小目标视觉检测方法 | |
Dong et al. | Adaptive Object Detection and Visibility Improvement in Foggy Image. | |
Wang et al. | An efficient method of shadow elimination based on image region information in HSV color space | |
CN113920089A (zh) | 目标检测方法、装置以及电子控制器 | |
Briese et al. | Deep learning with semi-synthetic training images for detection of non-cooperative UAVs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |