CN111179318A - 基于双流法的复杂背景运动小目标检测方法 - Google Patents
基于双流法的复杂背景运动小目标检测方法 Download PDFInfo
- Publication number
- CN111179318A CN111179318A CN201911424737.5A CN201911424737A CN111179318A CN 111179318 A CN111179318 A CN 111179318A CN 201911424737 A CN201911424737 A CN 201911424737A CN 111179318 A CN111179318 A CN 111179318A
- Authority
- CN
- China
- Prior art keywords
- target
- detection
- appearance
- detector
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 93
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000004927 fusion Effects 0.000 claims abstract description 25
- 238000013135 deep learning Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 8
- 238000004458 analytical method Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 7
- 230000009977 dual effect Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000012216 screening Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于双流法的复杂背景运动小目标检测方法,该方法包括:1.使用基于深度学习的方法,对单独视频帧图像进行处理,获取空间上的外观特征流,并在此基础上进行目标检测;2.使用帧间差分法,对连续视频帧图像进行处理,获取时间上的运动特征流,并在此基础上进行运动目标检测;3.对1和2在整幅画面中的若干检测结果进行双流融合,获取时空融合置信度;4.结合1中深度学习目标检测器的外观检测置信度,与3中双流融合置信度,给出最终的检测结果。本发明方法在保证检测实时性的同时,有效降低目标漏检率,并抑制了背景对检测的干扰,以实现高召回率、低误检率的复杂背景小目标检测。
Description
技术领域
本发明属于计算机视觉领域,具体而言,涉及一种基于双流法的复杂背景运动小目标检测方法。
背景技术
近年来,随着相关技术的发展,以及低空空域的逐步开放,小型无人机、航模、滑翔机、三角翼等空域目标逐渐增加。虽然这类小型飞行器在航拍、植保、救援、物流等方面带来许多便利,但由于使用这类飞行器的人数越来越多,相关部门监管也尚不到位,因此这类飞行器的“黑飞”“滥飞”现象频发,对公共安全、人身安全、个人隐私带来各种各样的隐患。为应对这类隐患,有必要对侵入特定区域的无人机进行反制。当前,反无人机技术主要分为三类。一是干扰阻断类,主要通过信号干扰、声波干扰等技术来实现。二是直接摧毁类,包括使用激光武器、用无人机反制无人机等,主要应用于军事领域。三是监测控制类,主要通过劫持无线电控制等方式实现。但是实现上述反无人机技术的前提是对入侵的无人机进行有效的检测、识别、跟踪和定位。视觉探测技术的主要优点包括直观,成本低,速度快,精度高。这些优点决定了视觉探测技术是反无人机系统不可或缺的一部分。对目标进行高准确、低误检的检测是反制重要前提。为了给反制留出足够多的时间,应尽可能在较远距离时发现目标。对于使用视觉探测技术来检测复杂背景小目标的场景来说,由于目标距离监控摄像机很远且监测环境复杂,获取的观测目标存在信号弱、成像面积小、形状或纹理特征弱、无固定运动规律等特点,实现这类目标的高准确、低误检、少漏检的检测存在着诸多挑战。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于双流法的复杂背景运动小目标检测方法,在保证检测实时性的同时,有效降低目标漏检率,并抑制背景对检测的干扰,实现高召回率、低误检率的复杂背景小目标检测。
本发明的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
本发明为了实现上述发明目的,提供了一种基于双流法的复杂背景运动小目标检测方法,包括五个步骤,分别是:
步骤一:使用基于深度学习的方法,对单独视频帧图像进行处理,获取空间上的外观特征流,并在此基础上进行目标检测;步骤二:使用帧间差分法,对连续视频帧图像进行处理,获取时间上的运动特征流,并在此基础上进行运动目标检测;步骤三:对步骤一和步骤二在整幅画面中的若干检测结果进行双流融合,通过计算交并比的方法,获取时空融合置信度;步骤四:结合步骤一中深度学习的外观检测置信度,与步骤三中时空融合置信度,根据选取的阈值,给出最终的检测结果。
进一步地,在步骤一中,使用背景鲁棒性强、检测精度较高、实时性能好的深度学习目标检测方法,基于空间上的外观特征流进行目标的检测。对于单一目标的检测,检测过程由公式(1)表示:
A-Locs,A-Confs=A-Detector(Image) (1)
其中,A-Detector表示基于外观特征的目标检测器(Appearance-Detector);A-Locs={a-loc1,a-loc2,……a-locn},表示n个基于外观特征流检出的目标位置(Appearance-Locations);A-Confs={a-conf1,a-conf2,……a-confn},表示这n目标的外观检测置信度(Appearance-Confidences)。
可选地,使用YOLO目标检测器,将目标检测作为回归问题进行建模;所述YOLO目标检测器使用神经网络提取三个尺度的特征,在每一尺度特征上预测目标的边界框位置和类别置信度,实现端到端的检测。
进一步地,在步骤二中,对连续两帧使用帧间差分方法,提取运动区域,得到二值图,使用形态学滤波进行去噪,最后使用连通度分析获取目标轮廓。这一基于时间上的运动特征流的运动目标检测过程,由公式(2)表示:
M-Locs=M-Detector(Image,pre_Image) (2)
其中,M-Detector表示基于运动信息的目标检测器(Motion-Detector);M-Locs={m-loc1,m-loc2,……m-locm},表示m个基于运动特征流检出的目标位置(Motion-Locations)。
进一步地,在步骤三中,将步骤一得到的n个目标依次与步骤二得到的m个目标比较,获取步骤一得到的n个目标的时空融合置信度F-Confs(Fusion-Confidences),其中F-Confs={f-conf1,f-conf2,……f-confn},f-confk(k=1,2……n)的计算由公式(3)表示:
f-confk=max(IoU(a-lock,m-loc1),IoU(a-lock,m-loc2),
……IoU(a-lock,m-locm)) (3)
其中,IoU为交并比(Intersection over Union),IoU(A,B)表示A、B的重合程度,本方法使用这一指标来表征时空融合置信度。
进一步地,在步骤四中,结合步骤一中深度学习的外观检测置信度A-Confs,与步骤三中时空融合置信度F-Confs,根据选取的阈值conf_thresh,对基于外观特征检测到的目标进行重确认,得到最终的检测结果Class={class1,class2,……classn},分别对应A-Locs中位置目标的类别,其中,classk由公式(4)计算:
其中,类别为1表示此目标是需检出目标,为0表示这一目标是被误检的背景。
本发明的有益效果在于:
1.使用了双流法的思想,同时使用基于外观特征的深度学习目标检测器,以及基于运动特征的运动目标检测器,在保证实时性的前提下,充分利用了运动小目标的表观及运动特征,进行运动小目标的检测;
2.通过计算双流检测结果的交并比,来获取所有检测结果的时空融合置信度,有效融合了双流信息;
3.结合外观检测置信度和时空融合置信度,给出方法的最终检测结果,在不增加误检的前提下,显著降低了漏检率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了基于双流法的复杂背景运动小目标检测方法流程图;
图2示出了基于双流法的复杂背景运动小目标检测方法的可视化效果图;
图3示出了双流融合及目标类别重确认的流程图;
图4是YOLO目标检测器网络结构图;
图5是基于外观特征的深度学习目标检测器的检测效果图(低置信阈值);
图6是基于外观特征的深度学习目标检测器的检测效果图(高置信阈值);
图7是由帧间差分法得到的运动特征及运动目标检测器的检测效果图;
图8是本方法的最终检测效果图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
下面结合附图和实施例对本发明作进一步说明。
图1示出了基于双流法的复杂背景运动小目标检测方法流程图。本方法的输入为连续的视频帧图像,输出为目标位置与目标类别。首先,使用基于深度学习的目标检测器,对单独视频帧图像进行处理,获取空间上的外观特征流,并在此基础上进行目标检测;同时,使用帧间差分法,对连续视频帧图像进行处理,获取时间上的运动特征流,并在此基础上进行去噪、连通度分析等,以实现运动目标检测;对以上两部分得到的若干检测结果,进行双流融合与目标类别重确认,给出最终的目标类别。
图2示出了基于双流法的复杂背景运动小目标检测方法的可视化效果图。从效果图中可以看出,基于运动特征的目标检测器增强了目标的特征,使得仅使用深度学习目标检测器无法检出的目标,可以被检出。
图3示出了双流融合及目标类别重确认的流程图。这一部分即为图1的“双流融合&目标类别重确认”部分。具体而言:
在“基于外观特征的目标检测器”模块,使用背景鲁棒性强、检测精度较高、实时性能好的深度学习目标检测方法,基于空间上的外观特征流进行目标的检测。对于单一目标的检测,检测结果由公式(1)表示:
A-Locs,A-Confs=A-Detector(Image) (1)
其中,A-Detector表示基于外观特征的目标检测器(Appearance-Detector);A-Locs={a-loc1,a-loc2,……a-locn},表示n个基于外观特征流检出的目标位置(Appearance-Locations);A-Confs={a-conf1,a-conf2,……a-confn},表示这n目标的外观检测置信度(Appearance-Confidences)。
在一些实施例中,可以使用YOLO目标检测器,其全称为“you only look once”,是一种基于卷积神经网络的检测算法,将目标检测作为回归问题进行建模。YOLO网络结构如图4,它使用神经网络提取三个尺度的特征,在每一尺度特征上预测目标的边界框位置和类别置信度,实现端到端的检测,具有极快的检测速度。
在“基于运动特征的目标检测器”模块,对连续两帧使用帧间差分方法,提取运动区域,得到二值图,使用形态学滤波进行去噪,最后使用连通度分析获取目标轮廓。这一基于时间上的运动特征流的运动目标检测结果,由公式(2)表示:
M-Locs=M-Detector(Image,pre_Image) (2)
其中,M-Detector表示基于运动信息的目标检测器(Motion-Detector);M-Locs={m-loc1,m-loc2,……m-locm},表示m个基于运动特征流检出的目标位置(Motion-Locations)。
在“双流融合”模块,将基于外观特征的目标检测器得到的n个目标依次与基于外观特征的目标检测器得到的m个目标比较,获取n个目标的时空融合置信度F-Confs(Fusion-Confidences),其中F-Confs={f-conf1,f-conf2,……f-confn},f-confk(k=1,2……n)的计算由公式(3)表示:
f-confk=max(IoU(a-lock,m-loc1),IoU(a-lock,m-loc2),
……IoU(a-lock,m-locm)) (3)
其中,IoU为交并比(Intersection over Union),IoU(A,B)表示A、B的重合程度,本方法使用这一指标来表征时空融合置信度。
在“目标类别重确认”模块中,结合外观检测置信度A-Confs,与时空融合置信度F-Confs,根据选取的阈值conf_thresh,对基于外观特征检测到的目标进行重确认,得到最终的检测结果Class={class1,class2,……classn},分别对应A-Locs中位置目标的类别,其中,classk由公式(4)计算:
其中,类别为1表示此目标是需检出目标,为0表示这一目标是被误检的背景。此外,阈值conf_thresh的取值范围介于0到1之间,需要根据应用场景依经验选取。例如,当应用于安防领域时,需要降低漏检率,此时应设置较低的阈值;当检测范围较近或目标较大,此时外观检测器置信度较高,可以选取较高的阈值。
图5是基于外观特征的深度学习目标检测器的检测效果图(低置信阈值)。这一效果图中,使用深度学习目标检测器得到目标,并使用低置信阈值进行筛选,显示在画面中。可以看到,由于目标的外观特征不够显著,使得仅依靠外观特征进行检测,难以将目标与背景区分开来。若选取低置信阈值进行筛选,则会产生误检。
图6是基于外观特征的深度学习目标检测器的检测效果图(高置信阈值)。这一效果图中,对于与图5相同的视频帧,使用深度学习目标检测器得到目标,并使用高置信阈值进行筛选,显示在画面中。可以看到,由于目标的外观特征不够显著,使得仅依靠外观特征进行检测,难以将目标与背景区分开来。若选取高置信阈值进行筛选,在去掉误检的同时,也容易导致目标无法被检出。
图7是由帧间差分法得到的运动特征及运动目标检测器的检测效果图。这一运动特征是由相邻两帧图像相减,得到的残差图像,图中黑色部分表示静止区域,白色部分表示存在运动的区域。基于运动特征,使用形态学滤波进行去噪,再进一步使用连通度分析获取目标轮廓。可以看到,被提取出的区域不仅有目标,还有大量的背景噪声。
图8是本方法的最终检测效果图。将基于外观特征的目标检测器和基于运动特征的目标检测器得到的结果进行双流融合,并进行目标类别重确认。通过设置合理的置信阈值,去掉类别确认为背景的区域,保留类别确认为目标的区域,在保证检测实时性的同时,有效降低目标漏检率,并抑制了背景对检测的干扰,实现高召回率、低误检率的复杂背景小目标检测。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (6)
1.一种基于双流法的复杂背景运动小目标检测方法,其特征在于,包括以下步骤:
步骤一:使用基于深度学习的方法,对单独视频帧图像进行处理,获取空间上的外观特征流,并在此基础上进行目标检测;
步骤二:使用帧间差分法,对连续视频帧图像进行处理,获取时间上的运动特征流,并在此基础上进行运动目标检测;
步骤三:对步骤一和步骤二在整幅画面中的若干检测结果进行双流融合,通过计算交并比的方法,获取时空融合置信度;
步骤四:结合步骤一中深度学习的外观检测置信度,与步骤三中时空融合置信度,给出最终的检测结果。
2.根据权利要求1所述的基于双流法的复杂背景运动小目标检测方法,其特征在于,所述的步骤一中,使用深度学习目标检测方法,基于空间上的外观特征流进行目标的检测;对于单帧目标的检测,检测过程由公式(1)表示:
A-Locs,A-Confs=A-Detector(Image) (1)
其中,A-Detector表示基于外观特征的目标检测器(Appearance-Detector);A-Locs={a-loc1,a-loc2,……a-locn},表示n个基于外观特征流检出的目标位置(Appearance-Locations);A-Confs={a-conf1,a-conf2,……a-confn},表示这n目标的外观检测置信度(Appearance-Confidences)。
3.根据权利要求2所述的基于双流法的复杂背景运动小目标检测方法,其特征在于,所述的步骤一中,使用YOLO目标检测器,将目标检测作为回归问题进行建模;所述YOLO目标检测器使用神经网络提取三个尺度的特征,在每一尺度特征上预测目标的边界框位置和类别置信度,实现端到端的检测。
4.根据权利要求1所述的基于双流法的复杂背景运动小目标检测方法,其特征在于,所述的步骤二中,对连续两帧使用帧间差分方法,提取运动区域,得到二值图,使用形态学滤波进行去噪,最后使用连通度分析获取目标轮廓;这一基于时间上的运动特征流的运动目标检测过程,由公式(2)表示:
M-Locs=M-Detector(Image,pre_Image) (2)
其中,M-Detector表示基于运动信息的目标检测器(Motion-Detector);M-Locs={m-loc1,m-loc2,……m-locm},表示m个基于运动特征流检出的目标位置(Motion-Locations)。
5.根据权利要求1所述的基于双流法的复杂背景运动小目标检测方法,其特征在于,在所述的步骤三中,将步骤一得到的n个目标依次与步骤二得到的m个目标比较,获取步骤一得到的n个目标的时空融合置信度F-Confs(Fusion-Confidences),其中F-Confs={f-conf1,f-conf2,……f-confn},f-confk(k=1,2……n)的计算由公式(3)表示:
f-confk=max(IoU(a-lock,m-loc1),IoU(a-lock,m-loc2),……IoU(a-lock,m-locm)) (3)
其中,IoU为交并比(Intersection over Union),IoU(A,B)表示A、B的重合程度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911424737.5A CN111179318B (zh) | 2019-12-31 | 2019-12-31 | 基于双流法的复杂背景运动小目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911424737.5A CN111179318B (zh) | 2019-12-31 | 2019-12-31 | 基于双流法的复杂背景运动小目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111179318A true CN111179318A (zh) | 2020-05-19 |
CN111179318B CN111179318B (zh) | 2022-07-12 |
Family
ID=70649158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911424737.5A Active CN111179318B (zh) | 2019-12-31 | 2019-12-31 | 基于双流法的复杂背景运动小目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111179318B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111738681A (zh) * | 2020-06-17 | 2020-10-02 | 浙江大学 | 一种基于深度学习及智能插座的消毒行为智能判定系统及方法 |
CN112116557A (zh) * | 2020-08-12 | 2020-12-22 | 西安交通大学 | 一种射线图像焊缝区域缺陷探测方法、存储介质及设备 |
CN112364865A (zh) * | 2020-11-12 | 2021-02-12 | 郑州大学 | 一种复杂场景中运动小目标的检测方法 |
CN112686107A (zh) * | 2020-12-21 | 2021-04-20 | 中国铁道科学研究院集团有限公司电子计算技术研究所 | 隧道入侵物体检测方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109360226A (zh) * | 2018-10-17 | 2019-02-19 | 武汉大学 | 一种基于时间序列多特征融合的多目标跟踪方法 |
US20190108613A1 (en) * | 2017-10-06 | 2019-04-11 | Ford Global Technologies, Llc | Fusion Of Motion And Appearance Features For Object Detection And Trajectory Prediction |
CN109767383A (zh) * | 2017-11-09 | 2019-05-17 | 三星电子株式会社 | 用于使用卷积神经网络的视频超分辨率的方法和设备 |
US20190266439A1 (en) * | 2018-02-26 | 2019-08-29 | Industrial Technology Research Institute | System and method for object labeling |
CN110555868A (zh) * | 2019-05-31 | 2019-12-10 | 南京航空航天大学 | 一种复杂地面背景下运动小目标检测方法 |
-
2019
- 2019-12-31 CN CN201911424737.5A patent/CN111179318B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190108613A1 (en) * | 2017-10-06 | 2019-04-11 | Ford Global Technologies, Llc | Fusion Of Motion And Appearance Features For Object Detection And Trajectory Prediction |
CN109767383A (zh) * | 2017-11-09 | 2019-05-17 | 三星电子株式会社 | 用于使用卷积神经网络的视频超分辨率的方法和设备 |
US20190266439A1 (en) * | 2018-02-26 | 2019-08-29 | Industrial Technology Research Institute | System and method for object labeling |
CN109360226A (zh) * | 2018-10-17 | 2019-02-19 | 武汉大学 | 一种基于时间序列多特征融合的多目标跟踪方法 |
CN110555868A (zh) * | 2019-05-31 | 2019-12-10 | 南京航空航天大学 | 一种复杂地面背景下运动小目标检测方法 |
Non-Patent Citations (1)
Title |
---|
MANJIA WU 等: "Real-Time Drone Detection Using Deep", 《SPRINGLINK》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111738681A (zh) * | 2020-06-17 | 2020-10-02 | 浙江大学 | 一种基于深度学习及智能插座的消毒行为智能判定系统及方法 |
CN111738681B (zh) * | 2020-06-17 | 2021-09-03 | 浙江大学 | 一种基于深度学习及智能插座的消毒行为智能判定系统及方法 |
CN112116557A (zh) * | 2020-08-12 | 2020-12-22 | 西安交通大学 | 一种射线图像焊缝区域缺陷探测方法、存储介质及设备 |
CN112116557B (zh) * | 2020-08-12 | 2022-02-22 | 西安交通大学 | 一种射线图像焊缝区域缺陷探测方法、存储介质及设备 |
CN112364865A (zh) * | 2020-11-12 | 2021-02-12 | 郑州大学 | 一种复杂场景中运动小目标的检测方法 |
CN112686107A (zh) * | 2020-12-21 | 2021-04-20 | 中国铁道科学研究院集团有限公司电子计算技术研究所 | 隧道入侵物体检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111179318B (zh) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111179318B (zh) | 基于双流法的复杂背景运动小目标检测方法 | |
CN107016690B (zh) | 基于视觉的无人机入侵检测与识别系统及方法 | |
Çetin et al. | Video fire detection–review | |
CN104378582B (zh) | 一种基于ptz摄像机巡航的智能视频分析系统及方法 | |
JP5325899B2 (ja) | 侵入警報ビデオ処理装置 | |
Piccinini et al. | Reliable smoke detection in the domains of image energy and color | |
Dang-Ngoc et al. | Aerial forest fire surveillance-evaluation of forest fire detection model using aerial videos | |
Kumar et al. | Study of robust and intelligent surveillance in visible and multi-modal framework | |
CN112068111A (zh) | 一种基于多传感器信息融合的无人机目标侦测方法 | |
IL204089A (en) | A method and system for detection and tracking based on frequency multiplicity and multiplicity | |
Liu et al. | Optical flow and principal component analysis-based motion detection in outdoor videos | |
CN113223059A (zh) | 基于超分辨率特征增强的弱小空域目标检测方法 | |
CN103020992A (zh) | 一种基于运动颜色关联的视频图像显著性检测方法 | |
Huerta et al. | Exploiting multiple cues in motion segmentation based on background subtraction | |
Sharma | Human detection and tracking using background subtraction in visual surveillance | |
Xie et al. | Adaptive switching spatial-temporal fusion detection for remote flying drones | |
KR102514301B1 (ko) | 이종 센서 융합을 이용한 행동 분석 장치 | |
Liu et al. | Small target detection from infrared remote sensing images using local adaptive thresholding | |
Liang et al. | Methods of moving target detection and behavior recognition in intelligent vision monitoring. | |
CN114708566A (zh) | 一种基于改进YOLOv4的自动驾驶目标检测方法 | |
US20130027550A1 (en) | Method and device for video surveillance | |
Roy et al. | A comprehensive survey on computer vision based approaches for moving object detection | |
Chan | Maritime filtering for images and videos | |
CN110751068B (zh) | 基于自适应时空融合的远距离弱小目标视觉检测方法 | |
CN111160154B (zh) | 串级时空特征融合远距离弱小目标视觉检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |