CN111179318B - 基于双流法的复杂背景运动小目标检测方法 - Google Patents

基于双流法的复杂背景运动小目标检测方法 Download PDF

Info

Publication number
CN111179318B
CN111179318B CN201911424737.5A CN201911424737A CN111179318B CN 111179318 B CN111179318 B CN 111179318B CN 201911424737 A CN201911424737 A CN 201911424737A CN 111179318 B CN111179318 B CN 111179318B
Authority
CN
China
Prior art keywords
target
detection
detector
motion
appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911424737.5A
Other languages
English (en)
Other versions
CN111179318A (zh
Inventor
于晋
吴曼佳
吴均峰
史治国
陈积明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201911424737.5A priority Critical patent/CN111179318B/zh
Publication of CN111179318A publication Critical patent/CN111179318A/zh
Application granted granted Critical
Publication of CN111179318B publication Critical patent/CN111179318B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于双流法的复杂背景运动小目标检测方法,该方法包括:1.使用基于深度学习的方法,对单独视频帧图像进行处理,获取空间上的外观特征流,并在此基础上进行目标检测;2.使用帧间差分法,对连续视频帧图像进行处理,获取时间上的运动特征流,并在此基础上进行运动目标检测;3.对1和2在整幅画面中的若干检测结果进行双流融合,获取时空融合置信度;4.结合1中深度学习目标检测器的外观检测置信度,与3中双流融合置信度,给出最终的检测结果。本发明方法在保证检测实时性的同时,有效降低目标漏检率,并抑制了背景对检测的干扰,以实现高召回率、低误检率的复杂背景小目标检测。

Description

基于双流法的复杂背景运动小目标检测方法
技术领域
本发明属于计算机视觉领域,具体而言,涉及一种基于双流法的复杂背景运动小目标检测方法。
背景技术
近年来,随着相关技术的发展,以及低空空域的逐步开放,小型无人机、航模、滑翔机、三角翼等空域目标逐渐增加。虽然这类小型飞行器在航拍、植保、救援、物流等方面带来许多便利,但由于使用这类飞行器的人数越来越多,相关部门监管也尚不到位,因此这类飞行器的“黑飞”“滥飞”现象频发,对公共安全、人身安全、个人隐私带来各种各样的隐患。为应对这类隐患,有必要对侵入特定区域的无人机进行反制。当前,反无人机技术主要分为三类。一是干扰阻断类,主要通过信号干扰、声波干扰等技术来实现。二是直接摧毁类,包括使用激光武器、用无人机反制无人机等,主要应用于军事领域。三是监测控制类,主要通过劫持无线电控制等方式实现。但是实现上述反无人机技术的前提是对入侵的无人机进行有效的检测、识别、跟踪和定位。视觉探测技术的主要优点包括直观,成本低,速度快,精度高。这些优点决定了视觉探测技术是反无人机系统不可或缺的一部分。对目标进行高准确、低误检的检测是反制重要前提。为了给反制留出足够多的时间,应尽可能在较远距离时发现目标。对于使用视觉探测技术来检测复杂背景小目标的场景来说,由于目标距离监控摄像机很远且监测环境复杂,获取的观测目标存在信号弱、成像面积小、形状或纹理特征弱、无固定运动规律等特点,实现这类目标的高准确、低误检、少漏检的检测存在着诸多挑战。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于双流法的复杂背景运动小目标检测方法,在保证检测实时性的同时,有效降低目标漏检率,并抑制背景对检测的干扰,实现高召回率、低误检率的复杂背景小目标检测。
本发明的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
本发明为了实现上述发明目的,提供了一种基于双流法的复杂背景运动小目标检测方法,包括五个步骤,分别是:
步骤一:使用基于深度学习的方法,对单独视频帧图像进行处理,获取空间上的外观特征流,并在此基础上进行目标检测;步骤二:使用帧间差分法,对连续视频帧图像进行处理,获取时间上的运动特征流,并在此基础上进行运动目标检测;步骤三:对步骤一和步骤二在整幅画面中的若干检测结果进行双流融合,通过计算交并比的方法,获取时空融合置信度;步骤四:结合步骤一中深度学习的外观检测置信度,与步骤三中时空融合置信度,根据选取的阈值,给出最终的检测结果。
进一步地,在步骤一中,使用背景鲁棒性强、检测精度较高、实时性能好的深度学习目标检测方法,基于空间上的外观特征流进行目标的检测。对于单一目标的检测,检测过程由公式(1)表示:
A-Locs,A-Confs=A-Detector(Image) (1)
其中,A-Detector表示基于外观特征的目标检测器(Appearance-Detector);A-Locs={a-loc1,a-loc2,……a-locn},表示n个基于外观特征流检出的目标位置(Appearance-Locations);A-Confs={a-conf1,a-conf2,……a-confn},表示这n目标的外观检测置信度(Appearance-Confidences)。
可选地,使用YOLO目标检测器,将目标检测作为回归问题进行建模;所述YOLO目标检测器使用神经网络提取三个尺度的特征,在每一尺度特征上预测目标的边界框位置和类别置信度,实现端到端的检测。
进一步地,在步骤二中,对连续两帧使用帧间差分方法,提取运动区域,得到二值图,使用形态学滤波进行去噪,最后使用连通度分析获取目标轮廓。这一基于时间上的运动特征流的运动目标检测过程,由公式(2)表示:
M-Locs=M-Detector(Image,pre_Image) (2)
其中,M-Detector表示基于运动信息的目标检测器(Motion-Detector);M-Locs={m-loc1,m-loc2,……m-locm},表示m个基于运动特征流检出的目标位置(Motion-Locations)。
进一步地,在步骤三中,将步骤一得到的n个目标依次与步骤二得到的m个目标比较,获取步骤一得到的n个目标的时空融合置信度F-Confs(Fusion-Confidences),其中F-Confs={f-conf1,f-conf2,……f-confn},f-confk(k=1,2……n)的计算由公式(3)表示:
f-confk=max(IoU(a-lock,m-loc1),IoU(a-lock,m-loc2),
……IoU(a-lock,m-locm)) (3)
其中,IoU为交并比(Intersection over Union),IoU(A,B)表示A、B的重合程度,本方法使用这一指标来表征时空融合置信度。
进一步地,在步骤四中,结合步骤一中深度学习的外观检测置信度A-Confs,与步骤三中时空融合置信度F-Confs,根据选取的阈值conf_thresh,对基于外观特征检测到的目标进行重确认,得到最终的检测结果Class={class1,class2,……classn},分别对应A-Locs中位置目标的类别,其中,classk由公式(4)计算:
Figure BDA0002353256250000031
其中,类别为1表示此目标是需检出目标,为0表示这一目标是被误检的背景。
本发明的有益效果在于:
1.使用了双流法的思想,同时使用基于外观特征的深度学习目标检测器,以及基于运动特征的运动目标检测器,在保证实时性的前提下,充分利用了运动小目标的表观及运动特征,进行运动小目标的检测;
2.通过计算双流检测结果的交并比,来获取所有检测结果的时空融合置信度,有效融合了双流信息;
3.结合外观检测置信度和时空融合置信度,给出方法的最终检测结果,在不增加误检的前提下,显著降低了漏检率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了基于双流法的复杂背景运动小目标检测方法流程图;
图2示出了基于双流法的复杂背景运动小目标检测方法的可视化效果图;
图3示出了双流融合及目标类别重确认的流程图;
图4是YOLO目标检测器网络结构图;
图5是基于外观特征的深度学习目标检测器的检测效果图(低置信阈值);
图6是基于外观特征的深度学习目标检测器的检测效果图(高置信阈值);
图7是由帧间差分法得到的运动特征及运动目标检测器的检测效果图;
图8是本方法的最终检测效果图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
下面结合附图和实施例对本发明作进一步说明。
图1示出了基于双流法的复杂背景运动小目标检测方法流程图。本方法的输入为连续的视频帧图像,输出为目标位置与目标类别。首先,使用基于深度学习的目标检测器,对单独视频帧图像进行处理,获取空间上的外观特征流,并在此基础上进行目标检测;同时,使用帧间差分法,对连续视频帧图像进行处理,获取时间上的运动特征流,并在此基础上进行去噪、连通度分析等,以实现运动目标检测;对以上两部分得到的若干检测结果,进行双流融合与目标类别重确认,给出最终的目标类别。
图2示出了基于双流法的复杂背景运动小目标检测方法的可视化效果图。从效果图中可以看出,基于运动特征的目标检测器增强了目标的特征,使得仅使用深度学习目标检测器无法检出的目标,可以被检出。
图3示出了双流融合及目标类别重确认的流程图。这一部分即为图1的“双流融合&目标类别重确认”部分。具体而言:
在“基于外观特征的目标检测器”模块,使用背景鲁棒性强、检测精度较高、实时性能好的深度学习目标检测方法,基于空间上的外观特征流进行目标的检测。对于单一目标的检测,检测结果由公式(1)表示:
A-Locs,A-Confs=A-Detector(Image) (1)
其中,A-Detector表示基于外观特征的目标检测器(Appearance-Detector);A-Locs={a-loc1,a-loc2,……a-locn},表示n个基于外观特征流检出的目标位置(Appearance-Locations);A-Confs={a-conf1,a-conf2,……a-confn},表示这n目标的外观检测置信度(Appearance-Confidences)。
在一些实施例中,可以使用YOLO目标检测器,其全称为“you only look once”,是一种基于卷积神经网络的检测算法,将目标检测作为回归问题进行建模。YOLO网络结构如图4,它使用神经网络提取三个尺度的特征,在每一尺度特征上预测目标的边界框位置和类别置信度,实现端到端的检测,具有极快的检测速度。
在“基于运动特征的目标检测器”模块,对连续两帧使用帧间差分方法,提取运动区域,得到二值图,使用形态学滤波进行去噪,最后使用连通度分析获取目标轮廓。这一基于时间上的运动特征流的运动目标检测结果,由公式(2)表示:
M-Locs=M-Detector(Image,pre_Image) (2)
其中,M-Detector表示基于运动信息的目标检测器(Motion-Detector);M-Locs={m-loc1,m-loc2,……m-locm},表示m个基于运动特征流检出的目标位置(Motion-Locations)。
在“双流融合”模块,将基于外观特征的目标检测器得到的n个目标依次与基于外观特征的目标检测器得到的m个目标比较,获取n个目标的时空融合置信度F-Confs(Fusion-Confidences),其中F-Confs={f-conf1,f-conf2,……f-confn},f-confk(k=1,2……n)的计算由公式(3)表示:
f-confk=max(IoU(a-lock,m-loc1),IoU(a-lock,m-loc2),
……IoU(a-lock,m-locm)) (3)
其中,IoU为交并比(Intersection over Union),IoU(A,B)表示A、B的重合程度,本方法使用这一指标来表征时空融合置信度。
在“目标类别重确认”模块中,结合外观检测置信度A-Confs,与时空融合置信度F-Confs,根据选取的阈值conf_thresh,对基于外观特征检测到的目标进行重确认,得到最终的检测结果Class={class1,class2,……classn},分别对应A-Locs中位置目标的类别,其中,classk由公式(4)计算:
Figure BDA0002353256250000061
其中,类别为1表示此目标是需检出目标,为0表示这一目标是被误检的背景。此外,阈值conf_thresh的取值范围介于0到1之间,需要根据应用场景依经验选取。例如,当应用于安防领域时,需要降低漏检率,此时应设置较低的阈值;当检测范围较近或目标较大,此时外观检测器置信度较高,可以选取较高的阈值。
图5是基于外观特征的深度学习目标检测器的检测效果图(低置信阈值)。这一效果图中,使用深度学习目标检测器得到目标,并使用低置信阈值进行筛选,显示在画面中。可以看到,由于目标的外观特征不够显著,使得仅依靠外观特征进行检测,难以将目标与背景区分开来。若选取低置信阈值进行筛选,则会产生误检。
图6是基于外观特征的深度学习目标检测器的检测效果图(高置信阈值)。这一效果图中,对于与图5相同的视频帧,使用深度学习目标检测器得到目标,并使用高置信阈值进行筛选,显示在画面中。可以看到,由于目标的外观特征不够显著,使得仅依靠外观特征进行检测,难以将目标与背景区分开来。若选取高置信阈值进行筛选,在去掉误检的同时,也容易导致目标无法被检出。
图7是由帧间差分法得到的运动特征及运动目标检测器的检测效果图。这一运动特征是由相邻两帧图像相减,得到的残差图像,图中黑色部分表示静止区域,白色部分表示存在运动的区域。基于运动特征,使用形态学滤波进行去噪,再进一步使用连通度分析获取目标轮廓。可以看到,被提取出的区域不仅有目标,还有大量的背景噪声。
图8是本方法的最终检测效果图。将基于外观特征的目标检测器和基于运动特征的目标检测器得到的结果进行双流融合,并进行目标类别重确认。通过设置合理的置信阈值,去掉类别确认为背景的区域,保留类别确认为目标的区域,在保证检测实时性的同时,有效降低目标漏检率,并抑制了背景对检测的干扰,实现高召回率、低误检率的复杂背景小目标检测。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (2)

1.一种基于双流法的复杂背景运动小目标检测方法,其特征在于,包括以下步骤:
步骤一:使用深度学习目标检测方法,对单独视频帧图像进行处理,获取空间上的外观特征流,并在此基础上进行目标检测;对于单帧目标的检测,检测过程由公式(1)表示:
A-Locs,A-Confs=A-Detector(Image) (1)
其中,A-Detector表示基于外观特征的目标检测器(Appearance-Detector);A-Locs={a-loc1,a-loc2,……a-locn},表示n个基于外观特征流检出的目标位置(Appearance-Locations);A-Confs={a-conf1,a-conf2,……a-confn},表示这n个目标的外观检测置信度(Appearance-Confidences);
步骤二:使用帧间差分法,对连续视频帧图像进行处理,获取时间上的运动特征流,并在此基础上进行运动目标检测,具体为:
对连续两帧使用帧间差分方法,提取运动区域,得到二值图,使用形态学滤波进行去噪,最后使用连通度分析获取目标轮廓;这一基于时间上的运动特征流的运动目标检测过程,由公式(2)表示:
M-Locs=M-Detector(Image,pre_Image) (2)
其中,M-Detector表示基于运动信息的目标检测器(Motion-Detector);M-Locs={m-loc1,m-loc2,……m-locm},表示m个基于运动特征流检出的目标位置(Motion-Locations);
步骤三:对步骤一和步骤二在整幅画面中的若干检测结果进行双流融合,通过计算交并比的方法,获取时空融合置信度,具体为:
将步骤一得到的n个目标依次与步骤二得到的m个目标比较,获取步骤一得到的n个目标的时空融合置信度F-Confs(Fusion-Confidences),其中F-Confs={f-conf1,f-conf2,……f-confn},f-confk,k=1,2……n的计算由公式(3)表示:
f-confk=max(IoU(a-lock,m-loc1),IoU(a-lock,m-loc2),……IoU(a-lock,m-locm)) (3)
其中,IoU为交并比(Intersection over Union),IoU(A,B)表示A、B的重合程度;
步骤四:结合步骤一中深度学习的外观检测置信度A-Confs,与步骤三中时空融合置信度F-Confs,给出最终的检测结果,具体为:
根据选取的阈值conf_thresh,对基于外观特征检测到的目标进行重确认,得到最终的检测结果Class={class1,class2,……classn},分别对应A-Locs中位置目标的类别,其中,classk,k=1,2……n由公式(4)计算:
Figure FDA0003616636730000021
其中,类别为1表示这一目标是需检出目标,类别为0表示这一目标是误检为需检出目标的背景。
2.根据权利要求1所述的基于双流法的复杂背景运动小目标检测方法,其特征在于,所述的步骤一中,使用YOLO目标检测器,将目标检测作为回归问题进行建模;所述YOLO目标检测器使用神经网络提取三个尺度的特征,在每一尺度特征上预测目标的边界框位置和类别置信度,实现端到端的检测。
CN201911424737.5A 2019-12-31 2019-12-31 基于双流法的复杂背景运动小目标检测方法 Active CN111179318B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911424737.5A CN111179318B (zh) 2019-12-31 2019-12-31 基于双流法的复杂背景运动小目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911424737.5A CN111179318B (zh) 2019-12-31 2019-12-31 基于双流法的复杂背景运动小目标检测方法

Publications (2)

Publication Number Publication Date
CN111179318A CN111179318A (zh) 2020-05-19
CN111179318B true CN111179318B (zh) 2022-07-12

Family

ID=70649158

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911424737.5A Active CN111179318B (zh) 2019-12-31 2019-12-31 基于双流法的复杂背景运动小目标检测方法

Country Status (1)

Country Link
CN (1) CN111179318B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111738681B (zh) * 2020-06-17 2021-09-03 浙江大学 一种基于深度学习及智能插座的消毒行为智能判定系统及方法
CN112116557B (zh) * 2020-08-12 2022-02-22 西安交通大学 一种射线图像焊缝区域缺陷探测方法、存储介质及设备
CN112364865B (zh) * 2020-11-12 2022-09-23 郑州大学 一种复杂场景中运动小目标的检测方法
CN112686107A (zh) * 2020-12-21 2021-04-20 中国铁道科学研究院集团有限公司电子计算技术研究所 隧道入侵物体检测方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109360226A (zh) * 2018-10-17 2019-02-19 武汉大学 一种基于时间序列多特征融合的多目标跟踪方法
CN109767383A (zh) * 2017-11-09 2019-05-17 三星电子株式会社 用于使用卷积神经网络的视频超分辨率的方法和设备
CN110555868A (zh) * 2019-05-31 2019-12-10 南京航空航天大学 一种复杂地面背景下运动小目标检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10482572B2 (en) * 2017-10-06 2019-11-19 Ford Global Technologies, Llc Fusion of motion and appearance features for object detection and trajectory prediction
TWI666595B (zh) * 2018-02-26 2019-07-21 財團法人工業技術研究院 物件標示系統及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109767383A (zh) * 2017-11-09 2019-05-17 三星电子株式会社 用于使用卷积神经网络的视频超分辨率的方法和设备
CN109360226A (zh) * 2018-10-17 2019-02-19 武汉大学 一种基于时间序列多特征融合的多目标跟踪方法
CN110555868A (zh) * 2019-05-31 2019-12-10 南京航空航天大学 一种复杂地面背景下运动小目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Real-Time Drone Detection Using Deep;Manjia Wu 等;《Springlink》;20181012;第251卷;全文 *

Also Published As

Publication number Publication date
CN111179318A (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN111179318B (zh) 基于双流法的复杂背景运动小目标检测方法
CN107016690B (zh) 基于视觉的无人机入侵检测与识别系统及方法
KR101995107B1 (ko) 딥 러닝을 이용한 인공지능 기반 영상 감시 방법 및 시스템
Çetin et al. Video fire detection–review
CN104378582B (zh) 一种基于ptz摄像机巡航的智能视频分析系统及方法
JP5325899B2 (ja) 侵入警報ビデオ処理装置
Santosh et al. Tracking multiple moving objects using gaussian mixture model
Kumar et al. Study of robust and intelligent surveillance in visible and multi-modal framework
Dang-Ngoc et al. Aerial forest fire surveillance-evaluation of forest fire detection model using aerial videos
IL204089A (en) A method and system for detection and tracking based on frequency multiplicity and multiplicity
CN113223059A (zh) 基于超分辨率特征增强的弱小空域目标检测方法
Avula et al. A novel forest fire detection system using fuzzy entropy optimized thresholding and STN-based CNN
Xie et al. Adaptive switching spatial-temporal fusion detection for remote flying drones
Sharma Human detection and tracking using background subtraction in visual surveillance
KR102514301B1 (ko) 이종 센서 융합을 이용한 행동 분석 장치
Miller et al. Person tracking in UAV video
Chan Maritime filtering for images and videos
CN110751068B (zh) 基于自适应时空融合的远距离弱小目标视觉检测方法
Buemi et al. Efficient fire detection using fuzzy logic
CN112800918A (zh) 一种非法运动目标的身份识别方法及装置
Li et al. Fast Forest Fire Detection and Segmentation Application for UAV-Assisted Mobile Edge Computing System
Buch et al. Local feature saliency classifier for real-time intrusion monitoring
Kaur Background subtraction in video surveillance
CN111160154B (zh) 串级时空特征融合远距离弱小目标视觉检测方法
CN114612850A (zh) 高空抛物检测方法、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant