CN112150512A - 融合背景差分法和聚类法的弹着点定位方法 - Google Patents

融合背景差分法和聚类法的弹着点定位方法 Download PDF

Info

Publication number
CN112150512A
CN112150512A CN202011057623.4A CN202011057623A CN112150512A CN 112150512 A CN112150512 A CN 112150512A CN 202011057623 A CN202011057623 A CN 202011057623A CN 112150512 A CN112150512 A CN 112150512A
Authority
CN
China
Prior art keywords
clustering
frame
image
impact point
differential
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011057623.4A
Other languages
English (en)
Other versions
CN112150512B (zh
Inventor
路茗
魏智
张质懿
胡育昱
王营冠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Institute of Microsystem and Information Technology of CAS
Original Assignee
Shanghai Institute of Microsystem and Information Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Institute of Microsystem and Information Technology of CAS filed Critical Shanghai Institute of Microsystem and Information Technology of CAS
Priority to CN202011057623.4A priority Critical patent/CN112150512B/zh
Publication of CN112150512A publication Critical patent/CN112150512A/zh
Application granted granted Critical
Publication of CN112150512B publication Critical patent/CN112150512B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种融合背景差分法和聚类法的弹着点定位方法,包括:获取待检测的视频,使用背景差分法对视频进行处理,得到差分图像;对差分图像进行去噪处理,获得完整的爆炸区域,并提取爆炸区域内每一帧差分图像的像素点;使用聚类算法对每一帧差分图像的像素点进行聚类分析,获得聚类中心和不同类的像素个数;对连续N帧差分图像中聚类中心的位置和不同类别内的像素点个数进行检测,获得弹着点位置。本发明克服了单帧图像检测法在弹着点特征与环境特征相似时导致的错检、误检问题,提高了爆炸运动目标检测的精度。本发明适合所有静态靶区的视频弹着点检测,受环境因素影响较小,方便移植到另一个靶场中使用。

Description

融合背景差分法和聚类法的弹着点定位方法
技术领域
本发明涉及爆炸目标的识别和定位领域,更具体地涉及一种融合背景差分法和聚类法的弹着点定位方法。
背景技术
针对视频中的运动目标检测,目前的检测方法包括帧差法、背景减法和光流法。帧差法,即用视频中相邻的两帧图像做差分,当有运动目标时,会获得运动目标的轮廓而非完整的目标,运动目标不完整也即获得的运动目标会出现“空洞”,丢失掉该目标的部分信息,不利于后续的数据处理。光流法评估两幅图像之间的变形,它的基本假设是体素和图像像素守恒,假设一个物体的颜色在前后两帧没有巨大而明显的变化。但是,爆炸是一种特征、形状及颜色都会发生快速变化的运动,针对这类目标检测,无法发挥光流法的优势。背景差分法或称背景减法能够获得比较完整的运动目标,但是单靠背景差分法并不能说明该视频内发生了爆炸,只能说明该视频内发生了运动。因而,背景差分法可以作为初始的运动目标检测方法,但不能作为唯一的炸点检测方法。
炸弹落地后大致有三种状态:火光、烟尘和二者混合,不同的炸弹落地后的状态可能是不同的,且不同状态下的爆炸形状是无规则、无规律的,故无法用统一的模板进行目标匹配。因而,采用传统的固定目标特征模板后续进行模板匹配的单帧图像检测法并不适用于弹着点的检测。同时,单帧图像检测法在炸点特征与环境特征相似时会导致错检、误检的问题,降低弹着点的检测精度,使得炸弹图像检测不准确。另外,常规的目标检测都是提取图像目标的边缘、纹理或是角点等特征,这种方法一般对于特征比较稳定的目标而言更为合适,但爆炸是一种运动的、变化的目标,常规的目标检测会受到很多限制,会造成检测精度不高、鲁棒性差等缺点。
发明内容
为解决上述现有技术中的问题,本发明提供一种融合背景差分法和聚类法的弹着点定位方法,能够提高视频中弹着点的检测精度,克服传统炸弹图像检测不准确的问题。
本发明提供的一种融合背景差分法和聚类法的弹着点定位方法,包括:
步骤S1,获取待检测的视频,使用背景差分法对所述视频进行处理,得到差分图像。
步骤S2,对所述差分图像进行去噪处理,获得完整的爆炸区域,并提取所述爆炸区域内每一帧差分图像的像素点。
步骤S3,用聚类算法对所述爆炸区域内每一帧差分图像的像素点进行聚类分析,得到每一帧差分图像中聚类中心的位置以及不同类别内的像素个数。
步骤S4,对连续N帧差分图像中聚类中心的位置和不同类别内的像素点个数进行检测,获得弹着点位置,其中,N为5~20之间的整数。
所述步骤S3中采用的聚类算法为K均值聚类算法。
所述步骤S4包括:
步骤S41,设定初始聚类中心个数。
步骤S42,按照K均值算法对爆炸区域内的像素点进行归类,并对聚类中心进行更新,记录每次更新后聚类中心的位置以及每次更新后聚类中心类别内的像素个数。
步骤S43,选取连续N帧差分图像,判断每次更新后聚类中心的位置变化范围是否小于阈值,同时判断每次更新后聚类中心类别内的像素个数是否增加,若是,则判定该连续N帧差分图像中出现爆炸,进入步骤S44;若否,则选取下一组连续N帧差分图像进行检测;
步骤S44,提取所述连续N帧差分图像中的第一帧,获取其聚类中心位置作为弹着点位置,并退出检测。
所述步骤S41中的初始聚类中心为两个。
所述步骤S1中的背景差分法为:将当前帧图像与背景帧图像做帧差,得到每一帧差分图像。
所述背景帧图像每隔9秒进行更新。
所述步骤S2中去噪处理方法为中值滤波、腐蚀或膨胀的图像处理方法。
本发明提取所有爆炸共有的特征,即炮弹着地后,爆炸范围会在短时间内逐渐扩大,使用背景差分法获得爆炸的区域大小信息,使用聚类算法提取并分析爆炸区域的信息,克服了单帧图像检测法在弹着点特征与环境特征相似时导致的错检、误检问题。本发明融合了背景差分法和聚类算法的优点,对获取到的运行目标进行数据处理和分析,提高了爆炸运动目标检测的精度。并且,图像定位精度越高,后期可增加的双目视觉进行弹着点的实地定位精度越高,对于靶场评价武器性能和炮兵操作水平有重大意义。并且,本发明适合所有静态靶区的视频弹着点检测,受环境因素影响较小,方便移植到另一个靶场中使用。
附图说明
图1是炮弹的部分爆炸过程示意图。
图2是按照本发明的融合背景差分法和聚类法的弹着点定位方法的流程图。
图3(a)是图2中去噪处理前的图像,图3(b)是图2中去噪处理后的图像。
图4是图2中采用聚类算法处理后的图像。
图5是本发明的融合背景差分法和聚类法的弹着点定位方法采用计算机程序的检测流程图。
具体实施方式
下面结合附图,给出本发明的较佳实施例,并予以详细描述。
经过观察,发现所有爆炸目标都有一个共同的特性:炸弹落地后,短时间内爆炸范围会逐渐扩大,也就是说,爆炸在短时间内的目标轮廓逐渐扩大,而且位置不变。如图1所示,炮弹从触地瞬间起,爆炸区域在短时间内(一般为3秒)会越变越大,经过差分处理后的图像中爆炸区域也越发明显,即图片上白色像素点会急剧增加。运用爆炸的这一特点,可以判断获得的运动目标区域,是否属于爆炸目标区域。
本发明针对单发炮弹进行弹着点检测,其主要思想是:首先用背景差分法获取运动目标,再经过图像处理获取干净完整的爆炸区域,然后用聚类法处理爆炸区域内每一帧图像的像素点,若连续N帧都满足一类聚类中心位置变换在阈值内,且该类像素点个数呈现递增趋势,则认为该N帧中发生爆炸。
因此,如图2所示,本发明提供的一种融合背景差分法和聚类法的弹着点定位方法,包括:
步骤S1,获取待检测的视频,使用背景差分法对该视频进行处理,得到差分图像,此时获得的差分图像即为完整的初始运动目标区域。在初始运动目标区域中,不仅包括爆炸区域,还包括地面草木晃动、飞鸟飞过、摄像机移动等小物体所产生的噪声。故如何减弱甚至消除差分图像中的椒盐噪声,是下一步图像处理中最重要的事情。
其中,背景差分法是指将当前帧图像与背景帧图像做帧差,得到每一帧差分图像。背景帧一般是指摄像机获取到的第一帧图像,但是背景差分法容易受到光照影响,因而每隔一段时间就需要对背景帧进行更新。在本实施例中,每隔9秒更新一次背景帧,也就是每隔9s将摄像机当前拍摄的图像作为背景帧,在背景帧之后获得的图像都和更新后的背景帧做差分。
步骤S2,对获得的差分图像进行去噪处理,获得较为干净完整的爆炸区域,并提取爆炸区域内每一帧差分图像的像素点。为减少其他运动目标噪声的影响,可以使用中值滤波、腐蚀或膨胀等图像处理方法进行去噪。去噪处理前后的图像如图3(a)和图3(b)所示,图3(a)中细长的白色线条表示其他小物体移动产生的噪声,图3(b)中留下的白色像素则为完整的爆炸区域,图3(b)获得的爆炸区域中仍有部分未过滤掉的噪声点,因而需对其进一步处理。
步骤S3,使用聚类算法对步骤S2中爆炸区域内每一帧差分图像的像素点进行聚类分析,得到每一帧差分图像中聚类中心的位置以及不同类别内的像素个数。本实施例采用的聚类算法为K均值聚类法,在其他实施例中,还可采用其他聚类算法,例如DBSCAN、Meanshift等。
步骤S4,对连续N帧差分图像中聚类中心的位置和不同类别内的像素点个数进行检测,若某个聚类中心的位置在阈值内变换且该聚类中心类别内的像素个数逐渐递增,则认定该连续N帧图像中发生爆炸,且弹着点为所述连续N帧差分图像中第一帧差分图像的聚类中心的位置。其中,N为5~20之间的整数,聚类中心位置变换是指其中一类聚类中心位置的变化不会超过阈值,在算法中,这个阈值范围是[0,300]。步骤S4具体包括:
步骤S41,设定初始聚类中心个数。
针对单发爆炸视频,本发明选择的初始聚类中心为两个。当爆炸发生时,一个聚类中心会逐渐靠近甚至稳定在弹着点范围内,另一个聚类中心则去平衡图像处理部分没滤掉的噪声点。当图像中既存在爆炸目标,也存在别的运动目标是,两个聚类中心会分别在爆炸目标和另一个运动目标周围,此时,爆炸目标处的聚类中心不会受到另一运动目标的存在而偏移爆炸目标。如果初始聚类中心为一个,该聚类中心也会随着爆炸范围的扩大而逐渐靠近弹着点,但是K均值聚类算法容易受到边缘噪声点的影响,当图像其他地方出现噪声点,容易使得聚类中心偏离爆炸区域。如果初始聚类中心为三个或三个以上,则会增加计算量,不利于本发明的弹着点定位目的。因而经过实验测试,针对单发爆炸视频,初始聚类中心为两个时最好。
步骤S42,按照K均值算法对爆炸区域内的像素点进行归类,并对聚类中心进行更新,记录每次更新后聚类中心的位置以及每次更新后聚类中心类别内的像素个数。
步骤S43,选取连续N帧差分图像,判断每次更新后聚类中心的位置变化范围是否小于阈值,同时判断每次更新后聚类中心类别内的像素个数是否增加,若是,则判定该连续N帧差分图像中出现爆炸,进入步骤S44;若否,则选取下一组连续N帧差分图像进行检测;
采用聚类算法处理后的图像如图4所示,从图中可以看到,图像中存在两处亮点,一个聚类中心在右边爆炸区域附近,另一个聚类中心在左边的噪声点处。实验结果表明,当炮弹着地的短时间内,一个聚类中心点离弹着点的距离确实随着白色像素点数量(爆炸区域)的增加而减小,即随着爆炸区域逐渐变大,该聚类中心也逐渐靠近爆炸区域,甚至于稳定在爆炸区域内,而另一个聚类中心确实起到了平衡其他噪声点的作用。
最后,步骤S44,提取所述连续N帧差分图像中的第一帧,获取其聚类中心位置,并退出检测。N帧中第一帧的聚类中心位置就是弹着点位置,这是因为当判断某段时间内发生了爆炸,那么在该段时间内越靠前的图像爆炸范围越小,用来获取弹着点坐标更为准确。此时选取N帧内第一帧的图像,根据聚类中心的位置即可获得弹着点位置。
得到待检测视频中的弹着点坐标之后,后续可与双目视觉算法进行融合,对实地弹着点进行较为精确的定位。
本发明检测弹着点的方法可写入计算机程序代码,在检测时,导入视频文件,系统即可自动运行,无人值守,便于管理。以摄像机帧率为20帧/秒为例,整个检测流程如图5所示:
当预存180帧图像时(背景帧每隔9秒进行更新,9秒则会获取180帧图像),系统按照上述步骤S1-S3开始运行。若连续N帧中聚类中心的位置变化范围小于阈值,且该聚类中心类别内的像素个数(反映到具体图像中,像素个数即为白色点的数量)呈上升趋势,则将该组图像加入计算列表,若不满足前述条件,则不加入计算列表,进行下一个9秒的数据处理。其中,摄像机和爆炸物距离决定了白色点数量上升的范围,大概在2000-50000之间。按照上述方法处理所有图像,直到整个视频文件处理完毕,此时计算列表中存储了一系列发生爆炸的图像,利用该系列图像的像素点坐标,即可计算出弹着点位置。
本发明提取所有爆炸目标共有的特征,不仅利用每一帧图像的整个轮廓,还用到了后面一段时间上每一帧的轮廓信息,能够对视频弹着点进行精准定位,受周围静止物体影响比较小。当炸点特征与环境特征相似时,也不影响本方法的检测精度,克服了单张图像炸点目标检测中炸点特征与环境特征相似导致的错检、误检问题。本发明融合了背景差分法和聚类算法的优点,对获取到的运行目标进行数据处理和分析,利用炮弹着地后短时间内爆炸范围会逐渐扩大的这一特点,提高了爆炸运动目标检测的精度,所有图像弹着点定位精度可以保证在20个像素之内。图像定位精度越高,后期可增加的双目视觉进行弹着点的实地定位精度越高,对于靶场评价武器性能和炮兵操作水平有重大意义。并且,本发明适合所有静态靶区的视频弹着点检测,受环境因素影响较小,方便移植到另一个靶场中使用。
以上所述的,仅为本发明的较佳实施例,并非用以限定本发明的范围,本发明的上述实施例还可以做出各种变化。即凡是依据本发明申请的权利要求书及说明书内容所作的简单、等效变化与修饰,皆落入本发明专利的权利要求保护范围。本发明未详尽描述的均为常规技术内容。

Claims (7)

1.一种融合背景差分法和聚类法的弹着点定位方法,其特征在于,包括:
步骤S1,获取待检测的视频,使用背景差分法对所述视频进行处理,得到差分图像;
步骤S2,对所述差分图像进行去噪处理,获得完整的爆炸区域,并提取所述爆炸区域内每一帧差分图像的像素点;
步骤S3,使用聚类算法对所述爆炸区域内每一帧差分图像的像素点进行聚类分析,得到每一帧差分图像中聚类中心的位置以及不同类别内的像素个数;
步骤S4,对连续N帧差分图像中聚类中心的位置和不同类别内的像素点个数进行检测,获得弹着点位置,其中,N为5~20之间的整数。
2.根据权利要求1所述的融合背景差分法和聚类法的弹着点定位方法,其特征在于,所述步骤S3中采用的聚类算法为K均值聚类算法。
3.根据权利要求2所述的融合背景差分法和聚类法的弹着点定位方法,其特征在于,所述步骤S4包括:
步骤S41,设定初始聚类中心个数;
步骤S42,按照K均值算法对爆炸区域内的像素点进行归类,并对聚类中心进行更新,记录每次更新后聚类中心的位置以及每次更新后聚类中心类别内的像素个数;
步骤S43,选取连续N帧差分图像,判断每次更新后聚类中心的位置变化范围是否小于阈值,同时判断每次更新后聚类中心类别内的像素个数是否增加,若是,则判定该连续N帧差分图像中出现爆炸,进入步骤S44;若否,则选取下一组连续N帧差分图像进行检测;
步骤S44,提取所述连续N帧差分图像中的第一帧,获取其聚类中心位置作为弹着点位置,并退出检测。
4.根据权利要求3所述的融合背景差分法和聚类法的弹着点定位方法,其特征在于,所述步骤S41中的初始聚类中心为两个。
5.根据权利要求1所述的融合背景差分法和聚类法的弹着点定位方法,其特征在于,所述步骤S1中的背景差分法为:将当前帧图像与背景帧图像做帧差,得到每一帧差分图像。
6.根据权利要求5所述的融合背景差分法和聚类法的弹着点定位方法,其特征在于,所述背景帧图像每隔9秒进行更新。
7.根据权利要求1所述的融合背景差分法和聚类法的弹着点定位方法,其特征在于,所述步骤S2中去噪处理方法为中值滤波、腐蚀或膨胀的图像处理方法。
CN202011057623.4A 2020-09-30 2020-09-30 融合背景差分法和聚类法的弹着点定位方法 Active CN112150512B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011057623.4A CN112150512B (zh) 2020-09-30 2020-09-30 融合背景差分法和聚类法的弹着点定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011057623.4A CN112150512B (zh) 2020-09-30 2020-09-30 融合背景差分法和聚类法的弹着点定位方法

Publications (2)

Publication Number Publication Date
CN112150512A true CN112150512A (zh) 2020-12-29
CN112150512B CN112150512B (zh) 2023-12-15

Family

ID=73894377

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011057623.4A Active CN112150512B (zh) 2020-09-30 2020-09-30 融合背景差分法和聚类法的弹着点定位方法

Country Status (1)

Country Link
CN (1) CN112150512B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119720A (zh) * 2021-12-07 2022-03-01 工学智能科技(合肥)有限公司 一种基于卷积神经网络的靶面弹着点的检测和定位方法
CN114897762A (zh) * 2022-02-18 2022-08-12 众信方智(苏州)智能技术有限公司 一种煤矿工作面采煤机自动定位方法及装置
CN114943923A (zh) * 2022-06-17 2022-08-26 中国人民解放军陆军炮兵防空兵学院 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统
CN114119720B (zh) * 2021-12-07 2024-05-28 百战奇(安徽)特训装备基地有限公司 一种基于卷积神经网络的靶面弹着点的检测和定位方法

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072691A (ja) * 2004-09-02 2006-03-16 Advanced Telecommunication Research Institute International 画像解析装置、画像解析プログラム及び画像解析方法
CN102184552A (zh) * 2011-05-11 2011-09-14 上海理工大学 一种基于差分融合与图像边缘信息的运动目标检测方法
CN102201146A (zh) * 2011-05-18 2011-09-28 中国科学技术大学 基于主动红外视频的零照度环境火灾烟雾识别方法
KR101084719B1 (ko) * 2010-06-25 2011-11-22 (주)퓨처아이스 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템
CN102708651A (zh) * 2012-05-23 2012-10-03 无锡蓝天电子有限公司 一种图像型烟雾火灾探测方法及系统
KR20130091138A (ko) * 2012-02-07 2013-08-16 홍익대학교 산학협력단 감시 카메라를 이용한 연기 검출 시스템 및 방법
CN103996198A (zh) * 2014-06-04 2014-08-20 天津工业大学 复杂自然环境下感兴趣区域的检测方法
CN104809463A (zh) * 2015-05-13 2015-07-29 大连理工大学 一种基于密集尺度不变特征转换字典学习的高精度火灾火焰检测方法
CN106203377A (zh) * 2016-07-20 2016-12-07 西安科技大学 一种煤粉尘图像识别方法
CN107305691A (zh) * 2016-04-19 2017-10-31 中兴通讯股份有限公司 基于图像匹配的前景分割方法及装置
CN107507223A (zh) * 2017-07-28 2017-12-22 武汉工程大学 动态环境下基于多特征聚类匹配的目标跟踪方法
CN110580709A (zh) * 2019-07-29 2019-12-17 浙江工业大学 一种基于ViBe和三帧差分融合的目标检测方法
US20200012859A1 (en) * 2017-03-28 2020-01-09 Zhejiang Dahua Technology Co., Ltd. Methods and systems for fire detection
CN111260684A (zh) * 2020-03-02 2020-06-09 成都信息工程大学 基于帧差法和背景差分法结合的前景像素提取方法及系统
CN111383244A (zh) * 2020-02-28 2020-07-07 浙江大华技术股份有限公司 一种目标检测跟踪方法
CN111597756A (zh) * 2020-05-08 2020-08-28 浙江农林大学 一种基于无人机多光谱数据的水质参数反演方法

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072691A (ja) * 2004-09-02 2006-03-16 Advanced Telecommunication Research Institute International 画像解析装置、画像解析プログラム及び画像解析方法
KR101084719B1 (ko) * 2010-06-25 2011-11-22 (주)퓨처아이스 영상 처리와 지능 연산을 이용한 지능형 연기 검출 시스템
CN102184552A (zh) * 2011-05-11 2011-09-14 上海理工大学 一种基于差分融合与图像边缘信息的运动目标检测方法
CN102201146A (zh) * 2011-05-18 2011-09-28 中国科学技术大学 基于主动红外视频的零照度环境火灾烟雾识别方法
KR20130091138A (ko) * 2012-02-07 2013-08-16 홍익대학교 산학협력단 감시 카메라를 이용한 연기 검출 시스템 및 방법
CN102708651A (zh) * 2012-05-23 2012-10-03 无锡蓝天电子有限公司 一种图像型烟雾火灾探测方法及系统
CN103996198A (zh) * 2014-06-04 2014-08-20 天津工业大学 复杂自然环境下感兴趣区域的检测方法
CN104809463A (zh) * 2015-05-13 2015-07-29 大连理工大学 一种基于密集尺度不变特征转换字典学习的高精度火灾火焰检测方法
CN107305691A (zh) * 2016-04-19 2017-10-31 中兴通讯股份有限公司 基于图像匹配的前景分割方法及装置
CN106203377A (zh) * 2016-07-20 2016-12-07 西安科技大学 一种煤粉尘图像识别方法
US20200012859A1 (en) * 2017-03-28 2020-01-09 Zhejiang Dahua Technology Co., Ltd. Methods and systems for fire detection
CN107507223A (zh) * 2017-07-28 2017-12-22 武汉工程大学 动态环境下基于多特征聚类匹配的目标跟踪方法
CN110580709A (zh) * 2019-07-29 2019-12-17 浙江工业大学 一种基于ViBe和三帧差分融合的目标检测方法
CN111383244A (zh) * 2020-02-28 2020-07-07 浙江大华技术股份有限公司 一种目标检测跟踪方法
CN111260684A (zh) * 2020-03-02 2020-06-09 成都信息工程大学 基于帧差法和背景差分法结合的前景像素提取方法及系统
CN111597756A (zh) * 2020-05-08 2020-08-28 浙江农林大学 一种基于无人机多光谱数据的水质参数反演方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
V. SESHA SRINIVAS ET AL: ""Automatic Feature Subset Selection for Clustering Images using Differential Evolution"", 《2018 IEEE CONFERENCE ON MULTIMEDIA INFORMATION PROCESSING AND RETRIEVAL (MIPR)》 *
赵飞扬;罗兵;林国军;杨平先;吴浩;: "基于改进YOLOv3的火焰检测", 中国科技论文, no. 07 *
陈震;张紫涵;曾希萌;: "复杂背景下的视频前景检测方法研究", 数学的实践与认识, no. 15 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119720A (zh) * 2021-12-07 2022-03-01 工学智能科技(合肥)有限公司 一种基于卷积神经网络的靶面弹着点的检测和定位方法
CN114119720B (zh) * 2021-12-07 2024-05-28 百战奇(安徽)特训装备基地有限公司 一种基于卷积神经网络的靶面弹着点的检测和定位方法
CN114897762A (zh) * 2022-02-18 2022-08-12 众信方智(苏州)智能技术有限公司 一种煤矿工作面采煤机自动定位方法及装置
CN114943923A (zh) * 2022-06-17 2022-08-26 中国人民解放军陆军炮兵防空兵学院 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统
CN114943923B (zh) * 2022-06-17 2022-12-23 中国人民解放军陆军炮兵防空兵学院 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统

Also Published As

Publication number Publication date
CN112150512B (zh) 2023-12-15

Similar Documents

Publication Publication Date Title
CN107993245B (zh) 一种空天背景多目标检测和跟踪方法
US9213896B2 (en) Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera
JP5747549B2 (ja) 信号機検出装置及びプログラム
US20070040062A1 (en) Projectile tracking system
CN112150512B (zh) 融合背景差分法和聚类法的弹着点定位方法
CN110647836B (zh) 一种鲁棒的基于深度学习的单目标跟踪方法
CN101770583B (zh) 一种基于场景全局特征的模板匹配方法
CN105608417A (zh) 交通信号灯检测方法及装置
CN111460884A (zh) 基于人体跟踪的多人脸识别方法
CN111428642A (zh) 一种多目标跟踪算法、电子装置及计算机可读存储介质
Liu et al. Robust tracking and redetection: Collaboratively modeling the target and its context
CN114708300A (zh) 一种可抗遮挡的自适应目标跟踪方法及系统
CN112699801A (zh) 基于视频图像的火灾识别方法及系统
CN113313733A (zh) 基于共享卷积的分级无人机目标跟踪方法
CN109727268A (zh) 目标跟踪方法、装置、计算机设备和存储介质
CN113888607A (zh) 基于事件相机的目标检测与跟踪方法、系统和存储介质
CN110084160A (zh) 一种基于运动和亮度显著性特征的视频森林烟火检测方法
CN112907634B (zh) 基于无人机的车辆跟踪方法
US20220174256A1 (en) Method for infrared small target detection based on depth map in complex scene
CN114463664A (zh) 一种用于冰球运动的新型冰球追踪方法
CN111027427B (zh) 一种用于小型无人机竞速比赛的目标门检测方法
JP6539720B1 (ja) 画像処理装置
CN111402283A (zh) 基于灰度方差导数的火星图像边缘特征自适应提取方法
US11727666B2 (en) Automatic target scoring machine
CN117079196B (zh) 基于深度学习以及目标运动轨迹的无人机识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant