CN110309808B - 一种大范围尺度空间下的自适应烟雾根节点检测方法 - Google Patents

一种大范围尺度空间下的自适应烟雾根节点检测方法 Download PDF

Info

Publication number
CN110309808B
CN110309808B CN201910613683.0A CN201910613683A CN110309808B CN 110309808 B CN110309808 B CN 110309808B CN 201910613683 A CN201910613683 A CN 201910613683A CN 110309808 B CN110309808 B CN 110309808B
Authority
CN
China
Prior art keywords
image
mser
region
vibe
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910613683.0A
Other languages
English (en)
Other versions
CN110309808A (zh
Inventor
程朋乐
高宇
闫磊
李晓慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Forestry University
Original Assignee
Beijing Forestry University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Forestry University filed Critical Beijing Forestry University
Priority to CN201910613683.0A priority Critical patent/CN110309808B/zh
Publication of CN110309808A publication Critical patent/CN110309808A/zh
Application granted granted Critical
Publication of CN110309808B publication Critical patent/CN110309808B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

本发明属于森林防火和视频目标检测领域,尤其涉及一种基于视频的烟雾源根节点检测方法。本发明首先对输入的视频图像帧进行计数判定,视情况执行动态区域提取算法和远距离目标检测区域提取算法,然后对动态图像信息进行融合,得出动态图像下的分割区域图,对远距离图像进行信息融合,得出远距离信息下的分割区域图。接下来对两张分割区域图统计贝叶斯计算所需的概率,得出贝叶斯概率结果,并根据概率结果对两套分割区域图进行融合,得出远近距离条件下的全尺度检测结果图。最后,对融合结果进行骨骼图像提取,并得出最后烟雾根节点像素级候选位置。整套计算流程以流水线形式执行,延迟时间约25帧,即算法自执行开始,需25帧后得出正确结果。

Description

一种大范围尺度空间下的自适应烟雾根节点检测方法
技术领域
本发明属于森林防火和视频目标检测领域,尤其涉及一种基于视频的烟雾源根节点检测方法。
背景技术
森林火灾的监控和检测方法目前阶段主要分为四种基本实现形式,分别为:基于摄像头视频处理的检测方法、基于卫星视觉的大范围检测方法、基于火灾传感器的拓扑检测方法、基于雷达的远距离检测方法。在这四种方法中,基于摄像头视频处理的检测方法因为具有检测距离广、维护成本低、开发周期快等特点被广泛采用。基于视频的检测方法,往往需要对待检测区域进行候选区域的提取计算,并加以筛选后,得到候选区域中的真实目标区域。筛选过程往往采用颜色、纹理、动态背景等方法进行。这些方法对图像的细节要求较高,在远距离的前提条件下,基于动态背景的方法往往检测出的动态目标仅仅有很少的像素点,难以运用形态学等方式进行后续的处理计算;基于纹理和颜色的方法在一定程度上难以区分云朵和烟雾的差异,导致误检测现象的发生。
由此可见,远距离条件下的烟雾检测方法存在很大的挑战。专利申请号为CN201910490504.9,发明名称为“一种基于MSER的远距离复杂环境下的烟雾根节点检测方法”的中国专利。该发明在采用MSER算法对远距离烟雾场景进行候选区域提取,并通过角点提取算法和凸包检测算法对图像中可能存在干扰项进行排除,然后通过骨骼提取算法对候选区域提取烟雾根节点候选点,最后采用连续帧的帧间信息提取出烟雾根节点。该算法虽然对远距离烟雾效果突出,但对于近距离烟雾缺存在天然缺陷:MSER算法和核心思想基于灰度图像灰度值在一定范围内趋于稳定的特性提取MSER候选区域。近距离烟雾在动态条件下进行扩散,仅仅在烟雾中心部分灰度值趋于稳定,烟雾边缘灰度值频繁发生变化,导致MSER算法不能完整提取出烟雾轮廓,这种结果直接导致后续的烟雾根节点提取位置会产生于烟雾中心的某个部分,不符合正确的结论。所以远距离目标检测方法对近距离目标并不一定获取好的效果。
专利申请号为CN201711440134,发明名称为“一种基于特征根和流体力学的森林火灾烟视频目标检测方法”的中国专利。该发明在权利要求书“步骤1”图像预处理部分采用了帧间差分算法进行动态背景的提取。如上文所说,该方法对远距离目标存在缺陷,远距离条件下烟雾运动缓慢,动态背景提取效果不明显。根据该专利后续对候选区域处理过程,若真实烟雾区域仅仅有个别像素点,或者未能成功提取烟雾候选区域范围,将无法对待检测目标进行烟雾根节点的提取和流体力学模拟的计算。
专利申请号为CN201811318766,发明名称为“一种基于最小二乘法的烟雾根节点检测方法”的中国专利。该发明在烟雾源(燃烧源)提取过程中(权利要求书第一步、第二步)同样需要对烟雾候选区的连通域采取计算,并采用了帧间差分的动态区域提取算法。若未能成功提取到待检测烟雾的候选区域,该专利提出的山崩算法将无法分割出崩塌计算的山崖区域,导致检测失败。
综上所述,如何发挥远距离目标检测的优势,并且保留动态目标或者近距离目标检测的优点也是一个不容忽视的问题。
发明内容
本发明提供了一种大范围尺度空间下的烟雾根节点检测方法,目的在于充分发挥远距离目标检测算法的优势和近距离检测算法的精确度。通过对固定的林火监控摄像头图像的处理,并采用远近距离图像融合方法,对烟雾区域候选点进行识别,并检测烟雾根节点。根据图1所示的流程图,燃烧源根节点的检测方法如下:
第一步,系统初始化:通过对系统的各个变量容器初始状态赋值,以达到能够准确进行后续循环操作的目的;
第二步(分支1),动态区域提取:对图像帧计数器进行当前轮数判定,若不为第5张图像,将采集到的RGB图像进行灰度图转换,并采用vibe算法进行动态区域的提取,将提取的动态区域图像进行二值化后存入长度为4的堆栈,缓存容器Vibe_Vector;
第三步(分支2),若为第5张图像,则对当前图像进行MSER+区域提取:将采集到的RGB图像进行高斯金字塔下采样计算,在下采样两层后,分别对三张不同尺度的金字塔进行Shi-Tomas角点检测,对三张金字塔图像中角点密度最大的区域进行自动聚类算法的标记,并对原始尺度图像中被标记区域进行凸包计算,将计算完毕后的凸包区域在原始图像中删除,并将删除区域用像素0进行填充,得到填充后的填充图,进行MSER+算法的计算,得出经过MSER+算法计算后的图像,存入缓存容器后,对缓存容器中的三张MSER+图像进行融合计算,得出一张融合区域图像;
第四步,将四帧动态背景图和一帧MSER+图进行图像融合:融合算法采用朴素贝叶斯融合理论进行,分别对四幅动态图像进行概率统计,得出不同像素区域先验概率,其次对MSER+图像的不同像素区域进行条件概率统计,最后通过贝叶斯公式计算出各个像素区域的活跃概率,并对超过活跃阈值的区域进行像素级的融合计算,得出融合后的图像;
第五步,骨骼图像提取区域的代表坐标:对融合得到的单通道二值图像连通域进行骨骼图像提取,并计算出骨骼图像的端点坐标,记录该图像中所有的骨骼图像端点坐标,该坐标记录即为当前帧图像的候选区域代表坐标;
第六步,将第五步得出的骨骼图像候选区域代表坐标进行连续五帧的统计,若存在连续帧图像端点坐标在范围区域内稳定存在,并浮动于小半径范围内,则该小半径范围内所有端点坐标的平均值为烟雾根节点。
系统初始化的具体执行方法为:
步骤101,对图像帧计数器初始化,对Vibe算法执行初始化,对MSER算法执行初始化,对图像存储容器初始化;
步骤102,在图像容器初始化的过程中,Vibe图像缓存容器长度为4,即每4帧Vibe图像作为动态背景信息进行后续贝叶斯概率提取的模板,Vibe图像容器初始放入3张Vibe图像;
步骤103,在图像容器初始化的过程中,MSER图像缓存容器长度为3,即每3帧MSER图像作为远距离背景信息进行后续贝叶斯概率提取的模板,MSER图像容器初始放入2张MSER图像,并将其中任意一张作为基础MSER_Img在MSER_Init()中执行;
步骤104,在图像容器初始化的过程中,Roots_Img_Vector图像缓存容器长度为5,即每5帧根节点图像作为一次烟雾根的判定依据,初始化过程先存入4张大小为480*320P的纯黑色单通道图像。
第三步中,将采集到的RGB图像进行高斯金字塔下采样计算,在下采样两层后,分别对三张不同尺度的金字塔进行Shi-Tomas角点检测,具体执行方法为:
步骤301,读取当前帧图像后,对图像帧计数器进行当前轮数判定,若为第5张图像,则对当前图像进行MSER算法下的远距离信息提取过程;
步骤302,对读入图像做高斯金字塔计算处理,得出3张逐次下采样条件下的高斯金字塔模型,即:尺度1:与输入帧图像大小相同,尺度2:图像的长和宽各为输入图像尺度的1/2,高斯滤波过程采用3X3卷积核进行,尺度3:图像的长和宽各为输入图像尺度的1/4,高斯滤波过程采用3X3卷积核进行,并将三张不同尺度下的图像存入GP_Vector容器;
步骤303,将三张高斯金字塔图像中的最小尺寸图片划分为偶数个判定区域,本发明采用480*320P的图像分辨率,分为24个最小区域感受野,每个感受野的分辨率为20*20像素;
步骤304,分别对三张不同尺度的图像进行Shi-Tomas角点的检测,分别得出各个图像在各个匹配感受野区域中的角点数目,计算尺度变换下角点的保持度;设感受野等级1区域1中,角点检测数目为L1N1,匹配感受野等级2区域1中,角点检测数目为L2N1,同理,匹配感受野等级3区域1中,角点检测数目为L3N1,保持度计算公式如下:
Figure GDA0002861238180000041
步骤305,对保持度进行阈值判定,若Keep值为0,则在对应于匹配感受野等级3的区域中删除所有角点信息,相应区域所有的角点清空,不保留角点信息,若Keep值大于0.6,则将匹配感受野等级3的区域中所有角点保留,若Keep值小于0.6但大于0,则将匹配感受野等级3中的角点随机删除,直到剩余角点数量和匹配感受野等级2中的角点数目一致。
存入缓存容器后,对缓存容器中的三张MSER+图像进行融合计算,得出一张融合图像,具体执行方法为:
步骤315,对填充图执行MSER+算法的计算,由于MSER+算法仅仅能提取出图像中白色的最大极值稳定区域,所有被凸包标记,并填充为0的像素值均不会被检测到,以达到除去干扰物的作用,得到MSER+算法下的远距离检测图像;
步骤316,将得到的MSER+图像存入MSER_Vector,并对MSER_Vector中的三张MSER+图像进行融合,首先,对三张MSER+图像进行二值化处理,并进行区域分割,每张图像分为48*32个像素为10*10的小区域;
步骤317,每个区域共有100颗像素点,三张图像相同位置的小区域图像进行“与”操作计算,公式如下:
AreaMSER(i,j)=Area_MSER1(i,j)&Area_MSER2(i,j)&Area_MSER3(i,j) (2)
其中AreaMSER(i,j)是融合后的MSER+图像位于(i,j)位置的小区域图像,由于每张图小区域共有48*32个,即imax=48,jmax=32,Area_MSERn(i,j),为编号为n的MSER+图像位于(i,j)位置的小区域,由于小区域均为二值化区域,该操作本质即保留MSER+三张图像中重叠的255白色区域;
步骤318,将步骤317中选出的各个位置的小区域重新存储,即MSER_Area,为后续贝叶斯概率计算做准备;
步骤319,将MSER_Vector中的第一个元素删除,为后续MSER图像存入Vector让出存储空间。
第四步中,将四帧动态背景图和一帧MSER+图进行图像融合:融合算法采用朴素贝叶斯融合理论进行,分别对四幅动态图像进行概率统计,得出不同像素区域先验概率,其次对MSER+图像的不同像素区域进行条件概率统计,最后通过贝叶斯公式计算出各个像素区域的活跃概率,并对超过活跃阈值的区域进行像素级的融合计算,得出融合后的图像,具体执行方法为:
步骤401,对存入Vibe_Vector的Vibe图像进行二值化处理,并进行区域分割,每张图像分为48*32个像素为10*10的小区域;
步骤402,对四张图像的所有区域进行融合操作,并将4张Vibe图像融合为1张动态图像,首先,对每张图像的48*32个小区域进行活跃度统计,每个小区域共有100颗像素点,每个小区域的活跃度计算公式如下:
Act=∑Pixel_mark(x,y) (3)
其中,Act为小区域活跃度,其中,xmax=10,ymax=10,当坐标为(x,y)的像素值不为0,则该点的Pixel_mark=1,计算出4张图片所有区域的Act值,并计算这些Act值对应4块小区域的最大值Actmax,计算公式如下:
Actmax=max(Act(i,j)m) (4)
其中,Act(i,j)代表图像中位置为(i,j)的小区域的Act值,由于每张图小区域共有48*32个,即imax=48,jmax=32,公式中m=1,2,3,4,代表4张Vibe图像;
步骤403,对各个分割小区域进行基于Actmax的区域选择,并最终通过各个选择的区域拼接成为一幅图,设Area(i,j)为融合后图像中位置为(i,j)的小区域,该区域选择方式如下:
Figure GDA0002861238180000051
其中
Figure GDA0002861238180000052
代表位置为(i,j)的4张Vibe图像的小区域中,具有最大区域活跃度的小区域;
步骤404,将步骤403中选出的各个位置的小区域重新存储,即Vibe_Area,为后续贝叶斯概率计算做准备;
步骤405,计算贝叶斯先验概率Bayes_Vibe_PA,Bayes_MSER_PA,概率以Vector形式存储,每个小区域Area计算一个PA值,PA公式计算如下:
Figure GDA0002861238180000061
当小区域坐标为(x,y)的像素值不为0,则该点的Pixel_mark=1,即,小区域内像素值不为0的像素点个数与当前区域所有像素点个数的比值,即为当前区域内的PA概率;
步骤406,计算条件概率Bayes_PB,该概率表示对每一个小区域Area(i,j),在Vibe图像中活跃的前提下,在MSER+图像中也同样活跃的概率,每一个小区域单独计算一个PB值,计算公式如下:
Figure GDA0002861238180000062
Vibe图像中,坐标为(x,y)的像素值不为0时,则该点的Vibe_Mark(x,y)=1,分母含义即为当前小区域内,vibe图像中像素点不为0的个数;MSER+图像的小区域中,若坐标为(x,y)的像素值在Vibe图像中对应小区域内,像素值不为0,且在MSER+小区域中像素值也不为0时,则该点的MSERvibe_Mark(x,y)=1;
步骤407,计算条件概率Bayes_PC,该概率表示对每一个小区域Area(i,j),在Vibe图像中不活跃的前提下,在MSER+图像中活跃的概率,每一个小区域单独计算一个PC值,计算公式如下:
Figure GDA0002861238180000063
Vibe图像中,坐标为(x,y)的像素为0时,则该点的VibeP_Mark(x,y)=1,分母含义即为当前小区域内,vibe图像中像素值恒为0的个数;MSER+图像的小区域中,若坐标为(x,y)的像素值在Vibe图像中对应小区域内,像素值为0,但在MSER+小区域中像素值不为0时,则该点的MSERvibeP_Mark(x,y)=1;
步骤408,计算条件概率Bayes_PD,该概率表示对每一个小区域Area(i,j),在Vibe图像中活跃的前提下,在MSER+图像中不活跃的概率,每一个小区域单独计算一个PD值,计算公式如下:
Figure GDA0002861238180000071
Vibe图像中,坐标为(x,y)的像素不为0时,则该点的Vibe_Mark(x,y)=1,分母含义即为当前小区域内,vibe图像中像素值不为0的个数;MSER+图像的小区域中,若坐标为(x,y)的像素值在Vibe图像中对应小区域内,像素值不为0,但在MSER+小区域中像素值恒为0时,则该点的MSERPvibe_Mark(x,y)=1;
步骤409,计算条件概率Bayes_PE,该概率表示对每一个小区域Area(i,j),在Vibe图像中不活跃的前提下,在MSER+图像中同样不活跃的概率,每一个小区域单独计算一个PE值,计算公式如下:
Figure GDA0002861238180000072
Vibe图像中,坐标为(x,y)的像素为0时,则该点的VibeP_Mark(x,y)=1,分母含义即为当前小区域内,vibe图像中像素值恒为0的个数;MSER+图像的小区域中,若坐标为(x,y)的像素值在Vibe图像中对应小区域内,像素值恒为0,且在MSER+小区域中像素值也恒为0时,则该点的MSERPvibeP_Mark(x,y)=1;
步骤410,计算条件概率Bayes_R1,该概率表示对每一个小区域Area(i,j),在MSER图像中活跃的前提下,在Vibe图像中同样活跃的概率,每一个小区域单独计算一个R1值,计算公式如下:
Figure GDA0002861238180000073
步骤411,计算条件概率Bayes_R2,该概率表示对每一个小区域Area(i,j),在MSER图像中不活跃的前提下,在Vibe图像中活跃的概率,每一个小区域单独计算一个R2值,计算公式如下:
Figure GDA0002861238180000074
步骤412,根据概率R1,R2计算MSER图像和Vibe图像融合结果,图像融合以MSER+图像为基础,Vibe图像为辅助,融合过程以区域为最小执行单位,即每张图像融合需48*32次循环完成,首先,对MSER+图像的每个小区域进行活跃度PA的判定,若当前区域MSER_Area(i,j)的PA值大于阈值20,则视为该区域激活,在激活的前提下,判定当前区域R1的激活度,若R1的数值大于阈值40,则该区域融合计算结果如下:
Area_Fusion(i,j)=MSER_Area(i,j)+Vibe_Area(i,j) (13)
即该区域对应的MSER区域和Vibe区域相加,对于像素超过255的像素值,保留255像素值上限;
若当前激活度R1小于阈值40,则该区域保留MSER+区域,不进行融合,即:
Area_Fusion(i,j)=MSER_Area(i,j) (14)
若当前区域MSER_Area(i,j)的PA值小于阈值20,则视该区域未激活,在未激活前提下,判定当前区域R2的激活度,若R2数值大于20,则该区域融合计算结果如下:
Area_Fusion(i,j)=Vibe_Area(i,j) (15)
即该区域保留vibe图像中的部分,不采用MSER+图像中的区域;若当前激活度R2小于阈值20,则该区域保留MSER+区域,不进行融合;
步骤413,将全部处理完毕的Area_Fusion(i,j)区域进行拼接,按顺序重新组合成一幅新的图像,即Merged_R,至此,图像融合结束。
第六步中,将第五步得出的骨骼图像候选区域代表坐标进行连续五帧的统计,若存在连续帧图像端点坐标在范围区域内稳定存在,并浮动于小半径范围内,则该小半径范围内所有端点坐标的平均值为烟雾根节点,具体执行方法为:
步骤601,对提取完毕的骨骼图像进行骨骼端点提取计算,设定P为当前骨骼图像上的骨骼点,对P周围360°分布的8个像素点值进行像素值判定,若有且仅有一个像素点像素值与P点相同,则将P点列入骨骼图像端点;
步骤602,创建新的黑色图像模板,大小为480*320P,并将步骤601中保存的骨骼图像端点在模板上进行标注,设其中一个骨骼图像端点在整幅图像中坐标为(g,k),则在黑色图像模板中,将坐标为(g,k)的像素点置为255像素值;
步骤603,重新创建一个新的黑色图像模板,记为Template,将标记完毕的图像模板存入Roots_Img_Vector向量,并进行烟雾根匹配计算;
步骤604,将标记后得到的Template模板中像素值大于等于102的像素点作为搜索中心,以20像素为半径,对周围像素进行统计,若搜索半径区域内所有像素值的和大于153,则该搜索中心即为烟雾根节点,若搜索半径内存在多个搜索中心,则最终烟雾根节点坐标为搜索半径内所有搜索中心坐标的平均值;
步骤605,将Vibe_Vector和Roots_Img_Vector中的第一个缓存量删除,为后续循环判定存入新的数据做准备。
附图说明
图1为本发明计算过程的流程图。
图2为本发明的伪代码执行过程。
图3为本发明感受野判定对应区域。
图4为本发明聚类算法二叉树合并示意图。
图5为本发明烟雾根节点判定示意图。
具体实施方式
参照附图,通过下面文本说明书,本发明的前述以及其他的特征将变得明显。在说明书和附图中,具体公开了本发明的特定实施方式,其表明了其中可以采用文本发明的原则部分实施方式,应了解的是,本发明不限于所描述的实施方式,相反,本发明包括落入所附权利要求的范围内的全部修改、变形以及等同物。
本发明实施例提供一种大范围尺度空间下的烟雾根节点检测方法,通过该方法,可以对距离摄像头不同远近距离的林火早期烟雾进行较好的烟雾根节点识别,图1是本发明实施例的烟雾检根测方法的流程示意图,图2是本发明实例具体实现方式的伪代码,结合图1、图2所示,所述烟雾根节点检测方法包括:
步骤101,对图像帧计数器初始化,对Vibe算法执行初始化,对MSER算法执行初始化,对图像存储容器初始化;
步骤102,在图像容器初始化的过程中,Vibe图像缓存容器长度为4,即每4帧Vibe图像作为动态背景信息进行后续贝叶斯概率提取的模板,Vibe图像容器初始放入3张Vibe图像;
步骤103,在图像容器初始化的过程中,MSER图像缓存容器长度为3,即每3帧MSER图像作为远距离背景信息进行后续贝叶斯概率提取的模板,MSER图像容器初始放入2张MSER图像,并将其中(容器中的2张)任意一张作为基础MSER_Img在MSER_Init()中执行;
步骤104,在图像容器初始化的过程中,Roots_Img_Vector图像缓存容器长度为5,即每5帧根节点图像作为一次烟雾根的判定依据,初始化过程先存入4张大小为480*320P的纯黑色单通道图像;
步骤201,读取帧图像后,对图像帧计数器进行当前轮数判定,若不为第5张图像,则对当前图像进行基于Vibe算法下的动态区域提取过程,并存入Vibe图像缓存容器Vibe_Vector;
步骤301,读取当前帧图像后,对图像帧计数器进行当前轮数判定,若为第5张图像,则对当前图像进行MSER算法下的远距离信息提取过程;
步骤302,对读入图像做高斯金字塔计算处理,得出3张逐次下采样条件下的高斯金字塔模型,即:尺度1:与输入帧图像大小相同,尺度2:图像的长和宽各为输入图像尺度的1/2,高斯滤波过程采用3X3卷积核进行,尺度3:图像的长和宽各为输入图像尺度的1/4,高斯滤波过程采用3X3卷积核进行,并将三张不同尺度下的图像存入GP_Vector容器;
步骤303,将三张高斯金字塔图像中的最小尺寸图片划分为偶数个判定区域,本发明采用480*320P的图像分辨率,分为24个最小区域感受野,每个感受野的分辨率为20*20像素,并确定例如图3所示的对应关系。
步骤304,分别对三张不同尺度的图像进行Shi-Tomas角点的检测,分别得出各个图像在各个匹配感受野区域中的角点数目,计算尺度变换下角点的保持度。设感受野等级1区域1(例如图3高斯金字塔等级1的红色区域)中,角点检测数目为L1N1,匹配感受野等级2区域1(高斯金字塔等级2的红色区域)中,角点检测数目为L2N1,同理,匹配感受野等级3区域1中,角点检测数目为L3N1,保持度计算公式如下:
Figure GDA0002861238180000101
步骤305,对衰减度进行阈值判定,若Keep值为0,则在对应于匹配感受野等级3的区域中删除所有角点信息,相应区域所有的角点清空,不保留角点信息,若Keep值大于0.6,则将匹配感受野等级3的区域中所有角点保留,若Keep值小于0.6但大于0,则将匹配感受野等级3中的角点随机删除,直到剩余角点数量和匹配感受野等级2中的角点数目一致;
步骤306,经过步骤305处理后,提取出高斯金字塔等级3层的图片,对所有图像中保留的角点进行聚类运算,首先将提取出的角点坐标进行记录收集,然后逐次计算两两坐标点的欧氏距离,找出欧氏距离最近的两个坐标点,进行合并计算,并将合并后的端点作为这两点的代替坐标点,再次进行后续的迭代计算,直到所有坐标点全部计算完成,形成一颗完整的分类二叉树为止,其中合并点的坐标公式如下:
Figure GDA0002861238180000111
式(1)中xi和xj分别对应在当前所有角点坐标中距离最近的两点的水平坐标,yi和yj分别对应在当前所有角点坐标中距离最近的两点的垂直坐标,xnew,ynew分别代表两者合并后的替代坐标的水平方向坐标值和垂直方向的坐标值;
步骤307,二叉树具体合并过程如下,如示意图4所示,以六个角点为例,其中A、B、C、D、E、F六个点为图像计算出的角点,数字1、2、3、4、5所代表的是相应角点的合并顺序以及合并后新的坐标点,则依顺序,第一轮合并的坐标为A、B两点,第二次合并坐标点为C、D两点,第三次合并为1、2两点以此类推;
步骤308,二叉树合并完成后,提取出每轮合并的坐标点,进行OTSU分类坐标值的计算,如图示意图4所示,以六个角点为例,计算方式自顶向下:5坐标点表示所有的六个角点合并为最终一类,则一类到二类的转变是将5分解成为3、4两个大类,则3、4两二叉树节点下的所有坐标进行OTSU坐标分类计算,即A、B、C、D为一组输入信息,E、F为一组输入信息;以此类推,4坐标表示所有六个角点合并为最终两类,则第二类到第三类的转变是将4分解为E、F两个大类,此时3、E、F为六个角点的三大类信息点,则最新分裂的坐标点为OTSU的输入信息,即E为一组输入信息,F为一组输入信息;
步骤309,以示意图4为例,六个角点最多存在六个分类结果,最少存在一个分类结果,共会计算出五个OTSU坐标点;即:若存在N个角点,共会存在最多N个分类结果,最少1个分类结果,共会计算出N-1个OTSU坐标点;
步骤310,OTSU坐标点计方式如下:
首先计算坐标点所占比例:
Figure GDA0002861238180000112
其中,Len1和Len2表示输入两组数据的坐标点个数,w1和w2表示两组数据坐标点数占总计算坐标点数的比例;
其次计算平均坐标值:
Figure GDA0002861238180000121
Figure GDA0002861238180000124
其中,x1ave和x2ave表示两组数据各自的水平坐标平均值,y1ave和y2ave表示两组数据各自的垂直坐标平均值;
最后计算最大类间差下的坐标值:
Figure GDA0002861238180000122
其中,OTSUx和OTSUy表示OTSU坐标下的水平坐标值和垂直坐标值;
步骤311,计算所有OTSU坐标与坐标之间的距离,找到坐标集中距离其他坐标距离和最小的点,此时该点所代表的分类种类即为最佳分类方式,距离计算公式如下:
Figure GDA0002861238180000123
其中,xj和yj代表当前迭代计算坐标点坐标值,xi和yi代表所有OTSU坐标点中除当前迭代坐标点外的其他所有坐标点坐标值,n代表所有坐标点的个数;
步骤312,计算出满足上述条件的OTSU坐标点后,当前坐标点值所代表的分类变化数即为最佳分类种类,例如Pmin点由第三类分裂到第四类时产生的新坐标点参与计算得出,则最佳分类种类为第三类;
步骤313,对成功分类完毕的角点进行凸包检测计算,以各个分类簇为基本点集,形成最佳分类数个凸包区域,并对凸包区域所有像素点进行标记;
步骤314,将标记过凸包像素的图片进行灰度图像转化,转为灰度图,并将所有标记像素的像素值置为0,即在灰度图中变为纯黑色(灰度值0代表黑色,灰度值255代表白色),得到填充后的图像称为分割图;
步骤315,对分割图执行MSER+算法的计算,由于MSER+算法仅仅能提取出图像中白色的最大极值稳定区域,所有被凸包标记,并填充为0的像素值均不会被检测到,以达到除去干扰物的作用,得到MSER+算法下的远距离检测图像;
步骤316,将得到的MSER+图像存入MSER_Vector向量,并对MSER_Vector中的三张MSER+图像进行融合,首先,对三张MSER+图像进行二值化处理,并进行区域分割,每张图像分为48*32个像素为10*10的小区域;
步骤317,每个区域共有100颗像素点,三张图像相同位置的小区域图像进行“与”操作计算,公式如下:
AreaMSER(i,j)=Area_MSER1(i,j)&Area_MSER2(i,j)&Area_MSER3(i,j) (23)
其中AreaMSER(i,j)是融合后的MSER+图像位于(i,j)位置的小区域图像,由于每张图小区域共有48*32个,即imax=48,jmax=32,Area_MSERn(i,j),为编号为n的MSER+图像位于(i,j)位置的小区域,由于小区域均为二值化区域,该操作本质即保留MSER+三张图像中重叠的255白色区域;
步骤318,将步骤317中选出的各个位置的小区域重新存储,即MSER_Area,为后续贝叶斯概率计算做准备;
步骤319,将MSER_Vector中的第一个元素删除,为后续MSER图像存入Vector让出存储空间;
步骤401,对步骤201中存入Vibe_Vector的Vibe图像进行二值化处理,并进行区域分割,每张图像分为48*32个像素为10*10的小区域;
步骤402,对四张图像的所有区域进行融合操作,并将4张Vibe图像融合为1张动态图像,首先,对每张图像的48*32个小区域进行活跃度统计,每个区域共有100颗像素点,每个区域的活跃度计算公式如下:
Act=∑Pixel_mark(i,j) (24)
其中,Act为区域活跃度,当坐标为(i,j)的像素值不为0(imax=10,jmax=10),则该点的Pixel_mark=1,计算出4张图片所有区域的Act值,并计算这些Act值对应4块小区域的最大值Actmax,计算公式如下:
Actmax=max(Act(i,j)n) (25)
其中,Act(i,j)代表图像中位置为(i,j)的小区域的Act值,由于每张图小区域共有48*32个,即imax=48,jmax=32,公式中n=1,2,3,4,代表4张Vibe图像;
步骤403,对各个分割小区域进行基于Actmax的区域选择,并最终通过各个选择的区域拼接成为一幅图,设Area(i,j)为融合后图像中位置为(i,j)的小区域,该区域选择方式如下:
Figure GDA0002861238180000141
其中
Figure GDA0002861238180000142
代表位置为(i,j)的4张Vibe图像的小区域中,具有最大区域活跃度的小区域;
步骤404,将步骤403中选出的各个位置的小区域重新存储,即Vibe_Area,为后续贝叶斯概率计算做准备;
步骤405,计算贝叶斯先验概率Bayes_Vibe_PA,Bayes_MSER_PA,概率以Vector形式存储,每个小区域Area计算一个PA值,PA公式计算如下:
Figure GDA0002861238180000143
当小区域坐标为(i,j)的像素值不为0(imax=10,jmax=10),则该点的Pixel_mark=1,即,小区域内像素值不为0的像素点个数与当前区域所有像素点个数的比值,即为当前区域内的PA概率;
步骤406,计算条件概率Bayes_PB,该概率表示对每一个小区域Area(i,j),在Vibe图像中活跃的前提下,在MSER+图像中也同样活跃的概率,每一个小区域单独计算一个PB值,计算公式如下:
Figure GDA0002861238180000144
Vibe图像中,坐标为(i,j)的像素值不为0(imax=10,jmax=10)时,则该点的Vibe_Mark(i,j)=1,分母含义即为当前小区域内,vibe图像中像素点不为0的个数;MSER+图像的小区域中,若坐标为(i,j)的像素值在Vibe图像中对应小区域内,像素值不为0(imax=10,jmax=10),且在MSER+小区域中像素值也不为0时,则该点的MSERvibe_Mark(i,j)=1;
步骤407,计算条件概率Bayes_PC,该概率表示对每一个小区域Area(i,j),在Vibe图像中不活跃的前提下,在MSER+图像中活跃的概率,每一个小区域单独计算一个PC值,计算公式如下:
Figure GDA0002861238180000145
Vibe图像中,坐标为(i,j)的像素为0(imax=10,jmax=10)时,则该点的VibeP_Mark(i,j)=1,分母含义即为当前小区域内,vibe图像中像素值恒为0的个数;MSER+图像的小区域中,若坐标为(i,j)的像素值在Vibe图像中对应小区域内,像素值为0(imax=10,jmax=10),但在MSER+小区域中像素值不为0时,则该点的MSERvibeP_Mark(i,j)=1;
步骤408,计算条件概率Bayes_PD,该概率表示对每一个小区域Area(i,j),在Vibe图像中活跃的前提下,在MSER+图像中不活跃的概率,每一个小区域单独计算一个PD值,计算公式如下:
Figure GDA0002861238180000151
Vibe图像中,坐标为(i,j)的像素不为0(imax=10,jmax=10)时,则该点的Vibe_Mark(i,j)=1,分母含义即为当前小区域内,vibe图像中像素值不为0的个数;MSER+图像的小区域中,若坐标为(i,j)的像素值在Vibe图像中对应小区域内,像素值不为0(imax=10,jmax=10),但在MSER+小区域中像素值恒为0时,则该点的MSERPvibe_Mark(i,j)=1;
步骤409,计算条件概率Bayes_PE,该概率表示对每一个小区域Area(i,j),在Vibe图像中不活跃的前提下,在MSER+图像中同样不活跃的概率,每一个小区域单独计算一个PE值,计算公式如下:
Figure GDA0002861238180000152
Vibe图像中,坐标为(i,j)的像素为0(imax=10,jmax=10)时,则该点的VibeP_Mark(i,j)=1,分母含义即为当前小区域内,vibe图像中像素值恒为0的个数;MSER+图像的小区域中,若坐标为(i,j)的像素值在Vibe图像中对应小区域内,像素值恒为0(imax=10,jmax=10),且在MSER+小区域中像素值也恒为0时,则该点的MSERPvibeP_Mark(i,j)=1;
步骤410,计算条件概率Bayes_R1,该概率表示对每一个小区域Area(i,j),在MSER图像中活跃的前提下,在Vibe图像中同样活跃的概率,每一个小区域单独计算一个R1值,计算公式如下:
Figure GDA0002861238180000153
步骤411,计算条件概率Bayes_R2,该概率表示对每一个小区域Area(i,j),在MSER图像中不活跃的前提下,在Vibe图像中活跃的概率,每一个小区域单独计算一个R2值,计算公式如下:
Figure GDA0002861238180000154
步骤412,根据概率R1,R2计算MSER图像和Vibe图像融合结果,图像融合以MSER+图像为基础,Vibe图像为辅助,融合过程以区域为最小执行单位,即每张图像融合需48*32次循环完成,首先,对MSER+图像的每个小区域进行活跃度PA的判定,若当前区域MSER_Area(i,j)的PA值大于阈值20,则视为该区域激活,在激活的前提下,判定当前区域R1的激活度,若R1的数值大于阈值40,则该区域融合计算结果如下:
Area_Fusion(i,j)=MSER_Area(i,j)+Vibe_Area(i,j) (34)
即该区域对应的MSER区域和Vibe区域相加,对于像素超过255的像素值,保留255像素值上限;
若当前激活度R1小于阈值40,则该区域保留MSER+区域,不进行融合,即:
Area_Fusion(i,j)=MSER_Area(i,j) (35)
若当前区域MSER_Area(i,j)的PA值小于阈值20,则视该区域未激活,在未激活前提下,判定当前区域R2的激活度,若R2数值大于20,则该区域融合计算结果如下:
Area_Fusion(i,j)=Vibe_Area(i,j) (36)
即该区域保留vibe图像中的部分,不采用MSER+图像中的区域;若当前激活度R2小于阈值20,则该区域保留MSER+区域,不进行融合;
步骤413,将全部处理完毕的Area_Fusion(i,j)区域进行拼接,按顺序重新组合成一幅新的图像,即Merged_R,至此,图像融合结束;
步骤501,对得出的Merged_R图像进行闭操作计算,计算核心采用5*5大小进行;
步骤502,对闭操作后的图像进行骨骼图像提取计算,得出当前图像的骨骼图像,骨骼图像计算过程中,提取条件如下:
1)2×255≤B(P1)≤6×255
2)A(P1)=1
3)P2×P4×P6=0
4)P4×P6×P8=0
其中P1为中心像素值,Pi,i=2,3,…,9,为以P1为中心从像素12点方向开始顺时针排列的临域像素值,B(Pi)表示以像素Pi为中心,邻域像素之和在2*255和6*255之间,A(Pi)表示以像素Pi为中心,临域8枚像素中按照顺时针方向,相邻两个像素出现0至255变化的次数。
步骤601,对提取完毕的骨骼图像进行骨骼端点提取计算,设定P为当前骨骼图像上的骨骼点,对P周围360°分布的8个像素点值进行像素值判定,若有且仅有一个像素点像素值与P点相同,则将P点列入骨骼图像端点;
步骤602,创建新的黑色图像模板(像素值全部为0),大小为480*320P,并将步骤601中保存的骨骼图像端点在模板上进行标注,设其中一个骨骼图像端点在整幅图像中坐标为(i,j),则在黑色图像模板中,将坐标为(i,j)的像素点置为255像素值(白色);
步骤603,重新创建一个新的黑色图像模板,记为Template,将标记完毕的图像模板存入Roots_Img_Vector向量,并进行烟雾根匹配计算,如图5所示,其中白色图方框代表步骤504得出的标记图像完毕的模板,白色方框中黑色点代表步骤602中的标记信息,黑色方框代表新创建的黑色模板,对白色的五张标记图做标记点映射,每个标记点在Template模板中具有51的像素值,若存在位置重叠的像素,则将像素值相加,例如图5示意图中左下侧的三个像素点,其灰度值从左到右分别为51,153,51;
步骤604,将标记后得到的Template模板中像素值大于等于102的像素点作为搜索中心,以20像素为半径,对周围像素进行统计,若搜索半径区域内所有像素值的和大于153,则该搜索中心即为烟雾根节点,若搜索半径内存在多个搜索中心,则最终烟雾根节点坐标为搜索半径内所有搜索中心坐标的平均值;
步骤605,将Vibe_Vector和Roots_Img_Vector中的第一个缓存量删除,为后续循环判定存入新的数据做准备。

Claims (6)

1.一种大范围尺度空间下的自适应烟雾根节点检测方法,其特征在于,包含以下步骤:
第一步,系统初始化:通过对系统的各个变量容器初始状态赋值,以达到能够准确进行后续循环操作的目的;
第二步,动态区域提取:对图像帧计数器进行当前轮数判定,若不为第5张图像,将采集到的RGB图像进行灰度图转换,并采用vibe算法进行动态区域的提取,将提取的动态区域图像进行二值化后存入长度为4的缓存容器Vibe_Vector;
第三步,若为第5张图像,则对当前图像进行MSER+区域提取:将采集到的RGB图像进行高斯金字塔下采样计算,在下采样两层后,分别对三张不同尺度的金字塔进行Shi-Tomas角点检测,对三张金字塔图像中角点密度最大的区域进行自动聚类算法的标记,并对原始尺度图像中被标记区域进行凸包计算,将计算完毕后的凸包区域在原始图像中删除,并将删除区域用像素0进行填充,得到填充后的填充图,进行MSER+算法的计算,得出经过MSER+算法计算后的图像,存入缓存容器后,对缓存容器中的三张MSER+图像进行融合计算,得出一张融合区域图像;
第四步,将四帧动态背景图和一帧MSER+图进行图像融合:融合算法采用朴素贝叶斯融合理论进行,分别对四幅动态图像进行概率统计,得出不同像素区域先验概率,其次对MSER+图像的不同像素区域进行条件概率统计,最后通过贝叶斯公式计算出各个像素区域的活跃概率,并对超过活跃阈值的区域进行像素级的融合计算,得出融合后的图像;
第五步,骨骼图像提取区域的代表坐标:对融合得到的单通道二值图像连通域进行骨骼图像提取,并计算出骨骼图像的端点坐标,记录该图像中所有的骨骼图像端点坐标,该坐标记录即为当前帧图像的候选区域代表坐标;
第六步,将第五步得出的骨骼图像候选区域代表坐标进行连续五帧的统计,若存在连续帧图像端点坐标在范围区域内稳定存在,并浮动于小半径范围内,则该小半径范围内所有端点坐标的平均值为烟雾根节点。
2.根据权利要求1所述的一种大范围尺度空间下的自适应烟雾根节点检测方法,其特征在于所述第一步中,系统初始化的具体执行方法为:
步骤101,对图像帧计数器初始化,对Vibe算法执行初始化,对MSER算法执行初始化,对图像存储容器初始化;
步骤102,在图像容器初始化的过程中,Vibe图像缓存容器长度为4,即每4帧Vibe图像作为动态背景信息进行后续贝叶斯概率提取的模板,Vibe图像容器初始放入3张Vibe图像;
步骤103,在图像容器初始化的过程中,MSER图像缓存容器长度为3,即每3帧MSER图像作为远距离背景信息进行后续贝叶斯概率提取的模板,MSER图像容器初始放入2张MSER图像,并将其中任意一张作为基础MSER_Img在MSER_Init()中执行;
步骤104,在图像容器初始化的过程中,Roots_Img_Vector图像缓存容器长度为5,即每5帧根节点图像作为一次烟雾根的判定依据,初始化过程先存入4张大小为480*320P的纯黑色单通道图像。
3.根据权利要求1所述的一种大范围尺度空间下的自适应烟雾根节点检测方法,其特征在于所述的第三步中,将采集到的RGB图像进行高斯金字塔下采样计算,在下采样两层后,分别对三张不同尺度的金字塔进行Shi-Tomas角点检测,具体执行方法为:
步骤301,读取当前帧图像后,对图像帧计数器进行当前轮数判定,若为第5张图像,则对当前图像进行MSER算法下的远距离信息提取过程;
步骤302,对读入图像做高斯金字塔计算处理,得出3张逐次下采样条件下的高斯金字塔模型,即:尺度1:与输入帧图像大小相同,尺度2:图像的长和宽各为输入图像尺度的1/2,高斯滤波过程采用3× 3卷积核进行,尺度3:图像的长和宽各为输入图像尺度的1/4,高斯滤波过程采用3× 3卷积核进行,并将三张不同尺度下的图像存入GP_Vector容器;
步骤303,将三张高斯金字塔图像中的最小尺寸图片划分为偶数个判定区域,采用480*320P的图像分辨率,分为24个最小区域感受野,每个感受野的分辨率为20*20像素;
步骤304,分别对三张不同尺度的图像进行Shi-Tomas角点的检测,分别得出各个图像在各个匹配感受野区域中的角点数目,计算尺度变换下角点的保持度;设感受野等级1区域1中,角点检测数目为L1N1,匹配感受野等级2区域1中,角点检测数目为L2N1,同理,匹配感受野等级3区域1中,角点检测数目为L3N1,保持度计算公式如下:
Figure FDA0002907542820000031
步骤305,对保持度进行阈值判定,若Keep值为0,则在对应于匹配感受野等级3的区域中删除所有角点信息,相应区域所有的角点清空,不保留角点信息,若Keep值大于0.6,则将匹配感受野等级3的区域中所有角点保留,若Keep值小于0.6但大于0,则将匹配感受野等级3中的角点随机删除,直到剩余角点数量和匹配感受野等级2中的角点数目一致。
4.根据权利要求1所述的一种大范围尺度空间下的自适应烟雾根节点检测方法,其特征在于所述的第三步中,存入缓存容器后,对缓存容器中的三张MSER+图像进行融合计算,得出一张融合图像,具体执行方法为:
步骤315,对填充图执行MSER+算法的计算,由于MSER+算法仅仅能提取出图像中白色的最大极值稳定区域,所有被凸包标记,并填充为0的像素值均不会被检测到,以达到除去干扰物的作用,得到MSER+算法下的远距离检测图像;
步骤316,将得到的MSER+图像存入MSER_Vector,并对MSER_Vector中的三张MSER+图像进行融合,首先,对三张MSER+图像进行二值化处理,并进行区域分割,每张图像分为48*32个像素为10*10的小区域;
步骤317,每个区域共有100颗像素点,三张图像相同位置的小区域图像进行“与”操作计算,公式如下:
AreaMSER(i,j)=Area_MSER1(i,j)&Area_MSER2(i,j)&Area_MSER3(i,j) (2)
其中AreaMSER(i,j)是融合后的MSER+图像位于(i,j)位置的小区域图像,由于每张图小区域共有48*32个,即imax=48,jmax=32,Area_MSERn(i,j),为编号为n的MSER+图像位于(i,j)位置的小区域,由于小区域均为二值化区域,该操作本质即保留MSER+三张图像中重叠的255白色区域;
步骤318,将步骤317中选出的各个位置的小区域重新存储,即MSER_Area,为后续贝叶斯概率计算做准备;
步骤319,将MSER_Vector中的第一个元素删除,为后续MSER图像存入Vector让出存储空间。
5.根据权利要求4所述的一种大范围尺度空间下的自适应烟雾根节点检测方法,其特征在于所述的第四步中,将四帧动态背景图和一帧MSER+图进行图像融合:融合算法采用朴素贝叶斯融合理论进行,分别对四幅动态图像进行概率统计,得出不同像素区域先验概率,其次对MSER+图像的不同像素区域进行条件概率统计,最后通过贝叶斯公式计算出各个像素区域的活跃概率,并对超过活跃阈值的区域进行像素级的融合计算,得出融合后的图像,具体执行方法为:
步骤401,对存入Vibe_Vector的Vibe图像进行二值化处理,并进行区域分割,每张图像分为48*32个像素为10*10的小区域;
步骤402,对四张图像的所有区域进行融合操作,并将4张Vibe图像融合为1张动态图像,首先,对每张图像的48*32个小区域进行活跃度统计,每个小区域共有100颗像素点,每个小区域的活跃度计算公式如下:
Act=∑Pixel_mark(x,y) (3)
其中,Act为小区域活跃度,其中,xmax=10,ymax=10,当坐标为(x,y)的像素值不为0,则该点的Pixel_mark=1,计算出4张图片所有区域的Act值,并计算这些Act值对应4块小区域的最大值Actmax,计算公式如下:
Actmax=max(Act(i,j)m) (4)
其中,Act(i,j)代表图像中位置为(i,j)的小区域的Act值,由于每张图小区域共有48*32个,即imax=48,jmax=32,公式中m=1,2,3,4,代表4张Vibe图像;
步骤403,对各个分割小区域进行基于Actmax的区域选择,并最终通过各个选择的区域拼接成为一幅图,设Area(i,j)为融合后图像中位置为(i,j)的小区域,该区域选择方式如下:
Figure FDA0002907542820000041
其中
Figure FDA0002907542820000042
代表位置为(i,j)的4张Vibe图像的小区域中,具有最大区域活跃度的小区域;
步骤404,将步骤403中选出的各个位置的小区域重新存储,即Vibe_Area,为后续贝叶斯概率计算做准备;
步骤405,计算贝叶斯先验概率Bayes_Vibe_PA,Bayes_MSER_PA,概率以Vector形式存储,每个小区域Area计算一个PA值,PA公式计算如下:
Figure FDA0002907542820000043
当小区域坐标为(x,y)的像素值不为0,则该点的Pixel_mark=1,即,小区域内像素值不为0的像素点个数与当前区域所有像素点个数的比值,即为当前区域内的PA概率;
步骤406,计算条件概率Bayes_PB,该概率表示对每一个小区域Area,在Vibe图像中活跃的前提下,在MSER+图像中也同样活跃的概率,每一个小区域单独计算一个PB值,计算公式如下:
Figure FDA0002907542820000051
Vibe图像中,坐标为(x,y)的像素值不为0时,则该点的Vibe_Mark(x,y)=1,分母含义即为当前小区域内,Vibe图像中像素点不为0的个数;MSER+图像的小区域中,若坐标为(x,y)的像素值在Vibe图像中对应小区域内,像素值不为0,且在MSER+小区域中像素值也不为0时,则该点的MSERvibe_Mark(x,y)=1;
步骤407,计算条件概率Bayes_PC,该概率表示对每一个小区域Area,在Vibe图像中不活跃的前提下,在MSER+图像中活跃的概率,每一个小区域单独计算一个PC值,计算公式如下:
Figure FDA0002907542820000052
Vibe图像中,坐标为(x,y)的像素为0时,则该点的VibeP_Mark(x,y)=1,分母含义即为当前小区域内,Vibe图像中像素值恒为0的个数;MSER+图像的小区域中,若坐标为(x,y)的像素值在Vibe图像中对应小区域内,像素值为0,但在MSER+小区域中像素值不为0时,则该点的MSERvibeP_Mark(x,y)=1;
步骤408,计算条件概率Bayes_PD,该概率表示对每一个小区域Area,在Vibe图像中活跃的前提下,在MSER+图像中不活跃的概率,每一个小区域单独计算一个PD值,计算公式如下:
Figure FDA0002907542820000053
Vibe图像中,坐标为(x,y)的像素不为0时,则该点的Vibe_Mark(x,y)=1,分母含义即为当前小区域内,Vibe图像中像素值不为0的个数;MSER+图像的小区域中,若坐标为(x,y)的像素值在Vibe图像中对应小区域内,像素值不为0,但在MSER+小区域中像素值恒为0时,则该点的MSERPvibe_Mark(x,y)=1;
步骤409,计算条件概率Bayes_PE,该概率表示对每一个小区域Area,在Vibe图像中不活跃的前提下,在MSER+图像中同样不活跃的概率,每一个小区域单独计算一个PE值,计算公式如下:
Figure FDA0002907542820000061
Vibe图像中,坐标为(x,y)的像素为0时,则该点的VibeP_Mark(x,y)=1,分母含义即为当前小区域内,Vibe图像中像素值恒为0的个数;MSER+图像的小区域中,若坐标为(x,y)的像素值在Vibe图像中对应小区域内,像素值恒为0,且在MSER+小区域中像素值也恒为0时,则该点的MSERPvibeP_Mark(x,y)=1;
步骤410,计算条件概率Bayes_R1,该概率表示对每一个小区域Area,在MSER图像中活跃的前提下,在Vibe图像中同样活跃的概率,每一个小区域单独计算一个R1值,计算公式如下:
Figure FDA0002907542820000062
步骤411,计算条件概率Bayes_R2,该概率表示对每一个小区域Area,在MSER图像中不活跃的前提下,在Vibe图像中活跃的概率,每一个小区域单独计算一个R2值,计算公式如下:
Figure FDA0002907542820000063
步骤412,根据概率R1,R2计算MSER图像和Vibe图像融合结果,图像融合以MSER+图像为基础,Vibe图像为辅助,融合过程以区域为最小执行单位,即每张图像融合需48*32次循环完成,首先,对MSER+图像的每个小区域进行活跃度PA的判定,若当前区域MSER_Area(i,j)的PA值大于阈值20,则视为该区域激活,在激活的前提下,判定当前区域R1的激活度,若R1的数值大于阈值40,则该区域融合计算结果如下:
Area_Fusion(i,j)=MSER_Area(i,j)+Vibe_Area(i,j) (13)
即该区域对应的MSER区域和Vibe区域相加,对于像素超过255的像素值,保留255像素值上限;
若当前激活度R1小于阈值40,则该区域保留MSER+区域,不进行融合,即:
Area_Fusion(i,j)=MSER_Area(i,j) (14)
若当前区域MSER_Area(i,j)的PA值小于阈值20,则视该区域未激活,在未激活前提下,判定当前区域R2的激活度,若R2数值大于20,则该区域融合计算结果如下:
Area_Fusion(i,j)=Vibe_Area(i,j) (15)
即该区域保留vibe图像中的部分,不采用MSER+图像中的区域;若当前激活度R2小于阈值20,则该区域保留MSER+区域,不进行融合;
步骤413,将全部处理完毕的Area_Fusion(i,j)区域进行拼接,按顺序重新组合成一幅新的图像,即Merged_R,至此,图像融合结束。
6.根据权利要求1所述的一种大范围尺度空间下的自适应烟雾根节点检测方法,其特征在于所述的第六步中,将第五步得出的骨骼图像候选区域代表坐标进行连续五帧的统计,若存在连续帧图像端点坐标在范围区域内稳定存在,并浮动于小半径范围内,则该小半径范围内所有端点坐标的平均值为烟雾根节点,具体执行方法为:
步骤601,对提取完毕的骨骼图像进行骨骼端点提取计算,设定P为当前骨骼图像上的骨骼点,对P周围360°分布的8个像素点值进行像素值判定,若有且仅有一个像素点像素值与P点相同,则将P点列入骨骼图像端点;
步骤602,创建新的黑色图像模板,大小为480*320P,并将步骤601中保存的骨骼图像端点在模板上进行标注,设其中一个骨骼图像端点在整幅图像中坐标为(g,k),则在黑色图像模板中,将坐标为(g,k)的像素点置为255像素值;
步骤603,重新创建一个新的黑色图像模板,记为Template,将标记完毕的图像模板存入Roots_Img_Vector图像缓存容器,并进行烟雾根匹配计算;
步骤604,将标记后得到的Template模板中像素值大于等于102的像素点作为搜索中心,以20像素为半径,对周围像素进行统计,若搜索半径区域内所有像素值的和大于153,则该搜索中心即为烟雾根节点,若搜索半径内存在多个搜索中心,则最终烟雾根节点坐标为搜索半径内所有搜索中心坐标的平均值;
步骤605,将Vibe_Vector和Roots_Img_Vector中的第一个缓存量删除,为后续循环判定存入新的数据做准备。
CN201910613683.0A 2019-07-09 2019-07-09 一种大范围尺度空间下的自适应烟雾根节点检测方法 Active CN110309808B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910613683.0A CN110309808B (zh) 2019-07-09 2019-07-09 一种大范围尺度空间下的自适应烟雾根节点检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910613683.0A CN110309808B (zh) 2019-07-09 2019-07-09 一种大范围尺度空间下的自适应烟雾根节点检测方法

Publications (2)

Publication Number Publication Date
CN110309808A CN110309808A (zh) 2019-10-08
CN110309808B true CN110309808B (zh) 2021-03-12

Family

ID=68079575

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910613683.0A Active CN110309808B (zh) 2019-07-09 2019-07-09 一种大范围尺度空间下的自适应烟雾根节点检测方法

Country Status (1)

Country Link
CN (1) CN110309808B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733869A (zh) * 2019-10-28 2021-04-30 中移信息技术有限公司 训练文本识别模型的方法、装置、设备及存储介质
CN111242128B (zh) * 2019-12-31 2023-08-04 深圳奇迹智慧网络有限公司 目标检测方法、装置、计算机可读存储介质和计算机设备
CN113780195A (zh) * 2021-09-15 2021-12-10 北京林业大学 一种基于块提取的森林火灾烟雾根节点检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009529A (zh) * 2017-12-27 2018-05-08 北京林业大学 一种基于特征根和流体力学的森林火灾烟视频目标检测方法
CN108038867A (zh) * 2017-12-22 2018-05-15 湖南源信光电科技股份有限公司 基于多特征融合和立体视觉的火焰检测和定位方法
US20180197294A1 (en) * 2017-01-09 2018-07-12 Qualcomm Incorporated Methods and apparatus for video background subtraction
CN109409224A (zh) * 2018-09-21 2019-03-01 河海大学 一种自然场景火焰检测的方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809463B (zh) * 2015-05-13 2018-07-13 大连理工大学 一种基于密集尺度不变特征转换字典学习的高精度火灾火焰检测方法
CN106650600A (zh) * 2016-10-17 2017-05-10 东南大学 一种基于视频图像分析的森林烟火检测方法
CN107025652B (zh) * 2017-05-05 2019-09-27 太原理工大学 一种基于运动特性和颜色时空信息的火焰检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180197294A1 (en) * 2017-01-09 2018-07-12 Qualcomm Incorporated Methods and apparatus for video background subtraction
CN108038867A (zh) * 2017-12-22 2018-05-15 湖南源信光电科技股份有限公司 基于多特征融合和立体视觉的火焰检测和定位方法
CN108009529A (zh) * 2017-12-27 2018-05-08 北京林业大学 一种基于特征根和流体力学的森林火灾烟视频目标检测方法
CN109409224A (zh) * 2018-09-21 2019-03-01 河海大学 一种自然场景火焰检测的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A novel smoke detection algorithm based on MSER tracking;Sun Li et al;《The 27th Chinese Control and Decision Conference》;20150720;5676-5681 *
Forest Fire Smoke Detection Based on Visual Smoke Root and Diffusion Model;Yu Gao et al;《2019 Springer Science+Business Media》;20190228;1-26 *
基于颜色增强变换和MSER检测的烟雾检测算法;李笋等;《北京理工大学学报》;20161031;第36卷(第10期);1072-1078 *

Also Published As

Publication number Publication date
CN110309808A (zh) 2019-10-08

Similar Documents

Publication Publication Date Title
CN109583425B (zh) 一种基于深度学习的遥感图像船只集成识别方法
CN113658132B (zh) 基于计算机视觉的结构件焊缝检测方法
CN110309808B (zh) 一种大范围尺度空间下的自适应烟雾根节点检测方法
CN108171752A (zh) 一种基于深度学习的海面船只视频检测与跟踪方法
CN111666842B (zh) 一种基于双流空洞卷积神经元网络的阴影检测方法
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN108009529B (zh) 一种基于特征根和流体力学的森林火灾烟视频目标检测方法
CN108564120B (zh) 基于深度神经网络的特征点提取方法
CN109840483B (zh) 一种滑坡裂缝检测与识别的方法及装置
CN110866455B (zh) 一种路面水体检测方法
CN110008900B (zh) 一种由区域到目标的可见光遥感图像候选目标提取方法
CN114627052A (zh) 一种基于深度学习的红外图像漏气漏液检测方法及系统
CN110598613B (zh) 一种高速公路团雾监测方法
Xiang et al. Moving object detection and shadow removing under changing illumination condition
CN110210428B (zh) 一种基于mser的远距离复杂环境下的烟雾根节点检测方法
CN111126412A (zh) 基于特征金字塔网络的图像关键点检测方法
CN107967692A (zh) 一种基于跟踪学习检测的目标跟踪优化方法
CN114841972A (zh) 基于显著性图和语义嵌入特征金字塔的输电线路缺陷识别方法
CN111753693B (zh) 一种静态场景下目标检测方法
JP2019185787A (ja) 地理的地域内のコンテナのリモート決定
CN114359591A (zh) 一种融合边缘特征的自适应图像匹配算法
Medouakh et al. Improved object tracking via joint color-LPQ texture histogram based mean shift algorithm
CN111915628A (zh) 一种基于预测目标密集边界点的单阶段实例分割方法
CN114821087A (zh) 一种深度图像关键点的检测与描述模型及方法
CN114140484A (zh) 一种基于光电传感器的高鲁棒性海天线提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant