CN111144337A - 火灾检测方法、装置及终端设备 - Google Patents
火灾检测方法、装置及终端设备 Download PDFInfo
- Publication number
- CN111144337A CN111144337A CN201911391845.7A CN201911391845A CN111144337A CN 111144337 A CN111144337 A CN 111144337A CN 201911391845 A CN201911391845 A CN 201911391845A CN 111144337 A CN111144337 A CN 111144337A
- Authority
- CN
- China
- Prior art keywords
- image
- frame
- background
- pixel
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 68
- 238000012545 processing Methods 0.000 claims abstract description 42
- 230000011218 segmentation Effects 0.000 claims abstract description 19
- 238000004590 computer program Methods 0.000 claims description 18
- 238000000354 decomposition reaction Methods 0.000 claims description 8
- 230000000877 morphologic effect Effects 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 abstract description 21
- 230000008859 change Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012732 spatial analysis Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
- Y02A40/28—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture specially adapted for farming
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明适用于图像处理技术领域,提供了一种火灾检测方法、装置及终端设备,所述方法包括:采用三帧差法对目标区域的待检测视频的各帧图像进行二值化处理,得到第一二值化图像;根据待检测视频的第一帧图像对应的第一二值化图像建立背景模型;根据亮度阈值分割法对第一二值化图像进行处理,得到各帧图像对应的第二二值化图像;根据背景模型对各个第二二值化图像的背景进行更新;根据各帧图像对应的第三二值化图像建立前景目标特征模型,并根据前景目标特征模型判断目标区域是否发生火灾。本申请基于三帧差分和亮度阈值的综合二值化结果进行背景更新,能够降低将缓慢运动的前景更新为背景的风险,解决图像处理过程中的鬼影问题。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及一种火灾检测方法、装置及终端设备。
背景技术
火灾的识别以及警报问题已经成为火灾预防领域研究的重要课题之一。传统的火灾报警系统一般基于红外传感器和烟雾传感器,也就是探测火灾发生时生成的烟、温度和光等参量,经信号处理、比较、判断后发出火灾报警信号。但是这种方法的时效性较差,往往着火面积扩大后才能发现火情并报警。
近年来,为了克服传统技术的局限性,基于图像处理的火灾检测技术吸引了越来越多学者的注意。该项技术主要通过对摄像机拍摄的视频进行特征提取与分析,来判定监控区域是否存在火灾,但是由于对运动的目标图像进行处理时容易出现“鬼影”,因此识别准确性仍有待提高。
发明内容
有鉴于此,本发明实施例提供了火灾检测方法、装置及终端设备,以解决现有技术中火灾识别准确性较差的问题。
本发明实施例的第一方面提供了一种火灾检测方法,包括:
获取目标区域的待检测视频;
根据目标区域的待检测视频的第一帧图像,建立背景模型;
采用三帧差法和亮度阈值分割法分别对所述待检测视频的各帧图像进行二值化处理,得到各帧图像对应的第一二值化图像;
根据所述背景模型对各个第一二值化图像的背景进行更新,得到各帧图像对应的第二二值化图像;
根据各帧图像对应的第二二值化图像建立前景目标特征模型,并根据所述前景目标特征模型判断所述目标区域是否发生火灾。
本发明实施例的第二方面提供了一种火灾检测装置,包括:
视频获取模块,用于获取目标区域的待检测视频;
初始化背景模型建立模块,用于根据目标区域的待检测视频的第一帧图像,建立背景模型;
第一二值化模块,用于采用三帧差法和亮度阈值分割法分别对所述待检测视频的各帧图像进行二值化处理,得到各帧图像对应的第一二值化图像;
第二二值化模块,用于根据所述背景模型对各个第一二值化图像的背景进行更新,得到各帧图像对应的第二二值化图像;
火灾判断模块,用于根据各帧图像对应的第二二值化图像建立前景目标特征模型,并根据所述前景目标特征模型判断所述目标区域是否发生火灾。
本发明实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述火灾检测方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上所述火灾检测方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:本实施例首先根据目标区域的待检测视频的第一帧图像,建立背景模型;然后采用三帧差法和亮度阈值分割法分别对所述待检测视频的各帧图像进行二值化处理,得到各帧图像对应的第一二值化图像;根据所述背景模型对各个第一二值化图像的背景进行更新,得到各帧图像对应的第二二值化图像;最后根据各帧图像对应的第二二值化图像建立前景目标特征模型,并根据所述前景目标特征模型判断所述目标区域是否发生火灾。本实施例结合火灾的独特特征,综合利用三帧差法和亮度阈值法得到第二帧图像的二值化图像,能够改善前景检测的效果,并且基于三帧差分的二值化结果进行背景更新,降低将缓慢运动的前景更新为背景的风险,解决了图像处理过程中的鬼影问题,进而提高火灾检测的准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的火灾检测方法的流程示意图;
图2是本发明实施例提供的图1中S102的流程示意图;
图3是本发明实施例提供的图1中S103的流程示意图;
图4是本发明实施例提供的图1中S104的流程示意图;
图5是本发明实施例提供的火灾检测装置的的结构示意图;
图6是本发明实施例提供的像素点x的样本矩阵选取示例图;
图7是本发明实施例提供的像素点x的另一种样本矩阵选取示例图;
图8是本发明实施例提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
参照图1,图1示出了本发明实施例提供的火灾检测方法的流程,为了便于说明,仅示出了与本实施例相关的内容,其过程详述如下:
S101:采用三帧差法对目标区域的待检测视频的各帧图像进行二值化处理,得到各帧图像对应的第一二值化图像。
本实施例的流程主体可以为终端设备,图像采集装置实时采集目标区域的待检测视频,然后将待检测视频发送至终端设备,终端设备按照预设周期获取待检测视频,并将待检测视频进行分帧处理,得到多帧图像。具体地,预设周期可以为1分钟。
在本实施例中,在获取到待检测视频后,对待检测视频中的各帧图像进行降噪处理,具体地,可以采用中值滤波的方式对待检测视频进行降噪处理。
相应的,S101的步骤还可以包括:根据降噪处理后的各帧图像得到对应的第一二值化图像。
在本实施例中,以第二帧图像为例,详述根据三帧差法对各帧图像进行二值化处理的过程,其中第二帧图像为待检测视频的任一帧图像,其过程详述如下:
1)根据三帧差法提取第二帧图像的粗运动目标;
设P(x,y,t-1)、P(x,y,t)和P(x,y,t+1)分别为待检测视频中三个相邻的视频帧图像,则对该三个相邻帧图像进行三帧差运算得到差分图像,其运算公式如式(1)所示。
D(x,y,Δt)=|P(x,y,t)-P(x,y,t-1)|*|P(x,y,t+1)-P(x,y,t)| (1)
式(1)中,D(x,y,Δt)表示三帧差分得到的像素位置为(x,y)的差分图像,P(x,y,t-1)表示t-1时刻像素位置为(x,y)的像素点图像;P(x,y,t)表示t时刻坐标为(x,y)的像素点图像;P(x,y,t+1)表示t+1时刻坐标为(x,y)的像素点图像。
2)对差分图像进行阈值分割;
具体地,首先需要动态的获取第一分割阈值τ,其过程详述如下:
假设第二帧图像中前景像素所占的份额记为ω0,将其平均灰度值记为μ0;第二帧图像中背景像素所占的份额记为ω1,将其平均灰度值记为μ1;第二帧图像的平均灰度记为μ,类间方差记为g。
步骤一:阈值初始化。将第二帧图像的最大灰度值Gmax与最小灰度值Gmin做平均处理以设置初始分割阈值T,初始分割阈值计算公式如式(2)所示。
步骤二:计算两部分像素值方差。
在像素大小为M×N的第二帧图像中,假设第二帧图像中像素的灰度值小于初始分割阈值T的像素个数为N0,灰度值大于初始分割阈值T的像素个数为N1:则第二帧图像的前景区域方差与背景区域方差分别如式(3)所示:
式(3)中,g0表示前景区域方差,g1表示背景区域方差。
步骤三:计算第一分割阈值τ,其计算公式如式(4)所示。
在本实施例中,采用第一分割阈值对差分图像进行分割,则分割结果如式(5)所示:
式(5)中,R(x,y)表示阈值分割后的第一二值化图像。
S102:根据所述待检测视频的第一帧图像对应的第一二值化图像建立背景模型。
在本实施例中,第一帧图像为待检测视频的任一帧图像,优选地,第一帧图像可以选取待检测视频的初始帧图像。
S103:根据亮度阈值分割法分别对各帧图像对应的第一二值化图像进行处理,得到各帧图像对应的第二二值化图像;
S104:根据所述背景模型对各个第二二值化图像的背景进行更新,得到各帧图像对应的第三二值化图像;
S105:根据各帧图像对应的第三二值化图像建立前景目标特征模型,并根据所述前景目标特征模型判断所述目标区域是否发生火灾。
本实施例结合火灾的独特特征,综合利用三帧差法和亮度阈值法得到各帧图像对应的二值化图像,提升了前景检测的效果,并且基于三帧差分的二值化结果进行背景更新,能够降低将缓慢运动的前景更新为背景的风险,解决图像处理过程中的鬼影问题,进而提高火灾检测的准确性。
在一个实施例中,图1中S102的具体实现流程包括:
为所述第一帧图像对应的第一二值化图像中的每个像素点分别创建样本集,得到初始化的背景模型;所述样本集为由第一像素点的相邻像素点作为样本组成的样本集,所述第一像素点为所述第一帧图像对应的第一二值化图像中的任一像素点。
在本实施例中,由第一帧图像的第一二值化图像的所有像素点对应的样本集构成的模型为初始化的背景模型;选取第一像素点相邻的多个像素点作为第一像素点对应的样本,形成第一像素点对应的样本集。
具体地,如图6所示,假设x为第一像素点,x的样本集包括20个样本,则以x为中心从第一帧图像对应的第一二值化图像中取5*5的样本矩阵,然后从样本矩阵中随机选取20个样本组成第一像素点的样本集。若x位于第一帧图像的边沿,则将样本矩阵平移至边界,如图7所示,然后从得到的样本矩阵中选取20个随机样本组成第一像素点的样本集。
在一个实施例中,如图2所示,图2示出了图1中S103的具体实现流程,其包括:
S201:根据预设亮度阈值对第二帧图像进行二值化处理,得到第四二值化图像;所述第二帧图像为所述待检测视频中的任一帧图像;
S202:将所述第二帧图像对应的第一二值化图像和第四二值化图像进行与运算,得到各帧图像对应的第二二值化图像。
在本实施例中,设L(x,y)为第四二值化图像,则第二二值化图像如式(6)所示:
其中,F(x,y)表示第二二值化图像。
从上述实施例可知,在三帧差分获取运动目标的基础上添加与高亮运动区域进行“与”运算的计算,此举主要考虑到火灾的独特特征,结合火灾的特征对其进行前景获取,提升了前景检测的效果,而且更具有实用性。
在一个实施例中,如图3所示,图3示出了图1中S104的具体实现流程,其包括:
S301:若当前帧图像对应的第二二值化图像中第一像素位置的像素为前景,则基于VIBE算法,采用当前的背景模型对所述第一二值化图像中第一像素位置的像素进行更新,得到当前帧图像对应的第三二值化图像;
S302:根据当前帧图像对应的第二二值化图像中第一像素位置的像素对当前的背景模型进行更新,并根据更新后的背景模型对下一帧图像对应的第二二值化图像的背景进行更新。
在本实施例中,若第二二值化图像中第一像素位置(x,y)的像素点V(x)为前景,则计算所述第一像素位置对应的欧式空间SR(V(x)),并将所述第一像素位置对应的欧式空间SR(V(x))作为第一欧式空间;将落入所述第一欧式空间内的第一样本的数量作为第一数量,将未落入所述第一欧式空间内的第一样本的数量作为第二数量;若所述第一数量大于所述第二数量,则将当前帧图像对应的第二二值化图像中第一像素位置的像素点更新为背景;若所述第一数量小于或等于第二数量,则保持所述当前帧图像对应的第二二值化图像中第一像素位置的像素点为前景。
具体地,所述第一样本为当前的背景模型中所述第一像素位置对应的样本集中的样本。
若第二二值化图像中第一像素位置(x,y)的像素点V(x)为背景,则不对第二二值化图像中的第一像素位置的像素进行更新。
通过上述方法对第二二值化图像进行背景更新,从而得到第三二值化图像。
当完成当前帧图像的第二二值化图像的背景更新后,对当前的背景模型进行更新,然后采用更新后的背景模型进行下一帧图像对应的第二二值化图像的更新,依次类推,直至完成待检测视频的所有视频帧的第二二值化图像的背景更新,得到各帧图像对应的第三二值化图像。
本实施例将三帧差法和VIBE算法融合,能够提高VIBE算法的运算速度,并且可以抑制“鬼影”的产生,保护了运动缓慢的运动目标。
在一个实施例中,图3中S302的具体实现流程详述如下:
步骤1:若当前帧图像对应的第二二值化图像中第一像素位置的像素为背景,则将当前的背景模型中所述第一像素位置对应的像素更新为背景,并根据所述第三二值化图像对第一样本集中的背景样本进行更新;所述第一样本集为当前的背景模型中所述第一像素位置对应的样本集,所述第一像素位置为所述目标区域的任一像素位置;
步骤2:在本实施例中,当F(x,y)判断为背景时,即F(x,y)=0,采用F(x,y)对当前背景模型中(x,y)位置对应的像素进行替换,然后对(x,y)对应的样本集进行更新。具体地,当该样本集中的某个样本像素为背景时,则确定该样本为第二样本,并根据第二样本的位置查找第三二值化图像中对应位置的像素,以及以第三二值化图像中对应位置的像素替换第二样本,从而更新(x,y)对应的样本集,且不对(x,y)对应的样本集中的前景样本进行更新,此步骤的目的在于避免将缓慢运动的火焰区域更新为背景。
若当前帧图像对应的第二二值化图像中第一像素位置的像素为前景,则统计各帧图像对应的第二二值化图像中所述第一像素位置对应的前景次数和背景次数,并在所述背景次数大于或等于所述前景次数时,将当前的背景模型中所述第一像素位置对应的像素更新为背景,以及根据所述第三二值化图像对所述第一样本集中的背景样本进行更新。
在本实施例中,若第二二值化图像中的F(x,y)判断为前景,即F(x,y)=1,则为第二二值化图像中的前景像素点与背景像素点添加相应的计数器。当像素位置(x,y)的像素点在后续帧中被判断为前景,则位置(x,y)对应的前景计数器计数加1,如果被判断为背景,则位置(x,y)对应的背景计数器计数加1。当将待检测视频帧遍历完成后,判断位置(x,y)对应的前景次数是否大于背景次数,若位置(x,y)对应的前景次数大于背景次数,则当前背景模型中位置(x,y)对应的像素不被更新到背景中,反之则更新到背景中。
通过上述的过程对背景模型进行更新,然后采用更新后的背景模型对下一帧第二二值化图像进行背景更新,重复上述S301-S302更新过程,直至完成待检测视频的所有帧图像的第二二值化图像的背景更新。
本实施例基于三帧差分的效果有选择性的进行像素点进行更新,降低了将缓慢运动的前景更新为背景的风险,从而提高疑似火灾区域的识别准确性。
在一个实施例中,如图4所示,图4示出了图1中S105的具体实现流程,其过程详述如下:
S401:对各帧图像对应的第三二值化图像分别进行形态学处理,并提取经过形态学处理的第三二值化图像中的前景区域作为各帧图像对应的疑似火灾区域。
在本实施例中,针对待检测视频的每一帧图像,首先对第三二值化图像进行中值滤波处理,然后将经过滤波处理的第三二值化图像进行膨胀腐蚀处理,获得完整疑似火灾区域。得到的图像为仅仅包含疑似火灾区域的图像。
S402:对各帧图像对应的疑似火灾区域创建火焰差分金字塔,得到金字塔特征图像组,并获取所述金字塔特征图像组的亮度信息。
在本实施例中,首先建立各帧图像对应的疑似火灾区域的火焰差分金字塔,其过程详述如下:
1)根据疑似火灾区域建立火焰高斯金字塔,为详细的反应出火焰的特征,建立的火焰高斯金字塔共包含7阶,其中每阶有8层尺度空间表达。
2)根据火焰高斯金字塔建立火焰差分金字塔(DOG,Difference of Gaussian)。
在获取到各帧图像对应的火焰差分金字塔后,由于各帧图像对应的金字塔特征图像的数值比较小,只有将该图像归一化才能得到肉眼可识别的图像。因此将火焰差分金字塔中所有图片归一化并使用最近邻插值法将其还原为原图像分辨率后,可得到具有相同分辨率的垄行高斯差分金字塔特征图像组,即待检测视频对应的金字塔特征图像组。
在本实施例中,在得到金字塔特征图像组后,将金字塔特征图像组的颜色空间由RGB颜色空间转换为YCbCr空间,并获取各帧图像对应的疑似火焰区域的亮度信息。
具体地,根据颜色空间转换公式(7)得到各帧图像的YCbCr空间参数。
式(7)中,Y表示像素点的亮度,Cb表示蓝色分量,Cr表示红色分量。R代表RGB空间红色分量,G代表RGB空间绿色分量,B代表RGB空间蓝色分量。
根据式(7),可以得到各帧图像对应的亮度信息,从而得到金字塔特征图像组的亮度信息I=[Y(x,y,t),Y(x,y,t+1).....Y(x,y,t+n)],其中,I表示像素位置为(x,y)的像素点的亮度信息集合,t表示收集时间,n表示收集个数。
S403:对所述金字塔特征图像组的亮度信息进行时间域分析,得到所述疑似火灾区域对应的时间域模型。
在本实施例中,对金字塔特征图像组的亮度信息进行离散小波处理,使用高通滤波器和低通滤波器对存储在I中的历史像素值进行时间域分析。在小波分析中,特定位置的高频活动由一个高频子信号标记,高频子信号值不等于0。对于未检测到状态改变的像素,改变值高波段子信号将等于或接近0的值。一般来说,当像素点由背景点转换为火焰的像素点,亮度值发生急剧的过渡,反过来也一样。这个过渡反应在频域上即为在高频子信号上通过0的跃迁的数目,因此可以用作确定像素是否是像素火焰的基础。
基于上述理论,记录高频域中的高频子信号通过0的阶跃数,可确定像素是否为火焰。时间域模型如式(8)所示。
式(8)中,st代表高频子信号的阶跃数,fr代表像素点V(x)的像素变化频率,1表示满足火灾的时间变化特征,0表示不满足。
具体地,可以获取像素点V(x)在不同时刻的像素值,只要像素值发生改变,添加计数器并进行加一操作,得到的像素值变化次数就是像素变化频率。
S404:对所述时间域模型进行小波分解,创建所述疑似火灾区域对应的空间域模型。
在一个实施例中,图4中的S404具体包括:
对所述时间域模型进行小波分解,得到水平系数、垂直系数和对角系数;根据所述水平系数、所述垂直系数和所述对角系数,计算所述疑似火灾区域内每个像素点的能量;根据所述疑似火灾区域内每个像素点的能量,确定所述疑似火灾区域对应的空间域模型。
在本实施例中,空间域模型的建立基于时间域模型。利用小波分解的水平系数、垂直系数和对角系数在频域内计算每个像素点的能量,得到的能量计算公式如式(9)所示。
式(9)中,ER表示位置(x,y)处的像素点能量;CH表示包含高频信息的水平系数,CV表示包含高频信息的垂直系数,CD表示包含高频信息的对角线系数。mt(x,y)表示对应位置(x,y)的下采样区域的结果,可作为有助于空间分析过程的像素位置的标记。
基于式(9)及专家经验,可以确定空间域模型如式(10)所示。
由式(10)可知,空间能量大于0.1的空间确定是火灾区域。
S405:根据所述时间域模型和所述空间域模型得到所述前景目标特征模型。
在本实施例中,前景目标特征模型如式(11)所示。
由式(11)可知,判别或者的条件既要满足时间域模型条件又要满足空间域模型条件,从而提高火灾判别的准确性。
在本实施例中,通过建立火灾高斯金字塔构建多尺度空间,能够保留图像的轮廓信息,结合小波变换善于保留图像细节信息的优势。与单纯的基于视频帧图像进行小波变换得到的信息相比,能够更加立体的将火灾的特征信息构建出来,有效的降低摄像头与火灾距离造成的识别误差。
其次,在时间域模型建立过程中将RGB颜色空间转换到YCbCr空间,克服拍摄环境中光照对火灾识别的影响。YCbCr颜色空间中Y(亮度)、Cb(蓝色)和Cr(红色)分量相互之间存在的可分离性较强。在不同亮度下,YCbCr空间内亮度范围的变化量很大,而色度范围的变化量很小,这有利于对光照变化图像的处理。进而提高火灾判别的准确性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
参照图5,图5示出了本发明实施例提供的火灾检测装置100的结构,其包括:
第一二值化模块110,用于采用三帧差法对目标区域的待检测视频的各帧图像进行二值化处理,得到各帧图像对应的第一二值化图像;
背景模型建立模块120,用于根据所述待检测视频的第一帧图像对应的第一二值化图像建立背景模型;
第二二值化模块130,用于根据亮度阈值分割法分别对各帧图像对应的第一二值化图像进行处理,得到各帧图像对应的第二二值化图像;
背景更新模块140,用于根据所述背景模型对各个第二二值化图像的背景进行更新,得到各帧图像对应的第三二值化图像;
火灾判断模块150,用于根据各帧图像对应的第三二值化图像建立前景目标特征模型,并根据所述前景目标特征模型判断所述目标区域是否发生火灾。
本实施例结合火灾的独特特征,综合利用三帧差法和亮度阈值法得到第二帧图像的二值化图像,提升了前景检测的效果,并且基于三帧差分的二值化结果进行背景更新,从而降低将缓慢运动的前景更新为背景的风险,解决了图像处理过程中的鬼影问题,进而提高火灾检测的准确性。
在一个实施例中,背景模型建立模块120具体包括:为所述第一帧图像对应的第一二值化图像中的每个像素点分别创建样本集,得到初始化的背景模型;所述样本集为由第一像素点的相邻像素点作为样本组成的样本集,所述第一像素点为所述第一帧图像对应的第一二值化图像中的任一像素点。
在一个实施例中,图5中的第二二值化模块130还包括用于执行图2中方法步骤对应的结构,其包括:
亮度阈值分割单元,用于根据预设亮度阈值对第二帧图像进行二值化处理,得到第四二值化图像;所述第二帧图像为所述待检测视频中的任一帧图像;
与运算单元,用于将所述第二帧图像对应的第一二值化图像和第四二值化图像进行与运算,得到各帧图像对应的第二二值化图像。
在一个实施例中,图5中的背景更新模块140还包括用于执行图3所示方法步骤所对应的结构,其包括:
背景更新单元,用于若当前帧图像对应的第二二值化图像中第一像素位置的像素为前景,则基于VIBE算法,采用当前的背景模型对所述第一二值化图像中第一像素位置的像素进行更新,得到当前帧图像对应的第三二值化图像;
背景模型更新单元,用于根据当前帧图像对应的第二二值化图像中第一像素位置的像素对当前的背景模型进行更新,并根据更新后的背景模型对下一帧图像对应的第二二值化图像的背景进行更新。
在一个实施例中,背景模型更新单元包括:
第一背景模型更新单元,用于若当前帧图像对应的第二二值化图像中第一像素位置的像素为背景,则将当前的背景模型中所述第一像素位置对应的像素更新为背景,并根据所述第三二值化图像对第一样本集中的背景样本进行更新;所述第一样本集为当前的背景模型中所述第一像素位置对应的样本集,所述第一像素位置为所述目标区域的任一像素位置;
第二背景模型更新单元,用于若当前帧图像对应的第二二值化图像中第一像素位置的像素为前景,则统计各帧图像对应的第二二值化图像中所述第一像素位置对应的前景次数和背景次数,并在所述背景次数大于或等于所述前景次数时,将当前的背景模型中所述第一像素位置对应的像素更新为背景,以及根据所述第三二值化图像对所述第一样本集中的背景样本进行更新。
在一个实施例中,图5中的火灾判断模块150还包括用于执行图4中方法步骤的结构,其包括:
形态学处理单元,用于对各帧图像对应的第三二值化图像分别进行形态学处理,并提取经过形态学处理的第三二值化图像中的前景区域作为各帧图像对应的疑似火灾区域;
亮度信息提取单元,用于对各帧图像对应的疑似火灾区域创建火焰差分金字塔,得到金字塔特征图像组,并获取所述金字塔特征图像组的亮度信息;
时间域模型获取单元,用于对所述金字塔特征图像组的亮度信息进行时间域分析,得到所述疑似火灾区域对应的时间域模型;
空间域模型获取单元,用于对所述时间域模型进行小波分解,创建所述疑似火灾区域对应的空间域模型;
前景目标特征模型获取单元,用于根据所述时间域模型和所述空间域模型得到所述前景目标特征模型。
在一个实施例中,空间域模型获取单元还包括:
参数获取子单元,用于对所述时间域模型进行小波分解,得到水平系数、垂直系数和对角系数;
能量计算子单元,用于根据所述水平系数、所述垂直系数和所述对角系数,计算所述疑似火灾区域内每个像素点的能量;
空间域模型计算子单元,用于根据所述疑似火灾区域内每个像素点的能量,确定所述疑似火灾区域对应的空间域模型。
图8是本发明一实施例提供的终端设备的示意图。如图8所示,该实施例的终端设备800包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机程序82。所述处理器80执行所述计算机程序82时实现上述实施例中的步骤,例如图1所示的步骤101至105。或者,所述处理器80执行所述计算机程序82时实现上述各装置实施例中各模块/单元的功能,例如图5所示模块110至150的功能。
所述计算机程序82可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器81中,并由所述处理器80执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序82在所述终端设备800中的执行过程。所述终端设备800可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是终端设备800的示例,并不构成对终端设备800的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81可以是所述终端设备800的内部存储单元,例如终端设备800的硬盘或内存。所述存储器81也可以是所述终端设备800的外部存储设备,例如所述终端设备800上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述终端设备800的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种火灾检测方法,其特征在于,包括:
采用三帧差法对目标区域的待检测视频的各帧图像进行二值化处理,得到各帧图像对应的第一二值化图像;
根据所述待检测视频的第一帧图像对应的第一二值化图像建立背景模型;
根据亮度阈值分割法分别对各帧图像对应的第一二值化图像进行处理,得到各帧图像对应的第二二值化图像;
根据所述背景模型对各个第二二值化图像的背景进行更新,得到各帧图像对应的第三二值化图像;
根据各帧图像对应的第三二值化图像建立前景目标特征模型,并根据所述前景目标特征模型判断所述目标区域是否发生火灾。
2.如权利要求1所述的火灾检测方法,其特征在于,所述根据所述待检测视频的第一帧图像对应的第一二值化图像建立背景模型,包括:
为所述第一帧图像对应的第一二值化图像中的每个像素点分别创建样本集,得到初始化的背景模型;所述样本集为由第一像素点的相邻像素点作为样本组成的样本集,所述第一像素点为所述第一帧图像对应的第一二值化图像中的任一像素点。
3.如权利要求1所述的火灾检测方法,其特征在于,所述根据亮度阈值分割法分别对各帧图像对应的第一二值化图像进行处理,得到各帧图像对应的第二二值化图像,包括:
根据预设亮度阈值对第二帧图像进行二值化处理,得到第四二值化图像;所述第二帧图像为所述待检测视频中的任一帧图像;
将所述第二帧图像对应的第一二值化图像和第四二值化图像进行与运算,得到各帧图像对应的第二二值化图像。
4.如权利要求2所述的火灾检测方法,其特征在于,所述根据所述背景模型对各个第二二值化图像的背景进行更新,得到各帧图像对应的第三二值化图像,包括:
若当前帧图像对应的第二二值化图像中第一像素位置的像素为前景,则基于VIBE算法,采用当前的背景模型对所述第一二值化图像中第一像素位置的像素进行更新,得到当前帧图像对应的第三二值化图像;
根据当前帧图像对应的第二二值化图像中第一像素位置的像素对当前的背景模型进行更新,并根据更新后的背景模型对下一帧图像对应的第二二值化图像的背景进行更新。
5.如权利要求4所述的火灾检测方法,其特征在于,所述根据当前帧图像对应的第二二值化图像中第一像素位置的像素对当前的背景模型进行更新,包括:
若当前帧图像对应的第二二值化图像中第一像素位置的像素为背景,则将当前的背景模型中所述第一像素位置对应的像素更新为背景,并根据所述第三二值化图像对第一样本集中的背景样本进行更新;所述第一样本集为当前的背景模型中所述第一像素位置对应的样本集,所述第一像素位置为所述目标区域的任一像素位置;
若当前帧图像对应的第二二值化图像中第一像素位置的像素为前景,则统计各帧图像对应的第二二值化图像中所述第一像素位置对应的前景次数和背景次数,并在所述背景次数大于或等于所述前景次数时,将当前的背景模型中所述第一像素位置对应的像素更新为背景,以及根据所述第三二值化图像对所述第一样本集中的背景样本进行更新。
6.如权利要求1所述的火灾检测方法,其特征在于,所述根据各帧图像对应的第三二值化图像建立前景目标特征模型,包括:
对各帧图像对应的第三二值化图像分别进行形态学处理,并提取经过形态学处理的第三二值化图像中的前景区域作为各帧图像对应的疑似火灾区域;
对各帧图像对应的疑似火灾区域创建火焰差分金字塔,得到金字塔特征图像组,并获取所述金字塔特征图像组的亮度信息;
对所述金字塔特征图像组的亮度信息进行时间域分析,得到所述疑似火灾区域对应的时间域模型;
对所述时间域模型进行小波分解,创建所述疑似火灾区域对应的空间域模型;
根据所述时间域模型和所述空间域模型得到所述前景目标特征模型。
7.如权利要求6所述的火灾检测方法,其特征在于,所述对所述时间域模型进行小波分解,创建所述疑似火灾区域对应的空间域模型,包括:
对所述时间域模型进行小波分解,得到水平系数、垂直系数和对角系数;
根据所述水平系数、所述垂直系数和所述对角系数,计算各帧图像对应的疑似火灾区域内每个像素点的能量;
根据各帧图像对应的疑似火灾区域内每个像素点的能量,确定所述疑似火灾区域对应的空间域模型。
8.一种火灾检测装置,其特征在于,包括:
第一二值化模块,用于采用三帧差法对目标区域的待检测视频的各帧图像进行二值化处理,得到各帧图像对应的第一二值化图像;
背景模型建立模块,用于根据所述待检测视频的第一帧图像对应的第一二值化图像建立背景模型;
第二二值化模块,用于根据亮度阈值分割法分别对各帧图像对应的第一二值化图像进行处理,得到各帧图像对应的第二二值化图像;
背景更新模块,用于根据所述背景模型对各个第二二值化图像的背景进行更新,得到各帧图像对应的第三二值化图像;
火灾判断模块,用于根据各帧图像对应的第三二值化图像建立前景目标特征模型,并根据所述前景目标特征模型判断所述目标区域是否发生火灾。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911391845.7A CN111144337B (zh) | 2019-12-30 | 2019-12-30 | 火灾检测方法、装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911391845.7A CN111144337B (zh) | 2019-12-30 | 2019-12-30 | 火灾检测方法、装置及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111144337A true CN111144337A (zh) | 2020-05-12 |
CN111144337B CN111144337B (zh) | 2023-07-25 |
Family
ID=70521710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911391845.7A Active CN111144337B (zh) | 2019-12-30 | 2019-12-30 | 火灾检测方法、装置及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111144337B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111896541A (zh) * | 2020-07-16 | 2020-11-06 | 江苏云聚汇科技有限公司 | 一种基于区块链的烟气在线监测系统 |
CN112052823A (zh) * | 2020-09-17 | 2020-12-08 | 江苏怀业信息技术股份有限公司 | 目标检测方法和装置 |
CN112541397A (zh) * | 2020-11-17 | 2021-03-23 | 南京林业大学 | 基于改进的ViBe算法与轻量化卷积网络的火焰检测方法 |
CN112616036A (zh) * | 2020-11-23 | 2021-04-06 | 中标慧安信息技术股份有限公司 | 一种智能视频监控系统 |
CN113807227A (zh) * | 2021-09-11 | 2021-12-17 | 浙江浙能嘉华发电有限公司 | 基于图像识别的安全监测方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001067566A (ja) * | 1999-08-30 | 2001-03-16 | Fujitsu Ltd | 火災検知装置 |
US20120195462A1 (en) * | 2011-01-27 | 2012-08-02 | Chang Jung Christian University | Flame identification method and device using image analyses in hsi color space |
CN105788142A (zh) * | 2016-05-11 | 2016-07-20 | 中国计量大学 | 一种基于视频图像处理的火灾检测系统及检测方法 |
CN106408846A (zh) * | 2016-11-29 | 2017-02-15 | 周川 | 基于视频监控平台的图像火灾检测方法 |
CN108447219A (zh) * | 2018-05-21 | 2018-08-24 | 中国计量大学 | 基于视频图像的火灾检测系统及方法 |
CN110580709A (zh) * | 2019-07-29 | 2019-12-17 | 浙江工业大学 | 一种基于ViBe和三帧差分融合的目标检测方法 |
CN110599523A (zh) * | 2019-09-10 | 2019-12-20 | 江南大学 | 一种融合帧间差分法的ViBe鬼影抑制方法 |
-
2019
- 2019-12-30 CN CN201911391845.7A patent/CN111144337B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001067566A (ja) * | 1999-08-30 | 2001-03-16 | Fujitsu Ltd | 火災検知装置 |
US20120195462A1 (en) * | 2011-01-27 | 2012-08-02 | Chang Jung Christian University | Flame identification method and device using image analyses in hsi color space |
CN105788142A (zh) * | 2016-05-11 | 2016-07-20 | 中国计量大学 | 一种基于视频图像处理的火灾检测系统及检测方法 |
CN106408846A (zh) * | 2016-11-29 | 2017-02-15 | 周川 | 基于视频监控平台的图像火灾检测方法 |
CN108447219A (zh) * | 2018-05-21 | 2018-08-24 | 中国计量大学 | 基于视频图像的火灾检测系统及方法 |
CN110580709A (zh) * | 2019-07-29 | 2019-12-17 | 浙江工业大学 | 一种基于ViBe和三帧差分融合的目标检测方法 |
CN110599523A (zh) * | 2019-09-10 | 2019-12-20 | 江南大学 | 一种融合帧间差分法的ViBe鬼影抑制方法 |
Non-Patent Citations (2)
Title |
---|
刘鹏;王鉴;霍富功;贺鹏飞;: "基于视频的烟焰检测方法研究", no. 10 * |
梅建军;张为;: "基于ViBe与机器学习的早期火灾检测算法", no. 07 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111896541A (zh) * | 2020-07-16 | 2020-11-06 | 江苏云聚汇科技有限公司 | 一种基于区块链的烟气在线监测系统 |
CN112052823A (zh) * | 2020-09-17 | 2020-12-08 | 江苏怀业信息技术股份有限公司 | 目标检测方法和装置 |
CN112541397A (zh) * | 2020-11-17 | 2021-03-23 | 南京林业大学 | 基于改进的ViBe算法与轻量化卷积网络的火焰检测方法 |
CN112541397B (zh) * | 2020-11-17 | 2022-04-01 | 南京林业大学 | 基于改进的ViBe算法与轻量化卷积网络的火焰检测方法 |
CN112616036A (zh) * | 2020-11-23 | 2021-04-06 | 中标慧安信息技术股份有限公司 | 一种智能视频监控系统 |
CN113807227A (zh) * | 2021-09-11 | 2021-12-17 | 浙江浙能嘉华发电有限公司 | 基于图像识别的安全监测方法、装置、设备及存储介质 |
CN113807227B (zh) * | 2021-09-11 | 2023-07-25 | 浙江浙能嘉华发电有限公司 | 基于图像识别的安全监测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111144337B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111144337B (zh) | 火灾检测方法、装置及终端设备 | |
CN110473242B (zh) | 一种纹理特征提取方法、纹理特征提取装置及终端设备 | |
WO2022001961A1 (zh) | 一种高空抛物动目标检测方法、检测设备和检测系统 | |
CN111241927A (zh) | 级联式人脸图像优选方法、系统、设备及可读存储介质 | |
CN109116129B (zh) | 终端检测方法、检测设备、系统及存储介质 | |
CN110097522B (zh) | 一种基于多尺度卷积神经网络的单幅户外图像去雾方法 | |
CN111444555B (zh) | 一种测温信息显示方法、装置及终端设备 | |
CN103345644A (zh) | 在线训练的目标检测方法及装置 | |
KR102470873B1 (ko) | 영상처리를 이용한 작물 생육량 측정 장치 및 그 방법 | |
CN116188808B (zh) | 图像特征提取方法和系统、存储介质及电子设备 | |
CN108765454A (zh) | 一种基于视频的烟雾检测方法、装置及设备终端 | |
CN111950345B (zh) | 摄像头的识别方法、装置、电子设备和存储介质 | |
CN114332702A (zh) | 目标区域的检测方法和装置、存储介质及电子设备 | |
CN111080665B (zh) | 图像边框识别方法、装置、设备和计算机存储介质 | |
CN113569708A (zh) | 活体识别方法、装置、电子设备以及存储介质 | |
CN109255799A (zh) | 一种基于空间自适应相关滤波器的目标跟踪方法及系统 | |
CN109919164B (zh) | 用户界面对象的识别方法及装置 | |
CN115311623A (zh) | 一种基于红外热成像的设备漏油检测方法及系统 | |
CN114758268A (zh) | 手势识别方法、装置及智能设备 | |
CN114140481A (zh) | 一种基于红外图像的边缘检测方法、装置 | |
CN106778822B (zh) | 基于漏斗变换的图像直线检测方法 | |
CN112565674A (zh) | 一种可远程视频监控和控制的展厅中控系统 | |
CN111311610A (zh) | 图像分割的方法及终端设备 | |
CN110633705A (zh) | 一种低照度成像车牌识别方法及装置 | |
CN116403200A (zh) | 基于硬件加速的车牌实时识别系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |