CN115272910A - 一种自动火点检测方法、装置、设备及存储介质 - Google Patents
一种自动火点检测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN115272910A CN115272910A CN202210723724.3A CN202210723724A CN115272910A CN 115272910 A CN115272910 A CN 115272910A CN 202210723724 A CN202210723724 A CN 202210723724A CN 115272910 A CN115272910 A CN 115272910A
- Authority
- CN
- China
- Prior art keywords
- image
- processed
- point
- fire
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
本发明涉及一种自动火点检测方法、装置、设备及存储介质,该方法包括:获取多帧待处理图像;对每一所述待处理图像进行疑似火点检测,得到每帧所述待处理图像对应的疑似火点区域;确定所述待处理图像中的疑似火点区域的中心点位置,并根据各个所述中心点位置确定的目标中心点位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点位置为所述目标中心点位置;通过所述调整后的图像采集设备采集所述监测区域的新的视频流,并通过所述检测模型对所述新的视频流中的每帧图像进行疑似火点检测,得到包含疑似火点的第二图像;对各帧所述第二图像进行火点运动检测,得到目标火点位置。该方法能够实现高实时性、高准确率的森林火灾检测,减少生态环境破环。
Description
技术领域
本发明涉及森林火灾监测领域,具体涉及一种自动火点检测方法、装置、设备及存储介质。
背景技术
森林火灾破坏了森林生态系统的结构与稳定,高强度的森林火灾还威胁人类生命安全。冬春之交林火多发,主要与当地地形、气候、森林分布、居民生活习惯等有关。山河相间纵列分布的复杂地形、干湿季分明的亚热带高原季风型气候、占比高的森林和少数缺乏防火意识的陋习,使得地面火情监测变得尤为重要。
森林火灾的监测方法主要有以下几种:通过卫星生成遥感图像识别、通过瞭望塔人工值守、安排专人巡逻、通过飞机或无人机进行巡视,这些方法都存在大量的问题。如卫星遥感监测的实时性和准确性不高,瞭望塔和飞机监测成本过高,地面专人巡逻工作量大且效率低,传感器容易被环境干扰,精度不高。
发明内容
本发明所要解决的技术问题是提供一种自动火点检测方法、装置、设备及存储介质,能够实现高实时性、高准确率的森林火灾检测,避免森林火灾快速对流传播,减少生态环境破环。
本发明解决上述技术问题的技术方案如下:一种火点检测方法,包括:
获取通过图像采集设备采集的监测区域的待处理视频流,对所述待处理视频流进行分帧处理,得到多帧待处理图像;
对于每帧所述待处理图像,基于预训练的检测模型对所述待处理图像进行疑似火点检测,得到每帧所述待处理图像对应的疑似火点区域;
对于每帧所述待处理图像,确定所述待处理图像中的疑似火点区域的中心点位置,并根据各个所述中心点位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点位置为所述目标中心点位置;
通过所述调整后的图像采集设备采集所述监测区域的新的视频流,并通过所述检测模型对所述新的视频流中的每帧图像进行疑似火点检测,得到包含疑似火点的第二图像;
对各帧所述第二图像进行火点运动检测,得到目标火点位置。
本发明的有益效果是:先通过图像采集设备实时获取监测区域的待处理视频流,并对待处理视频流进行分帧处理,能够得到多帧待处理图像,再对待处理图像进行第一次火点检测,能够得到待处理图像中疑似火点区域,再根据疑似火点区域,调整图像采集设备,获取监测区域的新的视频流,再对新的视频流中的每帧图像进行火点检测,得到包含疑似火点的第二图像,再对第二图像进行火点运动图像进行检测,得到目标火点位置。上述方法先进行疑似火点粗检测,再根据定位的疑似火点区域进行精检测,能够提高火点检测的准确率,且由于图像设备可实时采集数据,进一步的能够实现实时火点观测,避免森林火灾快速对流传播,减少生态环境破环。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,对于每帧所述待处理图像,所述基于预训练的检测模型对所述待处理图像进行疑似火点检测,得到每帧所述待处理图像对应的疑似火点区域,包括:
对于每帧所述待处理图像,提取所述待处理图像的图像特征;
将各帧所述待处理图像的图像特征输入至所述检测模型,得到每帧所述待处理图像对应的疑似火点区域。
采用上述进一步方案的有益效果是:通过提取图像特征准确获取疑似火点区域信息,再将各帧待处理图像的图像特征输入检测模型,进一步得到每帧待处理图像对应的疑似火点区域,通过前述步骤能够实现疑似火点的粗定位,方便后续作进一步的处理。
进一步,所述根据各个所述中心点位置确定的目标中心点位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点位置为所述目标中心点位置,包括:
根据所述目标中心点位置和第一转换关系,将所述目标中心点位置转换至相机画面位置,所述第一转换关系为疑似火点区域的目标中心点位置与相机画面位置之间的转换关系;
根据所述相机画面位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点为所述目标中心点位置。
采用上述进一步方案的有益效果是:先根据中心点位置和第一转换关系,能够得到中心点位置在相机画面中的位置,即相机画面位置,再通过相机画面位置,调整图像采集设备,以此获取监测区域的新的视频流。通过前述步骤能够得到疑似火点区域在视频画面中心的视频流,以便后续对疑似火点作进一步的检测和识别。
进一步,对于每帧所述待处理图像,所述确定所述待处理图像中的疑似火点区域的中心点位置,包括:
确定所述疑似火点区域的边界位置,所述边界位置包括第一边界位置和第二边界位置;
根据所述第一边界位置和所述第二边界位置,确定所述目标中心点位置。
采用上述进一步方案的有益效果是:通过上述步骤能够确定疑似火点区域的中心点位置,以便后续根据中心点位置确定相机画面位置。
进一步,所述第一转换关系包括第一占比、所述图像采集设备的坐标系值和相机横坐标之间的第二转换关系,以及第二占比、坐标系值和相机纵坐标之间的第三转换关系,所述目标中心点位置包括中心点横坐标和中心点纵坐标,所述第一占比为所述中心点横坐标和所述中心点横坐标所在图像的宽之间的比值,所述第二占比为所述中心点纵坐标和所述中心点纵坐标所在图像的高之间的比值;
所述根据所述目标中心点位置和第一转换关系,将所述目标中心点位置转换至所述相机画面位置,包括:
根据所述待处理图像的宽和所述中心点横坐标,确定第一占比;
根据所述待处理图像的高和所述中心点纵坐标,确定第二占比;
根据所述第一占比、所述坐标系值和所述第二转换关系,确定相机横坐标;
根据所述第二占比、所述坐标系值和所述第三转换关系,确定相机纵坐标,所述相机画面位置包括所述相机横坐标和所述相机纵坐标。
采用上述进一步方案的有益效果是:由于中心点位置和相机画面位置不同,需要将中心点位置转换为相机画面位置,以便调整图像采集设备,获取监测区域的新的视频流。
进一步,所述对各帧所述第二图像进行火点运动检测,得到目标火点位置,包括:
从各帧所述第二图像中选取多个参考图像,其中,所述参考图像为时序相连的所述第二图像;
确定每两个相邻的参考图像之间的像素差值;
基于各所述像素差值,将每帧所述参考图像中的疑似火点区域和环境背景分离,得到多个所述疑似火点区域的轮廓面积;
根据各个所述轮廓面积,确定各个所述轮廓面积的总和,将所述总和作为第一面积;
根据所述待处理图像中的疑似火点区域的第一边界位置和所述第二边界位置,确定所述疑似火点区域的第二面积;
根据所述第一面积和所述第二面积,确定第一比值;
根据所述第二面积和所述待处理图像的面积,确定第二比值;
比较所述第一比值和所述第二比值,若所述第一比值大于所述第二比值,则确定对应所述待处理图像的疑似火点位置为目标火点位置。
采用上述进一步方案的有益效果是:通过对疑似火点进行运动检测,能够判断疑似火点是否为真实火点,且该疑似火点的位置为目标火点位置。
进一步,所述在确定所述目标火点位置之后,所述方法还包括:
基于所述目标火点位置,生成火灾预警信息。
采用上述进一步方案的有益效果是:火灾预警信息能够对森林进行监控预警,预防山火的发生。
为解决上述问题,本实施例还提供一种火点检测装置,所述装置包括:
分帧处理模块,用于获取通过图像采集设备采集的监测区域的待处理视频流,对所述待处理视频流进行分帧处理,得到多帧待处理图像;
第一火点检测模块,用于对于每帧所述待处理图像,基于预训练的检测模型对所述待处理图像进行疑似火点检测,得到每帧所述待处理图像对应的疑似火点区域;
位置调整模块,用于对于每帧所述待处理图像,确定所述待处理图像中的疑似火点区域的中心点位置,并根据各个所述中心点位置确定的目标中心点位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点位置为所述目标中心点位置;
第二火点检测模块,用于通过所述调整后的图像采集设备采集所述监测区域的新的视频流,并通过所述检测模型对所述新的视频流中的每帧图像进行疑似火点检测,得到包含疑似火点的第二图像;
运动检测模块,用于对各帧所述第二图像进行火点运动检测,得到目标火点位置。
为解决上述问题,本实施例还提供一种电子设备,包括处理器以及存储器,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,运行上述方法中的步骤。
为解决上述问题,本实施例一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时运行如上述方法中的步骤。
附图说明
图1为本申请实施例中一种自动火点检测方法的流程示意图;
图2为本申请实施例中一种自动火点检测装置的结构示意图;
图3为本申请实施例中一种电子设备的结构示意图。
具体实施方式
以下对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
如图1所示,一种火点检测方法,包括:
步骤101,获取通过图像采集设备采集的监测区域的待处理视频流,对所述待处理视频流进行分帧处理,得到多帧待处理图像。
图像采集设备可选用双光谱云台相机,对监测区域进行视频图像采集,监测区域可能是森林公园中的火灾高发区域;对待处理视频流进行分帧处理,是为了从待处理视频流中获取多帧待处理图像以便更好的检测火点,例如,对20s的视频流进行分帧处理,按1s抽取5帧的分帧方式,从20s的视频流中抽取100帧的图像,得到100帧待处理图像。
步骤102,对于每帧所述待处理图像,基于预训练的检测模型对所述待处理图像进行疑似火点检测,得到每帧所述待处理图像对应的疑似火点区域。
疑似火点表示监测区域中可能存在引起火灾警情的燃烧点,由于从视频流中抽取了多个待处理图像,因此需要对每帧待处理图像进行处理,进而确定各帧图像中是否存在疑似火点区域,最终得到每一待处理图像中的疑似火点区域,例如,对100帧待处理图像中进行火点检测,其中,可能有10帧待处理图像中存在疑似火点区域,且该10帧待处理图像中存在至少一个疑似火点区域,再进一步确定该10帧待处理图像中所有疑似火点区域。
需要说明的是,如果从视频流抽取的多个待处理图像中未检测到疑似火点区域,则需要重复步骤101,获取新的待处理图像,再执行步骤102,直到从待处理图像中获取到疑似火点区域为止。
步骤103,对于每帧所述待处理图像,确定所述待处理图像中的疑似火点区域的中心点位置,并根据各个所述中心点位置确定的目标中心点位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点位置为所述目标中心点位置。
步骤103是针对多个待处理图像中的存在的疑似火点的区域进行中心点位置确定,并根据各个中心点位置确定的目标中心点位置,进而调整图像采集设备所采集的视频中心点位置,获取新的视频流。其中,目标中心点位置可以是各个中心点位置的均值。
以一帧待处理图像中存在一个疑似火点为例,对步骤103进行说明,先确定待处理图像中疑似火点区域,在待处理图像中,如果存在疑似火点,可先确定图像中可能包含疑似火点的区域,即疑似火点区域,进而可以确定疑似火点区域的中心点位置,该中心点位置是后续步骤中调整图像采集设备的重要指数,即根据各个中心点位置确定目标中心点位置,调整图像采集设备的拍摄角度,能够获取该疑似火点位于图像采集设备画面中心的视频流,方便更好的监测该疑似火点,即二次识别疑似火点。
步骤104,通过所述调整后的图像采集设备采集所述监测区域的新的视频流,并通过所述检测模型对所述新的视频流中的每帧图像进行疑似火点检测,得到包含疑似火点的第二图像。
由于步骤102中检测到的疑似火点区域有多个,因此图像采集设备需要采集监测区域的新的视频流,每一个新的视频流中的图像的画面中心对应一个中心点位置,即以中心点位置为视频中心采集新的视频流,其中,步骤102中检测的疑似火点区域的中心点位置可能是真实的疑似火点,即目标火点,也可能假的目标火点,因此需要对每一新的视频流中的每帧图像进行进一步的疑似火点检测,得到每一个新的视频流中包含疑似火点的多帧第二图像,从各帧第二图像中检测到的疑似火点为目标火点的可能性更大。
步骤105,对各帧所述第二图像进行火点运动检测,得到目标火点位置。
疑似火点只是表示可能有引发火灾警情的燃烧点的存在,并不表示该燃烧点是真实的,由于火焰燃烧时是运动的,因此进一步对疑似火点进行火点运动检测来确定该疑似火点是否是真实的火点,若为真实的火点,则该疑似火点为目标火点,该目标火点表示监测区域中存在引起火灾警情的燃烧点。
在一个实施例中,所述步骤102,包括:
对于每帧所述待处理图像,提取所述待处理图像的图像特征。
特征是某一类对象区别于其他类对象的相应(本质)特点或特性,或是这些特点和特性的集合。因此可以先提取待处理图像的图像特征,该图像特征表征的是燃烧点的特点和特征的集合,基于图像特征可将待处理图像中的疑似火点准确识别出来。
将各帧所述待处理图像的图像特征输入至所述检测模型,得到每帧所述待处理图像对应的疑似火点区域。
将每一帧待处理图像的图像特征输入检测模型,能够得到该图像特征表示的疑似火点的在待处理图像中所在的区域。
在一个实施例中,所述根据各个所述中心点位置确定的目标中心点位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点位置为所述目标中心点位置,包括:
根据所述目标中心点位置和第一转换关系,将所述目标中心点位置转换至相机画面位置,所述第一转换关系为疑似火点区域的目标中心点位置与相机画面位置之间的转换关系。
目标中心点位置为待处理视频流中疑似火点区域的中心点的位置,因为疑似火点区域的中心点位置并不一定处于相机画面的中心,影响对疑似火点的监测,因此可根据中心点位置和第一转换关系,将疑似火点的目标中心点位置转换到相机画面上。
根据所述相机画面位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点为所述目标中心点位置。
根据相机画面位置,调整图像采集设备,此时图像采集设备的画面中心对应的位置为疑似火点区域的目标中心点位置,也就是说,通过相机画面位置,调整图像采集设备能够获取表示疑似火点更精确的视频图像,即调整后的图像采集设备所采集的视频中的内容尽可能多的包含疑似火点的信息,使得后续对疑似火点的检测更加准确。
在一个实施例中,对于每个待处理图像,确定该待处理图像中的疑似火点区域的中心点位置,包括:
确定疑似火点区域的边界位置,该边界位置包括第一边界位置和所述第二边界位置;
根据所述第一边界位置和所述第二边界位置,确定所述目标中心点位置。例如,当疑似火点区域为一个长方形区域时,其四个边界点位置分别为A(x1,x2),B(x2,y2),C(x3,x3),D(x4,y4),其中,A为左上边界点,B为右上边界点,C为左下边界点,D为右下边界点,其中,可将A点或D点作为第一边界位置,将B点或C点作为第二边界位置,根据第一边界位置和第二边界位置确定中心点位置M(x5,y5),或 或
在本申请实施例中,所述第一转换关系包括第一占比、所述图像采集设备的坐标系值和相机横坐标之间的第二转换关系,以及第二占比、坐标系值和相机纵坐标之间的第三转换关系,所述目标中心点位置包括中心点横坐标和中心点纵坐标,所述第一占比为所述中心点横坐标和所述中心点横坐标所在图像的宽之间的比值,所述第二占比为所述中心点纵坐标和所述中心点纵坐标所在图像的高之间的比值。
在一个实施例中,所述根据所述目标中心点位置和第一转换关系,将所述目标中心点位置转换至所述相机画面位置,包括:
根据所述待处理图像的宽和所述中心点横坐标,确定第一占比。
根据所述待处理图像的高和所述中心点纵坐标,确定第二占比。
根据所述第一占比、所述坐标系值和所述第二转换关系,确定相机横坐标。
由于疑似火点的目标中心点位置并不在相机画面的中心,需要借助第二转换关系,确定疑似火点的目标中心点位置处于相机画面的位置,先确定目标火点中心位置处理相机画面中的横坐标值,再确定目标火点中心位置处理相机画面中的纵坐标值。
其中,第二转换关系为:X=p(2n1-1),X为相机横坐标,p为坐标系值,该坐标系值表示为相机画面的坐标系值。
根据所述第二占比、所述坐标系值和所述第三转换关系,确定相机纵坐标,所述相机画面位置包括所述相机横坐标和所述相机纵坐标。
其中,第三转换关系为:Y=p(2n1-1),Y为相机纵坐标,p为坐标系值,该坐标系值表示为相机画面的坐标系值。
在一个实施例中,步骤105包括:
从各帧所述第二图像中选取多个参考图像,其中,所述参考图像为时序相连的所述第二图像。
由于参考图像的数量较多,无法对每帧图像进行处理计算,因此选取一定数量的第二图像作为参考图像,以便作进一步的操作。
确定每两个相邻的参考图像之间的像素差值;
像素差值是分离疑似火点区域和环境背景的重要指数,求解各个相邻参考图像之间的像素差值,以便作进一步的操作。
基于各所述像素差值,将每帧所述参考图像中的疑似火点和环境背景分离,得到多个所述疑似火点区域的轮廓面积。
为了更加准确的将参考图像中的疑似火点区域和环境背景分离,可对参考图像做图像二值化处理,根据从参考图像中获取的疑似火点区域进行面积计算,得到多个疑似火点的轮廓面积,其中,轮廓面积计算公式为:s=Δx×Δy,Δx表示第一边界点横坐标和第二边界点横坐标的差值,Δy第一边界点纵坐标和第二边界点纵坐标的差值。
根据各个所述轮廓面积,确定各个所述轮廓面积的总和,将所述总和作为第一面积。
根据所述待处理图像中的疑似火点区域的第一边界位置和所述第二边界位置,确定所述疑似火点所在区域的第二面积。
上述步骤中,第二面积表示步骤102中确定的疑似火点区域的面积,其中,第二面积area=|x1-x4|×|y1-y4|,或area=|x2-x3|×|y2-y3|。
根据所述第一面积和所述第二面积,确定第一比值。
根据所述第二面积和所述待处理图像的面积,确定第二比值。
比较所述第一比值和所述第二比值,若所述第一比值大于所述第二比值,则确定对应所述待处理图像的疑似火点位置为目标火点位置。
理论上说,各帧第二图像中的火点都对应待处理图像中的一个疑似火点,因此针对各帧第二图像进行火点运行检测,得到的目标火点位置,就是待处理图像的疑似火点位置。
当alpha1>alpha2时,参考图像中的疑似火点为真实火点,否则,参考图像中的疑似火点为误报数据。
在一个实施例中,在确定所述目标火点之后,还包括:
基于所述目标火点位置,生成火灾预警信息。
检测到目标火点之后,必须对火灾预警,防止火灾警情的发生。
如图2所示,在一个实施例中,还包括一种自动火点检测装置,所述装置包括:
分帧处理模块,用于获取通过图像采集设备采集的监测区域的待处理视频流,对所述待处理视频流进行分帧处理,得到多帧待处理图像;
第一火点检测模块,用于对于每帧所述待处理图像,基于预训练的检测模型对所述待处理图像进行疑似火点检测,得到每帧所述待处理图像对应的疑似火点区域;
位置调整模块,用于对于每帧所述待处理图像,确定所述待处理图像中的疑似火点区域的中心点位置,并根据各个所述中心点位置确定的目标中心点的位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点位置为所述目标中心点位置;
第二火点检测模块,用于通过所述调整后的图像采集设备采集所述监测区域的新的视频流,并通过所述检测模型对所述新的视频流中的每帧图像进行疑似火点检测,得到包含疑似火点的第二图像;
运动检测模块,用于对各帧所述第二图像进行火点运动检测,得到目标火点位置。
在一个实施例中,对于每帧所述待处理图像,所述第一火点检测模块在基于预训练的检测模型对所述待处理图像进行疑似火点检测,得到每帧所述待处理图像对应的疑似火点区域时,具体用于:
对于每帧所述待处理图像,提取所述待处理图像的图像特征;
将各帧所述待处理图像的图像特征输入至所述检测模型,得到每帧所述待处理待处理图像对应的疑似火点区域。
在一个实施例中,所述位置调整模块在根据各个所述中心点位置确定的目标中心点位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点位置为所述目标中心点位置时,具体用于
根据所述目标中心点位置和第一转换关系,将所述目标中心点位置转换至相机画面位置,所述第一转换关系为疑似火点区域的目标中心点位置与相机画面位置之间的转换关系;
根据所述相机画面位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点为所述目标中心点位置。
在一个实施例中,对于每帧所述待处理图像,所述位置调整模块在确定所述待处理图像中的疑似火点区域的中心点位置时,具体用于:
确定所述疑似火点区域的边界位置,所述边界位置包括第一边界位置和第二边界位置;
根据所述第一边界位置和所述第二边界位置,确定所述目标中心点位置。
在一个实施例中,所述第一转换关系包括第一占比、所述图像采集设备的坐标系值和相机横坐标之间的第二转换关系,以及第二占比、坐标系值和相机纵坐标之间的第三转换关系,所述目标中心点位置包括中心点横坐标和中心点纵坐标,所述第一占比为所述中心点横坐标和所述中心点横坐标所在图像的宽之间的比值,所述第二占比为所述中心点纵坐标和所述中心点纵坐标所在图像的高之间的比值;
所述位置调整模块在根据所述目标中心点位置和第一转换关系,将所述目标中心点位置转换至所述相机画面位置时,具体用于:
根据所述待处理图像的宽和所述中心点横坐标,确定第一占比;
根据所述待处理图像的高和所述中心点纵坐标,确定第二占比;
根据所述第一占比、所述坐标系值和所述第二转换关系,确定相机横坐标;
根据所述第二占比、所述坐标系值和所述第三转换关系,确定相机纵坐标,所述相机画面位置包括所述相机横坐标和所述相机纵坐标。
在一个实施例中,所述运动检测模块在对各帧所述第二图像进行火点运动检测,得到目标火点位置时,具体用于:
从各帧所述第二图像中选取多个参考图像,其中,所述参考图像为时序相连的所述第二图像;
确定每两个相邻的参考图像之间的像素差值;
基于各所述像素差值,将每帧所述参考图像中的疑似火点区域和环境背景分离,得到多个所述疑似火点区域的轮廓面积;
根据各个所述轮廓面积,确定各个所述轮廓面积的总和,将所述总和作为第一面积;
根据所述待处理图像中的疑似火点区域的第一边界位置和所述第二边界位置,确定所述疑似火点区域的第二面积;
根据所述第一面积和所述第二面积,确定第一比值;
根据所述第二面积和所述待处理图像的面积,确定第二比值;
比较所述第一比值和所述第二比值,若所述第一比值大于所述第二比值,则确定对应所述待处理图像的疑似火点位置为目标火点位置。
在一个实施例中,所述检测装置中还包括火点报警模块,所述火点报警模块,具体用于:
在确定所述目标火点位置之后,基于所述目标火点位置,生成火灾预警信息。
如图3所示,在一个实施例中,还包括一种电子设备,包括处理器以及存储器,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,运行上述方法中的步骤。
在一个实施例中,还包括一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时运行如上述方法中的步骤。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种火点检测方法,其特征在于,包括:
获取通过图像采集设备采集的监测区域的待处理视频流,对所述待处理视频流进行分帧处理,得到多帧待处理图像;
对于每帧所述待处理图像,基于预训练的检测模型对所述待处理图像进行疑似火点检测,得到每帧所述待处理图像对应的疑似火点区域;
对于每帧所述待处理图像,确定所述待处理图像中的疑似火点区域的中心点位置,并根据各个所述中心点位置确定的目标中心点位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点位置为所述目标中心点位置;
通过所述调整后的图像采集设备采集所述监测区域的新的视频流,并通过所述检测模型对所述新的视频流中的每帧图像进行疑似火点检测,得到包含疑似火点的第二图像;
对各帧所述第二图像进行火点运动检测,得到目标火点位置。
2.根据权利要求1所述的方法,其特征在于,对于每帧所述待处理图像,所述基于预训练的检测模型对所述待处理图像进行疑似火点检测,得到每帧所述待处理图像对应的疑似火点区域,包括:
对于每帧所述待处理图像,提取所述待处理图像的图像特征;
将各帧所述待处理图像的图像特征输入至所述检测模型,得到每帧所述待处理待处理图像对应的疑似火点区域。
3.根据权利要求1所述的方法,其特征在于,所述根据各个所述中心点位置确定目标中心点位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点位置为所述目标中心点位置,包括:
根据所述目标中心点位置和第一转换关系,将所述目标中心点位置转换至相机画面位置,所述第一转换关系为疑似火点区域的目标中心点位置与相机画面位置之间的转换关系;
根据所述相机画面位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点为所述目标中心点位置。
4.根据权利要求3所述的方法,其特征在于,对于每帧所述待处理图像,所述确定所述待处理图像中的疑似火点区域的中心点位置,包括:
确定所述疑似火点区域的边界位置,所述边界位置包括第一边界位置和第二边界位置;
根据所述第一边界位置和所述第二边界位置,确定所述目标中心点位置。
5.根据权利要求4所述的方法,其特征在于,所述第一转换关系包括第一占比、所述图像采集设备的坐标系值和相机横坐标之间的第二转换关系,以及第二占比、坐标系值和相机纵坐标之间的第三转换关系,所述目标中心点位置包括中心点横坐标和中心点纵坐标,所述第一占比为所述中心点横坐标和所述中心点横坐标所在图像的宽之间的比值,所述第二占比为所述中心点纵坐标和所述中心点纵坐标所在图像的高之间的比值;
所述根据所述目标中心点位置和第一转换关系,将所述目标中心点位置转换至所述相机画面位置,包括:
根据所述待处理图像的宽和所述中心点横坐标,确定第一占比;
根据所述待处理图像的高和所述中心点纵坐标,确定第二占比;
根据所述第一占比、所述坐标系值和所述第二转换关系,确定相机横坐标;
根据所述第二占比、所述坐标系值和所述第三转换关系,确定相机纵坐标,所述相机画面位置包括所述相机横坐标和所述相机纵坐标。
6.根据权利要求4所述的方法,其特征在于,所述对各帧所述第二图像进行火点运动检测,得到目标火点位置,包括:
从各帧所述第二图像中选取多个参考图像,其中,所述参考图像为时序相连的所述第二图像;
确定每两个相邻的参考图像之间的像素差值;
基于各所述像素差值,将每帧所述参考图像中的疑似火点区域和环境背景分离,得到多个所述疑似火点区域的轮廓面积;
根据各个所述轮廓面积,确定各个所述轮廓面积的总和,将所述总和作为第一面积;
根据所述待处理图像中的疑似火点区域的第一边界位置和所述第二边界位置,确定所述疑似火点区域的第二面积;
根据所述第一面积和所述第二面积,确定第一比值;
根据所述第二面积和所述待处理图像的面积,确定第二比值;
比较所述第一比值和所述第二比值,若所述第一比值大于所述第二比值,则确定对应所述待处理图像的疑似火点位置为目标火点位置。
7.根据权利要求6所述的方法,其特征在于,在确定所述目标火点位置之后,所述方法还包括:
基于所述目标火点位置,生成火灾预警信息。
8.一种自动火点检测装置,其特征在于,所述装置包括:
分帧处理模块,用于获取通过图像采集设备采集的监测区域的待处理视频流,对所述待处理视频流进行分帧处理,得到多帧待处理图像;
第一火点检测模块,用于对于每帧所述待处理图像,基于预训练的检测模型对所述待处理图像进行疑似火点检测,得到每帧所述待处理图像对应的疑似火点区域;
位置调整模块,用于对于每帧所述待处理图像,确定所述待处理图像中的疑似火点区域的中心点位置,并根据各个所述中心点位置确定的目标中心点位置,调整所述图像采集设备的拍摄角度,以使调整后的图像采集设备的视频中心点位置为所述目标中心点位置;
第二火点检测模块,用于通过所述调整后的图像采集设备采集所述监测区域的新的视频流,并通过所述检测模型对所述新的视频流中的每帧图像进行疑似火点检测,得到包含疑似火点的第二图像;
运动检测模块,用于对各帧所述第二图像进行火点运动检测,得到目标火点位置。
9.一种电子设备,其特征在于,包括处理器以及存储器,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,运行如权利要求1-7任一所述方法中的步骤。
10.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时运行如权利要求1-7任一所述方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210723724.3A CN115272910A (zh) | 2022-06-23 | 2022-06-23 | 一种自动火点检测方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210723724.3A CN115272910A (zh) | 2022-06-23 | 2022-06-23 | 一种自动火点检测方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115272910A true CN115272910A (zh) | 2022-11-01 |
Family
ID=83762023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210723724.3A Pending CN115272910A (zh) | 2022-06-23 | 2022-06-23 | 一种自动火点检测方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115272910A (zh) |
-
2022
- 2022-06-23 CN CN202210723724.3A patent/CN115272910A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102171122B1 (ko) | 장면의 다차원 특징을 기반으로 하는 선박 탐지 방법 및 시스템 | |
CN110084165B (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN107871324B (zh) | 一种基于双通道的目标跟踪方法及装置 | |
Zhan et al. | A high-precision forest fire smoke detection approach based on ARGNet | |
CN112216052A (zh) | 森林防火监测预警方法和装置及设备、存储介质 | |
CN111339826A (zh) | 一种滑坡无人机线性传感器网络框架检测系统 | |
CN112270253A (zh) | 一种高空抛物的检测方法及装置 | |
KR101874968B1 (ko) | 이미지 정보 기반의 시정거리 측정 시스템 및 이를 이용한 시정거리 측정 방법 | |
CN112381041A (zh) | 一种用于输电线路的树木识别方法、装置及终端设备 | |
CN114463788A (zh) | 一种跌倒检测方法、系统、计算机设备及存储介质 | |
CN116206223A (zh) | 一种基于无人机边缘计算的火灾检测方法及系统 | |
CN115937746A (zh) | 一种烟火事件监测方法、装置及存储介质 | |
CN116403141A (zh) | 一种烟火检测方法、系统及存储介质 | |
Rahman et al. | Computer vision-based wildfire smoke detection using UAVs | |
JP2006285399A (ja) | 交差点における車両の動きを監視するための映像監視方法及び装置 | |
CN111723656B (zh) | 一种基于YOLO v3与自优化的烟雾检测方法及装置 | |
CN101149803A (zh) | 点源目标检测的小虚警率的试验估计方法 | |
CN115272910A (zh) | 一种自动火点检测方法、装置、设备及存储介质 | |
CN116052023A (zh) | 基于三维点云的电力巡检地物分类方法及存储介质 | |
CN113780086B (zh) | 一种基于无人机的远程自然资源动态监测方法 | |
CN115620239A (zh) | 一种点云和视频结合的输电线路在线监测方法和系统 | |
CN111753587A (zh) | 一种倒地检测方法及装置 | |
Zheng et al. | Forest farm fire drone monitoring system based on deep learning and unmanned aerial vehicle imagery | |
CN115394034A (zh) | 火灾风险的确定方法、装置、系统和机器人 | |
KR20220084755A (ko) | 경량화된 딥러닝 기반 싸움상황 감지 방법 및 이를 이용한 감지 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |