CN116051988B - 一种基于人工神经网络的火源定位方法及定位系统 - Google Patents

一种基于人工神经网络的火源定位方法及定位系统 Download PDF

Info

Publication number
CN116051988B
CN116051988B CN202310004375.4A CN202310004375A CN116051988B CN 116051988 B CN116051988 B CN 116051988B CN 202310004375 A CN202310004375 A CN 202310004375A CN 116051988 B CN116051988 B CN 116051988B
Authority
CN
China
Prior art keywords
fire
coordinates
neural network
image
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310004375.4A
Other languages
English (en)
Other versions
CN116051988A (zh
Inventor
施朦
李汉博
章志超
李伟明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South Central Minzu University
Original Assignee
South Central University for Nationalities
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South Central University for Nationalities filed Critical South Central University for Nationalities
Priority to CN202310004375.4A priority Critical patent/CN116051988B/zh
Publication of CN116051988A publication Critical patent/CN116051988A/zh
Application granted granted Critical
Publication of CN116051988B publication Critical patent/CN116051988B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
    • Y02A40/28Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture specially adapted for farming

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Fire Alarms (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于人工神经网络的火源定位方法及定位系统,包括如下步骤:通过图像采集模块采集火灾后的室内墙面图片;利用图像预处理模块将采集的图片进行灰度化,转化为灰度图,进而将灰度图进行二值化,得到二值图;采用图像识别模块识别出二值图中的火灾燃烧痕迹区域,得到燃烧痕迹的边缘坐标;通过特征提取模块将边缘坐标进行实际空间坐标转换,再对转换后的坐标进行特征提取;将提取出的特征值输入到火源预测模块,经过前向传播得到火灾位置预测值。本发明使用人工神经网络对火灾后墙面影像进行识别而对火源位置进行定位的方法,实现火灾调查中智能火源位置识别,克服了人工识别方法具有的劳动强度大、工作效率低的缺点。

Description

一种基于人工神经网络的火源定位方法及定位系统
技术领域
本发明涉及火源定位技术领域,具体涉及一种基于人工神经网络的火源定位方法及定位系统。
背景技术
近年来人工智能技术快速发展,人工神经网络在目标识别和特征预测方面有着突出的效果。人工神经网络是模拟人脑神经系统功能的模型,在训练模型时,给模型输入一些样本,并按照一定的规则来调制网络各层的权值矩阵,待网络各层权值都收敛到一定值,训练结束,然后就可以使用训练好的人工神经网络模型来解决实际问题。
在室内火灾中,火灾烟气在墙上沉积会留下痕迹,结合烟气沉积质量的计算公式,再划分出烟气沉积痕迹的分界点,最后结合仿真模拟软件进行模拟,我们即可得到足够的样本作为训练集,对人工神经网络模型进行训练。
但是,在当前的火灾调查中,大部分还是基于调查员的实际经验,缺乏类似本发明的智能化技术辅助,单纯依靠人力进行调查效率低,耗时长。虽然目前已有将人工智能技术应用在火灾领域的研究,但是多数是应用在火灾过程中进行火灾识别,在火灾结束后为火灾调查提供技术支持的研究或方法还较为罕见。
现有技术中还有一种调查方式是通过火灾仿真模拟模型对火灾场景进行模拟,先将假设的火灾位置和火灾强度等其他参数输入模型,再将模拟得出的数据与真实的火灾事故中的数据进行比对,以确定最可能的火灾位置。这样的调查方式也要根据调查人员的经验先预设火灾位置等参数,如果这些预设的参数是不准确的,那么预测结果与实际情况之间会有很大的偏差。但是该方法不确定性大,耗时长,效率低下。
因此,亟需一种能克服了人工识别方法具有的劳动强度大、工作效率低、花费时间长缺点的火源定位方法、系统。
发明内容
为解决现有技术中存在的问题,本发明提供了一种基于人工神经网络的火源定位方法及定位系统,使用人工神经网络对火灾后墙面影像进行识别而对火源位置进行定位的方法,实现火灾调查中智能火源位置识别,解决了上述背景技术中提到的问题。
为实现上述目的,本发明提供如下技术方案:一种基于人工神经网络的火源定位方法,包括如下步骤:
S1、通过图像采集模块采集火灾后的室内墙面图片;
S2、利用图像预处理模块将采集的图片进行灰度化,转化为灰度图,进而将灰度图进行二值化,得到二值图;
S3、采用图像识别模块识别出二值图中的火灾燃烧痕迹区域,得到燃烧痕迹的边缘坐标;
S4、通过特征提取模块将边缘坐标进行实际空间坐标转换,再对转换后的坐标进行特征提取;
S5、将提取出的特征值输入到火源预测模块,经过前向传播得到火灾位置预测值。
优选的,所述步骤S2中的灰度化是将图像中每个像素点的红R、绿G、蓝B的值分别乘以加权值后进行相加,得到亮度值Y;所述二值化是将亮度值Y与预设的阈值进行比较,小于该阈值的像素点设为黑色,大于该阈值的像素点设置为白色。
优选的,所述步骤S3中的边缘坐标是根据边缘检测算子对图像中的物体或形状的边缘进行识别,将通过边缘检测算子与图像进行运算得到的值与设定的阈值进行比较,大于该阈值的点被认为是边缘并记录下在图像中的坐标。
优选的,所述步骤S4中的实际空间坐标转换是将图像中的坐标缩放至预设实际坐标系中,先将图像坐标归一化,乘以实际墙面的实际尺寸w,再加上预设坐标系的偏移量x0,即得到实际空间坐标,具体公式如下:
其中,x′表示转换后的空间坐标,x表示原图像中的坐标,xmin表示原图像坐标的最小值,xmax表示原图像坐标的最大值;预设坐标系是以实际空间中的某一点作为原点,以平行于地面的平面作为xoy平面所建立的坐标系。
优选的,所述步骤S4中的特征包括平均高度、平均斜率和平均曲率。
优选的,所述步骤S5中的火源预测模块是已经训练好的人工神经网络模型,人工神经网络模型的训练步骤包括:
S51、使用仿真模拟软件模拟火灾数据,构建火灾数据集并划分为训练集、测试集、验证集;
S52、构建人工神经网络,设置神经元数量、神经网络深度、激活函数、损失函数;
S53、初始化神经网络权重;
S54、输入训练样本对神经网络进行训练,不断调整神经网络权重;
S55、完成训练,保存神经网络各项参数。
优选的,所述步骤S51使用仿真模拟软件模拟火灾数据的具体步骤如下:
S511、搭建火灾燃烧模型,设定参数,参数包括房间几何外观、火源位置、火源热释放率和火源面积;
S512、设置烟雾颗粒收集传感器,记录烟雾沉积质量;
S513、将经模拟后得到的烟雾沉积质量数据进一步处理,竖直方向的烟雾沉积质量分布近似于一个二值函数,只需求出火灾痕迹分界高度即可得到火灾痕迹分界点,二值函数公式如下:
其中,p(y)表示烟雾沉积质量随着高度y的分布值,pd表示下层的烟雾沉积质量的分布值,pt表示上层的烟雾沉积质量的分布值,Hr表示房间高度,H表示火灾痕迹分界的高度,通过最小二乘法来确定H的值,具体公式如下:
σ2(Hl)=min[σ2(H)]
其中,当偏差σ2取得最小值时的H值即为火灾痕迹分界高度Hl
S514、对分界点进行特征提取,将得到的特征值与火源坐标打包构成数据集。
优选的,所述步骤S52构建人工神经网络的具体步骤包括:根据提取出的特征值数量设置输入层神经元数量,根据输出的坐标数量设置输出层神经元数量,根据输入输出层神经元数量和训练样本数量设置隐藏层神经元数量,具体公式如下:
其中,nh表示隐藏层神经元数量,Ntr表示训练样本的数量,Ni表示输入层的神经元数量,No表示输出层的神经元数量;
所述激活函数选用sigmoid,增加神经网络的非线性计算能力;
所述损失函数选取均方差误差,用于衡量训练效果作为优化指标,公式如下:
其中,yk表示神经网络的输出,tk表示目标值,k表示数据的维度。
优选的,在步骤S54中,神经网络的训练具体包括如下步骤:
S541、输入训练集,经过前向传播得到损失值,根据损失值反向传播调整神经网络权重;
S542、输入验证集,经过前向传播得到损失值;
S543、重复步骤S541和步骤S542,直到验证集的损失值不再减少或训练次数达到预设值。
为实现上述目的,本发明还提供如下技术方案:一种基于人工神经网络的火源定位系统,所述火源定位系统具体包括:
图像采集模块,用于采集火灾后的室内墙面图片;
图像预处理模块,用于将采集的图片进行灰度化,转化为灰度图,进而将灰度图进行二值化,得到二值图;
图像识别模块,用于识别出二值图中的火灾燃烧痕迹区域,得到燃烧痕迹的边缘坐标;
特征提取模块,用于将边缘坐标进行实际空间坐标转换,再对转换后的坐标进行特征提取;
火源预测模块,用于将提取出的特征值作为输入,经过前向传播得到火灾位置预测值。
本发明的有益效果是:本发明方法能够实现自动识别火源位置,克服了人工识别方法具有的劳动强度大、工作效率低的缺点;只需要拍摄火灾现场的墙面即可识别,识别过程简单且易于实现;在大量应用后,预测模块的神经网络模型可以得到更多的数据进行训练,可以不断地提升预测精度,可为我国的火灾数据系统提供一定的数据基础,提高火灾防控领域的信息技术水平。
附图说明
图1为本发明系统模块示意图;
图2为本发明实施例火灾轮廓示意图;
图3为本发明实施例火灾轮廓提取图;
图4为神经网络结构示意图;
图5为本发明实施例2中房屋尺寸示意图;
图6为实际空间坐标示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-图6,本发明提供一种技术方案:一种基于人工神经网络的火源定位系统,如图1所示,火源定位系统具体包括:图像采集模块、图像预处理模块、图像识别模块、特征提取模块和火源位置预测模块。
图像采集模块,用于采集火灾后的室内墙面图片。
图像预处理模块,用于将采集的图片进行灰度化,转化为灰度图,进而将灰度图进行二值化,得到二值图。
图像识别模块,用于识别出二值图中的火灾燃烧痕迹区域,得到燃烧痕迹的边缘坐标。
特征提取模块,用于将边缘坐标进行实际空间坐标转换,再对转换后的坐标进行特征提取。
火源预测模块,用于将提取出的特征值作为输入,经过前向传播得到火灾位置预测值。
一种基于人工神经网络的火源定位系统的火源定位方法,具体步骤如下:
S1、采集火灾后的室内墙面图片。
S2、图像预处理模块将采集的图片进行灰度化、二值化,得到二值图。
灰度化是将图像中每个像素点的红R、绿G、蓝B的值分别乘以加权值后进行相加得到亮度值Y,并令该像素点的红、绿、蓝的值等于所计算的和值Y。
步骤S2所述二值化是将亮度值与预设的阈值进行比较,小于该阈值的像素点设为黑色,大于该阈值的像素点设置为白色,二值化后火灾痕迹与背景更容易区分。
S3、图像识别模块识别出二值图中的燃烧痕迹区域,得到燃烧痕迹的边缘坐标。识别二值图中火灾痕迹的轮廓,筛选出最全面的火灾痕迹轮廓,如图2所示。
边缘坐标是根据边缘检测算子对图像中的各种物体或形状的边缘进行识别,通过边缘检测算子与图像进行运算,得到的值与设定的阈值进行比较,大于该阈值的点被认为是边缘并记录下在图像中的坐标,此时记录下的火灾痕迹边缘坐标是图像中的坐标,而不是实际空间中的坐标。
S4、特征提取模块将边缘坐标进行实际空间坐标转换,再对转换后的坐标进行特征提取。火灾轮廓提取图如图3所示,图3中(a)、(b)、(c)分别对应火灾后左墙、中墙、右墙的墙面图片,(d)、(e)、(f)分别是左墙、中墙、右墙的火灾轮廓提取图,特征提取是根据转换后的坐标,对火灾痕迹进一步的特征提炼,常见特征有平均高度、平均斜率、平均曲率等。
空间坐标转换是将图像中的坐标缩放至预设的实际坐标系中,先将图像坐标归一化,乘以实际墙面的实际尺寸w,再加上预设坐标系的偏移量x0,即可得到实际空间坐标,公式如下
其中,x′表示转换后的空间坐标,x表示原图像中的坐标,xmin表示原图像坐标的最小值,xmax表示原图像坐标的最大值;预设坐标系是以实际空间中的某一点作为原点,以平行于地面的平面作为xoy平面所建立的坐标系。
S5、将提取出的特征值输入已训练好的人工神经网络模型,神经网络结构如图4所示,经计算即可得到火灾位置预测值。
所述人工神经网络模型是根据以下步骤训练得来:
S51、使用仿真模拟软件模拟出火灾数据,构建火灾数据集。
进一步的,使用仿真模拟软件模拟火灾数据的具体步骤如下:
S511、搭建火灾燃烧模型,大致设定以下参数房间几何外观、火源位置、火源热释放率、火源面积等。
S512、设置传感器来收集所需数据,本方法基于火灾痕迹来识别火源位置,因此在模型房间内壁设置烟雾颗粒收集传感器,记录烟雾沉积质量。
S513、将经模拟后得到的烟雾沉积质量数据进一步处理,竖直方向的烟雾沉积质量分布近似于一个二值函数,只需求出火灾痕迹分界高度即可得到火灾痕迹分界点,二值函数公式如下:
其中,p(y)表示烟雾沉积质量随着高度y的分布值,pd表示下层的烟雾沉积质量的分布值,pt表示上层的烟雾沉积质量的分布值,Hr表示房间高度,H表示火灾痕迹分界的高度,通过最小二乘法来确定H的值,具体公式如下:
σ2(Hl)=min[σ2(H)]
其中,当偏差σ2取得最小值时的H值即为火灾痕迹分界高度Hl
S514、对分界点进行特征值提取,如平均高度、平均曲率等,将得到的特征值与火源坐标打包构成数据集。
S52、构建人工神经网络,设置神经元数量、神经网络深度、激活函数、损失函数。
进一步的,构建人工神经网络具体步骤如下:
根据提取出的特征值数量设置输入层神经元数量,根据输出的坐标数量设置输出层神经元数量,根据输入输出层神经元数量和训练样本数量设置隐藏层神经元数量。
nh表示隐藏层神经元数量,Ntr表示训练样本的数量,Ni表示输入层的神经元数量,No表示输出层的神经元数量;设置激活函数增加神经网络的非线性计算能力,设置损失函数衡量训练效果并且作为优化指标。
S53、初始化神经网络权重。
S54、输入训练样本对神经网络进行训练,不断修正神经网络权重。
进一步的,训练神经网络具体步骤如下:
S541、输入训练集,经过前向传播得到损失值,根据损失值反向传播调整神经网络权重
S542、输入验证集,经过前向传播得到损失值
S543、重复S541和S542直到验证集的损失值不再减少或训练次数达到预设值。
S55、完成训练,保存神经网络各项参数。
实施例2
以图5中房间发生火灾为例,应用本发明的火源定位方法,步骤如下所示:
步骤1:通过图像采集模块采集除门口所在墙面外的三面墙的图像,将图像发送至图像预处理模块;
步骤2:图像预处理模块接受到图像采集模块传来的图像,先将图像转化为单通道灰度图,进一步转换成二值图,将二值图移交给图像识别模块。
单通道灰度图是将接受到的图像中每个像素点的红R、绿G、蓝B的值分别乘以加权值后进行相加得到亮度值Y,并令该像素点的红、绿、蓝的值等于所计算的和值Y得到的;图像灰度化计算过程为Y=0.30×R+0.59×G+0.11×B。
二值图是将灰度图中的像素点与设定的阈值进行比较,将小于该阈值的像素点设为0,大于该阈值的像素点设为255的出来的图像,该图像只有黑白两个颜色,便于进行轮廓的提取。
步骤3:使用边缘检测提取出二值图中灾后痕迹的边缘。计算出面积最大的一组边缘,将边缘坐标信息发送到特征提取模块。
边缘检测是根据边缘检测算子对图像中的各种物体或形状的边缘进行识别,通过边缘检测算子与图像进行运算,得到的值与设定的阈值进行比较,大于该阈值的点被认为是边缘并记录下在图像中的坐标。
所述计算出面积最大的一组边缘:闭合的边缘坐标集合会被认定为一组,在一张图中会有多组坐标集合,面积最大的一组是痕迹最全面最主要的部分。所以根据坐标计算出轮廓所围区域的面积,并进行比较筛选出面积最大的一组边缘集合。
步骤4:根据图片空间信息将边缘坐标转换成实际的空间坐标,根据转换后的坐标点提取出每一面墙的火灾痕迹的平均高度、平均斜率、平均曲率,一共九个特征值,将这九个特征值输入到火源位置预测模块。
边缘坐标转换成实际的空间坐标,边缘坐标是像素点在图片中的坐标,可根据图片中的空间信息,将像素点坐标转换成预设的实际空间坐标。先将图像坐标归一化,乘以实际墙面的实际尺寸w,再加上预设坐标系的偏移量x0,即可得到实际空间坐标,公式如下
其中,x′表示转换后的空间坐标,x表示原图像中的坐标,xmin表示原图像坐标的最小值,xmax表示原图像坐标的最大值;从出口向室内的方向看,将出口正对的墙面定义为中墙,出口左侧的墙面定义为左墙,出口右侧的墙定义为右墙,将左墙与中墙的交点定义为坐标原点,从原点平行于左墙向出口的方向定义为x轴正方向,从原点出发平行于中墙向右墙的方向定义为y轴正方向,通过此坐标来描述火源位置和火灾痕迹位置,如图6所示。
步骤5:火源位置预测模块是通过仿真数据已训练好的人工神经网络模型,将特征值输入后,通过前向传播即可得到火源位置预测值。
进一步的,所述已训练好的人工神经网络模型步骤包括:
一、使用仿真模拟软件模拟出火灾数据,构建火灾数据集,将数据集划分为训练集、测试机、验证集;
(1)根据房间几何参数构建房间模型,在房间内设置一处面积为1平方米的火源,火源热释放率符合常见的t2模型最高可达到290kw/m2,设置多个不同火源位置均匀分布在房间内。
(2)设置传感器来收集所需数据,本方法基于火灾痕迹来识别火源位置,因此在模型房间内壁设置烟雾颗粒收集传感器,记录烟雾沉积质量
(3)经模拟后得到的烟雾沉积质量数据需要再进一步处理,根据以下公式划分出火灾痕迹的分界点。
σ2(Hl)=min[σ2(H)]
(4)根据得到的分界点,提取出出门口这面墙外其他每一面墙的火灾痕迹轮廓特征,本例中提取的是平均高度、平均斜率、平均曲率,在一个火灾场景中就会有九个特征值,将这些特征值与火源坐标打包构成数据集。
二、建立人工神经网络模型,输入层神经元数量为特征提取阶段提取出的特征值数量,输出层输出的是火源预测位置的坐标所以输出层的神经元数量为2,隐藏层神经元的数量由以下公式确定:
nh表示隐藏层神经元数量,Ntr表示训练样本的数量,Ni表示输入层的神经元数量,No表示输出层的神经元数量;本例中输入层神经元数量为9,输出层神经元数量为2,隐藏层神经元数量为11。
在隐藏层的计算后还要增加激活函数的计算,激活函数的作用是增加神经网络的非线性计算能力,本例中选取的激活函数为sigmoid,公式如下:
损失函数的作用是计算出神经网络预测结果与目标值的误差,在神经网络训练中要使损失函数的值尽可能的减少,在本例中选取均方差误差作为损失函数,公式如下:
yk表示神经网络的输出,tk表示目标值,k表示数据的维度。
三、对神经网络的权重进行初始化,不正确的初始化权重会导致梯度消失或梯度爆炸问题,从而对训练过程产生负面影响,在本例中选取随机初始化方法进行权重初始化;
四、输入训练样本进行训练,根据损失值不断调整神经网络权重。
1)输入训练集,经过前向传播得到损失值,根据损失值反向传播调整神经网络权重。
2)输入验证集,经过前向传播得到损失值。
3)重复(1)(2)步骤,直到验证集的损失值不再减少或训练次数达到预设值。
五、训练完成,保存神经网络中的权值。
本发明方法能够实现自动识别火源位置,克服了人工识别方法具有的劳动强度大、工作效率低的缺点;只需要拍摄火灾现场的墙面即可识别,识别过程简单且易于实现。
尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于人工神经网络的火源定位方法,其特征在于,包括如下步骤:
S1、通过图像采集模块采集火灾后的室内墙面图片;
S2、利用图像预处理模块将采集的图片进行灰度化,转化为灰度图,进而将灰度图进行二值化,得到二值图;
S3、采用图像识别模块识别出二值图中的火灾燃烧痕迹区域,得到燃烧痕迹的边缘坐标;
S4、通过特征提取模块将边缘坐标进行实际空间坐标转换,再对转换后的坐标进行特征提取;
S5、将提取出的特征值输入到火源预测模块,经过前向传播得到火灾位置预测值;
所述步骤S4中的实际空间坐标转换是将图像中的坐标缩放至预设实际坐标系中,先将图像坐标归一化,乘以实际墙面的实际尺寸w,再加上预设坐标系的偏移量x0,即得到实际空间坐标,具体公式如下:
其中,x′表示转换后的空间坐标,x表示原图像中的坐标,xmin原图像坐标的最小值,xmax表示原图像坐标的最大值;预设坐标系是以实际空间中的某一点作为原点,以平行于地面的平面作为xoy平面所建立的坐标系。
2.根据权利要求1所述的基于人工神经网络的火源定位方法,其特征在于:所述步骤S2中的灰度化是将图像中每个像素点的红R、绿G、蓝B的值分别乘以加权值后进行相加,得到亮度值Y;所述二值化是将亮度值Y与预设的阈值进行比较,小于该阈值的像素点设为黑色,大于该阈值的像素点设置为白色。
3.根据权利要求1所述的基于人工神经网络的火源定位方法,其特征在于:所述步骤S3中的边缘坐标是根据边缘检测算子对图像中的物体或形状的边缘进行识别,将通过边缘检测算子与图像进行运算得到的值与设定的阈值进行比较,大于该阈值的点被认为是边缘并记录下在图像中的坐标。
4.根据权利要求1所述的基于人工神经网络的火源定位方法,其特征在于:所述步骤S4中的特征包括平均高度、平均斜率和平均曲率。
5.根据权利要求1所述的基于人工神经网络的火源定位方法,其特征在于:所述步骤S5中的火源预测模块是已经训练好的人工神经网络模型,人工神经网络模型的训练步骤包括:
S51、使用仿真模拟软件模拟火灾数据,构建火灾数据集并划分为训练集、测试集、验证集;
S52、构建人工神经网络,设置神经元数量、神经网络深度、激活函数、损失函数;
S53、初始化神经网络权重;
S54、输入训练样本对神经网络进行训练,不断调整神经网络权重;
S55、完成训练,保存神经网络各项参数。
6.根据权利要求5所述的基于人工神经网络的火源定位方法,其特征在于:所述步骤S51使用仿真模拟软件模拟火灾数据的具体步骤如下:
S511、搭建火灾燃烧模型,设定参数,参数包括房间几何外观、火源位置、火源热释放率和火源面积;
S512、设置烟雾颗粒收集传感器,记录烟雾沉积质量;
S513、将经模拟后得到的烟雾沉积质量数据进一步处理,竖直方向的烟雾沉积质量分布近似于一个二值函数,只需求出火灾痕迹分界高度即可得到火灾痕迹分界点,二值函数公式如下:
其中,p(y)表示烟雾沉积质量随着高度y的分布值,pd表示下层的烟雾沉积质量的分布值,pt表示上层的烟雾沉积质量的分布值,Hr表示房间高度,H表示火灾痕迹分界的高度,通过最小二乘法来确定H的值,具体公式如下:
σ2(Hl)=min[σ2(H)]
其中,当偏差σ2取得最小值时的H值即为火灾痕迹分界高度Hl
S514、对分界点进行特征提取,将得到的特征值与火源坐标打包构成数据集。
7.根据权利要求5所述的基于人工神经网络的火源定位方法,其特征在于:所述步骤S52构建人工神经网络的具体步骤包括:根据提取出的特征值数量设置输入层神经元数量,根据输出的坐标数量设置输出层神经元数量,根据输入输出层神经元数量和训练样本数量设置隐藏层神经元数量,具体公式如下:
其中,nh表示隐藏层神经元数量,Ntr表示训练样本的数量,Ni表示输入层的神经元数量,No表示输出层的神经元数量;
所述激活函数选用sigmoid,增加神经网络的非线性计算能力;
所述损失函数选取均方差误差,用于衡量训练效果作为优化指标,公式如下:
其中,yk表示神经网络的输出,tk表示目标值,k表示数据的维度。
8.根据权利要求5所述的基于人工神经网络的火源定位方法,其特征在于:在步骤S54中,神经网络的训练具体包括如下步骤:
S541、输入训练集,经过前向传播得到损失值,根据损失值反向传播调整神经网络权重;
S542、输入验证集,经过前向传播得到损失值;
S543、重复步骤S541和步骤S542,直到验证集的损失值不再减少或训练次数达到预设值。
9.一种根据权利要求1~8中任一项所述火源定位方法的火源定位系统,其特征在于:所述火源定位系统具体包括:
图像采集模块,用于采集火灾后的室内墙面图片;
图像预处理模块,用于将采集的图片进行灰度化,转化为灰度图,进而将灰度图进行二值化,得到二值图;
图像识别模块,用于识别出二值图中的火灾燃烧痕迹区域,得到燃烧痕迹的边缘坐标;
特征提取模块,用于将边缘坐标进行实际空间坐标转换,再对转换后的坐标进行特征提取;
火源预测模块,用于将提取出的特征值作为输入,经过前向传播得到火灾位置预测值;
所述特征提取模块中,实际空间坐标转换是将图像中的坐标缩放至预设实际坐标系中,先将图像坐标归一化,乘以实际墙面的实际尺寸w,再加上预设坐标系的偏移量x0,即得到实际空间坐标,具体公式如下:
其中,x′表示转换后的空间坐标,x表示原图像中的坐标,xmin原图像坐标的最小值,xmax表示原图像坐标的最大值;预设坐标系是以实际空间中的某一点作为原点,以平行于地面的平面作为xoy平面所建立的坐标系。
CN202310004375.4A 2023-01-03 2023-01-03 一种基于人工神经网络的火源定位方法及定位系统 Active CN116051988B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310004375.4A CN116051988B (zh) 2023-01-03 2023-01-03 一种基于人工神经网络的火源定位方法及定位系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310004375.4A CN116051988B (zh) 2023-01-03 2023-01-03 一种基于人工神经网络的火源定位方法及定位系统

Publications (2)

Publication Number Publication Date
CN116051988A CN116051988A (zh) 2023-05-02
CN116051988B true CN116051988B (zh) 2024-01-23

Family

ID=86132563

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310004375.4A Active CN116051988B (zh) 2023-01-03 2023-01-03 一种基于人工神经网络的火源定位方法及定位系统

Country Status (1)

Country Link
CN (1) CN116051988B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335312A (zh) * 2019-06-17 2019-10-15 武汉大学 一种基于神经网络的目标空间定位方法及装置
CN114821428A (zh) * 2022-04-29 2022-07-29 中国建设银行股份有限公司 一种智能火灾识别方法、装置、计算机设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210397958A1 (en) * 2020-06-19 2021-12-23 Charles Saron Knobloch Methods for identification using distributed temporal neural nets - practical crowd sourced temporal neural system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335312A (zh) * 2019-06-17 2019-10-15 武汉大学 一种基于神经网络的目标空间定位方法及装置
CN114821428A (zh) * 2022-04-29 2022-07-29 中国建设银行股份有限公司 一种智能火灾识别方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN116051988A (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
CN108921203B (zh) 一种指针式水表的检测与识别方法
CN106886216B (zh) 基于rgbd人脸检测的机器人自动跟踪方法和系统
CN112818925B (zh) 一种城市建筑和树冠识别方法
CN109902761B (zh) 一种基于海洋环境因子融合和深度学习的渔情预测方法
CN106127205A (zh) 一种适用于室内轨道机器人的数字仪表图像的识别方法
CN109886146B (zh) 基于机器视觉检测的洪灾信息遥感智能采集方法及设备
CN112862757A (zh) 一种基于计算机视觉技术的重量评估系统及实现方法
CN113435282A (zh) 基于深度学习的无人机影像麦穗识别方法
CN110399888A (zh) 一种基于mlp神经网络和计算机视觉的围棋裁判系统
CN116034904B (zh) 基于轨道式巡检机器人的猪只健康监测系统及方法
CN117789037B (zh) 作物生长期预测方法及装置
CN111259736B (zh) 一种基于深度学习的复杂环境下行人实时检测方法
CN115512247A (zh) 基于图像多参数提取的区域建筑损伤等级评定方法
CN109598200A (zh) 一种铁水罐罐号的图像智能识别系统及方法
CN114627461A (zh) 一种基于人工智能高精度识别水尺数据的方法及系统
CN116051988B (zh) 一种基于人工神经网络的火源定位方法及定位系统
CN117541665A (zh) 基于改进的生成对抗网络的红外图像生成方法
CN115830302B (zh) 一种多尺度特征提取融合配电网设备定位识别方法
CN117237990A (zh) 群养猪只体重的估测方法、装置、电子设备及存储介质
Gao et al. Design of an efficient multi-objective recognition approach for 8-ball billiards vision system
CN110826691A (zh) 基于yolo和lstm的地震速度谱智能拾取方法
CN117455828A (zh) 一种基于mlp神经网络的燃烧质量检测方法
CN113469224A (zh) 一种基于卷积神经网络与特征描述算子相融合的大米分类方法
CN114283296B (zh) 一种基于结构相似度的目标识别自评估方法
CN118608464A (zh) 一种钢轨表面通用灰斑检测与灰斑面积计算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant