CN107862333A - 一种在复杂环境下判断物体燃烧区域的方法 - Google Patents
一种在复杂环境下判断物体燃烧区域的方法 Download PDFInfo
- Publication number
- CN107862333A CN107862333A CN201711078234.8A CN201711078234A CN107862333A CN 107862333 A CN107862333 A CN 107862333A CN 201711078234 A CN201711078234 A CN 201711078234A CN 107862333 A CN107862333 A CN 107862333A
- Authority
- CN
- China
- Prior art keywords
- msub
- mrow
- sample
- flame
- flame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
Abstract
本发明属于火灾探测技术领域,解决现有技术中燃烧区域判断过于复杂和判断不准确的问题,尤其涉及一种在复杂环境下判断物体燃烧区域的方法,首先进行图像预处理,然后计算火焰图像样本的期望最大回报值,然后构建深度学习网络的权值更新方程,接着训练深度学习网络,最后利用训练好的深度学习网络来识别火焰。相对于现有技术,本发明具有深度学习的特点,且燃烧区域判断全面,可操作性强,对于燃烧区域的判断更准确,更快速。
Description
技术领域
本发明属于火灾探测技术领域,尤其涉及一种在复杂环境下判断物体燃烧区域的方法。
背景技术
火灾是破坏性非常大的灾害之一,在全球范围内,每年发生的火灾都会对经济、社会、环境等造成非常大的影响。当背景环境比较复杂时,火势的变化会比较不规律,燃烧呈现出立体多层次的特点,火势难以控制,给扑救造成一定的困难,因此,会带来更严重的损失和风险。
目前,大部分场所采用的是传感器探测,例如感温型、感烟型、感光型及复合型的传感器。这些传感器在火灾监测中应用非常普遍,但并没有完全解决传统监测手段较偏向于室内小空间的问题,和在与室内环境截然不同的大空间或大面积场所下监测不足的问题。
随着图像处理技术和计算机科学的不断发展,使基于图像处理的火灾识别监测技术迎来了迅猛成长的阶段。这种技术以计算机为核心,将机器学习中的模式识别方法与数字化图像处理技术相结合。一般在监控地段会设置摄像头,实时捕捉的数宇图像,送入计算机进行分析和判别,分析判别火灾的图像特征,可以有效避免外界环境对识别的干扰。由于图像信息的传播以光作为传播载体,相比于传统方法,图像检测可以更加迅速的对火情进行预报。区别于传感器基于信号的原理,图像蕴含丰富的信息,在表达上更加直观。此外,用于进行图像检测的原件,像敏元件隐藏在镜头下,并不与外界环境直接接触,就保证了这种方法既能够在室内环境中使用,也能够在室外环境中使用。
火在图像上表现出来的特征,包括火形状面积的改变、灰度值的改变和尖角数的改变等。如果可以将这些特征准确提取出来,就可以通过它们来识别火灾。在背景复杂的环境中,想要提取到想要的特征非常困难,且不同数据集对应不同特征,一个数据集训练的模型用在另一个数据集上往往识别率较低,适应性较差。因此,一套完整的火灾监测系统包括图像采集装置、图像处理装置和载体。
中国专利CN201885804U和中国专利CN201844880U属于红外波段的火灾探测技术,他们采用了双波长红外光来探测火焰,双波长分别为4.3微米和5.0微米,该系统分别配有对应波长的传感器,中国专利CN201867924U在其前者的基础上,外加了3.8微米波长红外传感器来提高火焰的探测精度;中国专利CN202195883U和中国专利CN201191222属于紫外波段的火灾探测技术,系统通过处理采集到的紫外辐射信号来判断是否存在火焰;中国专利CN202306757U属于多波段复合型检测技术,分别采用彩色摄像机和近红外摄像机来捕获监控现场的彩色视频图像和近红外视频图像来判定火焰的有无;相对于可见光波段传感器,由于红外和紫外传感器通常价格昂贵,因而限制了其推广使用。
中国专利CN102163361A提供了一种基于前景累积图像的图像型火灾探测方法,建立了前景累积图像,并用于火焰图像的实时探测,通过计算机对由监控摄像机得到的视频图像提取前景累积图像,对图像进行分块,统计每个图像块中各个像素在前景累积图像中的亮度值,根据预先设定好的灵敏度进行判别。此方法虽然计算量低,实时性也很好,但其仅依靠前景累积图的亮度值进行判断火灾,对于亮度较高的抖动物体,存在着一定的误报。
中国专利CN101106727采用彩色CCD摄像系统,采用了图像差分法,利用统计得到的火焰颜色模板,并结合火灾跳跃、闪烁、不稳定的特点进行火焰判定;中国专利CN101493980公开了一种基于多特征融合的视频火焰探测方法,此方法基于混合高斯模型的技术来检测运动目标,并结合火焰的颜色特征、运动特征及火焰区域的闪动特征进行建模,依据运动、颜色、闪动的识别顺序逐步进行火焰探测,以上两个专利由于其判据简单,对于类似火焰颜色的物体,做一定频率的抖动,可能产生误报。
以上提到的图像火焰探测系统,均采用了成本比较昂贵的专业CCD摄像头,而21世纪初全球CMOS图像传感器市场将在PC摄像机、移动通信市场、数码相机、摄像机市场等领域获得大幅度增长,当前,将开始以CMOS传感器为主流,针对CMOS传感器的视频火焰探测技术也很少见的。
发明内容
本发明的目的在于提供自主深度学习,燃烧区域判断全面的一种在复杂环境下判断物体燃烧区域的方法。
本发明的目的是这样实现的:
一种在复杂环境下判断物体燃烧区域的方法,包含如下步骤:
(1)图像预处理:
通过监控摄像头采集监控场景下的火焰视频图像作为火焰样本库中的样本,将火焰视频图像抽成帧,然后转换为灰度图并归一化,然后对归一化后的图像添加数值标签,即:没有火焰的图像添加数值“0”、有火焰的图像添加数值“1”,再将这些图像作为火焰图像样本。
(2)计算第t个火焰图像样本的期望最大回报值:
将第t个火焰图像样本组成行向量xt,第t个火焰图像样本的数值标签表述为at,at∈[0,1],按照Q-学习理论,计算出第t个火焰图像样本的未来汇报rt:
上式中,T是火焰图像样本的总量,γt′-t表示为第t个火焰图像样本对t′个火焰图像样本的奖励折扣系数,γt'为第t′个火焰图像样本的折扣系数。
然后利用最优动作-值函数Q*(x,a)计算出第t个火焰图像样本的期望最大回报值Q*(x,a):
上式中,x泛指火焰图像样本,a泛指数值标签,π是火焰图像样本和数值标签的映射函数,通过选择不同的数值标签at∈a来计算奖励的期望,期望值最大时对应的数值标签即该火焰图像样本的数值标签。
(3)构建深度学习网络的权值更新方程:
计算第t个火焰图像样本的目标输出yt:
上式中,θt-1表示第t-1个火焰图像样本的权值参数,γ为折扣系数。
通过最小化损失函数Lt(θt)来更新深度学习网络的权值参数,
ρ(·)是火焰图像样本x和数值标签a的概率分布,E为求期望。
将最小化损失函数Lt(θt)对第t个火焰图像样本的权值参数θt求导,得到深度学习网络的权值更新方程,并更新第t个火焰图像样本的权值:
上式中,表示括号内式子对第t个火焰图像样本的权值参数θt的求导。
(4)训练深度学习网络
a)将火焰样本库中的火焰图像样本作为训练样本,将训练样本分为N份,且每一个训练样本均处理成行向量xt,并作为深度学习网络的输入,设置两个输出神经元。
b)根据先验知识确定出训练样本中的火焰图像样本,再以第一份训练样本的行向量xt为输入,若输出为“10”,样本中不含火焰;输出为“01”,样本中含有火焰。通过权值更新方程调节深度学习网络中的权值,第一次训练深度学习网络。
c)找出第一份训练样本中实际输出与先验知识不同的训练样本,设共找出n个不同的训练样本,再将该n个不同的训练样本分别进行逆时针旋转2°并加入σ=0.2的高斯噪音。
d)在第二份训练样本中随机抽出n个训练样本,并将用第c)步处理后的n个不同的训练样本补齐到第二份训练样本中,再用新得到的第二份训练样本按第b)步进行第二次训练深度学习网络。
e)以此类推,直到完成第N次训练深度学习网络,得到最终的深度学习网络。
(5)利用训练好的深度学习网络来识别火焰:
将待检测的火焰样本图像处理成行向量xt,再输入到训练完毕的深度学习网络,根据深度学习网络的输出结果识别出图像中的火焰的有无。
本发明的有益效果为:
相对于现有技术,本发明具有深度学习的特点,且燃烧区域判断全面,可操作性强,对于燃烧区域的判断更准确,更快速。
附图说明
图1是一种在复杂环境下判断物体燃烧区域的方法流程图。
图2实施例物体燃烧区域判断识别的流程图。
图3物体燃烧火焰识别的卷积神经网络框架。
图4训练得到的均方差曲线。
图5训练得到的正确率曲线。
具体实施方式
下面结合附图来对本发明作进一步描述:
如图1,一种在复杂环境下判断物体燃烧区域的方法,包含如下步骤:
(1)图像预处理:
通过监控摄像头采集监控场景下的火焰视频图像作为火焰样本库中的样本,将火焰视频图像抽成帧,然后转换为灰度图并归一化,然后对归一化后的图像添加数值标签,即:没有火焰的图像添加数值“0”、有火焰的图像添加数值“1”,再将这些图像作为火焰图像样本。
(2)计算第t个火焰图像样本的期望最大回报值:
将第t个火焰图像样本组成行向量xt,第t个火焰图像样本的数值标签表述为at,at∈[0,1],按照Q-学习理论,计算出第t个火焰图像样本的未来汇报rt:
上式中,T是火焰图像样本的总量,γt′-t表示为第t个火焰图像样本对t′个火焰图像样本的奖励折扣系数,γt'为第t′个火焰图像样本的折扣系数。
然后利用最优动作-值函数Q*(x,a)计算出第t个火焰图像样本的期望最大回报值Q*(x,a):
上式中,x泛指火焰图像样本,a泛指数值标签,π是火焰图像样本和数值标签的映射函数,通过选择不同的数值标签at∈a来计算奖励的期望,期望值最大时对应的数值标签即该火焰图像样本的数值标签。
(3)构建深度学习网络的权值更新方程:
计算第t个火焰图像样本的目标输出yt:
上式中,θt-1表示第t-1个火焰图像样本的权值参数,γ为折扣系数。
通过最小化损失函数Lt(θt)来更新深度学习网络的权值参数,
ρ(·)是火焰图像样本x和数值标签a的概率分布,E为求期望。
将最小化损失函数Lt(θt)对第t个火焰图像样本的权值参数θt求导,得到深度学习网络的权值更新方程,并更新第t个火焰图像样本的权值:
上式中,表示括号内式子对第t个火焰图像样本的权值参数θt的求导。
(4)训练深度学习网络
a)将火焰样本库中的火焰图像样本作为训练样本,将训练样本分为N份,且每一个训练样本均处理成行向量xt,并作为深度学习网络的输入,设置两个输出神经元。
b)根据先验知识确定出训练样本中的火焰图像样本,再以第一份训练样本的行向量xt为输入,若输出为“10”,样本中不含火焰;输出为“01”,样本中含有火焰。通过权值更新方程调节深度学习网络中的权值,第一次训练深度学习网络。
c)找出第一份训练样本中实际输出与先验知识不同的训练样本,设共找出n个不同的训练样本,再将该n个不同的训练样本分别进行逆时针旋转2°并加入σ=0.2的高斯噪音。
d)在第二份训练样本中随机抽出n个训练样本,并将用第c)步处理后的n个不同的训练样本补齐到第二份训练样本中,再用新得到的第二份训练样本按第b)步进行第二次训练深度学习网络。
e)以此类推,直到完成第N次训练深度学习网络,得到最终的深度学习网络。
(5)利用训练好的深度学习网络来识别火焰:
将待检测的火焰样本图像处理成行向量xt,再输入到训练完毕的深度学习网络,根据深度学习网络的输出结果识别出图像中的火焰的有无。
下面给出实施例1:
1.物体燃烧待识别图像的获取:
物体燃烧待识别图像的获取通过安装的可见光摄像头进行采集。
摄像头采集到的图像存入硬盘录像机,硬盘录像机具有对图像/语音进行长时间录像、录音、远程监视和控制的功能。硬盘录像机和路由器连接形成一个局域网,通过网络设置完成图像数据的无线传输。
2.物体燃烧图像数据库的建立:
用于分类训练的物体燃烧图像数据库通过实际拍摄的燃烧图像以及在各大图片网站搜索得到的图像组成。其中训练集中有260张火焰图片,240张复杂环境下的火焰图片,测试集中有52张火焰图片,48张复杂环境下的火焰图片。训练集与测试集中每一张图片均不重复。
3.物体燃烧识框架搭建:
用于物体燃烧识别的网络框架如图3所示。将卷积层和池化层严格区分的情况下,连同输入层在内的该网络共有12层。
3.1输入层
由于所使用的彩色图像样本大小并不一致,因此需要将图片进行缩放处理,将其统一为227×227大小,由于RGB彩色图像有3个通道,因此其尺寸为227×227×3。
3.2卷积层
该层通过对输入图像或特征图的卷积来实现特征提取。每个输出节点通过一个卷积核与输入节点相连,每个输出特征图与前一层的一个或多个输入特征图相连。卷积核的大小决定感受野的范围,因此它的取值需要综合图像的大小和信息的复杂程度决定。经过卷积核卷积后图像尺寸N的计算表达式为:
其中l为当前网络层数,K为卷积核大小,P为在输入的每一边上填充的像素(无特别说明时取0),S为步长。
采用ReLu非线性激活函数代替传统神经网络的激活函数,这样卷积层的计算表达式为:
其中Mj为输入特征的一个选择,l为当前网络层数,ω为卷积核,b为每个输出特征图添加的偏置。
图3中的C1、C2、C3、C4、C5均为卷积层。C1层卷积核取11×11,步长为4,特征图个数取96,按照公式(1),最终得到55×55×96的特征图。C2层卷积核取5×5,步长为1,每边填充像素为2,特征图个数取256,按照公式(1),最终得到27×27×256的特征图。C3层卷积核取3×3,步长为1,每边填充像素为1,特征图个数取384,按照公式(1),最终得到13×13×384的特征图。C4层卷积核取3×3,步长为1,每边填充像素为1,特征图个数取384,按照公式(1),最终得到13×13×384的特征图。C5层卷积核取3×3,步长为1,每边填充像素为1,特征图个数取256,按照公式(1),最终得到13×13×256的特征图。
3.3池化层
池化的目的是减少数据的处理量以及使特征具有平移不变性。选用最大池化,即取矩形区域中的最大值作为输出值。对于图像中的x区域,下采样后y值的计算表达式为:
y=max(xi),xi∈x (3)
图2中的S1、S2和S5均为池化层,池化后的图像尺寸表达式与公式(1)相同,化后的特征图个数即为其对应的前一个卷积层的特征图个数。S1、S2、S5的矩形区域均取3×3,步长取2,可以看出是矩形区域有交叠的池化。最终S1得到27×27×96的特征图,S2得到13×13×256的特征图,S5得到6×6×256的特征图。
3.4隐藏层
隐藏层设置与传统的神经网络一致,为全连接层。F6和F7均设置4096个神元,激活函数同样选择ReLu函数。
3.5分类层
分类层F8设置2个神经元,与F7的神经元构成全连接,相当于对一个4096维的线性向量进行2分类。
4.物体燃烧图像分类识别的特征训练和学习
Caffe作为平台,搭建CNN框架。调用GPU进行加速运算,由于GPU是并行处理,相比于传统的单线处理CPU,提高了运算速度,节省了运算时间。
训练中的权值更新采用批量更新,即一次输入多个样本后综合情况进行权值更新。学习率参数取为0.001,批量大小取为100。
使用在ImageNet上训练好的模型参数来替换随机初始化参数(选取JeffDonahue训练的模型参数)的方法,这样网络在训练之前就具备了一个良好的初始值,有效避免了随机初始化对小样本数据过拟合现象的发生。再用训练集和测试集去训练和测试网络,可以将网络训练成一个优秀的特征提取器。30次迭代后网络的均方误差(MSE)如图3所示,分类正确率如图4所示。图4中训练集和测试集的均方误差随迭代次数的增加明显下降,训练集的均方误差最低点达到0.0002。图5中分类正确率随迭代次数的增加而显著提高,最终达到98%。
5.利用训练好的卷积神经网络来识别物体燃烧图像
将待检测的物体燃烧图像输入到训练完毕的卷积神经网络中,根据卷积神经网络的输出结果确定物体燃烧区域。
相对于现有技术,本发明具有深度学习的特点,且燃烧区域判断全面,可操作性强,对于燃烧区域的判断更准确,更快速。
需要说明的是,说明书附图只用于帮助普通大众理解,实施例1并不对本发明起到任何限制作用,说明书中未具体介绍的部分,均为本领域技术人员所公知,因此未作进一步的描述。
Claims (3)
1.一种在复杂环境下判断物体燃烧区域的方法,其特征在于,包含如下步骤:
(1)图像预处理:
通过监控摄像头采集监控场景下的火焰视频图像作为火焰样本库中的样本,将火焰视频图像抽成帧,然后转换为灰度图并归一化,然后对归一化后的图像添加数值标签,即:没有火焰的图像添加数值“0”、有火焰的图像添加数值“1”,再将这些图像作为火焰图像样本;
(2)计算第t个火焰图像样本的期望最大回报值:
将第t个火焰图像样本组成行向量,按照Q-学习理论,计算出第t个火焰图像样本的未来汇报,然后利用最优动作-值函数,代入第t个火焰图像样本的未来汇报,计算出第t个火焰图像样本的期望最大回报值,通过选择不同的数值标签来计算奖励的期望,期望值最大时对应的数值标签即该火焰图像样本的数值标签;
(3)构建深度学习网络的权值更新方程:
由第t个火焰图像样本的期望最大回报值,计算第t个火焰图像样本的目标输出,然后通过第t个火焰图像样本的目标输出,用最小化损失函数来更新深度学习网络的权值参数,最后将最小化损失函数对第t个火焰图像样本的权值参数求导,得到深度学习网络的权值更新方程,并更新第t个火焰图像样本的权值;
(4)训练深度学习网络:
a)将火焰样本库中的火焰图像样本作为训练样本,将训练样本分为N份,且每一个训练样本均处理成行向量xt,并作为深度学习网络的输入,设置两个输出神经元;
b)根据先验知识确定出训练样本中的火焰图像样本,再以第一份训练样本的行向量xt为输入,若输出为“10”,样本中不含火焰;输出为“01”,样本中含有火焰;通过权值更新方程调节深度学习网络中的权值,第一次训练深度学习网络;
c)找出第一份训练样本中实际输出与先验知识不同的训练样本,设共找出n个不同的训练样本,再将该n个不同的训练样本分别进行逆时针旋转2°并加入σ=0.2的高斯噪音;
d)在第二份训练样本中随机抽出n个训练样本,并将用第c)步处理后的n个不同的训练样本补齐到第二份训练样本中,再用新得到的第二份训练样本按第b)步进行第二次训练深度学习网络;
e)以此类推,直到完成第N次训练深度学习网络,得到最终的深度学习网络;
(5)利用训练好的深度学习网络来识别火焰:
将待检测的火焰样本图像处理成行向量xt,再输入到训练完毕的深度学习网络,根据深度学习网络的输出结果识别出图像中的火焰的有无。
2.根据权利要求1所述的一种在复杂环境下判断物体燃烧区域的方法,其特征在于,所述的第t个火焰图像样本的未来汇报rt:
<mrow>
<msub>
<mi>r</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<msup>
<mi>t</mi>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<mi>t</mi>
</mrow>
<mi>T</mi>
</msubsup>
<msup>
<mi>&gamma;</mi>
<mrow>
<msup>
<mi>t</mi>
<mo>&prime;</mo>
</msup>
<mo>-</mo>
<mi>t</mi>
</mrow>
</msup>
<msub>
<mi>&gamma;</mi>
<msup>
<mi>t</mi>
<mo>&prime;</mo>
</msup>
</msub>
<mo>,</mo>
</mrow>
T是火焰图像样本的总量,γt′-t表示为第t个火焰图像样本对t′个火焰图像样本的奖励折扣系数,γt'为第t′个火焰图像样本的折扣系数;
所述的第t个火焰图像样本的期望最大回报值Q*(x,a):
<mrow>
<msubsup>
<mi>Q</mi>
<mi>t</mi>
<mo>*</mo>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>max</mi>
<mi>&pi;</mi>
</msub>
<mi>E</mi>
<mo>&lsqb;</mo>
<msub>
<mi>r</mi>
<mi>t</mi>
</msub>
<mo>|</mo>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mi>x</mi>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mi>a</mi>
<mo>,</mo>
<mi>&pi;</mi>
<mo>&rsqb;</mo>
<mo>,</mo>
</mrow>
上式中,x泛指火焰图像样本,a泛指数值标签,π是火焰图像样本和数值标签的映射函数,xt为第t个火焰图像样本组成的行向量,at为第t个火焰图像样本的数值标签,at∈[0,1]。
3.根据权利要求1所述的一种在复杂环境下判断物体燃烧区域的方法,其特征在于,所述的第t个火焰图像样本的目标输出yt:
<mrow>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mi>E</mi>
<mo>&lsqb;</mo>
<msub>
<mi>r</mi>
<mi>t</mi>
</msub>
<mo>+</mo>
<msub>
<mi>&gamma;max</mi>
<msub>
<mi>a</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</msub>
<msubsup>
<mi>Q</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mo>*</mo>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>|</mo>
<mi>x</mi>
<mo>,</mo>
<mi>a</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mo>,</mo>
</mrow>
上式中,θt-1表示第t-1个火焰图像样本的权值参数,γ为折扣系数;
所述的最小化损失函数Lt(θt):
<mrow>
<msub>
<mi>L</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>t</mi>
</msub>
<mo>~</mo>
<mi>&rho;</mi>
<mrow>
<mo>(</mo>
<mo>&CenterDot;</mo>
<mo>)</mo>
</mrow>
</mrow>
</msub>
<mo>&lsqb;</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>-</mo>
<msubsup>
<mi>Q</mi>
<mi>t</mi>
<mo>*</mo>
</msubsup>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>t</mi>
</msub>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mi>t</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>&rsqb;</mo>
<mo>,</mo>
</mrow>
ρ(·)是火焰图像样本x和数值标签a的概率分布,E为求期望;
所述的深度学习网络的权值更新方程:
<mrow>
<msub>
<mo>&dtri;</mo>
<msub>
<mi>&theta;</mi>
<mi>t</mi>
</msub>
</msub>
<msub>
<mi>L</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>E</mi>
<mrow>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>t</mi>
</msub>
<mo>~</mo>
<mi>&rho;</mi>
<mrow>
<mo>(</mo>
<mo>&CenterDot;</mo>
<mo>)</mo>
</mrow>
</mrow>
</msub>
<mo>&lsqb;</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mi>t</mi>
</msub>
<mo>+</mo>
<msub>
<mi>&gamma;max</mi>
<msub>
<mi>a</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</msub>
<msubsup>
<mi>Q</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mo>*</mo>
</msubsup>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mo>)</mo>
<mo>-</mo>
<msubsup>
<mi>Q</mi>
<mi>t</mi>
<mo>*</mo>
</msubsup>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>t</mi>
</msub>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mi>t</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<msub>
<mo>&dtri;</mo>
<msub>
<mi>&theta;</mi>
<mi>t</mi>
</msub>
</msub>
<msubsup>
<mi>Q</mi>
<mi>t</mi>
<mo>*</mo>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>a</mi>
<mi>t</mi>
</msub>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
上式中,表示括号内式子对第t个火焰图像样本的权值参数θt的求导。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711078234.8A CN107862333A (zh) | 2017-11-06 | 2017-11-06 | 一种在复杂环境下判断物体燃烧区域的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711078234.8A CN107862333A (zh) | 2017-11-06 | 2017-11-06 | 一种在复杂环境下判断物体燃烧区域的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107862333A true CN107862333A (zh) | 2018-03-30 |
Family
ID=61701035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711078234.8A Pending CN107862333A (zh) | 2017-11-06 | 2017-11-06 | 一种在复杂环境下判断物体燃烧区域的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107862333A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108389359A (zh) * | 2018-04-10 | 2018-08-10 | 中国矿业大学 | 一种基于深度学习的城市火灾报警方法 |
CN108597172A (zh) * | 2018-04-16 | 2018-09-28 | 河南理工大学 | 一种森林火灾识别方法、装置、电子设备及存储介质 |
CN109101878A (zh) * | 2018-07-01 | 2018-12-28 | 浙江工业大学 | 一种用于秸秆燃值估计的图像分析系统及图像分析方法 |
CN109145796A (zh) * | 2018-08-13 | 2019-01-04 | 福建和盛高科技产业有限公司 | 一种基于视频图像融合分析算法的电力管廊火源识别及火点测距方法 |
CN112651355A (zh) * | 2020-12-29 | 2021-04-13 | 四川警察学院 | 一种基于混合高斯模型和卷积神经网络的危险品识别预警方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101625789A (zh) * | 2008-07-07 | 2010-01-13 | 北京东方泰坦科技有限公司 | 基于烟火智能识别的森林火灾实时监测方法 |
CN103064574A (zh) * | 2013-01-14 | 2013-04-24 | 无锡力合光电石墨烯应用研发中心有限公司 | 一种石墨烯电容式触摸屏金属电极的精细图案化方法 |
CN105788142A (zh) * | 2016-05-11 | 2016-07-20 | 中国计量大学 | 一种基于视频图像处理的火灾检测系统及检测方法 |
CN106295637A (zh) * | 2016-07-29 | 2017-01-04 | 电子科技大学 | 一种基于深度学习与强化学习的车辆识别方法 |
-
2017
- 2017-11-06 CN CN201711078234.8A patent/CN107862333A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101625789A (zh) * | 2008-07-07 | 2010-01-13 | 北京东方泰坦科技有限公司 | 基于烟火智能识别的森林火灾实时监测方法 |
CN103064574A (zh) * | 2013-01-14 | 2013-04-24 | 无锡力合光电石墨烯应用研发中心有限公司 | 一种石墨烯电容式触摸屏金属电极的精细图案化方法 |
CN105788142A (zh) * | 2016-05-11 | 2016-07-20 | 中国计量大学 | 一种基于视频图像处理的火灾检测系统及检测方法 |
CN106295637A (zh) * | 2016-07-29 | 2017-01-04 | 电子科技大学 | 一种基于深度学习与强化学习的车辆识别方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108389359A (zh) * | 2018-04-10 | 2018-08-10 | 中国矿业大学 | 一种基于深度学习的城市火灾报警方法 |
CN108389359B (zh) * | 2018-04-10 | 2020-03-24 | 中国矿业大学 | 一种基于深度学习的城市火灾报警方法 |
CN108597172A (zh) * | 2018-04-16 | 2018-09-28 | 河南理工大学 | 一种森林火灾识别方法、装置、电子设备及存储介质 |
CN108597172B (zh) * | 2018-04-16 | 2020-11-06 | 河南理工大学 | 一种森林火灾识别方法、装置、电子设备及存储介质 |
CN109101878A (zh) * | 2018-07-01 | 2018-12-28 | 浙江工业大学 | 一种用于秸秆燃值估计的图像分析系统及图像分析方法 |
CN109101878B (zh) * | 2018-07-01 | 2020-09-29 | 浙江工业大学 | 一种用于秸秆燃值估计的图像分析系统及图像分析方法 |
CN109145796A (zh) * | 2018-08-13 | 2019-01-04 | 福建和盛高科技产业有限公司 | 一种基于视频图像融合分析算法的电力管廊火源识别及火点测距方法 |
CN112651355A (zh) * | 2020-12-29 | 2021-04-13 | 四川警察学院 | 一种基于混合高斯模型和卷积神经网络的危险品识别预警方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jia et al. | Detection and segmentation of overlapped fruits based on optimized mask R-CNN application in apple harvesting robot | |
CN107862333A (zh) | 一种在复杂环境下判断物体燃烧区域的方法 | |
CN110569772B (zh) | 一种泳池内人员状态检测方法 | |
CN106802113B (zh) | 基于多弹孔模式识别算法的智能报靶系统和方法 | |
CN103761529B (zh) | 一种基于多色彩模型和矩形特征的明火检测方法和系统 | |
CN111126325B (zh) | 一种基于视频的智能人员安防识别统计方法 | |
CN101493980B (zh) | 一种基于多特征融合的快速视频火焰探测方法 | |
CN108717528A (zh) | 一种基于深度网络的多策略全局人群分析方法 | |
CN102201146B (zh) | 基于主动红外视频的零照度环境火灾烟雾识别方法 | |
CN107463920A (zh) | 一种消除局部遮挡物影响的人脸识别方法 | |
CN104320617B (zh) | 一种基于深度学习的全天候视频监控方法 | |
CN107609597A (zh) | 一种电梯轿厢人数检测系统及其检测方法 | |
CN105225235A (zh) | 一种基于多光谱特征的视频火焰检测方法 | |
CN106686377B (zh) | 一种基于深层神经网络的视频重点区域确定方法 | |
CN107909008A (zh) | 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法 | |
CN110378232B (zh) | 改进的ssd双网络的考场考生位置快速检测方法 | |
CN110163041A (zh) | 视频行人再识别方法、装置及存储介质 | |
CN108038867A (zh) | 基于多特征融合和立体视觉的火焰检测和定位方法 | |
CN108090495A (zh) | 一种基于红外光和可见光图像的疑似火焰区域提取方法 | |
CN106339657B (zh) | 基于监控视频的秸秆焚烧监测方法、装置 | |
CN110263654A (zh) | 一种火焰检测方法、装置及嵌入式设备 | |
CN105955708A (zh) | 一种基于深度卷积神经网络的体育视频镜头分类方法 | |
Wang et al. | Investigation into recognition algorithm of helmet violation based on YOLOv5-CBAM-DCN | |
KR102002632B1 (ko) | Iot 기반 과수 모니터링 시스템 및 방법 | |
CN108074234A (zh) | 一种基于目标跟踪和多特征融合的大空间火焰检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180330 |
|
RJ01 | Rejection of invention patent application after publication |