CN112116671A - 注意力机制降低烟、火监测计算量的方法及电子设备 - Google Patents
注意力机制降低烟、火监测计算量的方法及电子设备 Download PDFInfo
- Publication number
- CN112116671A CN112116671A CN202010924595.5A CN202010924595A CN112116671A CN 112116671 A CN112116671 A CN 112116671A CN 202010924595 A CN202010924595 A CN 202010924595A CN 112116671 A CN112116671 A CN 112116671A
- Authority
- CN
- China
- Prior art keywords
- layer
- color
- smoke
- network
- fire
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000000779 smoke Substances 0.000 title claims abstract description 53
- 238000012544 monitoring process Methods 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 title claims abstract description 17
- 230000007246 mechanism Effects 0.000 title claims description 24
- 238000004364 calculation method Methods 0.000 claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 14
- 238000013528 artificial neural network Methods 0.000 claims abstract description 6
- 230000000306 recurrent effect Effects 0.000 claims abstract description 3
- 238000011176 pooling Methods 0.000 claims description 15
- 238000004458 analytical method Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 12
- 238000010586 diagram Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 235000019587 texture Nutrition 0.000 description 13
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 235000019580 granularity Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及火灾检测技术领域,具体涉及一种降低烟、火监测计算量的注意力方法及电子设备,本发明首先获取待检测图像,用颜色特征网络生成颜色特征通道,再采用纹理特征网络和边缘特征网络分别抽取纹理特征、边缘特征,将纹理特征、边缘特征用大卷积核卷积合并成综合特征,再用sigmoid激活函数生成1维的权重特征图;将时间注意力嵌入循环神经网络RNN的编解码器之间,先度量编码器E第t‑i个隐藏状态Et‑i和解码器D状态Dt‑1对Dt的贡献大小,不断调节每个历史编码器权重的大小,仅对解码器Dt超过阈值的帧进行重点检测。本发明只对高可能性的时空进一步严密检测,能够大幅降低全幅面、全时间监测对算力的消耗。
Description
技术领域
本发明涉及火灾检测技术领域,具体涉及一种注意力机制降低烟、火监测计算量的方法及电子设备。
背景技术
深度学习较大程度地避免了传统方法中对人工的依赖,能自动地获取传统技术难以获取的高层特征。设计合理的非线性结构也能保留烟雾中的低维流形并能用于生成较精细的Ground truth,为各种粒度的烟雾识别任务带来了较明显的效果提升。
但是,深度学习检测烟、火目前具有“深度学习模型很大,计算负担重,应用部署成本高”的严重缺点,性价比低,客户部署意愿不大。因此降低计算复杂度,优化计算流程,减小对算力的消耗,已经成为目前研究的当务之急。
目前监控摄像头的分辨率往往是1080(1920×1080)、3MP(2560×1440)和5MP,但是烟、火在早期只发生在局部区域,监控如此大的幅面浪费算力;另一方面,正常状态居多,灾害只有极少数时间。引入空间注意力机制,只关心发生烟、火的高可能性区域;引入时间注意力机制,只关心发生烟、火的高可能性时段。因此只对高可能性的时空进一步严密检测,能够大幅降低全幅面、全时间监测对算力的消耗。
发明内容
针对现有技术的不足,本发明公开了一种注意力机制降低烟、火监测计算量的方法及电子设备,用于解决上述背景技术存在的问题。
本发明通过以下技术方案予以实现:
第一方面,本发明公开了一种注意力机制降低烟、火监测计算量的方法,所述方法包括以下步骤:
S1获取待检测图像,用颜色特征网络生成颜色特征通道,并采用纹理特征网络和边缘特征网络分别抽取纹理、边缘特征;
S2合并成通道综合特征,并沿着通道轴最大池化和平均池化,得到2通道的特征图;
S3采用7×7卷积、sigmoid激活函数最终得到1维的权重特征图;
S4权重特征图定义为空间注意力,仅对检测图像中权重特征图中超过阈值的区域进行重点检测;
S5将空间注意力嵌入循环神经网络RNN的编解码器;
S6先度量编码器E第t-i个隐藏状态Et-i和解码器D状态Dt-1对Dt的贡献大小;
S7不断调节每个历史编码器权重的大小,仅对解码器Dt超过阈值的帧进行重点检测。
更进一步的,所述颜色特征网络学习烟、火的颜色特征,其通过多次1×1的非线性卷积学习到合适的颜色模式,并建模颜色通道之间的相互依赖关系。
不受空间特征的影响,只操作颜色空间,采用1×1的卷积核卷积,然后非线性变换,即:
fk i为第i层的第k个颜色通道,fm i-1为第i-1层的第m个颜色通道,Wk i-1为i-1层到i层的第k个卷积核,Wkm i-1为第i-1层第m个颜色通道到第i层第k个颜色通道的第k个卷积核的权重,bk第i-1层的第k个偏置项,gi-1为第i-1层的非线性激活函数。
更进一步的,所述颜色特征网络采用压缩-解码的方式,先在空间维度进行全局平均池化压缩,把特征通道变成一个实数,然后经过两个全连接神经网络,得到一个和通道数一样的一维向量作为每个通道的评价分数,接着将改动之后的分数通过乘法逐通道加权到原来对应的通道上,最后得到输出结果。
更进一步的,所述实数具有全局的感受野,表征着在颜色通道上响应的全局分布,所述颜色特征网络采用1×1×3×7、1×1×7×18、1×1×18×45和1×1×45×5共4层卷积网络进行颜色变换,找到烟雾与非烟雾类间差别最大的颜色通道fi。
更进一步的,设计纹理特征网络时,首先连接6个卷积层和3个最大池化层抽取特征,后4个卷积层有批规范化操作;
卷积操作将r-1层的特征图Fqr-1转换为r层的特征图Fpr,
更进一步的,所述边缘特征网络中,在初步的边缘特征网络中第1个卷积层选择了大尺寸的卷积核9×9,其他卷积层的卷积核为普通尺寸3×3和2个1×1,批规范层附加在后面的卷积层和激活函数之间,并加入跳转连接,将第1个卷积层和第5个卷积层的输出合并,同时加入全局平均池,如下式所示
式中Wt、Ht是第13层的宽、高,在前期实验中,边缘特征网络可捕获烟雾的轮廓。
更进一步的,所述解析特征融合网络融合颜色、纹理与边缘等解析子网络提取的特征,先由颜色子网络抽取特征,然后抽取纹理与边缘特征,构成2个分枝并进行信息融合,最后采用全局池化输出烟、火检测结果。
更进一步的,所述S6中,注意力时,首先度量编码器E第t-i个隐藏状态Et-i和先前解码器D状态Dt-1对Dt的贡献大小,不断调节每个编码器权重的大小,从而更加关注与烟、火特征相似的部分,而抑制其它无用的信息。
更进一步的,计算注意力时包括以下步骤:
T1将Et-i(0≤i≤N)和每个Dt-1按感知机方式计算权重f(Et-i,Dt-1)
f(Et-i,Dt-1)=vtanh(WEt-i,+UDt-1)
其中V、W、U是要学习的参数;
T2使用softmax函数对权重进行归一化
δi=softmax[f(Et-i,Dt-1)]=exp[f(Et-i,Dt-1)]/∑{exp[f(Et-i,Dt-1)]}
T3将权重和相应的Et-i进行加权求和得到最后的输入
Ft=∑δiEt-i
第一方面,本发明公开了一种电子设备,包括处理器以及存储有执行指令的存储器,当所述处理器执行所述存储器存储的所述执行指令时,所述处理器执行第一方面所述的注意力机制降低烟、火监测计算量的方法。
本发明的有益效果为:
本发明引入空间注意力机制,只关心发生烟、火的高可能性区域;引入时间注意力机制,只关心发生烟、火的高可能性时段。因此只对高可能性的时空进一步严密检测,能够大幅降低全幅面、全时间监测对算力的消耗。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例空间注意力机制原理图;
图2是本发明实施例颜色特征网络原理图;
图3是本发明实施例纹理特征网络原理图;
图4是本发明实施例边缘特征网络原理图;
图5是本发明实施例特征融合网络原理图;
图6是本发明实施例空间注意力的时序编解码器网络图;
图7是本发明实施例时间注意力机制实施图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
本实施例公开空间注意力,其中空间注意力主要聚焦于图像有效信息较丰富的区域,采用了“基于颜色、纹理、边缘等静态解析特征的烟、火检测卷积网络”,如图1所示,先用生成颜色特征通道,再采用两个分枝分别抽取纹理、边缘特征,然后合并成640通道的综合特征,再沿着通道轴最大池化和平均池化,得到2通道的特征图,再采用7X7卷积、sigmoid激活函数最终得到一张1维的权重特征图。权重特征图中值大的地方就是要注意的地方。其中,基于颜色、纹理、边缘等静态解析特征的烟、火检测卷积网络下所述。
颜色特征网络学习烟、火的颜色特征,一方面通过多次1×1的非线性卷积学习到合适的颜色模式,另一方面建模颜色通道之间的相互依赖关系。
不受空间特征的影响,只操作颜色空间,采用1×1的卷积核卷积,然后非线性变换,即:
fk i为第i层的第k个颜色通道,fm i-1为第i-1层的第m个颜色通道,Wk i-1为i-1层到i层的第k个卷积核,Wkm i-1为第i-1层第m个颜色通道到第i层第k个颜色通道的第k个卷积核的权重,bk第i-1层的第k个偏置项,gi-1为第i-1层的非线性激活函数。
采用Sequeeze-Excitation的方式。先在空间维度进行global averagepooling压缩,把特征通道变成一个实数,这个实数具有全局的感受野,表征着在颜色通道上响应的全局分布。然后经过两个全连接神经网络,得到一个和通道数一样的一维向量作为每个通道的评价分数,然后将改动之后的分数通过乘法逐通道加权到原来对应的通道上,最后得到输出结果。
采用1×1×3×7、1×1×7×18、1×1×18×45和1×1×45×5共4层卷积网络进行颜色变换,找到烟雾与非烟雾类间差别最大的颜色通道fi,如图2所示。
设计纹理特征网络,如图3所示,首先连接6个卷积层和3个最大池化层抽取特征,后4个卷积层有批规范化操作。卷积操作将r-1层的特征图Fqr-1转换为r层的特征图Fpr,
初步的边缘特征网络如图4所示,包含有11个卷积层、7个批规范层和2个最大池层之外,第1个卷积层选择了大尺寸的卷积核9×9,其他卷积层的卷积核为普通尺寸3×3和2个1×1,批规范层附加在后面的卷积层和激活函数之间。此外,还加入了两个重要的变化。一个是跳转连接,将第1个卷积层和第5个卷积层的输出合并,以避免梯度消失,提高特征的传播速度;另一种是全局平均池,用于减少参数数量和缓解过度拟合问题,如下式所示
式中Wt、Ht是第13层的宽、高,在前期实验中,边缘特征网络可捕获烟雾的轮廓。
解析特征融合网络融合颜色、纹理与边缘等解析子网络提取的特征,先由颜色子网络抽取特征,然后抽取纹理与边缘特征,构成2个分枝,最后信息融合,最后采用全局池化输出烟、火检测结果。网络结构如图5所示。训练时先分别训练各个子网络,综合后继承权重,再综合训练整个网络。这样的解析特征融合网络具有可解释、可重构等特点,比以前的烟火检测网络小,而精度更高。
实施例2
本实施例公开时间注意力,烟火发生、发展的过程有时间上的连续性,因此把空间注意力嵌入循环神经网络RNN形态的编解码器,如图6所示。其中,先由编码器E编码,再由解码器D解码。在编解码器的基础上,再加入注意力机制,构成空间注意力的时序编解码器网络,如图7所示。
首先度量编码器E第t-i个隐藏状态Et-i和先前解码器D状态Dt-1对Dt的贡献大小,不断调节每个编码器权重的大小,从而更加关注与烟、火特征相似的部分,而抑制其它无用的信息。
计算注意力时包括以下步骤:
S1将Et-i(0≤i≤N)和每个Dt-1按感知机方式计算权重f(Et-i,Dt-1)f(Et-i,Dt-1)=vtanh(WEt-i,+UDt-1),其中V、W、U是要学习的参数;
S2使用softmax函数对权重进行归一化
δi=softmax[f(Et-i,Dt-1)]=exp[f(Et-i,Dt-1)]/∑{exp[f(Et-i,Dt-1)]}S3将权重和相应的Et-i进行加权求和得到最后的输入
Ft=∑δiEt-i。
时间注意力中值大的地方就是要注意的地方,发生烟、火的概率就大。
实施例3
本实施例公开一种电子设备,包括处理器以及存储有执行指令的存储器,当所述处理器执行所述存储器存储的所述执行指令时,所述处理器执行注意力机制降低烟、火监测计算量的方法。
综上,本发明引入空间注意力机制,只关心发生烟、火的高可能性区域;引入时间注意力机制,只关心发生烟、火的高可能性时段。因此只对高可能性的时空进一步严密检测,能够大幅降低全幅面、全时间监测对算力的消耗。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种降低烟、火监测计算量的注意力机制,其特征在于,所述方法包括以下步骤:
S1获取待检测图像,用颜色特征网络生成颜色特征通道,并采用纹理特征网络和边缘特征网络分别抽取纹理、边缘特征;
S2合并成通道综合特征,并沿着通道轴最大池化和平均池化,得到2通道的特征图;
S3采用卷积、sigmoid激活函数最终得到1维的权重特征图;
S4权重特征图定义为空间注意力,仅对检测图像中权重特征图中超过阈值的区域进行重点检测;
S5将空间注意力嵌入循环神经网络RNN的编解码器;
S6先度量编码器E第t-i个隐藏状态Et-i和解码器D状态Dt-1对Dt的贡献大小;
S7不断调节每个历史编码器权重的大小,仅对解码器Dt超过阈值的帧进行重点检测。
3.根据权利要求2所述降低烟、火监测计算量的注意力机制,其特征在于,先在空间维度进行全局平均池化,把每个特征通道变成1个实数,得到1个和通道数一样的一维向量,然后用此向量通过乘法加权到原来对应的通道上,得到输出结果。
4.根据权利要求3所述降低烟、火监测计算量的注意力机制,其特征在于,所述实数具有全局的感受野,表征着在颜色通道上响应的全局分布,所述颜色特征网络采用卷积网络进行颜色变换,找到烟雾与非烟雾类间差别最大的颜色通道fi。
7.根据权利要求1所述降低烟、火监测计算量的注意力机制,其特征在于,所述解析特征融合网络融合颜色、纹理与边缘等解析子网络提取的特征,先由颜色子网络抽取特征,然后抽取纹理与边缘特征,构成2个分枝并进行信息融合,最后采用全局池化输出烟、火检测结果。
8.根据权利要求1所述降低烟、火监测计算量的注意力机制,其特征在于,所述S6中,注意力时,首先度量编码器E第t-i个隐藏状态Et-i和解码器D状态Dt-1对Dt的贡献大小,不断调节每个编码器权重的大小,从而更加关注与烟、火特征相似的部分,而抑制其它无用的信息。
9.根据权利要求1所述降低烟、火监测计算量的注意力机制,其特征在于,计算注意力时包括以下步骤:
T1将Et-i(0≤i≤N)和每个Dt-1按感知机方式计算权重f(Et-i,Dt-1)
f(Et-i,Dt-1)=Vtanh(WEt-i,+UDt-1)
其中V、W、U是要学习的参数;
T2使用softmax函数对权重进行归一化
δi=softmax[f(Et-i,Dt-1)]=exp[f(Et-i,Dt-1)]/∑{exp[f(Et-i,Dt-1)]}
T3将权重和相应的Et-i进行加权求和得到最后的输出
Ft=∑δiEt-i。
10.一种电子设备,包括处理器以及存储有执行指令的存储器,当所述处理器执行所述存储器存储的所述执行指令时,所述处理器执行如权利要求1至9中任一所述的注意力机制降低烟、火监测计算量的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010924595.5A CN112116671A (zh) | 2020-09-05 | 2020-09-05 | 注意力机制降低烟、火监测计算量的方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010924595.5A CN112116671A (zh) | 2020-09-05 | 2020-09-05 | 注意力机制降低烟、火监测计算量的方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112116671A true CN112116671A (zh) | 2020-12-22 |
Family
ID=73802183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010924595.5A Pending CN112116671A (zh) | 2020-09-05 | 2020-09-05 | 注意力机制降低烟、火监测计算量的方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112116671A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743605A (zh) * | 2021-06-16 | 2021-12-03 | 温州大学 | 基于进化方法搜索烟、火检测网络架构的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110046625A (zh) * | 2019-03-29 | 2019-07-23 | 温州大学 | 识别烟雾的卷积神经网络 |
CN110059588A (zh) * | 2019-03-29 | 2019-07-26 | 温州大学 | 识别烟雾的卷积神经网络的训练方法 |
CN110516573A (zh) * | 2019-08-19 | 2019-11-29 | 温州大学 | 结合颜色、纹理特征的两阶段烟雾识别卷积神经网络 |
CN111539343A (zh) * | 2020-04-26 | 2020-08-14 | 安徽皖仪科技股份有限公司 | 一种基于卷积注意力网络的黑烟车检测方法 |
-
2020
- 2020-09-05 CN CN202010924595.5A patent/CN112116671A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110046625A (zh) * | 2019-03-29 | 2019-07-23 | 温州大学 | 识别烟雾的卷积神经网络 |
CN110059588A (zh) * | 2019-03-29 | 2019-07-26 | 温州大学 | 识别烟雾的卷积神经网络的训练方法 |
CN110516573A (zh) * | 2019-08-19 | 2019-11-29 | 温州大学 | 结合颜色、纹理特征的两阶段烟雾识别卷积神经网络 |
CN111539343A (zh) * | 2020-04-26 | 2020-08-14 | 安徽皖仪科技股份有限公司 | 一种基于卷积注意力网络的黑烟车检测方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743605A (zh) * | 2021-06-16 | 2021-12-03 | 温州大学 | 基于进化方法搜索烟、火检测网络架构的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Blind image quality assessment using a deep bilinear convolutional neural network | |
Kang et al. | Convolutional neural networks for no-reference image quality assessment | |
CN109949255B (zh) | 图像重建方法及设备 | |
Divakar et al. | Image denoising via CNNs: An adversarial approach | |
Liu et al. | Learning converged propagations with deep prior ensemble for image enhancement | |
CN109522857B (zh) | 一种基于生成式对抗网络模型的人数估计方法 | |
CN111950649B (zh) | 基于注意力机制与胶囊网络的低照度图像分类方法 | |
CN114155478B (zh) | 一种情感识别方法、装置、系统及计算机可读存储介质 | |
CN109949278B (zh) | 基于对抗自编码网络的高光谱异常检测方法 | |
CN111858989B (zh) | 一种基于注意力机制的脉冲卷积神经网络的图像分类方法 | |
CN113688723A (zh) | 一种基于改进YOLOv5的红外图像行人目标检测方法 | |
Fu et al. | Continual image deraining with hypergraph convolutional networks | |
CN113205048B (zh) | 一种手势识别方法及识别系统 | |
He et al. | A visual residual perception optimized network for blind image quality assessment | |
Chaurasiya et al. | Deep dilated CNN based image denoising | |
Zilvan et al. | Convolutional variational autoencoder-based feature learning for automatic tea clone recognition | |
Salem et al. | Semantic image inpainting using self-learning encoder-decoder and adversarial loss | |
CN116052254A (zh) | 基于扩展卡尔曼滤波神经网络的视觉连续情感识别方法 | |
Zhang et al. | Learning an SAR image despeckling model via weighted sparse representation | |
CN112116671A (zh) | 注意力机制降低烟、火监测计算量的方法及电子设备 | |
Qi et al. | Research on deep learning expression recognition algorithm based on multi-model fusion | |
CN113723287A (zh) | 基于双向循环神经网络的微表情识别方法、装置及介质 | |
Zhou et al. | Flame detection with pruned and knowledge distilled YOLOv5 | |
Ni et al. | High-order generalized orderless pooling networks for synthetic-aperture radar scene classification | |
CN113283520B (zh) | 面向成员推理攻击的基于特征增强的深度模型隐私保护方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |