CN107086036A - 一种高速公路隧道安全监控方法 - Google Patents
一种高速公路隧道安全监控方法 Download PDFInfo
- Publication number
- CN107086036A CN107086036A CN201710256578.7A CN201710256578A CN107086036A CN 107086036 A CN107086036 A CN 107086036A CN 201710256578 A CN201710256578 A CN 201710256578A CN 107086036 A CN107086036 A CN 107086036A
- Authority
- CN
- China
- Prior art keywords
- tunnel
- module
- data
- training
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 48
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000013528 artificial neural network Methods 0.000 claims abstract description 66
- 230000002547 anomalous effect Effects 0.000 claims abstract description 35
- 238000012549 training Methods 0.000 claims description 100
- 238000001228 spectrum Methods 0.000 claims description 50
- 238000010606 normalization Methods 0.000 claims description 49
- 238000012545 processing Methods 0.000 claims description 43
- 238000000605 extraction Methods 0.000 claims description 39
- 230000007935 neutral effect Effects 0.000 claims description 27
- 238000001914 filtration Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 17
- 230000001537 neural effect Effects 0.000 claims description 16
- 230000002123 temporal effect Effects 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 101000742844 Homo sapiens RNA-binding motif protein, Y chromosome, family 1 member A1 Proteins 0.000 claims description 9
- 102100038040 RNA-binding motif protein, Y chromosome, family 1 member A1 Human genes 0.000 claims description 9
- 238000009432 framing Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 7
- 101001046999 Homo sapiens Kynurenine-oxoglutarate transaminase 3 Proteins 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000000750 progressive effect Effects 0.000 claims description 5
- 230000010365 information processing Effects 0.000 claims description 3
- 210000005036 nerve Anatomy 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 14
- 239000010410 layer Substances 0.000 description 46
- 238000010586 diagram Methods 0.000 description 18
- 206010039203 Road traffic accident Diseases 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 239000013307 optical fiber Substances 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 230000007812 deficiency Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000035800 maturation Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 2
- 238000007664 blowing Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 210000004218 nerve net Anatomy 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241000238558 Eucarida Species 0.000 description 1
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000010437 gem Substances 0.000 description 1
- 229910001751 gemstone Inorganic materials 0.000 description 1
- 238000009863 impact test Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000003756 stirring Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000005641 tunneling Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/144—Training of HMMs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Probability & Statistics with Applications (AREA)
- Quality & Reliability (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种高速公路隧道安全监控方法,包括以下步骤:步骤S1:采集隧道内的声音信号;步骤S2:对所采集的声音信号进行声音识别;步骤S3:根据声音识别结果得出所采集的声音信号中是否杂含碰撞声/人声并以此判断隧道内是否出现异常事件;步骤S4:设置在隧道进口上方的显示屏显示隧道监控信息。采用本发明的技术方案,通过将声音识别技术应用于隧道监控领域,并根据隧道场景的特殊应用要求采用深度神经网络实现隧道声音识别,从而进一步完善了隧道安全的全方位监控,并能及时预警隧道中的异常事件。
Description
技术领域
本发明涉及智能交通领域,尤其涉及一种能够快速检测重大交通事故的高速公路隧道安全监控方法。
背景技术
随着我国隧道工程技术的进步,目前高速公路隧道长度动辄数公里,甚至几十上百公里,正是这些隧道极大缩短了高速行程,拉近了人们的时空距离。然而,高速公路隧道也是交通流的重大瓶颈,也是交通事故频发之地。随着智能交通时代的来临,“智能隧道”已经兴起,一些新近建成的隧道设有隧道监控站,在隧道内埋设光纤,能直接接入智能交通系统;为了提高隧道交通的安全性,现有技术采用在隧道内安装集成化智能化监控系统,主要包括通风控制系统、照明控制系统、火灾报警系统、交通引导系统、广播系统和视频监控系统,这些系统在一定程度上保障了隧道交通的安全。但现有隧道监控系统依然存在以下缺陷:1、无法直接监控交通事故事件,现有技术中交通事故事件主要通过车流量、车流速度、车道占有率等参数间接判断,无法及时预警,影响事故救援;2、事故发生后,只能通过拨打报警电话求救,然而隧道内手机通讯信号时常不佳,无法及时求救;虽然在隧道内设有专线求救电话装置,但在实际事故现场,人们往往没有意识通过隧道内的电话装置进行求救,导致电话装置形同虚设,需要一种直接而自动的报警方式。
故,针对目前现有技术中存在的上述缺陷,实有必要进行研究,以提供一种方案,解决现有技术中存在的缺陷。
发明内容
有鉴于此,确有必要提供一种能够快速检测重大交通事故的高速公路隧道安全监控方法,从而能够及时预警、救援,避免造成后发事故。
为了克服现有技术的缺陷,本发明的技术方案如下:
一种高速公路隧道安全监控方法,包括以下步骤:
步骤S1:采集隧道内的声音信号;
步骤S2:对所采集的声音信号进行声音识别;
步骤S3:根据声音识别结果得出所采集的声音信号中是否杂含碰撞声/人声并以此判断隧道内是否出现异常事件;
步骤S4:设置在隧道进口上方的显示屏显示隧道监控信息;
所述步骤S2进一步包括以下步骤:
特征提取步骤,接收原始采集声音数据,并对原始采集声音数据进行特征提取;
归一化步骤,对特征提取后的数据进行高斯归一化处理,输出归一化数据;
神经网络分类步骤,接收归一化数据及预先训练好的深度神经网络,并通过深度神经网络对所述归一化数据进行分类识别获得分类结果信息,所述分类结果信息为原始采集声音数据是否杂含碰撞声/人声的概率值,当该概率值超过预先设定的阈值时,则判定隧道内出现异常事件;
神经网络训练步骤,接收训练数据并根据训练数据进行神经网络的训练,得到充分学习带噪样本和干净样本之间的非线性映射关系的深度神经网络;
所述神经网络训练步骤包括:
接收训练数据,并对训练数据进行特征提取;
对特征提取后的数据进行高斯归一化处理,输出归一化数据;
无监督学习预训练步骤,采用受限制玻尔兹曼机(RBM)模型进行预训练并通过无监督学习的方式逐层渐进学习神经网络参数;该步骤中,将归一化后的训练数据输入深度神经网络的输入层,训练第一个RBM1,得到第一个隐藏层及输入层到第1隐藏层L1的网络权重W1;把学习到的权重固定住,由RBM1隐层状态来训练下一个RBM2的输入数据,重复i次,逐层训练后续的RBM得到隐藏层L2~Li及网络权重矩阵W2~Wi;
监督学习优化的步骤,采用反向传播(back-propagation,BP)算法,利用标注数据对神经网络参数进行有监督的精细调整。
优选地,所述特征提取步骤包括:
分帧步骤,对输入数据进行分帧处理;
DFT变换步骤,对分帧处理后的数据进行离散傅里叶变换得到频域信息;
谱减滤波步骤,将所述频域信息在频谱上减去预先获得的稳态风机噪声频谱模板,输出滤波数据;
对数功率谱处理步骤,对所述滤波数据进行对数功率谱处理。
优选地,执行神经网络分类步骤之前,还包括:
平均能量检测步骤,计算当前帧对数功率谱的平均能量值;
帧能量比较步骤,计算相邻帧平均能量值的差值并判断该差值是否超出预设的阈值,如果超过则执行神经网络分类步骤。
优选地,所述平均能量检测步骤还包括:
接收当前车流量信息的步骤,并计算当前帧平均能量值是否超出预设的相应车流量信息所对应的能量值范围,如果超过则执行神经网络分类步骤。
优选地,步骤S1中采用由多个麦克风组成的麦克风阵列对隧道内的声音信号进行同步采集;并对每个麦克风采集的声音信号进行标识后再进行传输;
所述麦克风阵列中多个麦克风呈一定几何形状固定设置在隧道内且每个麦克风具有唯一标识ID。
优选地,还包括:
声音定位步骤,当所述神经网络分类步骤中判定隧道内出现异常事件时,获取该异常事件的时间信息并获取相应麦克风阵列在该时间信息内的音频信息,根据每个麦克风固定的位置关系以及每个麦克风在该时间信息中对应音频信息的参数信息确定声音所处的具体位置;
所述参数信息为每个麦克风在该时间信息中对应音频信息的峰值强度以及每个麦克风在峰值强度对应的时间差。
优选地,还包括采用可旋转摄像装置追踪声音所处的具体位置的步骤。
优选地,还包括:
实时声音处理步骤,当判定隧道内出现异常事件时,接收音频信息并进行实时处理从而能够实时获取隧道内的声音信号。
优选地,包括设置在隧道中的多个声音采集模块、与所述声音采集模块相连接的声音识别模块、设置在隧道进口上方的显示屏以及用于隧道监控信息处理与控制的隧道监控中心;
所述显示屏用于显示隧道监控信息;
所述声音采集模块用于连续采集隧道内的声音信号;
所述声音识别模块用于识别所采集的声音信号中是否杂含碰撞声/人声并以此判断隧道内是否出现异常事件;
如果判断为出现异常事件,所述隧道监控中心控制所述显示屏显示警报信息以提醒未驶入隧道车辆;
所述声音识别模块包括特征第一提取模块、第一归一化模块、神经网络分类模块和神经网络训练模块,其中,
所述第一特征提取模块用于接收原始采集声音数据,并对原始采集声音数据进行特征提取;
所述第一归一化模块用于对特征提取后的数据进行高斯归一化处理,输出归一化数据;
所述神经网络分类模块用于接收归一化数据及预先训练好的深度神经网络,并通过深度神经网络对所述归一化数据进行分类识别获得分类结果信息,所述分类结果信息为原始采集声音数据是否杂含碰撞声/人声的概率值,当该概率值超过预先设定的阈值时,则判定隧道内出现异常事件;
所述神经网络训练模块用于接收训练数据并根据训练数据进行神经网络的训练,得到充分学习带噪样本和干净样本之间的非线性映射关系的深度神经网络,并输出所述深度神经网络至所述神经网络分类模块;
所述神经网络训练模块包括第二特征提取模块、第二归一化模块、无监督学习预训练模块和监督学习优化模块,其中,所述无监督学习预训练模块用于发现输入数据中深层的抽象特征,采用受限制玻尔兹曼机(RBM)模型进行预训练并通过无监督学习的方式逐层渐进学习神经网络参数;所述监督学习优化模块采用反向传播(back-propagation,BP)算法,利用标注数据对神经网络参数进行有监督的精细调整。
优选地,所述第一特征提取模块/第二特征提取模块进一步包括分帧模块、DFT变换模块、谱减滤波模块和对数功率谱处理模块,其中,所述分帧模块用于对输入数据进行分帧处理;所述DFT变换模块用于对分帧处理后的数据进行离散傅里叶变换得到频域信息;所述谱减滤波模块用于将所述频域信息在频谱上减去预先获得的稳态风机噪声频谱模板,输出滤波数据;所述对数功率谱处理模块用于对所述滤波数据进行对数功率谱处理。
与现有技术相比较,本发明将声音识别技术应用于隧道监控领域,并根据隧道场景的特殊应用要求采用深度神经网络实现隧道声音识别,从而进一步完善了隧道安全的全方位监控,并能及时预警隧道中的异常事件。
附图说明
图1为本发明高速公路隧道安全监控方法的流程框图。
图2为步骤S2中声音识别的流程框图。
图3为神经网络训练步骤的流程框图。
图4为实现本发明高速公路隧道安全监控方法的系统的原理框图。
图5为本发明中声音识别模块的原理框图。
图6为受限制玻尔兹曼机(RBM)结构示意图。
图7为本发明中RBM的预训练示意图。
图8为训练得到的深度神经网络的结构框图。
图9为本发明中特征提取模块的原理框图。
图10为本发明中声音识别模块另一种实施方式的原理框图。
图11为本发明系统的另一种优选实施方式的原理框图。
图12为本发明中声音采集模块的原理框图。
图13为麦克风阵列排布的示意图。
图14为本发明系统的又一种优选实施方式的原理框图。
如下具体实施例将结合上述附图进一步说明本发明。
具体实施方式
以下将结合附图对本发明提供的高速公路隧道安全监控方法作进一步说明。
近几年,随着云计算、大数据、人工智能、高性能计算硬件技术的成熟,尤其是机器学习领域深度学习(deep learning,DL)理论以及自动特征学习神经网络模型的成熟,深度神经网络在人工智能领域(智能图像和声音识别)已经广泛应用,比如谷歌推出AlphaGo战胜人类棋王而震惊世界,其本质其实是智能图形分析,通过机器学习的方式学习从一张棋谱图形到下一张棋谱图形变化的各种选择,利用计算机的超强计算能力从而作出距离目标的最优的选择;苹果公司应用于其iphone手机端的siri能够将自然随意对话下的大词汇量连续语音识别而且识别率也非常高。就交通监控系统而言,采用实时图像分析技术检测交通事件也已经有了广泛深入的研究,采用视频监控的方式也是最直接最有效的监控方式,然而,不幸的是,在隧道环境中,由于照明光线原因(自然光线不足、隧道照明光线和汽车车灯光线混杂多变),图像分析准确率欠佳,同时动态图像分析需要大量的数据计算,无法满足实时分析的需求。
在重大交通事故发生时,车辆运行状态发送了相应的变化,尤其是高速碰撞的时候,伴有剧烈碰撞的声音,通过检测碰撞声就可以检测隧道中的交通事故。然而,高速公路隧道中背景噪声嘈杂,采用现有声音检测技术无法准确检测碰撞声。
申请人对隧道环境下的噪声进行深入研究,经研究发现,隧道噪声源主要由以下部分构成:隧道内通风机械运转产生的噪声,这是隧道内噪声的重要来源,但其是稳态的噪声源,由机械设备的固有属性决定,只要知道机械设备的运行状态,就可以准确确定该噪声源的模型;还有就是交通车流产生的噪声,该类噪声随车流量的增加而增加,主要包括车辆的发动机噪声和轮胎在路面行驶产生的噪声,发动机噪声是汽车的主要噪声源,车辆种类和车速对会影响,同样的行驶速度,大型车噪声最大,中型车次之,小型车最小;另外就是车辆行驶过程中随机的鸣笛声。因此,隧道中的背景噪声较为混杂,幸运的是,隧道背景噪声相对固定,其中,通风机械运转产生的噪声是稳态噪声,能够预先获取该噪声的频谱特征;而交通车流产生的噪声与车流量是呈比例关系的,同时,车辆瞬时碰撞声的强度是远超上述背景噪声的,其区分度是明显的,这为在隧道背景噪声下识别车辆碰撞声提供了客观基础。同时,如果有人出现在隧道内,这是非常危险的情况(比如,发生车辆碰撞等交通事故之后,通常会造成车道拥堵,甚至会有车主下车理论的情形出现,极易出现次生事故)。通常采用图像识别为主,人声检测为辅。因此,还有必要对人声进行监控,一旦检测到声音信号存在碰撞声/人声信息,则说明隧道内出现异常事件,须实时报警核实情况。
正如上文所介绍的,机器学习领域深度学习(deep learning,DL)理论以及自动特征学习神经网络模型的成熟,深度神经网络在人工智能领域(智能图像和声音识别)已经广泛应用,现有技术的语音识别技术能在复杂的背景环境噪声下识别人的语音,而且能较准确识别语义。在语音识别技术领域中,在复杂的背景环境噪声下识别是否存在语音(或者其他声音)并不存在技术难度,而真正的难度在于语义识别,把语音高正确率的转化成文字还不够,要听懂人类在说什么,要表达什么意图,这个才是皇冠上的宝石。这主要是因为语音的种类有近乎无数种,而且不同的人更是有不同的口音,同时语音所处的背景噪声环境更是多变,几乎每个语音场景都会有不同的背景噪声。因此,需要庞大的计算量才能完成实时语义分析,这对计算机计算性能要求是极高的。
相对于本申请的应用环境,虽然隧道背景噪声的分贝较高,但其噪声类型相对固定,碰撞声的类型也是相对固定,碰撞声识别的复杂度不及语音复杂度的万分之一,同时碰撞声瞬时强度极大,声音特征容易分区;对隧道内的人声监控,也只需要检测是否存在人声,而不需要语义识别。因此,针对上述应用需求,本申请通过架构DNN,在隧道背景噪声识别碰撞声/人声,进而以此为基础判断隧道内是否出现异常事件。采用DNN的智能声音识别相对于传统声音处理技术的优势在于,传统声音处理技术需要假设各种理想的状态,这些假设的理想性自然而然成为影响性能的重要因素,而DNN几乎不需要任何其他条件假设,可以通过不断学习不断逼近,从而达到精确识别的目的。即DNN通过多层以及成千上万个具有计算能力的神经元节点叠加成一个深度网络结构,然后对这个DNN进行训练,用大量干净样本和各种情形下的隧道噪声训练DNN,其目的是从已知的数据中学习到足够的知识,然后推广到未来新出现的数据,作出有效的决策。也即用DNN作为学习带噪样本和干净样本之间的非线性映射关系的回归模型,利用DNN的深度结构以及非线性模拟能力,可以充分学习带噪样本和干净样本之间的复杂的相互作用关系,神经网络的学习过程是一个无限逼近真实的过程,会根据输入的数据自动调节神经网络的参数和权重,其训练的数据越多,识别的结果越准确。DNN训练完成之后,实际检测时,将实际隧道中采集的隧道声信号输入DNN中,从而判断出该声音信号是否杂含碰撞声/人声。
参见图1,所示为本发明高速公路隧道安全监控方法的流程框图,包括以下步骤:
步骤S1:采集隧道内的声音信号;
步骤S2:对所采集的声音信号进行声音识别;
步骤S3:根据声音识别结果得出所采集的声音信号中是否杂含碰撞声/人声并以此判断隧道内是否出现异常事件;
步骤S4:设置在隧道进口上方的显示屏显示隧道监控信息。
参见图2,所示为步骤S2中声音识别的流程框图,包括:
特征提取步骤,接收原始采集声音数据,并对原始采集声音数据进行特征提取;
归一化步骤,对特征提取后的数据进行高斯归一化处理,输出归一化数据;
神经网络分类步骤,接收归一化数据及预先训练好的深度神经网络,并通过深度神经网络对所述归一化数据进行分类识别获得分类结果信息,所述分类结果信息为原始采集声音数据是否杂含碰撞声/人声的概率值,当该概率值超过预先设定的阈值时,则判定隧道内出现异常事件;
神经网络训练步骤,接收训练数据并根据训练数据进行神经网络的训练,得到充分学习带噪样本和干净样本之间的非线性映射关系的深度神经网络;
参见图3,所示为神经网络训练步骤的流程框图,包括:
接收训练数据,并对训练数据进行特征提取;
对特征提取后的数据进行高斯归一化处理,输出归一化数据;
无监督学习预训练步骤,采用受限制玻尔兹曼机(RBM)模型进行预训练并通过无监督学习的方式逐层渐进学习神经网络参数;该步骤中,将归一化后的训练数据输入深度神经网络的输入层,训练第一个RBM1,得到第一个隐藏层及输入层到第1隐藏层L1的网络权重W1;把学习到的权重固定住,由RBM1隐层状态来训练下一个RBM2的输入数据,重复i次,逐层训练后续的RBM得到隐藏层L2~Li及网络权重矩阵W2~Wi;
监督学习优化的步骤,采用反向传播(back-propagation,BP)算法,利用标注数据对神经网络参数进行有监督的精细调整。
采用上述技术方案,通过深度神经网络实现隧道声音分类识别,从而能够全方位提升隧道的安全性能。
在一种优选实施方式中,特征提取步骤包括:
分帧步骤,对输入数据进行分帧处理;
DFT变换步骤,对分帧处理后的数据进行离散傅里叶变换得到频域信息;
谱减滤波步骤,将所述频域信息在频谱上减去预先获得的稳态风机噪声频谱模板,输出滤波数据;
对数功率谱处理步骤,对所述滤波数据进行对数功率谱处理。
其中,对数功率谱处理,相当于DFT变换后的各个系数取模的平方和取对数,取对数可以模拟人耳对声强的非线性感知特性,另外对数功率谱上信息比较完整,几乎没有丢失什么信息,有利于提高检测精度。
进一步的,本申请针对隧道声场的特殊性,直接通过谱减滤波将隧道场合中最大的噪声源风机噪声滤除,因为风机噪声属于稳态噪声,其频谱信息是确定的,在深度神经网络分类识别之前将稳态的风机噪声滤除,能够进一步提高了检测精度,同时也降低了神经网络的复杂度。
在一种优选实施方式中,执行神经网络分类步骤之前,还包括:
平均能量检测步骤,计算当前帧对数功率谱的平均能量值;
帧能量比较步骤,计算相邻帧平均能量值的差值并判断该差值是否超出预设的阈值,如果超过则执行神经网络分类步骤。
在正常情况下,隧道中声音信号是平稳的,其能量是相对平稳波动的,因此,可以预先测定实际声音信号的波动范围;而碰撞声是一个突发的强脉冲能量,其强度值远超正常波动范围。本申请通过对当前帧对数功率谱进行平均能量检测并进行相邻帧帧能量比较,判断相邻帧平均能量值的差值是否超出预设的波动范围,如果超过,则说明有强脉冲能量突增,执行神经网络分类步骤识别这段音频信号中强脉冲是不是碰撞声(主要区分鸣笛声)。因此,通过帧能量预判作为启动条件,从而深度神经网络无需实时计算,使能够通过人工智能芯片实现,本发明技术方案能在更多场合中得到应用。
在一种优选实施方式中,平均能量检测步骤还包括:
接收当前车流量信息的步骤,并计算当前帧平均能量值是否超出预设的相应车流量信息所对应的能量值范围,如果超过则执行神经网络分类步骤。
正如上述所分析的,交通车流产生的噪声与车流量是呈比例关系,虽然各种车型会有一定差异,基本上相对于特定的车流量存在对应声音信号的能量范围,能量范围是可以通过采集实际隧道场合中的声音数据分析来预先得到的。因此,通过判断当前帧能量值是否在对应车流量的能量范围之内作为深度神经网络的开启条件,在降低神经网络工作时长的同时能够进一步提高检测精度。
在一种优选实施方式中,步骤S1中采用由多个麦克风组成的麦克风阵列对隧道内的声音信号进行同步采集;并对每个麦克风采集的声音信号进行标识后再进行传输;其中,麦克风阵列中多个麦克风呈一定几何形状固定设置在隧道内且每个麦克风具有唯一标识ID。
在一种优选实施方式中,还包括:
声音定位步骤,当神经网络分类步骤中判定隧道内出现异常事件时,获取该异常事件的时间信息并获取相应麦克风阵列在该时间信息内的音频信息,根据每个麦克风固定的位置关系以及每个麦克风在该时间信息中对应音频信息的参数信息确定声音所处的具体位置;参数信息为每个麦克风在该时间信息中对应音频信息的峰值强度以及每个麦克风在峰值强度对应的时间差。
在一种优选实施方式中,还包括采用可旋转摄像装置追踪声音所处的具体位置的步骤。
采用上述技术方案,隧道内出现异常事件后,能够快速确定异常事件的位置,同时可旋转摄像装置能够更准确地采集现场视频,通过音视频结合,减少了监控的盲区,从而能够及时有效开展救援疏导工作。
在一种优选实施方式中,还包括:
实时声音处理步骤,当判定隧道内出现异常事件时,接收音频信息并进行实时处理从而能够实时获取隧道内的声音信号。
采用上述技术方案,通过实时获取隧道内的声音信号,能够进一步获取现场信息,克服现有视频监控在隧道中音频质量差的技术缺陷,有助于有效开展救援工作;同时,从而当有人希望报警求救时,在隧道内大声呼叫就可以进行报警,监控中心就可以获取报警信息,从而无需通过专心呼叫报警电话。
参见图4,所示为实现本发明高速公路隧道安全监控方法的系统的原理框图,包括设置在隧道中的多个声音采集模块、与所述声音采集模块相连接的声音识别模块、设置在隧道进口上方的显示屏以及用于隧道监控信息处理与控制的隧道监控中心;隧道监控中心设置在离隧道不远的隧道工作站中,通常有专人执勤,及时安排救援排除隧道中出现的异常事件。显示屏用于显示隧道监控信息;声音采集模块用于连续采集隧道内的声音信号;声音识别模块用于识别所采集的声音信号中是否杂含碰撞声/人声并以此判断隧道内是否出现异常事件,并将相应信息发送给隧道监控中心;一旦判断为出现异常事件,隧道监控中心控制显示屏显示警报信息以提醒未驶入隧道车辆,从而能够及时预知隧道内的状况,避免发送后发事故。
参见图5,所示为本发明中声音识别模块的原理框图,包括特征第一提取模块、第一归一化模块、神经网络分类模块和神经网络训练模块,其中,第一特征提取模块用于接收原始采集声音数据,并对原始采集声音数据进行特征提取;第一归一化模块用于对特征提取后的数据进行高斯归一化处理,输出归一化数据;
神经网络分类模块用于接收归一化数据及预先训练好的深度神经网络,并通过深度神经网络对归一化数据进行分类识别获得分类结果信息,分类结果信息为原始采集声音数据是否杂含碰撞声/人声的概率值,当该概率值超过预先设定的阈值时,则判定隧道内出现异常事件;
神经网络训练模块用于接收训练数据并根据训练数据进行神经网络的训练,得到充分学习带噪样本和干净样本之间的非线性映射关系的深度神经网络,输出深度神经网络至神经网络分类模块;
神经网络训练模块包括第二特征提取模块、第二归一化模块、无监督学习预训练模块和监督学习优化模块,其中,第二特征提取模块与第一特征提取模块的功能结构完全相同,用于提取训练数据的特征;第二归一化模块与第一归一化模块的功能结构完全相同,对所提取的特征进行高斯归一化,即所有训练数据的均值归一化成0,方差规整为1。无监督学习预训练模块将预处理训练数据作为输入进行非监督学习初步训练,用于初始化生成深度神经网络的结构,通过无监督学习的方式逐层渐进学习神经网络参数,发现输入数据中深层的抽象特征。神经网络的每层采用受限制玻尔兹曼机(RBM)模型进行预训练,通过多个RBM叠加成一个深度网络结构。参见图6,所示为受限制玻尔兹曼机(RBM)结构示意图,RBM的对称连接只存在于显层节点和隐层节点之间,而在显层节点和隐层节点的内部没有任何形式的连接,可以认为层间是全连接,层内是无连接。RBM作为一种条件随机场,其每个神经元节点描述了一个随机变量的分布情况,通过各个神经元节点抓取输入向量中的高阶统计相关性来解释和发现训练输入向量中包含的潜在规律。
由于RBM显层和隐层内部都没有连接,可以很方便的得到数据和模型分布下的各状态的条件期望值。对于给定训练数量v,隐层节点的状态可以由以下公式(1)计算出:
P(hi=1|v)=σ(bj+∑viwij) (1)
然后使用对比散度算法(CD1算法,Contrastive Divergence,CD)来训练RBM,再使用梯度下降算法更新RBM参数:
上式(2)中,η为参数更新学习速率,i为迭代次数。通过调整RBM的模型参数,使得由RBM的指定的显层数据的能量减少,从而增大显层数据出现的概率,进而RBM学习到训练数据的真实分布P(v)。
在按照上述方法训练完成一个RBM以后,把学习到的权重固定住,由训练数据计算得到的RBM隐层状态可以用来作为训练另一个RBM的输入数据,也即使用训练数据训练第一个RBM得到一个隐藏层L1及其网络权重W1,再使用前一隐藏层的输出作为输入数据,逐层训练后续的RBM得到隐藏层L2~Li及网络权重矩阵W2~Wi。具体训练过程参见图7,所示为本发明中RBM的预训练示意图,以此逐层贪婪式地初始化所有的网络权重,从而进一步无监督的学习RBM隐层单元之间的依赖关系。在训练完所有的RBM后,把各个RBM叠加在一起,再最后一层叠加一个softmax层,从而构成一个自下向上的前馈的、深层的、区分性的用于分类的深层神经网络。由于采用RBM的堆积构成一个深度网络结构,以此作为深层神经网络在有监督训练时的初始化网路权重,可防止它陷入局部最优。
经过逐层的RBM生成性训练,我们可以在权重空间中找到一个更好的区域,从这个区域出发,可以使区分性的监督学习优化(精细调整)相对于从随机初始化开始进行监督学习优化(精细调整)取得更好的性能提升,也能显著减少过拟合的可能性。本发明中监督学习优化模块采用现有技术常用的反向传播(back-propagation,BP)算法,利用标注数据对神经网络参数进行有监督的精细调整。该算法中,通常分为两步:1)向前响应传播,即将输入通过各个隐层获得激励响应,而上一层的输出是下一层的输入,直到最后一层获得预测值;2)反向错误传播,根据向前响应传播到最后一层,可得到对信号的预测,这个预测值和参考信号的差异,就是需要反向传播的错误。有了反向传回的错误,就可以根据这个错误来调节神经网络的各个权重和偏置。准备好DNN的输入数据和输出数据之后,就可以开始更新网络的权重和偏置参数,即W和b,如下公式3所示:
这里λ代表学习速率,E表示一个用来优化的目标函数,可以采用最小均方误差准则;表示在层的有待学习的权重和偏置的参数。L表示真个隐层的数目,那么L+1就表示输出层。由上述公式可以看出,在模型参数的更新过程中,几乎没有任何假设被设定,因此,DNN可以很好地拟合带噪样本和干净样本之间的非线性关系。
实际神经网络训练中,训练数据是否完备是影响检测精度的关键因素。本发明中,构建“碰撞声训练数据集”、“隧道噪声训练数据集”以及“语音数据集”,其中,语音数据集采用标准TIMIT数据库获取干净音素集(人的语音最终都可以分解为各个音素,识别音素可以等价于人声检测,从而大大降低了复杂度);隧道噪声训练数据集通过在实际隧道环境下采集各种情形的声音数据并根据车型和车流量对数据进行标注;碰撞声训练数据集收集各种车型碰撞试验的声音数据,并根据碰撞强度对数据进行标注;将干净音素集、干净碰撞声集分别和隧道噪声相加在一起,得到带噪样本。将以上训练数据样本输入神经网络模型训练网络的权重和偏置参数。参见图8,所示为训练得到的深度神经网络的结构框图,神经网络包括1个输入层,3个隐藏层L1~L3以及一个输出层。输入信号特征提取时,信号被采样到8KHz,相应的每个帧长被设定为256个样本点(32毫秒),帧移是128个样本点,短时傅里叶分析被用来计算每个重叠帧的DFT系数,因此,输入层采用128个节点,对应输入数据的维度,输出层为三维数据输出,分别对应纯噪声、杂含碰撞声以及杂含人声。L1~L3中每层节点是2048个,其取决于训练数据的多少,2048个对应100万条训练数据。每个受限玻尔兹曼机的预训练的迭代次数是50次,预训练的学习速率是0.0005,前二十次的有监督的调优的学习速率是0.1,然后将学习速率每次递减百分之十,总的迭代次数是100次。
采用上述方式训练的深度神经网络,随着训练数据的增加,系统性能不断提高,在分类测试中,实际区分度达到80%,实际中可将预警的阈值设置为60%,能够作为隧道异常事件预警的有效评价指标。
参见图9,所示为本发明中特征提取模块的原理框图,第一特征提取模块/第二特征提取模块进一步包括分帧模块、DFT变换模块、谱减滤波模块和对数功率谱处理模块,其中,分帧模块用于对输入数据进行分帧处理,采用交叠分段,一般帧移占帧长的比重为0-50%;DFT变换模块用于对分帧处理后的数据进行离散傅里叶变换得到频域信息;谱减滤波模块用于将频域信息在频谱上减去预先获得的稳态风机噪声频谱模板,输出滤波数据,上述已介绍,在隧道场合中,最大的噪声源是用于隧道通风的风机噪声,由于风机噪声属于稳态噪声,因此其频谱信息是确定的,本发明采用在信号频谱上直接减去稳态风机噪声频谱的方式将风机噪声滤除,从而进一步提高了检测精度,同时降低了神经网络的复杂度;对数功率谱处理模块用于对滤波数据进行对数功率谱处理,相当于DFT变换后的各个系数取模的平方和取对数,取对数可以模拟人耳对声强的非线性感知特性,另外对数功率谱上信息比较完整,几乎没有丢失什么信息,有利于提高检测精度。
在一种优选实施方式中,碰撞声识别模块采用内置深度神经网络的人工智能芯片实现。虽然现有技术中已有很多功能强大内置深度神经网络的人工智能芯片,比如英伟达(NVIDIA)推出首款专门为深度学习从零开始设计的芯片Tesla P100,该芯片数据处理速度是其2014年推出GPU系列的12倍;谷歌为机器学习定制的芯片TPU将硬件性能提升至相当于按照摩尔定律发展7年后的水平;在人工智能领域,国内相关企业也不甘落后,比如成都启英泰伦科技推出一款智能语音芯片CI1006,是基于ASIC架构的人工智能语音识别芯片,包含了深度神经网络处理硬件单元,能够完美支持DNN运算架构,进行高性能的数据并行计算,可极大的提高人工智能深度学习语音技术对大量数据的处理效率。但芯片级的计算性能毕竟还不能和PC级的计算性能相媲美,通常无法满足实时性的要求。参见图10,所示为本发明中声音识别模块另一种实施方式的原理框图,声音识别模块还包括平均能量检测模块和帧能量比较模块,其中,平均能量检测模块用于计算当前帧对数功率谱的平均能量值并发送给帧能量比较模块;帧能量比较模块用于计算相邻帧平均能量值的差值并判断该差值是否超出预设的阈值,如果超过则开启神经网络分类模块。相对于位置固定的麦克风,其采集的声音信号能量分布与实际声场分布成一定比例关系。而在本申请的应用环境中,在正常情况下,声音信号的能量是相对平稳波动的,其波动范围可以通过实际测定预先得到;而碰撞声是一个突发的强脉冲能量,其强度值远超正常波动范围。因此通过前后帧能量比较可以判断是否出现脉冲,如果有强脉冲能量突增,再开启神经网络分类模块进行判断这段音频信号中强脉冲是不是碰撞声(主要区分鸣笛声)。采用上述技术方案,通过帧能量预判作为开启条件,从而神经网络分类模块无需实时计算,能够通过芯片级系统实现,使神经网络声音识别技术能在更多场合中得到应用。
在一种优选实施方式中,帧能量比较模块接收当前车流量信息,并计算当前帧平均能量值是否超出预设相应车流量信息所对应的能量值范围,如果超过则开启神经网络分类模块。正如上述所分析的,交通车流产生的噪声与车流量是呈比例关系,虽然各种车型会有一定差异,基本上相对于特定的车流量存在对应声音信号的能量范围(已经在频谱上滤除风机噪声),我们可以通过采集实际隧道场合中的声音数据并对大量数据进行分析来预先获得这个能量范围。因此,通过判断当前帧能量值是否在对应车流量的能量范围之内作为神经网络分类模块的开启条件,在降低神经网络工作时长的同时能够进一步提高检测精度。
参见图11,所示为本发明系统的另一种优选实施方式的原理框图,声音识别模块设置在隧道监控中心中,声音采集模块与隧道监控中心采用光纤通讯。深度神经网络对计算硬件的性能要求极高,尤其是要求实时监测的应用场合。随着“智能隧道”的普及,每个隧道都设置有监控站,以及在隧道内铺设光纤。本发明中隧道监控中心通常设置在隧道附近的监控站内,在监控站内有完备的计算硬件,可以根据应用需求“无限”升级硬件设备,比如超大容量存储设备,多台计算机/服务器并行处理,每台计算机/服务器中设置多块CPU和GPU,因此,声音识别模块设置在隧道监控中心中,从而有足够的硬件条件能够保证深度神经网络的运行。声音采集模块与隧道监控中心采用光纤通讯,从而极大提高了数据传输的速度,提高了系统实时检测的性能。
参见图12,所示为本发明中声音采集模块的原理框图,声音采集模块进一步包括由多个麦克风组成的麦克风阵列、音频处理模块、控制模块和传输模块,其中,麦克风阵列中多个麦克风呈一定几何形状固定设置在隧道内且每个麦克风具有唯一标识ID;控制模块与音频处理模块和传输模块相连接,用于控制音频处理模块和传输模块的工作;音频处理模块用于同步获取并标识每个麦克风采集的声音信号并对声音信号进行处理后输出音频信息,发送给传输模块;传输模块用于将音频信息传输至隧道监控中心。采用上述技术方案,通过音频处理模块同步采集麦克风阵列的音频信号,任一个ID的麦克风都采集连续的音频信息,并通过传输模块传输并保存在隧道监控中心。由于设置多个麦克风,从而保证所采集音频信号的完整性,弥补了现有技术视频监控在隧道中应用时音频质量差的缺陷;同时,多个麦克风呈一定几何形状固定设置,参见图13,所示为麦克风阵列排布的示意图,多个唯一标识麦克风呈圆形设置且同步采样,理论上,当区域内有声源发出声音时,由于声源距离每个麦克风距离不一样,因此每个麦克风接收到信号的强度以及信号到达的时间会出现差异,因此,根据每个麦克风收到的差异性信号以及每个麦克风确定的相对位置信息,便能确定声源所处的位置。
为了及时确定碰撞声的具体位置,参见图14,所示为本发明系统的又一种优选实施方式的原理框图,隧道监控中心还设置有声音定位模块,当声音识别模块判定隧道内出现异常事件时,获取该异常事件的时间信息;声音定位模块接入数据库并获取相应麦克风阵列在该时间信息内的音频信息,并根据每个麦克风固定的位置关系以及每个麦克风在该时间信息中对应音频信息的参数信息确定声音所处的具体位置;其中,参数信息为每个麦克风在该时间信息中对应音频信息的峰值强度以及每个麦克风在峰值强度对应的时间差。也即当声音识别模块判定隧道内出现异常事件后,声音定位模块能够快速确定异常事件的位置,从而能够及时有效开展救援疏导工作。
在一种优选实施方式中,还包括可旋转摄像装置,可旋转摄像装置设置在隧道中并通过光纤与隧道监控中心相连接,当声音识别模块判定隧道内出现异常事件时,隧道监控中心控制可旋转摄像装置旋转镜头至声音定位模块所确定的具体位置。采用上述技术方案,可旋转摄像装置能够更准确地采集现场视频,从而通过音视频结合,减少了监控的盲区。
在一种优选实施方式中,隧道监控中心还设置有实时声音处理模块,当声音识别模块判定隧道内出现异常事件时,实时声音处理模块用于接收声音采集模块发送的音频信息并进行实时处理从而能够实时获取隧道内的声音信号。采用上述技术方案,从而能够克服现有视频监控在隧道中音频质量差的技术缺陷,通过实时获取隧道内的声音信号,有助于开展救援工作,同时,当有人希望报警求救时,在隧道内大声呼叫就可以进行报警,监控中心就可以获取报警信息,从而无需通过专心呼叫报警电话。
在一种优选实施方式中,声音采集模块与隧道照明系统一体设置。现有技术中,隧道照明系统用于对每个隧道灯进行智能控制,从而提供一个舒适的隧道照明环境。将声音采集模块与隧道照明系统一体设置可以减少系统布线的工程量。更优选地,声音采集模块可以集成在隧道灯中,麦克风阵列可以布置在隧道灯的灯具表面,从而现有隧道改造时,无需重新布线。
在一种优选实施方式中,还包括车流量检测装置,车流量检测装置用于采集车流量信息并发送给隧道监控中心。
以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种高速公路隧道安全监控方法,其特征在于,包括以下步骤:
步骤S1:采集隧道内的声音信号;
步骤S2:对所采集的声音信号进行声音识别;
步骤S3:根据声音识别结果得出所采集的声音信号中是否杂含碰撞声/人声并以此判断隧道内是否出现异常事件;
步骤S4:设置在隧道进口上方的显示屏显示隧道监控信息;
所述步骤S2进一步包括以下步骤:
特征提取步骤,接收原始采集声音数据,并对原始采集声音数据进行特征提取;
归一化步骤,对特征提取后的数据进行高斯归一化处理,输出归一化数据;
神经网络分类步骤,接收归一化数据及预先训练好的深度神经网络,并通过深度神经网络对所述归一化数据进行分类识别获得分类结果信息,所述分类结果信息为原始采集声音数据是否杂含碰撞声/人声的概率值,当该概率值超过预先设定的阈值时,则判定隧道内出现异常事件;
神经网络训练步骤,接收训练数据并根据训练数据进行神经网络的训练,得到充分学习带噪样本和干净样本之间的非线性映射关系的深度神经网络;
所述神经网络训练步骤包括:
接收训练数据,并对训练数据进行特征提取;
对特征提取后的数据进行高斯归一化处理,输出归一化数据;
无监督学习预训练步骤,采用受限制玻尔兹曼机(RBM)模型进行预训练并通过无监督学习的方式逐层渐进学习神经网络参数;该步骤中,将归一化后的训练数据输入深度神经网络的输入层,训练第一个RBM1,得到第一个隐藏层及输入层到第1隐藏层L1的网络权重W1;把学习到的权重固定住,由RBM1隐层状态来训练下一个RBM2的输入数据,重复i次,逐层训练后续的RBM得到隐藏层L2~Li及网络权重矩阵W2~Wi;
监督学习优化的步骤,采用反向传播(back-propagation,BP)算法,利用标注数据对神经网络参数进行有监督的精细调整。
2.根据权利要求1所述的高速公路隧道安全监控方法,其特征在于,所述特征提取步骤包括:
分帧步骤,对输入数据进行分帧处理;
DFT变换步骤,对分帧处理后的数据进行离散傅里叶变换得到频域信息;
谱减滤波步骤,将所述频域信息在频谱上减去预先获得的稳态风机噪声频谱模板,输出滤波数据;
对数功率谱处理步骤,对所述滤波数据进行对数功率谱处理。
3.根据权利要求1或2所述的高速公路隧道安全监控方法,其特征在于,执行神经网络分类步骤之前,还包括:
平均能量检测步骤,计算当前帧对数功率谱的平均能量值;
帧能量比较步骤,计算相邻帧平均能量值的差值并判断该差值是否超出预设的阈值,如果超过则执行神经网络分类步骤。
4.根据权利要求3所述的高速公路隧道安全监控方法,其特征在于,所述平均能量检测步骤还包括:
接收当前车流量信息的步骤,并计算当前帧平均能量值是否超出预设的相应车流量信息所对应的能量值范围,如果超过则执行神经网络分类步骤。
5.根据权利要求1或2所述的高速公路隧道安全监控方法,其特征在于,步骤S1中采用由多个麦克风组成的麦克风阵列对隧道内的声音信号进行同步采集;并对每个麦克风采集的声音信号进行标识后再进行传输;
所述麦克风阵列中多个麦克风呈一定几何形状固定设置在隧道内且每个麦克风具有唯一标识ID。
6.根据权利要求5所述的高速公路隧道安全监控方法,其特征在于,还包括:
声音定位步骤,当所述神经网络分类步骤中判定隧道内出现异常事件时,获取该异常事件的时间信息并获取相应麦克风阵列在该时间信息内的音频信息,根据每个麦克风固定的位置关系以及每个麦克风在该时间信息中对应音频信息的参数信息确定声音所处的具体位置;
所述参数信息为每个麦克风在该时间信息中对应音频信息的峰值强度以及每个麦克风在峰值强度对应的时间差。
7.根据权利要求6所述的高速公路隧道安全监控方法,其特征在于,还包括采用可旋转摄像装置追踪声音所处的具体位置的步骤。
8.根据权利要求7所述的高速公路隧道安全监控方法,其特征在于,还包括:
实时声音处理步骤,当判定隧道内出现异常事件时,接收音频信息并进行实时处理从而能够实时获取隧道内的声音信号。
9.根据权利要求1所述的高速公路隧道安全监控方法,其特征在于,包括设置在隧道中的多个声音采集模块、与所述声音采集模块相连接的声音识别模块、设置在隧道进口上方的显示屏以及用于隧道监控信息处理与控制的隧道监控中心;
所述显示屏用于显示隧道监控信息;
所述声音采集模块用于连续采集隧道内的声音信号;
所述声音识别模块用于识别所采集的声音信号中是否杂含碰撞声/人声并以此判断隧道内是否出现异常事件;
如果判断为出现异常事件,所述隧道监控中心控制所述显示屏显示警报信息以提醒未驶入隧道车辆;
所述声音识别模块包括特征第一提取模块、第一归一化模块、神经网络分类模块和神经网络训练模块,其中,
所述第一特征提取模块用于接收原始采集声音数据,并对原始采集声音数据进行特征提取;
所述第一归一化模块用于对特征提取后的数据进行高斯归一化处理,输出归一化数据;
所述神经网络分类模块用于接收归一化数据及预先训练好的深度神经网络,并通过深度神经网络对所述归一化数据进行分类识别获得分类结果信息,所述分类结果信息为原始采集声音数据是否杂含碰撞声/人声的概率值,当该概率值超过预先设定的阈值时,则判定隧道内出现异常事件;
所述神经网络训练模块用于接收训练数据并根据训练数据进行神经网络的训练,得到充分学习带噪样本和干净样本之间的非线性映射关系的深度神经网络,并输出所述深度神经网络至所述神经网络分类模块;
所述神经网络训练模块包括第二特征提取模块、第二归一化模块、无监督学习预训练模块和监督学习优化模块,其中,所述无监督学习预训练模块用于发现输入数据中深层的抽象特征,采用受限制玻尔兹曼机(RBM)模型进行预训练并通过无监督学习的方式逐层渐进学习神经网络参数;所述监督学习优化模块采用反向传播(back-propagation,BP)算法,利用标注数据对神经网络参数进行有监督的精细调整。
10.根据权利要求9所述的高速公路隧道安全监控方法,其特征在于,所述第一特征提取模块/第二特征提取模块进一步包括分帧模块、DFT变换模块、谱减滤波模块和对数功率谱处理模块,其中,所述分帧模块用于对输入数据进行分帧处理;所述DFT变换模块用于对分帧处理后的数据进行离散傅里叶变换得到频域信息;所述谱减滤波模块用于将所述频域信息在频谱上减去预先获得的稳态风机噪声频谱模板,输出滤波数据;所述对数功率谱处理模块用于对所述滤波数据进行对数功率谱处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710256578.7A CN107086036A (zh) | 2017-04-19 | 2017-04-19 | 一种高速公路隧道安全监控方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710256578.7A CN107086036A (zh) | 2017-04-19 | 2017-04-19 | 一种高速公路隧道安全监控方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107086036A true CN107086036A (zh) | 2017-08-22 |
Family
ID=59612144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710256578.7A Pending CN107086036A (zh) | 2017-04-19 | 2017-04-19 | 一种高速公路隧道安全监控方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107086036A (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107527617A (zh) * | 2017-09-30 | 2017-12-29 | 上海应用技术大学 | 基于声音识别的监控方法、装置及系统 |
CN108519149A (zh) * | 2018-03-28 | 2018-09-11 | 长安大学 | 一种基于声音时频域分析的隧道事故监测报警系统及方法 |
CN108615533A (zh) * | 2018-03-28 | 2018-10-02 | 天津大学 | 一种基于深度学习的高性能语音增强方法 |
CN109033997A (zh) * | 2018-07-02 | 2018-12-18 | 厦门快商通信息技术有限公司 | 一种伐木事件检测方法及系统 |
CN109087655A (zh) * | 2018-07-30 | 2018-12-25 | 桂林电子科技大学 | 一种交通道路声音监测与异常声音识别系统 |
CN109087666A (zh) * | 2018-07-31 | 2018-12-25 | 厦门快商通信息技术有限公司 | 监狱打架的识别装置及方法 |
CN109102798A (zh) * | 2018-06-29 | 2018-12-28 | 厦门快商通信息技术有限公司 | 一种装修事件检测方法、装置、计算机设备及介质 |
CN109473119A (zh) * | 2017-09-07 | 2019-03-15 | 中国科学院声学研究所 | 一种声学目标事件监控方法 |
CN110246506A (zh) * | 2019-05-29 | 2019-09-17 | 平安科技(深圳)有限公司 | 人声智能检测方法、装置及计算机可读存储介质 |
CN110867959A (zh) * | 2019-11-13 | 2020-03-06 | 上海迈内能源科技有限公司 | 一种基于声音识别的电力设备智能监控系统及监控方法 |
CN111598039A (zh) * | 2020-05-24 | 2020-08-28 | 绍兴声科科技有限公司 | 用于石油管道监控的异常声音监测方法及监测装置 |
CN111863031A (zh) * | 2020-08-10 | 2020-10-30 | 南京声科科技有限公司 | 加载于已有摄像头网络的音频监测装置及其监测方法 |
CN112349298A (zh) * | 2019-08-09 | 2021-02-09 | 阿里巴巴集团控股有限公司 | 声音事件识别方法、装置、设备和存储介质 |
CN112951271A (zh) * | 2020-11-27 | 2021-06-11 | 长沙理工大学 | 一种基于声学辅助的隧道交通安全警示方法、系统 |
CN113050039A (zh) * | 2021-03-10 | 2021-06-29 | 杭州瑞利超声科技有限公司 | 一种用于隧道内的声学波动定位系统 |
CN113129928A (zh) * | 2019-12-31 | 2021-07-16 | 杭州海康威视数字技术股份有限公司 | 通道隔离设备位置调整方法、装置、电子设备及存储介质 |
CN113518202A (zh) * | 2021-04-07 | 2021-10-19 | 华北电力大学扬中智能电气研究中心 | 一种安防监控方法、装置、电子设备及存储介质 |
CN115223370A (zh) * | 2022-08-31 | 2022-10-21 | 四川九通智路科技有限公司 | 一种交通事故检测方法及检测系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101364408A (zh) * | 2008-10-07 | 2009-02-11 | 西安成峰科技有限公司 | 一种声像联合的监控方法及系统 |
CN101494049A (zh) * | 2009-03-11 | 2009-07-29 | 北京邮电大学 | 一种用于音频监控系统中的音频特征参数的提取方法 |
CN102014278A (zh) * | 2010-12-21 | 2011-04-13 | 四川大学 | 一种基于语音识别技术的智能视频监控方法 |
CN102509546A (zh) * | 2011-11-11 | 2012-06-20 | 北京声迅电子股份有限公司 | 应用于轨道交通的降噪和异常声音检测方法 |
CN102522082A (zh) * | 2011-12-27 | 2012-06-27 | 重庆大学 | 一种公共场所异常声音的识别与定位方法 |
CN102664006A (zh) * | 2012-04-14 | 2012-09-12 | 中国人民解放军国防科学技术大学 | 基于时频域分析的异常人声检测方法 |
CN102737480A (zh) * | 2012-07-09 | 2012-10-17 | 广州市浩云安防科技股份有限公司 | 一种基于智能视频的异常语音监控系统及方法 |
CN105338327A (zh) * | 2015-11-30 | 2016-02-17 | 讯美电子科技有限公司 | 一种可通过语音识别的视频监控联网系统 |
CN105679316A (zh) * | 2015-12-29 | 2016-06-15 | 深圳微服机器人科技有限公司 | 一种基于深度神经网络的语音关键词识别方法及装置 |
CN205749891U (zh) * | 2016-06-29 | 2016-11-30 | 国网北京市电力公司 | 隧道监测装置 |
-
2017
- 2017-04-19 CN CN201710256578.7A patent/CN107086036A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101364408A (zh) * | 2008-10-07 | 2009-02-11 | 西安成峰科技有限公司 | 一种声像联合的监控方法及系统 |
CN101494049A (zh) * | 2009-03-11 | 2009-07-29 | 北京邮电大学 | 一种用于音频监控系统中的音频特征参数的提取方法 |
CN102014278A (zh) * | 2010-12-21 | 2011-04-13 | 四川大学 | 一种基于语音识别技术的智能视频监控方法 |
CN102509546A (zh) * | 2011-11-11 | 2012-06-20 | 北京声迅电子股份有限公司 | 应用于轨道交通的降噪和异常声音检测方法 |
CN102522082A (zh) * | 2011-12-27 | 2012-06-27 | 重庆大学 | 一种公共场所异常声音的识别与定位方法 |
CN102664006A (zh) * | 2012-04-14 | 2012-09-12 | 中国人民解放军国防科学技术大学 | 基于时频域分析的异常人声检测方法 |
CN102737480A (zh) * | 2012-07-09 | 2012-10-17 | 广州市浩云安防科技股份有限公司 | 一种基于智能视频的异常语音监控系统及方法 |
CN105338327A (zh) * | 2015-11-30 | 2016-02-17 | 讯美电子科技有限公司 | 一种可通过语音识别的视频监控联网系统 |
CN105679316A (zh) * | 2015-12-29 | 2016-06-15 | 深圳微服机器人科技有限公司 | 一种基于深度神经网络的语音关键词识别方法及装置 |
CN205749891U (zh) * | 2016-06-29 | 2016-11-30 | 国网北京市电力公司 | 隧道监测装置 |
Non-Patent Citations (1)
Title |
---|
桂雅骏: ""一种融合音频和视频的室内智能监控系统"", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109473119A (zh) * | 2017-09-07 | 2019-03-15 | 中国科学院声学研究所 | 一种声学目标事件监控方法 |
CN109473119B (zh) * | 2017-09-07 | 2023-04-07 | 中国科学院声学研究所 | 一种声学目标事件监控方法 |
CN107527617A (zh) * | 2017-09-30 | 2017-12-29 | 上海应用技术大学 | 基于声音识别的监控方法、装置及系统 |
CN108519149A (zh) * | 2018-03-28 | 2018-09-11 | 长安大学 | 一种基于声音时频域分析的隧道事故监测报警系统及方法 |
CN108615533A (zh) * | 2018-03-28 | 2018-10-02 | 天津大学 | 一种基于深度学习的高性能语音增强方法 |
CN109102798A (zh) * | 2018-06-29 | 2018-12-28 | 厦门快商通信息技术有限公司 | 一种装修事件检测方法、装置、计算机设备及介质 |
CN109033997A (zh) * | 2018-07-02 | 2018-12-18 | 厦门快商通信息技术有限公司 | 一种伐木事件检测方法及系统 |
CN109087655A (zh) * | 2018-07-30 | 2018-12-25 | 桂林电子科技大学 | 一种交通道路声音监测与异常声音识别系统 |
CN109087666A (zh) * | 2018-07-31 | 2018-12-25 | 厦门快商通信息技术有限公司 | 监狱打架的识别装置及方法 |
CN110246506A (zh) * | 2019-05-29 | 2019-09-17 | 平安科技(深圳)有限公司 | 人声智能检测方法、装置及计算机可读存储介质 |
CN112349298A (zh) * | 2019-08-09 | 2021-02-09 | 阿里巴巴集团控股有限公司 | 声音事件识别方法、装置、设备和存储介质 |
CN110867959A (zh) * | 2019-11-13 | 2020-03-06 | 上海迈内能源科技有限公司 | 一种基于声音识别的电力设备智能监控系统及监控方法 |
CN113129928A (zh) * | 2019-12-31 | 2021-07-16 | 杭州海康威视数字技术股份有限公司 | 通道隔离设备位置调整方法、装置、电子设备及存储介质 |
CN113129928B (zh) * | 2019-12-31 | 2024-05-07 | 杭州海康威视数字技术股份有限公司 | 通道隔离设备位置调整方法、装置、电子设备及存储介质 |
CN111598039A (zh) * | 2020-05-24 | 2020-08-28 | 绍兴声科科技有限公司 | 用于石油管道监控的异常声音监测方法及监测装置 |
CN111863031A (zh) * | 2020-08-10 | 2020-10-30 | 南京声科科技有限公司 | 加载于已有摄像头网络的音频监测装置及其监测方法 |
CN111863031B (zh) * | 2020-08-10 | 2024-06-07 | 南京声科科技有限公司 | 加载于已有摄像头网络的音频监测装置及其监测方法 |
CN112951271A (zh) * | 2020-11-27 | 2021-06-11 | 长沙理工大学 | 一种基于声学辅助的隧道交通安全警示方法、系统 |
CN113050039A (zh) * | 2021-03-10 | 2021-06-29 | 杭州瑞利超声科技有限公司 | 一种用于隧道内的声学波动定位系统 |
CN113050039B (zh) * | 2021-03-10 | 2023-03-07 | 杭州瑞利超声科技有限公司 | 一种用于隧道内的声学波动定位系统 |
CN113518202A (zh) * | 2021-04-07 | 2021-10-19 | 华北电力大学扬中智能电气研究中心 | 一种安防监控方法、装置、电子设备及存储介质 |
CN115223370A (zh) * | 2022-08-31 | 2022-10-21 | 四川九通智路科技有限公司 | 一种交通事故检测方法及检测系统 |
CN115223370B (zh) * | 2022-08-31 | 2023-01-17 | 四川九通智路科技有限公司 | 一种交通事故检测方法及检测系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107086036A (zh) | 一种高速公路隧道安全监控方法 | |
CN106898346A (zh) | 一种高速公路隧道安全监控系统 | |
CN206931362U (zh) | 一种高速公路隧道安全监控系统 | |
CN106907697A (zh) | 一种内置碰撞声检测功能的智能路灯 | |
CN101364408A (zh) | 一种声像联合的监控方法及系统 | |
CN109686109A (zh) | 一种基于人工智能的停车场安全监控管理系统 | |
CN106846803A (zh) | 基于音频的交通事件检测装置及方法 | |
CN103839373A (zh) | 一种突发异常事件智能识别报警装置及报警系统 | |
CN109345832B (zh) | 一种基于深度递归神经网络的城市道路超车预测方法 | |
CN113566948A (zh) | 机器人化煤机故障音频识别及诊断方法 | |
CN109118787A (zh) | 一种基于深度神经网络的车辆速度预测方法 | |
CN115662113B (zh) | 一种信号交叉口人车博弈冲突风险评估与预警方法 | |
CN113674768B (zh) | 基于声学的呼救检测方法、装置、设备及存储介质 | |
CN106205606A (zh) | 一种基于语音识别的动态定位监控方法及系统 | |
CN109243496A (zh) | 声音识别方法和系统 | |
CN110263623A (zh) | 列车攀爬监测方法、装置、终端及存储介质 | |
CN112349296A (zh) | 一种基于声音识别的地铁站台安全监测方法 | |
EP2028651A1 (en) | Method and apparatus for detection of specific input signal contributions | |
Zhao et al. | FMCNN: A factorization machine combined neural network for driving safety prediction in vehicular communication | |
CN113158835A (zh) | 一种基于深度学习的交通事故智能检测方法 | |
Zaheer et al. | A preliminary study on deep-learning based screaming sound detection | |
CN114360204A (zh) | 一种基于区块链的网联汽车信息安全通信系统 | |
CN111341334A (zh) | 一种应用于轨道交通的降噪和异常声音检测系统及方法 | |
CN206648005U (zh) | 一种内置碰撞声检测功能的智能路灯 | |
Smailov et al. | A novel deep CNN-RNN approach for real-time impulsive sound detection to detect dangerous events |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170822 |